„Bringing radio back to the track!“

von Anett Müller

Dieser von VivaRadio als Selbstbeschreibung gewählter Slogan trifft auch auf andere herausragende Beispiele in der Internet-Radiowelt zu. ByteFM ist natürlich nicht das erste Internetradio, welches durch ein Musikprogramm fernab des Mainstreams herausstechen will. Vorreiter gibt es vor allem im Ausland. Zwei herausragende Beispiele sind einerseits Radio Paradise wie auch das bereits erwähnte VivaRadio.

Paradise Radio kann als Pionier unter den Internetradios gesehen werden. Es beschreibt sich selber als „eclectic online rock radio“ und zeichnet sich durch eine unglaubliche musikalische Vielfalt aus, wie auch die Möglichkeit den Radiostream in MP3, HE-AAC (AAC+), WMA und RealAudio anzuhören. Darüberhinaus kann man Paradise Radio auch über Itunes und winamp beziehen sowie auf der eigenen Homepage installiert werden. Auf Sendung ging Paradise Radio zum ersten Mal im Februar 2000 und wurde von Kritikern sehr schnell als die Revolution im Radio bezeichnet.

Ein anderes herausragendes Beispiel für gutgemachtes Radio ist VivaRadio aus Brooklyn, New York. Ähnlich wie Radio Paradise sticht VivaRadio durch ein vielseitiges, alternatives Musikprogramm hervor, welches 24 Stunden, 7 Tage die Woche gesendet wird. VivaRadio wurde 2006 ins Leben gerufen. Im Sendeplan findet man – ähnlich wie bei ByteFM Mixtape – Sendungen, in denen bekannte Persönlichkeiten aus Musik, Kunst und Mode die Möglichkeit haben, ihre Lieblingsmusik zu präsentieren.

In der deutschen Radiolandschaft ist vor allem der Berliner Sender MotorFM, der 2004 von der Ex-MTV Managerin Mona Rübsamen, Markus Kühn und Tim Renner als Joint Venture zwischen m2m und Motor Entertainment gegründet wurde, für alternatives Musikradio fernab der Charts und Mangerlabel-getriebener Playlists wegweisend. MotorFM ist ein privater Radiosender, der per Livestream im Internet aber auch über UKW (im Raum Berlin und Stuttgart) empfangen werden kann. Dabei gibt es zwei unterschiedliche regionale Sendepläne. MotorFM spielt vor allem Musikrichtungen wie Alternative, Independent, Punk und Elektro. Auch in Deutschland lebende Künstler spielen in den Playlisten des Senders eine große Rolle. Ähnlich wie bei ByteFM hat man im von MotorFm zur Verfügung gestellten Player die Möglichkeit, den gerade gespielten Musiktitel im hauseigenen Shop oder bei Itunes oder Amazon zu kaufen. Folgende Rubriken und Sendungen sind Teil des Sendeplanes:

  • Lesen und lesen lassen (Ausschnitte aus Hörbüchern, Hörspielen und Literatur)
  • Leibesvisitation (Bandportraits)
  • Radio Arty – Die Berliner Kunst- und Galerieszene zwischen Street und Akademie
  • Clubsandwich – Clubs und elektronische Musik
  • Starthilfe (Portrait einer ungesignten Band)
  • The Radio Sessions – Electronic Beats on Air
  • Elektromotor
  • Künstler erklären die Welt (Musiker erklären Begriffe aus ihrem Universum)
  • Auslandsspionage (In den ersten 30 Minuten stellt Max Spallek musikalische Neuheiten aus aller Welt vor. In der zweiten Hälfte übernehmen Sat Bisla von Indie 103 in Los Angeles, John Kennedy von XFM in London und Jim Gellately von XFM in Schottland und spielen ihre Neuentdeckungen.)
  • Superneu (alle Neuheiten in einer Stunde)
  • Ohrspiel (ein Musiker, Künstler, Produzent o.ä. spielt seine Alltime-Favourites)
Veröffentlicht unter Programm | Kommentar hinterlassen

Machinima

Machinima: Wo Animation, Filmmaking und Gaming konvergieren

von Agnes Frey

Präsentation/Screening: Franziska Gutzeit, M.A., Graduate School Media & Communication (GmaC): Machinima. Eine Reise durch die Geschichte Game-basierter Animationsfilme

Licht aus, Film ab. Für den letzten gemeinsamen Abend der Summerschoolwoche stand ein Screening auf dem Programm. Nur dass Franziska Gutzeit uns keine Filme im klassischen Sinne mitgebracht hatte, sondern eine Art von Filmen, die ganz im Namen der Medienkonvergenz technische und ästhetische Allianzen mit anderen Medien, hier dem Computerspiel, eingehen, sodass etwas Eigenartiges entsteht: The Art of Machinimation.

Auf den ersten Blick mutete „Anna“ (USA 2003, Katherine Anna Kang, Fountainhead) wie ein ‚gewöhnlicher‘ 3D-Animationsfilm an. Computergeneriertes bewegtes Bild- und Tonmaterial erzeugen den Eindruck einer virtuellen Welt, konkret einer Waldlandschaft, die zum Schauplatz einer wortlos erzählten Geschichte vom Werden und Vergehen eines Stiefmütterchens wird. Was hier insbesondere konvergiert bzw. worauf Franziska Gutzeit in ihrer Forschung abhebt, verbirgt sich auf der technischen Ebene. „Anna“ wurde auf der Basis der Software eines Computerspiels erzeugt und war weder der erste noch der letzte Film dieser Art.

In ihrer Präsentation wies Franziska Gutzeit uns darauf hin, dass Uwe Girlich, ein deutscher Physiker, Mitte der 1990er die Struktur der Game-Engine „Quake“ analysiert hat und mit seinem Programm LMPC (Little Movie Processing Centre), die technische Möglichkeit bereitgestellt hat, Filme mit Hilfe von Computerspiel-Software zu erstellen, was die Gamer Community äußerst produktiv und kreativ aufnahm. Mit unterschiedlichen Game Engines, Modifikationen und sich weiter entwickelnden Produktionsweisen wurde seither eine Fülle verschiedener ‚Filme‘ hergestellt. Sie reichen von der wie ein Mitschnitt wirkenden Wiedergabe eines Spielereignisses aus der Subjektive (Diary of a Camper, USA 1996, The Rangers) bis zu den relativ aufwändig aus verschiedenen Bausteinen zusammengestellten ‚Filmen‘ wie „Anna“. Die bis 1998 geführte Bezeichnung „Quake Movies“ wurde dieser Vielfalt längst nicht mehr gerecht.

In Machinima, dem Begriff, der Anthony Bailey zugeschrieben wird, fällt dreierlei zusammen: Machine – Animation – Cinema. Die 1998 eingeführte Bezeichnung stieß auf Gegenliebe bei den ‚Spiel‘-Filmmachern. Machinima-Filme, die erklären, worum es sich bei Machinima handelt, scheinen schon fast ein eigenes Genre zu bilden. Franziska Gutzeit zeigte uns Jonathan Perrys „Inside the Machinima“ (USA 2005), indem er (selbstredend in Gestalt eines Avatars) erklärt: „Machinima has been defined animated filmmaking within a real time virtual 3D-environment. But it basically comes down to making films inside a video game.“

Nicht nur der Begriff scheint hier zur Formierung und Anerkennung einer neuen Produktions- und Ausdrucksform beizutragen. Eine Machinima Community hat sich formiert und die Gründung der Academy of Machinima Arts & Sciences (http://www.machinima.org/) zeugt wie das Machinima Filmfest (http://festival.machinima.org/), das zuletzt 2008 ausgerichtet wurde, vom Bestreben eine gewisse Institutionalisierung und breitere Anerkennung für das Machinima-Verfahren, seine Anwender und Artefakte zu erreichen. Wir sind gespannt, wie sich Machinima im Rahmen der Medienkonvergenz und seiner Spannungsfelder weiter entwickeln wird und damit auf Franziska Gutzeits weitere Forschungsarbeit.

Links zu Machinima:

Machinima Community: http://www.machinima.com/

Machinima Deutschland: http://goodnews.antville.org/

Movies Machinima Forum: http://forum1.onlinewelten.com/forumdisplay.php?f=2910/

Veröffentlicht unter Programm | Kommentar hinterlassen

Medienkonvergenz aus juristischer Perspektive

von Julia Serong

Vortrag: Dr. Wolfgang Schulz, Hans-Bredow-Institut für Medienforschung
Ort: Schwedische Seemannskirche, Ditmar-Koel-Straße 36

Medienkonvergenz vollzieht sich zunächst auf der Ebene der technologischen Plattformen und hat eine Konvergenz der entsprechenden Medienbranchen zur Folge. Hieraus ergeben sich konvergierende Angebots- und Nutzungsstrukturen auf den betroffenen Märkten. Diesen Konvergenzprozessen muss im Bereich der Medienregulierung Rechnung getragen werden.

Der Begriff der Medienkonvergenz ist in der medienpolitischen Debatte umstritten. Handelt es sich um einen unverzichtbaren Schlüsselbegriff oder lediglich um eine rhetorische Worthülse? Aufgrund seiner inhaltlichen Unbestimmtheit wird der Begriff häufig strategisch verwendet (vgl. Grünbuch zur Konvergenz der Branchen Telekommunikation, Medien und Informationstechnologie und ihren ordnungspolitischen Auswirkungen, Europäische Kommission, 1997). Dennoch beschreibt er zumindest auf der technischen Ebene einen Prozess, der mit der Digitalisierung einhergeht.

Die Digitalisierung wirkte sich auf die Produktion und Übertragung von Medienangeboten und auf die Endgeräte aus. Sie hat zu einer besseren Übertragungsqualität und zu einer größeren Übertragungskapazität („Digitale Dividende“) geführt. Darüber hinaus bewirkte die Digitalisierung eine Entkopplung von Inhalts- und Netztypen: Medienangebote können heute auf verschiedenen Übertragungswegen und auf unterschiedlichen Endgeräten verbreitet und empfangen werden.

Weniger offensichtlich, aber in ihrer Bedeutung für den Endverbraucher nicht zu unterschätzen ist die Tatsache, dass sich das Internet-Protokoll zum Standard in allen Netzen entwickelt („All-IP“). Der Rundfunk kann die traditionellen Übertragungswege Satellit, Kabel und Antenne umgehen (IPTV). Da die IP-Adresse eine personalisierte Zuordnung von übermittelten Daten erlaubt, ergeben sich hieraus schwerwiegende datenschutzrechtliche Probleme.

Die technische Konvergenz führt zu Funktionsverschiebungen, die in juristischer Perspektive problematisch sind, wie z. B. die zukünftige Sicherung gegen vorherrschende Meinungsmacht in konvergierenden Medienmärkten. Die derzeit geltenden Rechtsvorschriften sind rundfunkzentriert, d. h. die Kommission zur Ermittlung der Konzentration im Medienbereich (KEK) kann nur dann eine Fusion von Medienunternehmen verhindern, wenn eine Rundfunkbeteiligung vorhanden ist. Zurückzuführen ist dieser Umstand auf die klassische Rechtssprechung des Bundesverfassungsgerichts, die für den Rundfunk im Unterschied zur Presse aufgrund seiner Breitenwirkung, Aktualität und Suggestivkraft (BVerfGE 90, 60 [87]) einen besonderen Regulierungsbedarf vorsieht. Ein Gesamtmedienmodell im Bereich der Medienregulierung erscheint vor allem wegen des vehementen Widerstandes von Seiten der Zeitungs- und Zeitschriftenverlage medienpolitisch auf absehbare Zeit nicht durchsetzungsfähig. Für Zündstoff in der aktuellen Regulierungsdebatte sorgt derzeit ein Gutachten des Präsidenten des Bundesverfassungsgerichts a. D., Hans-Jürgen Papier, über die verfassungsrechtliche Definition von Rundfunk und Presse im Internet.

Die Frage, ob der öffentlich-rechtliche Rundfunk auch im Internet auftreten darf, und zwar nicht nur mit seinen Rundfunksendungen, sondern auch mit weiteren Telemedienangeboten, war Gegenstand eines jahrelangen Rechtsstreits zwischen der Europäischen Wettbewerbskommission und der Bundesrepublik Deutschland. Die Privaten Rundfunk- und Telemedienanbieter (VPRT) hatten in Brüssel geklagt, dass die öffentlich-rechtlichen Rundfunkanstalten mit ihren Telemedienangeboten, finanziert durch eine „unerlaubte Beihilfe“, nämlich der Rundfunkgebühr, den Wettbewerb im Internet verzerrten. Es konnte keine Einigung darüber erzielt werden, ob es sich bei der Rundfunkgebühr tatsächlich um eine unerlaubte Beihilfe handelt oder nicht; schließlich hat man im Jahr 2007 aber zu dem so genannten Beihilfe-Kompromiss gefunden, demzufolge öffentlich-rechtliche Telemedienangebote erlaubt sind, wenn der deutsche Gesetzgeber den Funktionsauftrag der öffentlich-rechtlichen Rundfunkanstalten präzisiert und ein entsprechendes Prüfverfahren für öffentlich-rechtliche Telemedienangebote entwickelt. Dies ist im § 11 des 12. Rundfunkänderungsstaatsvertrags geschehen.

Veröffentlicht unter Programm | Kommentar hinterlassen

kulturelle und soziale Aspekte des Medienkonvergenz-Begriffes

| Kommentar hinterlassen

C is for convergence… but is it really in comics?

Gern wird der Comic als Medium der Konvergenz, als Ort der ästhetischen Verschmelzung schlechthin gesehen.  Im Workshop unter der Leitung von Ole Frahm und Andreas Stuhlmann galt es am Mittwoch zu untersuchen, wie belastbar dieser Standpunkt wirklich ist.

Konvergenz wurde dabei verstanden als ein ästhetischer Prozess auf den Ebenen von Produktion und Rezeption. Weithin wird der Comic als Modellfall einer solchen Konvergenz gehandelt, bei dem die semiotischen Systeme von Schrift und Bild im Sinne einer gemeinsamen Aussage verschmelzen. Beispielhaft ist  Scott McClouds „Understanding Comics“ (1993): McCloud bedient nicht nur das gängige Klischee des Konvergierens von Bild und Text, er beschreibt auch „Closure“ („Induktion“ in der dt. Übersetzung) als einen quasi-magischen Prozess, in dem aus den einzelnen Panels einer Bildergeschichte eine Einheit entsteht – wobei das jeweils nicht-gezeigte vom Leser imaginiert wird.

Eine Argumentation, die sich auch hinterfragen lässt: selbst die von McCloud aufgeführten Beispiele sind nicht immer eindeutig. Welches Einzelbild induziert welche eindeutige Imitation von Zeit, Raum, Bewegung? Wie verhalten sich die verschiedenen Zeichenrepertoires des Comics (Schrift, Bilder, Sprechblasen, die Panelstruktur) zum Leseprozess? Bleibt es nicht letztlich dem Leser  überlassen, hier einen übergreifenden Zusammenhang zu stiften? Und steht nicht also folgerichtig gegen sie vermeintliche Konvergenz auf semiotischer Ebene eine – potentiell unendliche – Vielzahl divergierender Lektüremöglichkeiten? Diesen Fragen sollte in Arbeitsgruppen nachgegangen werden. Für sieben Beispiele aus der Comicgeschichte galt es zu untersuchen, wie im konkreten Fall eine Konvergenz auf ästhetisch-semiotischer Ebene hergestellt wird, welche divergierenden Lektüremöglichkeiten es gibt und wie sich der jeweilige Comic zu einer Adaption verhält. Untersucht wurden:

George Herrimans Krazy Kat, dass anhand einer vermeintlichen Horizontlinie und mit sparsamem Einsatz von Text eine Welt etabliert, die schlussendlich wieder gebrochen wird. Kein einfacher, aber ein cleverer Comic, bei dem sich zwar Schrift und Bild ähnlich werden, der aber auch eine Vielzahl von Lesarten zulässt – und der nicht zuletzt auf einer Metaebene seine eigenen ästhetischen Bedingungen reflektiert.

Hergés Tintin, dass im behandelten Fall in drei Fassungen von 1926, 1930 und 1950 die Geschichte eines scheiternden Überfalls erzählt. Dabei lässt sich beobachten, dass die eher frühen Versionen eher sprachlich explizieren, während die Fassung von 1950 mit mehr Einzelbildern einen dramatischeren, „visuelleren“ Stil verfolgt. Insgesamt lässt Hergés Tintin-Figur dabei weniger divergierende Lektüren und Mehrdeutigkeiten zu.

Superman, hier untersucht sowohl als Comicstrip im Veröffentlichungskontext einer Tageszeitung wie auch als eigenständige Comicfassung. Konvergenz ergibt sich hier vor allem durch zahlreiche visuelle Mittel, mittels derer Zeit und Bewegung dargestellt werden. Dass in der Sonntagsstrips der Tageszeitungen zahlreiche Nebenhandlungen des Comicheftes wegfallen, zeigt, dass der jeweilige Veröffentlichungskontext seine Spuren in der konkreten Erzählung hinterlässt – wobei Superman offenbar generell handlungsorientiert gelesen wird, was weniger Raum für eigene Assoziationen und Überlegungen zulässt.

Der Manga Astroboy von 1961, in dem der Nachbau eines toten Sohnes als Roboter durch einen Wissenschaftler erzählt wird. In der Filmadaption von 2005 ist die Figur dieses Wissenschaftlers offenbar sympathischer dargestellt. Der Comic zeigt schnelle, dynamische Bewegungsprozesse und verwendet Mittel wie Schweißperlen und extreme Gesichtszüge zur expliziten Darstellung von Emotionalität.

Art Spiegelmanns Maus, dessen Aufarbeitung des Holocaust sich auf verschiedene Quellen stützt: Tonbandaufzeichnungen von Spiegelmanns Vater, der das Konzentrationslager überlebt hat, fließen in die Comicerzählung ebenso ein wie die Erinnerungsskizzen aus dem Buch des Alfred Kantor. Dabei stehen verschiedene Formen des Erinnerns – Sprache/Schrift und Bild nebeneinander und billden gleichzeitig gemeinsam eine umfassende Erzählung des Holocaust.
(Umfassende Informationen zu Spiegelmanns Maus bietet Ole Frahms Dissertation Genealogie des Holocaust. Art Spiegelmanns Maus.)

Marjane Satrapis Persepolis und seine Filmadapton – beide erzählen die Geschichte der islamischen Revolution im Iran. Dabei spannt der Comic einen größeren politischen Rahmen, aus dem der Film entsprechende inhaltliche Bruchstücke übernimmt und sie um filmspezifische Darstellungsmittel (Musik, Akzent, Voice-Over-Narration) ergänzt. Der Zeichenstil der Comicverfilmung wird dabei zwar aufgegriffen; es ergeben sich aber insbesondere auf der inhaltlichen Ebene Divergenzen.

Jens Harders Alpha…directions, dass die Evolutionsgeschichte und ihre Verhandlung in verschiedenen Kulturen in bildlich aufbereitet. Dabei lassen sich viele verschiedenen Bezugnahmen – auf Hieronymus Bosch, Plakate, usf. – wiederfinden. Text gibt es kaum. Also kein Comic? Auf jeden Fall wurde Harders Werk in den Feuilletons als der Comic des Jahres gehandelt.

Fest steht: Viele Comics, viele verschiedene Strategien des Zusammenspiels von Schrift und Bildern in abermals vielen verschiedenen Formaten und Erscheinungsweisen. Ist der Comic nicht also ein Medium der Divergenz?

von Sebastian Bartosch

Veröffentlicht unter Programm | Verschlagwortet mit , , | Kommentar hinterlassen

Ergebnissicherung – politische und juristische Perspektive

Der Begriff Medienkonvergenz ist fokussiert im politischen Bereich auf die Annäherung vom sozialistischen und kapitalistischen System, auf politische Rahmenbedingungen für Medienkonvergenz und auf den Umgang mit fragmentierten Öffentlichkeiten. Bsp.: Kommunikation der Regierung mit der Bevölkerung.

Der Begriff Medienkonvergenz ist fokussiert im rechtlichen Bereich Regulationsprobleme auf Grund der Hybridisierung in Bezug auf unterschiedliche Medientypen. Bsp.: Presse launcht Website.

Politische und rechtliche Entwicklungen schaffen Bedingungen für die Medienkonvergenz im technischen, ökonomischen, inhaltlichen, ästethischen und kulturellen Bereichen.

Eine offene Frage im rechtlichen Bereich ist z.B. die Möglichkeit der zukünftigen Aufrechterhaltung einzelner Medientypen wie dem Rundfunk oder Presse innerhalb konvergierender Medienumgebungen.

Veröffentlicht unter Neuigkeiten | Verschlagwortet mit , , , | Kommentar hinterlassen

Willkommen in der Blogosphäre: Wrap-up zum Vortrag von Dr. Jan-Hinrik Schmidt

von Denise Schreitter

Jan-Hinrik Schmidt schafft im Rahmen seines Vortrages „Blogs und blogbasierte Öffentlichkeiten – und darüber hinaus“ einen ersten Überblick zum Thema Blogs als Gegenwartsphänomen und Forschungsgegenstand.

Dabei wird deutlich, dass sich Blogs als Format der onlinebasierten Kommunikation etabliert haben, wobei sich unter dem Dachbegriff eine Vielzahl von unterschiedlichen Praktiken des Bloggens finden lassen. Dabei darf nach Ansicht des Referenten der Forschungsgegenstand nicht isoliert betrachten, sondern muss als Teil vernetzter Öffentlichkeiten, in denen Menschen Identitäts-, Beziehungs- und Informationsmanagement leisten, aufgefasst werden.

Blogs fördern das Entstehen persönlicher Öffentlichkeiten, in denen Informationen von persönlicher Relevanz mit einem eingeschränkten und i.d.R. persönlich bekannten (intendierten) Publikum teilen. Persönliche Öffentlichkeiten ergänzen und erweitern professionell-journalistische Öffentlichkeiten, insbesondere indem sie Anschlusskommunikation an die journalistisch gesetzte Themen ermöglichen.

Im Rahmen der anschließenden Diskussion ist deutlich geworden, dass im Bereich der Analyse von inhaltlichen Tendenzen in Blogs in Bezug auf ihre Bewertung von klassischen Medienprodukten noch Forschungsbedarf besteht. Desweiteren wurde auf die zunehmende Bedeutung von unternehmerischen Blogs hingewiesen und von den Workshop-Teilnehmern diskutiert. Auch die Gefahren in dem Spannungsfeld von beabsichtigtem und tatsächlich erreichten Publikum wurden angesprochen.

Im Rahmen der Summer School bereitete der Vortrag von Jan-Hinrik Schmidt eine sehr gute Vorlage für das weitere Programm, insbesondere für den anschließenden Praxis-Workshop „Wer schreibt, der bleibt, nicht nur auf Papier“ von Johanna Leuschen.

Die Teilnehmer der Summer School bedanken sich bei Jan-Hinrik Schmidt und wünschen ihm noch weiter viel Erfolg bei seinen Forschungsprojekten.

Interessante blogs:
dasneueNetz.de
Spreeblick.de
Bildblog.de

| Kommentar hinterlassen