Google ist nicht witzig

Eintönig oder einzigartig: Wie die größte Suchmaschine der Welt den Journalismus verändert

Google kann keine Flugzeuge zum Absturz bringen, aber Fluggesellschaften. Am Morgen des 8. Septembers war die Aktie von United Airlines ins Bodenlose gestürzt. Innerhalb weniger Minuten sackte der Kurs um 76 Prozent ein. Was war geschehen? Auf der Internet-Startseite der amerikanischen Zeitung „South Florida Sun Sentiel“ hatte fälschlicherweise ein Artikel aus dem Jahre 2002 gestanden. Der Text hätte sich eigentlich im Online-Archiv befinden sollen. In dem Artikel war die Insolvenz von United Airlines vermeldet worden. Google, das stetig Webseiten nach neuem Inhalt durchforstet, hatte den Artikel entdeckt und ihn auf Google News, seiner Suchseite für Nachrichten, dargestellt. Dort entdeckte ihn ein Analyst von „Income Securities Advisors“ und schickte die Nachrichte über die Wirtschaftsnachrichten-Agentur Bloomberg auf die Börsen-Bildschirme der Aktienhändler.

Weder die Zeitung, noch Google, noch der Analyst, noch die Aktienhändler hatten den Fehler bemerkt. Dabei hätte beim Lesen des Artikels schnell klar werden können, das der Text veraltet ist. Viele Rückschlüsse, lassen sich aus dieser Geschichte ziehen. Einer ist: Google News hat eine enorme Bedeutung im Nachrichten-Geschäft.

Verlage haben den Erfolg von Google News lange kritisch beäugt. Verständlich. Nachrichten kosten Geld. Sie müssen rechechriert, geschrieben und veröffentlicht werden. Google aber nimmt sich fremde Nachrichten-Texte und präsentiert sie selbst. Auf der anderen Seite: Google zeigt nicht die ganze Nachricht, sondern nur die ersten Zeilen. Wer mehr will, klickt und landet im Webangebot des Nachrichtenerstellers. So profitiert auch dieser von Google News.

Rund ein Viertel aller Besucher von Nachrichtenseiten landen über einen Link bei Google dort. Es ist also äußerst lohnend, auf der Trefferliste des Suchmaschinen-Betreibers auftauchen. Aber nicht irgendwo, sondern weit vorne. User klicken in aller Regeln nur auf einen der ersten Einträge einer Trefferliste. Wie aber kommt man auf die erste Seite einer Trefferliste bei Google?

Rund 200 Kriterien soll es bei Google geben, die darüber entscheiden, ob und wo ein Internetseite bei den Suchtreffern auftaucht. Wie die Kriterien aber konkret lauten und wie sie gewichtet werden, darüber schweigt sich das Unternehmen aus Kalifornien aus. Zu Recht. Eine Armada von Unternehmen lebt davon, für seine Kunden Webseiten zu optimieren, damit diese bei Google weit vorne erscheint. Google ist aber nur dann eine gute Suchmaschine, wenn dort Inhalte gefunden werden, welche für die User von Interesse sind, nicht jene, die mit viel Geld und vielen Tricks auf der ersten Suchtreffer-Seite von Google landen. Der Ablauf ist ein Katz-und-Maus-Spiel: Google verändert ständig seinen Such-Algorithmus (im vergangenen Jahr 450 Mal) und die Suchmaschinen-Optimierer versuchen die veränderten Suchgewohnheiten von Google zu verstehen, um daraufhin Webseiten anzupassen.

Diese Optimierung findet mittlerweile nicht mehr nur in den Technik-Abteilungen statt, sondern auch in den Redaktionen selbst: Onlineredakteure bekommen zum Beispiel Anweisungen, wie sie titeln sollen. Nämlich keine verschnörkelten Feuilleton-Überschriften sollen verwendet werden, sondern eine klare deutliche Sprache. Google mag es simpel. Und im Vorspann soll möglichst das Schlüsselwort des Textes auftauchen, ein Wort also, dass den Text zusammenfasst und nachdem mutmaßlich viele User bei Google suchen. Das Wort soll dabei am besten mehrfach im Vorspann erscheinen, Synonyme seien zu vermeiden. Denn für Google ist die Mehrfachverwendung des gleichen Wortes ein Hinweis dafür, dass es auf dieser Seite vor allem um Inhalte rund um dieses Wort geht. Gibt ein User bei Google dann diesen Suchbegriff ein, ist die Wahrscheinlichkeit hoch, dass diese Seite unter den ersten Treffern auftaucht.

Damit aber erzeugt Google Eintönigkeit. Titeln wird der Witz genommen, weil die Google Witze nicht versteht und die Vielfalt der Sprache wird reduziert, auf sich stetig wiederholende Begriffe. Andererseits: Google lernt dazu. Es wird nicht lange dauern, dann wird die Google-Software Synonyme zu Wortgruppen zusammenfassen können. Vielleicht macht sie das heute schon. So genau weiß man das nicht. Sicher ist: Bereits jetzt honoriert Google Internet-Seiten, auf denen so genannte „Keyword-Welten“ zu finden sind, damit sind Wortgruppen gemeint, die in einem Zusammenhang stehen, wie etwa Urlaub, Meer und Adria. Kommen solche Begriffe auf einer einzigen Seite vor, dann vermutet Google, dass ein Thema ausführlich behandelt wird und bewertet die Seite höher.

Außerdem: Google hasst Kopien und prämiert die Einzigartigkeit. Webseiten, welche vorwiegend Agenturmaterial anbieten, haben bei Google News kaum eine Chance. Weil es eine Seite unter vielen ist. Die Wahrscheinlichkeit, mit einem Angebot, das auf hundert anderen Seiten ebenfalls zu finden ist, bei Google auf einem der vorderen Plätzen zu erscheinen, ist gering. Anders verhält es sich bei Exklusiv-Nachrichten: Wer eine Nachricht als einziger oder zumindest als erster hat, dem ist eine Top-Platzierung sicher. So fördert Google ungewollt den Journalismus, weil Eigenrecherche belohnt wird.

Und ein weiterer Grund spricht gegen die Angst mancher Verleger vor Google News. Bei Google News werden von Menschen erstellte Nachrichten durch eine Computer-Software zusammengetragen. Das verläuft im besten Fall ohne Fehler. Was einer solchen Seite aber immer fehlen wird, ist das Individuelle. Google sammelt auf, was es im Internet findet. Ein gute gemachte Zeitung aber ist mehr: dort wird abgewogen, Meinung gemacht, Gesicht gezeigt, Image aufgebaut. Immer mehr geht es in der wachsenden Zahl von Webangeboten darum, einzigartig zu sein. Nur wer nicht ist wie die Anderen, bleibt sichtbar.

Das Twitter-Mosaik

Warum ist Mikrobloggen so erfolgreich? Weil der Mensch Nähe braucht

Alex Beam ist 54 und versteht die Welt nicht. Der Kolumnist des Boston Globe hat jüngst eine Artikel über Twitter geschrieben. Twitter ist jener Internetdienst, bei dem man Botschaften kurz wie eine SMS verschickt. Der Unterschied zur SMS: Die Nachricht hat nicht einen, sondern viele Empfänger. Es wird „getwittert“, dass man gerade auf dem Weg zur Arbeit ist; welchen Kinofilm man am Abend zu sehen gedenkt; warum die Pizza beim Lieblingsitaliener besonders lecker war. Twitter-Beiträge sind zu 99,9 Prozent belanglos.

Beam jedenfalls hatte sich für seine wöchentliche Kolumne Twitter angesehen und schnell wieder die Finger von gelassen. Sein Fazit: „Wen soll es stündlich interessieren, was ich den ganzen Tag mache? Das interessiert ja nicht einmal mich.“

Mikrobloggen oder Micropublishing sind zwei Begriffe, die das Gleiche meinen, nämliche das zeitnahe Mitteilen knapper Informationen. Es ist die kleine Schwester des großen Bruders „Blog“. In einem Blog wird thematisiert, analysiert, ausgeufert. Ein Mikroblog dagegen ist kurz und knapp. Twitter ist der bekannteste Anbieter. 140 Zeichen pro Nachricht sind dort erlaubt. Lesen kann diese Nachrichten jeder der möchte; allerdings ist es auch möglich, den Kreis der Betrachter einzuschränken. In der Regel sind Freunde und Bekannte die Adressaten (bei Twitter „Follower“ genannt). Die Lesen die Botschaften auf ihrem Computer, immer öfters auch auf dem Handy. Was geschrieben wird, ist, wie gesagt, in der Regel trivial. Warum aber ist Twitter dann so erfolgreich? Vor allem bei Jüngeren. Siegt die Banalität über den Tiefgang, die Phrase über die Differenzierung?

Im New York Times Magazin war neulich ein langer und interessanter Artikel zu lesen. Der Wissenschafts- und Technik-Journalist Clive Thompson hat ihn geschrieben. Thompson glaubt, dass die Faszination von Twitter und Co nie begriffen werden könne, wenn man sich nur einzelne Beiträge anschaue. Man müsse Twitter länger nutzen, um den Wert der Anwendung zu erschließen.

Konkreter: Folgt man einem User über Twitter, entsteht im Laufe der Zeit ein Bild von diesem Menschen. Weil man ihm immer näher kommt. „Wer bei einer unbekannten Person auf einen Twitter-Eintrag schaut, empfindet das als langweilig und dummes Geschwätz. Aber wenn Sie dieser Person einen Tag folgen, werden ihnen die einzelnen Einträge in der Summe wie eine kleine Geschichte vorkommen, folgen Sie dieser Person einen Monat, entsteht ein Roman“, schreibt Thompson.

Aus den einzelnen Nachrichten entsteht, wie bei einem Mosaik, ein Gesamtbild. Thompson: „Es ist eigentlich ein Paradox: Jedes kleine Update – jedes kleine Häppchen von sozialer Information – ist für sich genommen völlig unwichtig. Aber im Laufe der Zeit verbinden sich die Schnipsel zu einem Bild über das Leben eines Menschen, so wie aus tausenden Punkten ein Gemälde werden kann.

Twitter als Lebensbegleiter also, ein Abbild des „echten“ Lebens. In diesem echten Leben begegnen sich Menschen von Angesicht zu Angesicht, sie schauen sich an, führen Small-Talk-Gespräche, achten auf die Körpersprache, begutachten aus dem Augenwinkel. Auch dort wird aus Einzelteilen ein Bild. Jede Wahrnehmung ist für sich genommen, wenig wert, oft banal, kaum der Rede wert. In der Summe aber entsteht ein Vorstellung, man ordnet ein, Empathie kann wachsen, manchmal auch Antipathie.

Twitter funktioniert ähnlich, und ist doch nur Ersatz. Weil Nähe mehr ist als der Austausch von Worten. Diese Erfahrung machen täglich Tausende. Menschen, die sich auf Single-Börsen umschauen und dann ein Treffen außerhalb des Internets vereinbaren. Oft ist die Verwunderung groß. Das Bild, das über die Kommunikation im Internet geprägt wurde, will nicht zur realen Person passen. Das Mosaik ist im besten Fall lückenhaft. Eine Enttäuschung muss dass nicht bedeuten. Auch ein verändertes Mosaik kann gefallen: Laut einer Umfrage des Meinungsforschungsinstituts TNS/Emnid entstehen über das Internet mittlerweile mehr Beziehungen als in Kneipen und Diskotheken. Nur durch Arbeitsplatz und Freundeskreis werden mehr Singles zu Paaren.

Die Angst vor der Raubkopie

Kommt das E-Book oder kommt es nicht? Über die Zukunft des digitalen Lesens

Dem ersten Augenschein nach ist der Buchdruck ein Anachronismus. Autoren tippen Romane in schicke Notebooks, versenden die digitalen Werke an ihre Verleger; diese stellen mit aufwändiger und teurer Computertechnik Druckplatten her – und am Ende formt Druckerschwärze Farbkontraste auf verarbeitetes Holz. Kompliziertes Computerwissen steckt hinter (oder genauer gesagt vor) einem Endprodukt, das kaum anders aussieht als im 15. Jahrhundert als Johannes Gutenberg den Buchdruck erfand. Absurd, eigentlich.

Warum es den Buchdruck noch immer gibt, hat einen trivialen und einen weniger trivialen Grund. Der triviale: Das Buch hat gegenüber einem digitalen Text unübersehbare Vorteile. Ein Buch fasst sich gut an. Es braucht keinen Strom. Fällt es auf den Boden, muss man vor dem Weiterlesen höchstens Schmutz wegwischen. Beim Lesen ist immer ein Gefühl vorhanden, wie viel man schon gelesen hat, wie viel noch vor einem liegt. Man kann einfach Notizen anfügen, Wörter unterstreichen. Jedes Buch ist in gewisser Weise einzigartig. Ist es ein Geschenk, steht auf einer der ersten Seiten meist ein persönlicher Text. Und das wichtigste: Schwarze Buchstaben auf weißem Papier lesen sich einfach gut.

Die Liste der Nachteile des Buchs gegenüber digitalisiertem Text ist kürzer, dennoch gewichtig. Wer mit mehreren Büchern verreisen will, spürt die Last. Beim Umzug kann die Last zur Qual werden. Der Buchdruck ist relativ unökologisch. Es braucht Holz, Druckerschwärze und am Ende muss das Werk auch noch zum Leser transportiert werden. Und: Bedrucktes Papier lässt sich nicht aktualisieren, digitale Daten schon. Außerdem lassen sie sich wesentlich kostengünstiger verbreiten. Bildung als Grundrecht ist so einfacher zu verwirklichen.

Nach Abwägung von Vor- und Nachteilen hat der Konsument bisher ein eindeutiges Votum gefällt: Das Buch à la Gutenberg ist der klare Favorit. Nie wurden mehr Bücher gedruckt, gekauft (und vielleicht auch gelesen) als heute.

Dem Buch in digitalisierter Form wurde dagegen schon mehrfach eine große Zukunft prognostiziert. Doch die Zukunft lässt auf sich warten. 1999 kam das erste Lesegerät für E-Books auf den Markt, das Rocket eBook. Medienberichte erschienen in denen den traditionellen Büchern der Todesstoß prophezeit wurde. Doch die Nachfrage kümmerte sich nicht um Prognosen. Der Umsatz mit Büchern stieg, das Rocket eBook wurde mangels Nachfrage bald wieder eingestellt. Weitere Geräte-Typen folgten, die Namen kennt heute keiner mehr.

Seit einigen Monaten wird wieder über elektronische Bücher gesprochen. Das ist der Verdienst von Amazon. Das riesige Handelshaus hat im November vergangenen Jahres in den USA ein Lesegerät mit dem Namen Kindle auf den Markt gebracht. Es speichert bis zu 200 Bücher und greift drahtlos auf den Online-Shop von Amazon zu. 90 000 Bücher kann man dort kaufen. Was sich im Vergleich zu den ersten Geräten wesentlich verbessert hat: die Lesequalität. Die Kontraste des Bildschirms sind deutlicher. Außerdem: Die Akkus halten länger. Das Kindle soll angeblich erst nach einer Woche Dauerlesen Strom verlangen. Für den deutschen Markt soll Kindle unbestätigten Berichten zufolge auf der Frankfurter Buchmesse vorgestellt werden.

Und das Kindle ist nicht allein. Laut der Tageszeitung „Die Welt“ will Sony ebenfalls zur Buchmesse sein neues Lesegerät, das „Reader Digital Book“, vorstellen. Es könnte ein Zweikampf zischen Amazon und Sony werden. Allerdings: Bisher gibt es für deutsche Texte allenfalls digitale Buchdeckel. Von Inhalt keine Spur. Wenn überhaupt, werden bisher Fachbücher in digitaler Form angeboten. Renommierte, aktuelle Romane sucht man vergebens. Und damit zum weniger trivialen Grund, warum das E-Book bisher kein Erfolg ist: Die Verleger wollen gar nicht. Die Druckerschwärze ist für sie bisher eine Art Lebensversicherung. Den Niedergang der Musikindustrie vor Augen wehren sie sich gegen die Digitalisierung ihrer Bücher. Weil Digitalisierung Reproduktion bedeutet. Ein gedrucktes Buch kann man lediglich Seite für Seite kopieren oder einscannen. Beides ist mühselig. Deshalb funktioniert das Geschäftsmodell der Verlage noch. Weil Raubkopien eine Seltenheit sind.

Auf der anderen Seite: Verlage wittern mit E-Books auch ein Geschäft. Bei Amazon in den USA machen bereits sechs Prozent des Absatzes E-Book-Verkäufe aus. Tendenz steigend. „Die Welt“ vermutet, dass Sony zur Buchmesse Verlage präsentieren wird, die ihre Bücher für das Gerät anbieten werden.

E-Book-Experte Professor Ulrich Johannes Schneider, Direktor der Universitätsbibliothek Leipzig, glaubt, dass dem Verlagen nichts anderes übrig bleiben wird, als in Zukunft stärker auf E-Books zu setzen. „Wenn die Leser andere Wege zum Text suchen und finden, müssen die Verlage da einfach mitgehen“, so Schneider jüngst in einem Gespräch im Sender Deutschlandradio Kultur. Ansonsten bestünde die Gefahr, dass die Verlage überflüssig würden. Denn das Publizieren ist zumindest theoretisch wesentlich einfacher geworden: Der Autor schreibt einen Text und veröffentlicht ihn im Internet – fertig. Für Schneider hat das Folgen: „Verlage sind Filter in unserer Kultur, sind Garantien für eine bestimmte Art von Qualität, insofern wäre es sehr schade, wenn Verlage in Gefahr gerieten.“

Auf der anderen Seite sieht Schneider im E-Book die Chance auf Bildung einer breiteren Bevölkerungsschicht: „Ich finde das es die Schwelle zum Bücherlesen, wie es sie beim Betreten einer Bibliothek, einer Buchhandlung, ja immer noch impliziert, weiter senkt“, so der Bibliotheksdirekter im Deutschlandradio Kultur. Am wichtigsten aber sei, dass das elektronische Lesen, den Kern dieser Kultur gar nicht berühre: „Die Attraktivität von Texten und dass wir es lieben, uns in alternativen Welten zu verlieren und uns durch Texte entführen lassen, das ist ja dadurch nicht in Gefahr – und vielleicht wird sogar stärker angefacht, diese Lust am Lesen.“

Wahrheit live im Netz

Autoritäre Staaten fürchten die neuen Medien – Jetzt erwartet sie eine weitere Bedrohung

Die Freiheit kam Anfang des Monats in Form eines gewöhnlichen Nokia-Handys zurück. Der Staatschef hatte es aus seiner Tasche gezogen. Mitten während seiner Rede zum Nationalfeiertag. „Auf diesem Handy ist ein kleines Programm mit dem Namen Qik installiert“, erklärte Lee Hsien Loong, Premierminister von Singapur, einem staunenden Publikum. „Dieses Programm macht aus dem Handy eine Videokamera und überträgt das Bild direkt auf meine Webseite“. Und als Loong das Mobiltelefon anschaltet, sehen sich die Zuschauer auf einer großen Leinwand selbst – gefilmt von ihrem Staatschef. Spontaner Applaus brandet auf.

Dabei hatte der Premierminister lediglich präsentiert, wie einfach es geworden ist Livebilder zu senden – in die ganze Welt. Wo früher ein Dutzend Techniker anrücken mussten um Bewegbilder in die Wohnzimmer zu bringen, reicht heute ein mobiles Telefon. Aber für Singapur war diese Demonstration mehr als eine technische Spielerei, sie war eine kleine Revolution.

Singapur ist eine Demokratie. Aber keine Demokratie nach europäischen Vorstellungen. Der asiatische Stadtstaat ist autoritär. Im weltweiten Vergleich werden dort, im Verhältnis zu seiner Einwohnerzahl, die meisten Todesurteile vollstreckt; das Regierungssystem besteht praktisch nur aus einer Partei (der PAP); die Presse wird zensiert. Außerdem sind in Singapur politisch motivierte Bewegbilder seit zehn Jahren nicht mehr erlaubt. Paragraf 33 des so genannten Filmgesetzes verbietet das Drehen, Reproduzieren, Verbreiten und Ausstrahlen von „parteipolitischen Filmen“.

Der Paragraf soll jetzt fallen, zumindest abgeschwächt werden. Das verkündete Lee in seiner Rede am Nationalfeiertag. Jeder könne nun ein „Amateur-Filmer werden“ und die „Politik aufnehmen“, so der Premierminister. Ein „vollständiges Verbot“ sei nicht mehr nötig. „Das ist bei weitem die größte politische Verbesserung in den vergangenen 20 Jahren“, freute sich Filmemacher Martyn Seen in der singapurischen Zeitung „The Strait Times“. Mehrere seiner Filme sind bisher verboten.

Vermutlich hatte Premierminister Lee keine andere Wahl. Er ist in die Offensive gegangen, bevor die Öffentlichkeit gegen ihn ging. Singapur ist politisch autoritär, wirtschaftlich aber liberal. Neueste Technik ist dort an jeder Straßenecke zu haben. Auch die neueste Medientechnik. Und die schafft zunehmend, was für autoritäre Systeme lebensbedrohlich ist: Öffentlichkeit. Ein Korruptionsfall wird durch Blogger weltweit bekannt, eine niedergeknüppelte Demonstration entwickelt sich dank YouTube zur mittleren Staatskrise.

Neue Medien teilen mit, was die Regierenden gerne geheim gehalten hätten. Dass nämlich zum Machterhalt Repression notwendig ist. Es wird offensichtlich, dass die Herrschenden herrschen, nicht weil sie vom Volk gewollt sind, sondern weil sie es unterdrücken.

Live-Übertragungen im Internet werden in Zukunft Macht untergraben, die ohne demokratische Legitimation erlangt wurde. Nicht radikal. Eher als kleines Mosaik eines großen Bildes, das den Titel „Die ganze Wahrheit“ trägt. Qik.com, ustream.tv oder mogulus.com heißen die ersten Dienste, die solche Live-Übertragungen anbieten. Die Verwendungsmöglichkeiten sind vielfältig. Zum Beispiel auf Demonstrationen. Wer von dort mit seinem Handy sendet, hat potentiell die gesamte Weltöffentlichkeit hinter sich. Zumindest so lange ihm die Kamera nicht abgenommen wird. Aber dann ist zumindest das bereits gesendete Material im weltweiten Netz verteilt.

1 Nachricht – 1000 Wege

Kindle, Twitter, iPhone-Apps: Die Verbreitung von Nachrichten findet immer schneller neue Kanäle

Die Diskussion dürfte bald an ihr natürliches Ende gelangen. Weil alles gesagt ist. Weil alles schon oft gesagt worden ist. Heribert Prantl, der bekannte Journalist der Süddeutschen Zeitung, hat es am vergangenen Wochenende nochmals getan. Auf der Medienseite seiner Zeitung und unter dem Titel „Die Zeitung ist tot. Es lebe die Zeitung.“ Es ging mal wieder um die Frage, wie das Internet die Printlandschaft verändert. Print gegen Digital. Radikaler gefragt: Ist das Internet der Totengräber der Zeitung? Und falls ja, wann wird die Todesstunde geläutet?

Prantl hat geschrieben, was auch alle anderen Experten zu dem Thema denken, und auch schreiben, vorausgesetzt, sie müssen keine reißerischen Schlagzeilen verkaufen: Bedrucktes Papier wird es noch sehr, sehr lange geben. Und: Das Internet verändert die Zeitung in Richtung Hintergrund-Medium. Wenn jedes Medium seine spezifischen Stärken ausspielt, so Prantl, dann werden sich Zeitung und Internet ergänzen. „Die Stärke des Internets ist seine Rasanz, die Stärke der Zeitung die Reflexion“, schreibt er.

Prantl hat, wie gesagt, nichts Neues, aber alles Wesentliche erwähnt, was es zum Thema „Print contra Internet“ zu erwähnen gibt. Die Diskussion wird deshalb bald ihre Richtung ändern. Weg von „Print contra Internet“, hin zu „Internet contra Internet“. Denn der Begriff „Internet“ täuscht eine Einheitlichkeit vor, die es in Wirklichkeit nicht gibt. Die Vorstellung, der Internet-Nutzer sitzt an einem Tisch, starrt auf einen Einheitsbildschirm, die Hände auf einer Tastatur plus Maus liegend – diese Vorstellung ist ein Stereotyp und damit fern der Wirklichkeit.

Genauer gesagt: zunehmend fern der Wirklichkeit. Denn die digitale Informationsvermittlung bahnt sich neue Wege. Mit neuen Ideen, mit neuer Technik, mit neuer Software. Die Fragen der Zukunft lauten: Wie nehmen wir digitalisierte Informationen auf? Welches Konzept der Informationsvermittlung liegt dahinter? Mit welchen Geräten? Mit welcher Software?

Auch die Informationsanbieter (Zeitungsverlage etwa) müssen Antworten finden: Wie lassen sich die Kosten der Informationsbeschaffung (zum Beispiel die Bezahlung von Journalisten) wieder reinholen? Was sind die Werbemodelle der Zukunft? Und: Lässt sich für Informationen im Internet auf absehbare Zeit wieder Geld verlangen?

Letztere Frage beantwortet Amazon mit einem klaren Ja. Das Internet-Versandhaus hat in den USA im vergangenen Jahr unter dem Namen „Kindle“ ein elektronisches Lesegerät auf den Markt gebracht. Das Display basiert auf der Technologie des elektronischen Papiers: Es hat keine Hintergrundbeleuchtung und ist auch bei Sonnenlicht gut lesbar. Amazon bietet für das Gerät nach eigenen Angaben 125 000 Bücher an (darunter praktisch alle US-Bestseller) und auch viele Magazine und Zeitungen, zum Beispiel die New York Times. Über einen drahtlosen Internetzugang werden die Informationen auf das Kindle geladen. Bezahlt wird per Abbuchung mittels Kreditkarte. Geschätzte 500 000 Geräte wird Amazon dieses Jahr verkaufen. Gerüchten zu Folge wird der Lesecomputer (der im Übrigen auch Musik und Hörbücher abspielt) im Oktober auf der Frankfurter Buchmesse für den deutschen Markt präsentiert werden.

Einen anderen Weg geht exemplarisch Apple mit seinem iPhone. Das Apple-Handy verbindet eine bestehende Funktionalität (Telefon) mit neuen Anwendungsfeldern (Spielen, Internet-Surfen, Lesen). Der Vorteil liegt in der Kompaktheit: ein Gerät für viele Funktionen. Der Nachteil: Kompromisse werde notwendig. Zum Beispiel in der Displaygröße. Handys müssen nun mal relativ klein sein.

Dass der Kompromiss gelingen kann, zeigt eben das iPhone. Der Trick ist einfach: Man lässt die Unternehmen, welche Inhalte auf dem iPhone anbieten wollen, die dafür nötigen Programme selbst schreiben. So werden die Inhalte für den Bildschirm optimiert. Der Nutzer kann sich das Programm dann auf sein Handy herunterladen (beim iPhone über den so genannten App Store) und über das Programm die Inhalte aufnehmen. Die New York Times bietet bereits ihre Zeitungsinhalte über eine solch spezielle iPhone-Software (so genannte Apps) an; die kostenlose Schweizer Gratiszeitung „20 Minuten“ macht dies seit Neuestem ebenfalls.

Beide Anwendungen dürfen ohne Übertreibung als richtungsweisend für die Nachrichtenübermittlung auf kleinen Displays bezeichnet werden. Die Informationen sind kinderleicht zu wählen, ob als Texte, Fotostrecken oder Videos. Und: beide Anwendungen sind mehr als brotlose Kunst. Sie sind mit Werbung bestückt.

Die Programme auf dem iPhone und das Kindle von Amazon sind lediglich zwei neue Formen der Informationsaufnahme. Abseits vom reinen Surfen auf Internetseiten hat sich eine ganze Palette neuer Systeme etabliert. Schon lange bewährt: der Newsletter per E-Mail und die SMS. Neuer sind das Lesen per RSS-Reader (also die Zusammenführung vieler Informationsquellen in einer einzigen standartisierten Ansicht), Weblogs (die chronologische Auflistung von Beiträgen), Instant Messaging (dabei werden gesendete Nachrichten sofort beim Empfänger angezeigt; bekannte Programme sind ICQ und Skype) oder Twitter (dort werden sms-lange Nachrichten in eine Art Blog eingetragen und an Freunde und Interessenten verteilt).

Die neue Vielfalt ist erst der Anfang. Dem allerdings wird das Ende fehlen. Die Medienbranche muss sich auf die stetige Veränderung einstellen. Weil der technische Fortschritt in immer kürzerer Zeit Neues ermöglichen wird. Die aktuell verrückteste Idee stammt aus dem Hause Nokia. Dort denkt man über ein „Pen Phone“ nach. Statt eines Handy-Klotzes in der Tasche, soll man in Zukunft nur noch einen kleinen Stick dabei haben, aus dem eine Folie gerollt wird. Damit soll das Problem gelöst werden, dass Handys ein großes Display brauchen, um beispielsweise vernünftig im Internet surfen zu können, wodurch die Telefone aber unhandlich werden.

Die Idee des Pen Phones also ist die eines platzsparenden Handys in Form eines Kugelschreibers. Zum Telefonieren benutzt man ein winziges Bluetooth Headset. Für das Betrachten von Filmen, Bildern oder zum Internetsurfen wird das bewegliche Display aus dem „Kugelschreiber“ gezogen. Noch ist das Pen Phone lediglich ein Designkonzept. Noch.

Unsichtbare Botschaften

Die Grenzen zwischen Werbung, Information und Unterhaltung verschwimmen – Das kann lustig sein, oft ist es eine Unverschämtheit

So radikal wie der Bürgermeister von São Paulo ist noch keiner gewesen. Der schockte Anfang vergangenen Jahres die Werbebranche mit einem Gesetz, wonach fast sämtliche Werbung aus der wirtschaftsstärksten Metropole Südamerikas verbannt werden musste. Geschätzte 13 000 Anzeigen?tafeln waren zuvor (meist illegal) installiert gewesen. Dem Bürgermeister zufolge hätten der Stadt die notwendigen finanziellen Kapazitäten zur Kontrolle der Werbeplätze gefehlt. Deshalb sei es zu dem Verbot gekommen.

Seitdem hat sich das Stadtbild von São Paulo radikal geändert (Fotostrecke von Tony de Marco auf flickr). Die Millionenstadt ist zum weitgehend werbefreien Raum geworden – ein Versuch, der zunehmenden Beeinflussung durch Werbung entgegenzuwirken. „Unsere Innenstädte sind Shopping-Malls unter freiem Himmel“, sagt der Konsumkritiker und Autor Robert Misik in der jüngsten Ausgabe der Medienzeitschrift „Page“. Die Städte würden von einer Zeichensprache durchsetzt, die sich früher nur in Einkaufszentren gefunden hätten, jetzt aber das ganze Stadtbild dominierten. „Wo man hinschaut ist Werbung drin, beziehungsweise fast alles ist von einem Stil kontaminiert, der aus der Werbung stammt“, so Misik.

Werbung im öffentlichen Raum gibt es schon ein ganzes Jahrhundert. Aber sie zeigt sich an immer mehr Orten, auch dort, wo sie zunächst kaum einer vermutet. Auf Einfüllstutzen von Zapfpistolen an der Tankstelle, in Toiletten, auf Bäckereitüten, in Spinden von Fitness-Centern oder in Schulen. „Ambient Media“ heißt diese Form der Werbung. Sie dringt in das direkte Lebensumfeld der potenziellen Konsumenten ein. Auch durch eine andere Werbeform: das Branding. Das Fußball-Stadion wird zur AOL-Arena, die Konzerthalle zur O2-World. Diesen Arten der Werbung ist gemein: Im schlimmsten Fall nerven sie.

Wirklich problematisch wird es, wo die Trennung zwischen Unterhaltung, Information und Werbung aufgehoben wird. Wo die Grenzen verschwimmen. Werbung tarnt sich dann. Als Entertainment, als objektive Information. Schon länger versteckt sich Werbung in der Form des Product Placement. Im Fernsehen, im Kino. In dem Film „Sex and the City – The Movie“ kann man über 70 Marken zählen. Eine Manipulation. Weil der Requisiteur nicht mehr jenes Filmumfeld schafft, dass er aus seiner kreativen künstlerischen Sicht für das Beste hält, sondern vertraglich fixiert vorgesetzt bekommt, in welchem Rahmen sich die Schauspieler bewegen werden. Die Lüge beginnt, wo die Wahrheit verschwiegen wird.

Das Internet ist voll davon. Dort wird Werbung gezeigt, die nicht als solche zu erkennen ist. In der Form von Blogs oder Videos. Etwa die Werbung des Brillen-Herstellers Ray-Ban. Der hatte ein Video produzieren lassen, in dem sich zwei Typen Brillen so zuwerfen, dass sie richtig herum auf der Nase landen. Von Hausdächern herunter, von Brücken, von fahrenden Autos – immer sitzt die Brille richtig, nie wird der Firmenname erwähnt. Nur ganz kurz ist auf einer verschmutzten Autoscheibe der Ray-Ban-Slogan „Never Hide“ zu lesen. So funktioniert die perfekte Werbung: sie unterhält, sie führt zur Spekulation über die in unzähligen Foren diskutiert wird („Ist die Brillenartistik wirklich möglich, oder nur ein Trick?“ Sie ist übrigens nur ein Trick), sie verbreitet sich kostenlos, weil viele darüber reden. Das Problem: Die Motivationen der Auftraggeber bleiben verborgen. Ein Problem? Mindestens dann, wenn Informationen einseitig oder falsch sind.

„Wir lehnen gefakte Blogbeiträge natürlich ab“, sagt Martin Dräger, Geschäftsführer von DSG, eine Hamburger Agentur, die Kampagnen ähnlich wie die für Ray-Ban entwirft. Für die Baumarktkette Obi etwa hat DSG einen Video gedreht, bei dem ein Akrobat während des Jonglierens mit mehreren Hämmern, mit diesen Hämmern Nägel in die Wand schlägt. Sogar in der populären TV-Wissenschaftssendung „Galileo“ wurde diskutiert, ob dies möglich ist. Fazit auch hier: Das Video ist ein Fake. Dräger findet diese Art der Werbung ok: „Ich sehe es immer noch kritischer, wenn Penetrationswerbung mein Entertainment unterbricht, als mit einer Geschichte konfrontiert zu werden, über die ich nachdenken kann“, sagt Dräger in der aktuellen Page-Ausgabe.

Die Grenze zur Kriminalität hat in diesem Jahr die britische Regierung neu gezogen, genauer gesagt: deutlich verschärft. Verboten ist nun

– die Verteilung positiver Markenbotschaften, ohne den Absender klar zu machen;

– die Kommunikation in Sozialen Netzwerken oder Blogs zwischen Marketing-Spezialisten und Konsumenten, wenn der Absender nicht offengelegt ist;

– das Verbreiten von Werbespots unter falschem Namen.

Das Gesetz wird helfen, verschleiernde Werbung zu enttarnen. Wie sehr, wird sich noch zeigen müssen. Hilfreicher als jedes Gesetz ist schon heute das Internet selbst. Denn dort, wo verschleiert wird, wird auch aufgeklärt. Und am Ende gewinnen meist die Aufklärer. Weil es viele sind. Dem einzelnen Unternehmen steht die Internetgemeinde gegenüber. Die Vernetzung im Internet ist der größte Feind der Unwahrheit. Hyperlinks untergraben Falschaussagen und Hierarchien. Wer etwa einen gefakten Blogeintrag entdeckt, stellt diese Erkenntnis seinerseits ins Netz. Sie verbreitet sich in Windeseile. Ein Unternehmen, das die Wahrheit unterdrückt, verliert meist. Es verliert seinen Ruf, es verliert Kunden, es verliert, was am wichtigsten für den langfristigen Unternehmenserfolg ist: seine Glaubwürdigkeit.

Sende Dich selbst!

Der technische Fortschritt beim Bewegbild ändert die Mediennutzung so schnell wie noch nie – und die Gesellschaft gleich mit

Zum Frühstück läuft im Fernseher das Morgenmagazin; vor dem Verlassen des Hauses wird auf dem Computer per Animationsfilm das Regenradar für Stadt und Tag abgerufen; beim Warten auf die Bahn informieren Bewegbildern an der Wand der U-Bahn-Station über die aktuelle Nachrichtenlage; im Büro angekommen, bringt der Video-Podcast des Finanzexperten aus Übersee das Börsengeschehen der vergangenen zehn Stunden auf den Punkt; danach folgt eine Videogespräch per Skype mit dem Chef. – Nie war die Gesellschaft stärker von Bewegbildern umgeben als heute.

Vor 100 Jahren gingen die Menschen erstmals ins Kino, Jahrzehnte danach schrumpfte sich das Kino ins Wohnzimmer. Und es dauerte erneut viele Jahre, bis das Hobby-Filmen durch Super-8 möglich wurde.

Änderte sich früher die Mediennutzung im Abstand einer Generation, krempelt der technische Fortschritt mittlerweile in wenigen Jahren das Medienverhalten um. Etwa in dem Sinne, dass die Betrachtung von Bewegbildern heute nicht mehr ortsgebunden (Kino, Wohnzimmer) ist.

Die Unternehmensberatung Forrester Research will herausgefunden haben, dass bereits 8 Prozent aller Video-Filme auf portablen Geräten wie Handys oder tragbaren Abspielgeräten geschaut werden. In fünf Jahren sollen es 15 Prozent sein. Außerdem: Aktuell werden 10 Prozent aller Videos über das Internet betrachtet. Auch diese Zahl wird laut Forrester bis zum Jahr 2013 steil ansteigen, auf 35 Prozent.

Aber elektronisch bewegte Bilder sind mittlerweile nicht nur allgegenwärtig. Weil Bewegbilder einfach zu produzieren und nicht weniger schwer zu verbreiten sind, wird der Konsument zum Produzenten: 70 000 Videos landen täglich neu auf dem Videoportal Youtube. Kein Flecken der Erde bleibt so verborgen, kaum eine kulturelle Eigenart für die Masse unentdecktbar.

Kathrin Passig und Holm Friebe beschäftigen sich – unter anderem als Buchautoren – mit dem gesellschaftlichen Wandel durch Computer und Internet. Sie haben den Einfluss des Bewegbildes jüngst in einer Kolumne der Berliner Zeitung anschaulich beschrieben, nämlich anhand der Veränderung der Tanzstile durch die Einführung bewegter Bilder. Passig und Holm beschreiben, wie sich der Bewegungsstil der Menschen im Laufe der Zeit ändert und anpasst. Auch die Bewegung im öffentlichen Raum unterliege dem kulturellen Wandel. „Zu sehr schreibt sich die Sozialisation ins motorische Programm ein, zu wenig wissen wir über die Alltagsmotorik vergangener Epochen“, heißt es in der Kolumne.

Am anschaulichsten zeigt sich dies in der Musik. Ganz früher wurden die Tänze der Saison bei Hof einstudiert und vom Volk imitiert worden. Viel später, aber noch vor der Internetzeit, haben sich neue Stile dann über Musikvideos verbreitet, etwa durch Michael Jacksons „Thriller“. Heute braucht es die hohe Instanz von Staat oder Künstler nicht mehr, damit sich Veränderungen etablieren. Youtube reicht. Jumpstyle ist so ein Beispiel – eine absichtlich platte Techno-Tanz-Variante. Der Holländer Patrick Jumpen hat die stampfenden Breakdance-Bewegungen über You-Tube bekannt gemacht. Mittlerweile hüpft Europas Jugend so durch die Discotheken. Von diesen Beispielen gibt es Dutzende. Das Bewegbild als Trendsetter. Doch es ist eben nicht mehr das Fernsehen, das die Richtung bestimmt. Nach einer Studie des Zentralverbandes der deutschen Werbewirtschaft (ZAW) ändert sich die Mediennutzung der jüngeren Generation massiv. Danach stehen bei den 12- bis 19-Jährigen Computer, Internet und MP3-Player auf den Plätzen eins bis drei. Erst auf Platz vier folgt das Fernsehen.

Besser sein reicht nicht

Alles ist digital, nur das Radio noch nicht – Warum eigentlich?

Es gibt ein ungeschriebenes Mediengesetz, das für die Beschäftigten der Medienbranche sehr beruhigend ist. Das Gesetz sagt, dass die Einführung eines neuen Mediums noch nie ein bestehendes vollständig abgelöst hat. Als sich das Radio Anfang des vergangenen Jahrhunderts langsam zum Massenmedium entwickelte, prophezeiten viele das Ende des Buches; später sollte das Fernsehen das Radio vergessen machen. Und vom Internet behaupten heute nicht wenige, dass gleich sämtliche anderen Medien darin verschwinden werden. Es wird nicht geschehen.

Gerade wieder hat das vermeintlich verstaubte Medium Radio von sich hören gemacht. Bei der Fußball-EM. Mehr als vier Millionen Hörer haben bundesweit die Deutschlandspiele im Radio verfolgt.

Das Radio ist nicht tot. Denn es bietet Vorteile im Vergleich zu anderen Medien. Es kann Informationen schnell übertragen, ist fast überall verfügbar und man braucht nur die Ohren, um die gesendeten Inhalte aufzunehmen. Wer gerade Auto fährt, für den sind Fernsehen, Internet oder Zeitung eben kein adäquates Medium.

Und dennoch ist das Radio von heute von gestern. Seit es das Radio gibt, verwendet es die gleiche Übertragungstechnik, eine analoge nämlich. Das ist eigentlich praktisch. Weil jeder ein solches Signal mit seinem Radio empfangen kann. 300 Millionen UKW-Geräte gibt es in Deutschland. Auf der anderen Seite hätte das Radio heute eine größere Verbreitung, wenn die Menschen statt analogem digitales Radio empfangen würden. Denn es bringt einige Vorteile, ein Programmsignal vor dem Senden zu digitalisieren und zu komprimieren. Etwa weil auf einem solchen Frequenzband bis zu 20 Sender völlig rauschfrei und auch sonst in einer besseren Tonqualität übertragen werden können.

Eigentlich sollten alle alten Radiogeräte ab dem Jahr 2010 wertlos werden. Dann sollte die analoge Ausstrahlung von Radiosendern abgeschaltet werden. So war es in der Europäischen Union einmal beschlossen worden.

Heue glaubt daran kaum einer mehr. Denn die Deutschen hätten dann keinen Empfang mehr. Zwar gibt es das digitale Radio schon einige Jahre. Schätzungen zufolge sind in Deutschland aber nur zwischen 200 000 und 500 000 digitale Geräte in Betrieb – genauer gesagt: DAB-Geräte. So heißt der Standard, der ursprünglich mal das analoge Radio ablösen sollte. Er hat es nicht. Zwei Gründe verhindern den Durchbruch. Zum einen ist das Programmangebot auf den digitalen Frequenzen (zwischen 174 und 230 MHz) geringer als auf den analogen (87,5 und 108 MHz). Der Grund: Die kostspielige Ausstrahlung auf zwei Frequenzen wollen oder können sich nicht alle Radiostationen leisten. Zum zweiten gibt es heute mehr Standards als digitale Radioprogramme. So sind Radiosender etwa nicht nur über Kabel und Satellit zu empfangen, sondern auch über das digitale Fernsehen DVB-T. Ein weiterer Standard ist DVB-H. Dieser ermöglicht es, Radio auf Handys zu empfangen. Und über das Internet können mittlerweile über 12 000 Stationen gehört werden.

Jetzt droht dem DAB-Standard auch noch Konkurrenz aus dem eigenen Haus. Durch den Nachfolger von DAB: DAB plus. Der besitzt einen neuen Audio-Kompressions-Standard durch den die dreifache Zahl an Programmen an die Antennen gelangt, 60 statt 20 also. Das klingt gut, hat aber einen Nachteil. Die bisherigen DAB-Geräte können diesen Standard nicht empfangen. Sie würden damit genauso wertlos wie die analogen Geräte. Dennoch hat sich die Medienpolitik für DAB plus entschieden. Unklar ist nur noch, wer die Kosten für den Aufbau des Netzes zahlen soll. Medienberichten zufolge kalkuliert der Betreiber T-Systems in den nächsten Jahren mit Kosten von 45 Millionen Euro jährlich. Die Hörfunksender haben schon mal geschlossen abgewunken.

Gut möglich also, dass die Zeit des analogen Radios noch lange nicht vorbei ist. Mittlerweile wird davon ausgegangen, dass es analoge Programme mindestens bis zum Jahre 2015 geben wird. Für das Medium Radio ist das schlecht. Weil eine größere Vielfalt an Programmen und eine bessere Tonqualität dem Medium mehr Zuhörer brächte. Das Ende der Ära Radio aber wird es nicht sein. Es gibt keinen Grund, warum das ungeschriebene Mediengesetz diesmal nicht gelten sollte.