Interview: "Google ist nicht das Rote Kreuz"

Google
Google(c) AP (Paul Sakuma)
  • Drucken

Muss man vor dem mächtigen Suchmaschinenkonzern Angst haben? Zwei Experten analysieren im Gespräch mit DiePresse.com die Monopolstellung von Google und Konzepte wie von Apple.

Google ist einer der größten Internet-Konzerne und verdient hauptsächlich über Werbung jährlich Millionen. Gleichzeitig aber übernimmt Google im Internet die Funktion als Tor zum Wissen. In dem Sammelband "Deep Search. Politik des Suchens jenseits von Google." nähern sich Experten diesem Problem von verschiedenen Seiten. DiePresse.com hat mit den beiden Herausgebern Felix Stalder und Konrad Becker gesprochen.

Inhaltsverzeichnis

Seite 1: Google per Gesetz Einhalt gebieten
Seite 2: Google verstärkt das Populäre

Felix Stalder (li) und Konrad Becker
Felix Stalder (li) und Konrad Becker (c) Becker, Stalder

DiePresse.com: Google ordnet Wissen einfach ausgedrückt nach Popularität. Welche Nachteile hat dieses Verfahren?

Felix Stalder: Dieses "PageRank"-Verfahren ist die Grundlage des Rankings, an dem dann noch zusätzliche Verfeinerungen vorgenommen werden. PageRank geht davon aus, dass das was häufig verlinkt ist, besser ist. Das führt aber dazu, dass Dinge, die bereits weit oben sind, noch weiter hinauf kommen. Dinge, die weiter unten sind, rutschen dann noch weiter hinunter. Das Verfahren an sich ist nicht problematisch. Durch die monopolhafte Position von Google wird diese Art, Informationen zu strukturieren, allerdings zur einzigen. Andere Ordnungen von Wissen werden ausgeschlossen.


Soll der Staat regulierend eingreifen?


Konrad Becker: Informationsinfrastrukturen sind nach meinem Verständnis ein Teil einer öffentlichen Regulierungsaufgabe, wie z. B. Straßen. Ich denke natürlich nicht, dass der Staat die bessere Suchmaschine machen sollte oder könnte. Aber der Staat sollte bestimmte Spielregeln aufstellen.

Stalder: Das Problem ist: Solange man keinen Zugriff auf den Index hat, fehlt die Menge an Daten, die man braucht, um überhaupt einen alternativen Suchalgorithmus entwickeln zu können. Einer der – sehr hypothetischen – Vorschläge wäre, Google zu verpflichten, auf ihren Infrastrukturen andere Suchalgorithmen zuzulassen. Das wäre, als hätte man die Telekom vor Jahren dazu verpflichtet, auf ihren Leitungen Dienstleistungen zuzulassen, die mit ihren eigenen in Konkurrenz stehen.
Server und Index von Google sind kaum zu replizieren. Eingreifen kann man zum Beispiel im Rahmen eines universitären Projektes auf der Ebene des Suchalgorithmus.

Zu den Personen

Felix Stalder ist Dozent für die Theorie der Mediengesellschaft an der Zürcher Hochschule der Künste.

Konrad Becker leitet das Institut für neue Kulturtechnologien t0 in Wien, ist Initiator des Netzwerks World-Information.org und wurde 1995 mit dem Prix Ars Electronica ausgezeichnet.

Ihr Buch "Deep Search. Politik des Suchens jenseits von Google" ist 2009 im Studienverlag erschienen. Die gleichnamige Konferenz findet am 28. Mai zum bereits zweiten Mal in Wien statt. Informationen dazu unter http://world-information.org/
Google ist Suchmaschine und Werbekonzern zugleich und hat dadurch den Zugang zu Wissen kommerzialisiert. Was hat das für Folgen?

Becker: Weitreichende. Es ist jetzt vielleicht eine Binsenweisheit, zu sagen, Google ist ein kommerzielles Unternehmen und keine Hilfsorganisation wie das Rote Kreuz. Gleichzeitig verwischen sich aber die Grenzen zwischen dem kommerziellen Interesse eines privaten Anbieters und seiner quasi öffentlichen Funktion. Für viele ist Google heute das Tor zum Internet, das erste Interface, um ins Netz zu gehen. Das betrifft nicht nur den Durchschnittsnutzer. Auch wissenschaftliche Papiere beginnen oft mit einer Google-Suche.

Warum können sich nicht-kommerzielle Anbieter bisher nicht gegen Google durchsetzen?

Stalder: Das hat unter anderem damit zu tun, dass die notwendige Infrastruktur, um so eine Dienstleistung anbieten zu können, sehr substantiell ist. Wir haben es hier richtig mit industrieller Infrastruktur zu tun. Google plant für seine Datenzentren mittlerweile jeweils mehrere hundert Millionen Dollar ein. Die Zentren sind so geplant, dass sie auch als Energiequelle dienen. Sie stehen vorzugsweise an Flüssen, um die Server zu kühlen. Das ist nichts, das sich einfach replizieren lässt.

Was ist die Schattenseite an dem kommerziellen Hintergrund von Google?

Becker: Die größeren sind oft bevorzugt. Diese Monopolisierung des Marktes sehen wir auch in anderen Bereichen des Internets. Etwa bei den Social Networks, wo die Fäden auch von ganz wenigen großen Konzernen gezogen werden, die der Öffentlichkeit praktisch keine Rechenschaft schuldig sind und oft ganz bewusst auf Intransparenz setzen. In gewisser Weise ist Google auch so eine Blackbox. Hier gibt es eine große Diskrepanz zwischen der öffentlichen Funktion des Wissenzugangs für jeden und ihrem Beharren darauf, eigentlich ein Geheimnis zu bleiben. Hier wird sogar mit Mythen gearbeitet, dass hier ein vermeintlich objektiver, selbstregulierender Algorithmus existiert, der aber geheimgehalten wird. Im Endeffekt gibt es aber sehr viele Belege dafür, dass an diesen Ergebnissen ständig gebastelt wird. Bis hin zu dem mechanischen Türken (ein vermeintlicher Schachroboter im 18. Jahrhundert, der aber heimlich von einem Menschen gesteuert wurde, Anm.), wo viele Studenten damit beschäftigt sind, die Ergebnisse umzuordnen.

Im Internet kann jeder Informationen veröffentlichen und diese durch entsprechendes Suchmaschinen-Marketing unter die ersten Suchergebnisse bringen. Besonders deutlich ist das etwa bei sogenannten "Google Bombs" geworden. Wenn man nach "failure" suchte, gelangte man etwa direkt auf die Homepage von George Bush. Wie groß ist das Potential von Google als Propagandamaschine?

Becker: Einerseits hat Google so eine Art Disziplinar-Regime, indem Webseiten-Betreibern ein Bestrafungs- und Belohnungs-System aufgezwungen wird. Das führt zu einer Art normativen Regulierung vonseiten Googles. Umgekehrt versuchen dauernd Schlaumeier - manche meinen's lustig, manche tun's aus kommerziellen Gründen - das System auszutricksen. Das ist auch ein bisschen ein Wettrüsten - inzwischen teilweise auch mit kriminellen Hintergründen.

Wie kann man mit manipulierten Ergebnislisten als Nutzer umgehen?

Becker: Man ließt immer wieder, dass nach den ersten zwei Ergebnis-Seiten niemand mehr hinsieht.

Stalder: Es nimmt sogar schon viel früher ab. 80 Prozent der Nutzer kommen nicht über die ersten zehn Resultate heraus. Die sind aber auch nicht notwendigerweise durch Marketing manipuliert. Wikipedia zum Beispiel ist immer ganz oben dabei. Auf den ersten Positionen sind meist die großen, populären und meist kommerziellen Webseiten vertreten. Es sind auch nicht-kommerzielle wie Wikipedia dabei. Aber auch bei Wikipedia ist das Problem gegeben, dass es zu einem neuen Wissensstandard wird. Recherchen beschränken sich, wenns schnell gehen soll, oft auf Wikipedia. Was für das Internet lange gegolten hat, was auch lange als das große Potenzial des Internets betrachtet wurde, nämlich eine enorm breite Auswahl an Quellen und dissonanten Stimmen, wird immer mehr eingeengt.

> Zu Seite 2: Google verstärkt das Populäre

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.