12.07.2011

Ansichten: 2.851


Intransparenz des Nicht-Wissens: Zur Theorie von der „Filter Bubble“ (F.A.Z.)

Unter dem Titel “Intransparenz des Nicht-Wissens” ist letzte Woche ein Artikel von mir in der Printausgabe der F.A.Z. erschienen, der sich im Kern mit der “Filter Bubble”-Theorie von Eli Pariser befasst, die im Moment gern diskutiert wird. Für ein Fachpublikum stelle ich ihn hier bereit. Die Passagen mit meiner Stellungnahme zur Theorie sind gelb markiert.

Ich halte die Theorie fachlich für falsch, weil gute Algorithmen uns nicht nur Inhalte zeigen, die sie aufgrund von Daten für relevant halten, die von uns in der Vergangenheit erhoben wurden (explizit oder implizit). Vielmehr zeigen uns diese Algorithmen auch Inhalte, für die aus “Vergangenheits-Daten” bisher keine ausreichende Relevanz-Prognose vorliegt. Umgangssprachlich gesagt: Google & Co zeigen uns ständig auch Unbekanntes, um aus unserem Surfverhalten Schlüsse zu ziehen. Personalisierungs- und Targeting-Algorithmen zeigen uns zum Beispiel Handball auch dann, wenn wir bisher Fussball geklickt haben. Die Maschinen können nur lernen, wenn sie uns Neues zeigen. Und ob ein Inhalt neu oder nicht-neu ist, ist eine Frage komplizierter Fachlichkeit von Algorithmen. So kann es passieren, dass wir keine Artikel zu Handball mehr vorgelegt bekommen – ob dies aber ein Fehlschluss ist oder nicht, ist eine Frage der Qualität von Algorithmen. Meines Erachtens einmal mehr ein Klassiker für eine missratene Theorie, bei der wohl Techniker nicht zur Sprache kommen. Auch ist der Fall, mit dem Eli Pariser allerorten zitiert wird, noch nicht der Untergang des Abendlandes: Auch dann, wenn ein System Beiträge von Personen ausblendet, kann er diese Beiträge ja noch in anderen Nachrichtenströmen sehen oder explizit abrufen. Er muss es nur tun. Peter Glaser weist heute im ZDF-Blog zu recht darauf hin, dass der Theorie ein Begriff vom Konsumenten als “Medien-Opfer” zugrundeliegt.

Auch sonst ist die Theorie nicht nur ein alter Hut, sondern sie zeigt auch auf gewohnt allzumenschliches Verhalten im Alltag. Wer immer nur in Blankenese lebt, kann die Welt mit Blankenese verwechseln. Wer immer nur Bier trinkt, dem wird kein Wein angeboten. Die Filterung von Realität nehmen wir selbst und unsere Umwelt ständig vor – und das müssen wir auch, um Konzepte für uns zu entwickeln und uns in dieser Welt zu bewegen.

Das gilt auch für medial vermittelte Wirklichkeit: Die Welt-Sicht des Abonnenten der Tageszeitung A sieht nach einer Zeit sicherlich anders aus als diejenige der Abonnenten der Tageszeitung B. Hier gibt es zwischen den menschlichen Analog-Vermittlern und den maschinellen Digital-Vermittlern keinen strukturellen Unterschiede, weil beide eben Vermittler sind. Immerhin ist es der Mensch, der allein die erste Filter-Stufe bewältigt, nämlich die Selektion vom tatsächlichen Sachverhalt zur beschreibenden Nachricht.

Das eigentliche Problem ist meines Erachtens von uns explizit ausgeschlossener Inhalt – leider taucht eben genau dieses Phänomen auch so in der Offline-Welt auf.

Ich glaube zudem, dass in der Welt der Technik schwere Fehler begangen werden, indem man aus Handlungen oder Nicht-Handlungen auf einen mehr oder weniger spezifischen Willen schliesst. Der “Gefällt-Mir”-Button hat genau jene Semantik seiner Beschriftung: Dieser Inhalt gefällt mir. Mehr Bedeutung hat er nicht. Warum der Inhalt gefällt, sagt der Akteur leider damit nicht, und schon gar nicht sagt er, was das dritte ist, das Inhalt A und Inhalt B verbindet! Für den einen ist es die unterhaltsame Sprache, für den anderen die scharfsinnige Analyse, für den dritten die Sportart. Und wie steht es um die Konstanz unseres “Gefallens”, wie steht es um Schlussfolgerungen bei Mehrnutzern? Solange also diese Bedeutung des Klicks für die Zukunft aus verschiedenen Gründen nicht klar ist, können Maschinen nie ganz brauchbare Ergebnisse produzieren.

F.A.Z. Intransparenz des Nichtwissens

Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.