Vom Dasein unter der Info-Käseglocke

Macbook Internet Security Datenschutzverein

Wenn die Personalisierung von Informationen User unbemerkt
gefangen hält

Mit dem Versuch, Internetdienste für ihre Nutzer inhaltlich relevanter zu gestalten, geht eine weitgehende Personalisierung einher. Jeder sieht nur noch, was die jeweilige Plattform für sie oder ihn als wichtig erachtet. Dafür werden laufend erhobene Daten zu einem präzisen Interessensprofil verdichtet, das sich bei näherem Hinsehen als zweischneidiges Schwert entpuppt.

„Serendipität“ beschreibt den glücklichen Zufall, etwas zu finden, das man nicht gesucht hat und das trotzdem einen (Erkenntnis-) Wert darstellt.

Aus historischer Sicht wäre die Entdeckung Amerikas so ein Beispiel, genauso die erektile Wirkung von Sildenafil -besser bekannt als Viagra.
Doch Serendipität beschränkt sich nicht auf die mehr oder weniger großen,
nicht intendierten Errungenschaften der Menschheit, sondern gibt auch jedem von uns jeden Tag die Chance, am Weg zur Arbeit, beim Durchblättern der Tageszeitung oder Surfen durchs World Wide Web mit Menschen, Dingen und Information konfrontiert zu werden, die unsere Aufmerksamkeit finden. Und das, obwohl wir nie darauf getippt hätten, dass sie das tun würden.

Gerade das Internet bereichert unser Leben um die Möglichkeit, scheinbar alles zwei oder drei Klicks entfernt entdecken zu können. Und nichts als das Google Suchfenster trennt uns von überraschenden Erkenntnissen. Denken wir. Genau genommen stimmt das aber schon lange nicht mehr.

Der Algorithmus der größten Suchmaschine der Welt – Marktanteil in Deutschland, Österreich und der Schweiz 94% – möchte nämlich eines: uns den Gefallen tun, uns ausschließlich (oder weitgehend) Relevantes vorzuschlagen. Und darin unterscheidet er sich nicht von seinen Kollegen hinter dem News-Stream von Facebook, den Videotipps auf YouTube, den Empfehlungen von Amazon oder den Paarungsvorschlägen von Tinder.

Algorithmen prägen unsere Medien und „Relevanz“ glänzt als einer der am
meisten strapazierten Begriffe rund um die Diskussion zu Content in digitalen Medien. Das mag gut gemeint sein, und man muss den Internet-Großkonzernen nicht gleich per se misstrauen, auch wenn etwas Skepsis allein schon ihrer Marktmacht wegen angebracht erscheint.

Doch gelegentlich ist „gut gemeint“ von „gut“ einfach auch ein gutes Stück entfernt. Zwar bleibt jede Flut von Information nur mittels vorgelagerter Selektion bewältigbar. Und die Flut, von der wir sprechen, ist längst ein Tsunami.
Heißt: ohne Filter geht es kaum. Offen bleibt aber, ob man als User auf die Auswahl Einfluss nehmen kann – und wer sie wie steuert (und davon profitiert), falls es der User nicht unterbindet.

Bis vor kurzem übernahmen die Redaktionen von Print- und Rundfunkmedien die Bewertung in wichtig und unwesentlich, richtig und falsch, und mussten – wenigstens theoretisch – für eine korrekte und unabhängige Handhabe geradestehen (Redaktionsstatute, Presserecht). Heute trägt eine Blackbox, die auf individuellem Verhalten aufbaut, die Verantwortung und macht die Angelegenheit zu einem Schmerzpunkt für Datenschützer.

Die Filterblase

„The Filter Bubble“, die Filterblase, betitelte der amerikanische Autor Eli Pariser sein 2011 erschienenes Buch zum Thema (deutsche Ausgabe auf Amazon: https://www.amazon.de/Filter-Bubble-Internet-entm%C3%BCndigtwerden/dp/3446430342).
Der von ihm etablierte Begriff beschreibt den Käseglocken-Effekt, der entsteht, wenn Internetnutzer Informationen auf Basis ihrer bisherigen Such- und Interaktionsmuster priorisiert ausgespielt bekommen. Wer seinen Facebook News-Stream täglich besucht, um sich dort über Aktuelles zu informieren (und das tun rund 20 % aller Österreicher), findet dort nicht alles, was von Freunden, „gelikten“ Seiten und Gruppen zuletzt gepostet wurde. Zu sehen ist nur ein Ausschnitt. Der Facebook Algorithmus bestimmt den Blick auf das Geschehen. Die Auswahlkriterien lassen sich nur erahnen und können am besten
mit dem Begriff „Nähe“ umrissen werden. Eine Rolle spielen zweifellos die
Facebook bekannte Beziehung von Sender und Empfänger zueinander (auch über Dritte = den „sozialen Graph“) oder Frequenz und Intensität vergangener Interaktionen (Likes, Klicks, Chats, Kommentare), genauso gemeinsame Interessen und ähnliche Geschmäcker. Durch mobile Medien und crossmediale Nutzung gewinnen zudem die geografische Nähe sowie der gesamte Tagesverlauf (Gerade am Weg zur Arbeit? Oder im Urlaub?) kontextuelle Bedeutung.

Die von Pariser skizzierte Blase entsteht, wenn nicht gezielt gegengesteuert wird, durch Selbstverstärkung. Vom Algorithmus konsequent optimiert bleibt man unter „seinesgleichen“ – noch stärker, als es der Facebook-„Freundeskreis“ als vorgelagerter Kurator ohnedies bedingt. So erreichen politisch engagierte User überproportional viele Meldungen, die ausschließlich ihnen wichtige Themen aufgreifen (und dabei andere ignorieren) und die bereits früher geäußerte Meinung
bestätigen.

Diskurse finden so schnell nur noch in gleichgesinnten Teilöffentlichkeiten statt. Zeigt jemand kein politisches Interesse, schützt ihn der Algorithmus vor vermeintlich ungewollten Informationen und hält ihn künstlich auf Distanz. Das ist nicht nur demokratiepolitisch kritisch zu sehen, sondern wirft auch die Frage auf, in welcher Hinsicht Nutzern aus ihren Spuren und Beziehungen sonst noch Nachteile entstehen können.

Noch zeigen Experimente keine beunruhigenden Auswirkungen von Filter Bubbles. Doch mit der rasanten Zunahme der übers Internet geteilten Informationen und dem enormen Wissen der großen Big Data-Player über ihre Nutzer, werden auch die Selektionskriterien härter und das Scoring – das Einordnen von Anwendern aufgrund ihrer tatsächlichen und statistisch berechneten Merkmale – engmaschiger. Und wie klassische Medien müssen sich Internetkonzerne, die auf ihren Plattformen Öffentlichkeit schaffen, die Frage nach ihrer Unabhängigkeit gefallen lassen. Gleichzeitig wächst die Zahl an nachgelagerten Services, die sogar das Pricing von Kaufangeboten personalisieren und somit für den Einzelnen potenzielle Chancen – aber vor allem auch Risiken – schaffen.

Aus dem Blickwinkel des Datenschutzes sitzen Internetnutzer schon bald in einer Situation fest, der sie mehr oder weniger ausgeliefert sind, ohne sie überhaupt zu bemerken.

Manche Kritiker fordern daher ein Offenlegen der Algorithmen. Das würde aber nicht nur ihren Wert als geistiges Eigentum vernichten, sondern auch zukünftigen Manipulationsversuchen Tür und Tor öffnen. Beides ist wohl nicht im Sinn der Anwender, zumal auch der kostenlose, weil werbefinanzierte, Zugang zu Diensten wie Gmail oder Spotify von vielen gerne angenommen wird. Und diesen bezahlt nun Mal jeder mit seinen Daten.

Eine erste Verbesserung könnte daher in eine andere Richtung gehen. Wie schon jetzt im Datenschutzrecht für gesammelte personenbezogene Daten vorgesehen (Auskunftsrecht), könnte der User auch in punkto Personalisierung einen Anspruch auf Transparenz haben:

  • Zum einen muss er verstehen, wenn er mit personalisierten
    Inhalten konfrontiert wird, was für eine Kennzeichnungspflicht spricht.
  • Zum anderen sollte er an dieser Stelle die Gelegenheit finden, einfach (und nicht zwingend im Detail) nachzuvollziehen, auf Basis welcher personen-, browser- oder gerätebezogenen Daten die Personalisierung vorgenommen wurde.
  • Auch ein Vergleich mit einer neutralen Darstellung der Inhalte würde Sinn machen.
  • Wer auf den „glücklichen Zufall“ nicht verzichten möchte, kann dagegenwirken, indem er ein möglichst vielfältiges Bild von sich zeichnet, Interessen mehrdeutig deklariert, Freunde und Verbindungen quer durch alle Gruppen sucht sowie viel und unterschiedlich gewichtet interagiert.

Die meisten Browser ermöglichen ein „privates Surfen“ – bei gleichzeitiger Abmeldung vom Google-Konto und Deaktivieren von „Ergebnisse anpassen“ (https://www.google.com/history/optout) –
ein praktikabler Workaround.

Google lässt zudem zu, einzelne Aktivitäten zu löschen und deren Aufzeichnung zu pausieren (https://myactivity.google.com/myactivity).

In Facebook ist ein gelegentlicher Blick in die „Most recent Stories“ des News Feed (Alternative zu den meist vorausgewählten „Top Stories“) ein guter Ansatz, auf Nachrichten zu stoßen, die einem sonst
verborgen geblieben wären.

Autor: Ernst Demmel

Vorheriger ArtikelIT-Sicherheit
Nächster ArtikelFirewall und Antivirus sind nicht genug!
Ernst Demmel
Ernst Demmel berät als Stratege und Konzeptionist der Digitalagentur Netural internationale „Best-in-Class“-Unternehmen bei digitalen Medienprojekten. Darüber hinaus hält er Vorträge zu Social Media und Datenschutz und ist Initiator eines Diplomlehrgangs für Content Marketing.