TV-Doku: Algorithmische Verzerrungen

Der Psychologe und Online-Experte Christian Stöcker kennt die Tricks, mit denen KI-Experten sozialer Netzwerke von Facebook bis YouTube heute versuchen, Nutzer zu beeinflussen – vor allem, um das Geschäftsmodell Werbung zu fördern. Aufgund dieser Fokussierung kommt es heute zu wissenschaftlich nachweisbaren unerwünschten Begleiterscheinungen einer Technologie, deren unbestrittene Vorteile  dazu führten, dass sie längst Teil des gesellschaftlichen Lebens wurden.  Susanne Päch geht mit Christian Stöcker in der TV-Doku „Algorithmische Verzerrungen – KI setzt gezielt auf unbewusste Reflexe der menschlichen Psyche“ den Fragen nach, wo die Probleme liegen und wie man sich vor unerwünschter Beeinflussung schützen kann.

Für die Gesellschaft ist es wichtig zu verstehen, wie die künstlichen Intelligenzen im Netz zu ihren automatisch erhobenen Empfehlungen kommen. Denn klar ist inzwischen auch, dass Algorithmen nicht nur Vorteile haben, sondern auch negative Begleiterscheinungen zeigen, die nur auf der Grundlage von Kenntnissen über solche Algorithmen gestoppt werden können. Genau dazu forscht Stöcker mit empirischen Methoden, die er auch mit simulierten Nutzern im Netz untersucht. Für ihn lassen sich eindeutige Muster über die Wirkungsmechanismen solcher Algorithmen erkennen, wobei das Optimierungsziel der Unternehmen in den Blickpunkt der Kritik rückt.

Empfehlungen sind so erfolgreich, weil sie typischen Verhaltensmustern des Menschen folgen – im Verbund mit individuellen Vorlieben, die sich einerseits durch das Auslesen von persönlichen Coockies auf den Rechnern von Nutzern offenbaren und andererseits durch die Auswertungsmethoden von Big Data entstehen: Methoden, die durch das Vergleichen massenhafter Daten statistische Zusammenhänge bezüglich bestimmter Interessen von Individuen aufdecken. Die im Netz aktiven, mit den digitalen Daten selbstlernenden Algorithmen steuern heute die Ergebnisse von Suchmaschinen, liefern personalisierte Werbeformen aus oder bringen auch Empfehlungen in sozialen Netzen auf den Rechner. Die Algorithmen von Google, Facebook & Co gehören zu den am besten gehüteten Betriebsgeheimnissen der globalen Player  – und das wird sich auch kaum ändern.

Wie aber gelingt es Algorithmen, uns unbewusst zu beeinflussen? Psychologische Studien belegen seit langem zwei offensichtliche „Schwachstellen“ des Menschen, die von den Algorithmen der Unternehmen gezielt ausgenutzt werden. Erstens neigt der Mensch dazu, solche Inhalte vorzuziehen, die der eigenen Vorstellungswelt entsprechen, er zieht sich lieber in eine wohlige Echokammer zurück, in der die eigenen Meinungen bestärkt werden. Anders gesagt: Der Mensch meidet ganz generell das Fremdartige und setzt sich auch ungern mit widersprechenden und daher mühsamen Auffassungen auseinander. Und zweitens:  Der homo sapiens liebt Inhalte, die ihn auf der Ebene angenehmer Emotionen abholen – plakativ gesagt: Der Mensch gibt sich viel lieber in wohlig-bekannter Umgebung dem Glücksgefühl hin als sich mit Werve der Mühe kognitiver Auseinandersetzung zu unterziehen.

Algorithmen folgen genau dieser Spur. Denn die emotionalisierenden und die eigene Weltsicht bestätigenden Inhalte erhöhen die Nutzungszeit. Und das ermöglicht, mehr Werbung an die Nutzer als potenzielle Konsumenten auszuliefern. Denn Werbung ist das eigentliche Geschäftsmodell, dem sich aus Sicht er Unternehmen alles unterzuordnen hat –  auch die Qualität von Information, die überdies von Algorithmen heute automatisiert gar nicht bewertet werden kann.  Bei der Beantwortung, was hochwertige, und was minderwertige Qualität hat, versagt die Künstliche Intelligenz. Bei YouTube beispielsweise, deren Algorithmen Stöcker für besonders bedenklich hält,  führt das Prinzip Verweildauer durch die Optimierungs-Kaskadierung zwanghaft zur Häufung unangemessener Videos – für jene, die die Autoplay-Funktion nutzen. Und das sind viele, denn bei YouTube sind die Autoplay-Nutzer heute für rund siebzig Prozent der Nutzungszeit verantwortlich. Für die YT-Algorithmen zählen nur die Klickhäufigkeit und die durchschnittliche Verweildauer, mit der Menschen Videos anschauen, also der Grad der Emotionalisierung von Inhalten – die Stoffe, mit denen Algorithmen ihre Empfehlungen optimieren – und sie führen uns praktisch zwangsläufig  immer tiefer in schmutziges Fahrwasser hinein: in extremes Gedankengut von der Pädophilie bis zu Verschwörungstheorien.

Die vom Medium TV längst bekannte Couch Potatoe ist also auch im Online-Medium angekommen – nur, dass sie hier, anders als im Fernsehen, nicht mit einem ausgestrahlten Einheits-Programm bedient wird, sondern durch die permanente individuelle Optimierung auf Quote in einen beschleunigten Sog an Qualitätsverlust gezogen wird.  Hinzu kommt dann noch, dass diese Empfehlungs-Algorithmen weiter von außen manipuliert und missbraucht werden können. Likes, die nicht von Menschen, sondern von Maschinen kommen – und sogar Fake News, nicht nur vom Homo Sapiens, sondern von Künstlichen Intelligenzen, den sogenannten Bots, algorithmisch produziert. Sie setzen in der Regel bei den besonders leicht beeinflussbaren Menschen am linken oder rechten Gesinnungsrand an. All das zusammen gibt ein gefährliches Gebräu unerwünschter Beeinflussungs-Optionen.

Sind wir also all den unerwünschten Nebeneffekten oder gar dem manipulativen Missbrauch schutzlos ausgeliefert? Die Antwort heißt natürlich: nein.  Wir können uns widersetzen, wenn wir – wenig erstaunlich –genau jene Region im Gehirn einschalten, die diese Plattformen gern umschiffen: Kognitive Prozesse, mit denen wir lernen und verstehen, wie diese Algorithmen im Netz funktionieren.

Ansprechpartner:
Dr. Susanne Päch
Chefredaktion HYPERRAUM.TV
Bavariafilmplatz 3
82031 Grünwald
susanne.paech@hyperraum.tv

http://hyperraum.tv

http://hyperraum.tv/2021/02/27/algorithmische-verzerrungen/

Media Contact

Dr. Susanne Päch
Hyperraum TV

Alle Nachrichten aus der Kategorie: Kommunikation Medien

Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.

Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Technologischer Durchbruch bei Energie-effizienten Teilchenbeschleunigern

Erfolgreiches Experiment an der TU Darmstadt… An der TU Darmstadt ist der weltweit erste Betrieb eines supraleitenden Linearbeschleunigers mit zweifacher Energie-Rückgewinnung gelungen. Das Experiment am Elektronen-Linearbeschleuniger der Universität (S‑DALINAC) wies…

Kleines Haus – große Wirkung: Tiny House Project 2021

Wohnraum, der ressourcenschonend und umweltfreundlich ist und außerdem noch bezahlbar: ja, das gibt es! Gerade wird von 20 Studierenden auf dem Campus Design der Hoch-schule Coburg ein ganz besonderes Tiny…

Künstliche Intelligenz hilft bei Leukämie-Diagnose

Forschende am Nationalen Centrum für Tumorerkrankungen Dresden (NCT/UCC), des Universitätsklinikums Carl Gustav Carus Dresden und der TU Dresden haben erstmals ein auf Künstlicher Intelligenz (KI) basierendes Computersystem entwickelt, das bei…

Partner & Förderer