TV-Doku: Im Labyrinth der Produkte

Seit etlichen Jahrzehnten analysiert die Verhaltensökonomie den Menschen im Spannungsfeld zur Wirtschaft. Wie der Mensch online, aber auch im Geschäft beim gigantischen Labyrinth der Angebote zu Kaufentscheidungen kommt, was die Werbung im Netz tatsächlich leisten kann und wie sich der Verbraucherschutz verbessern lässt, alles Fragen, denen der Wirtschaftspsychologe Christoph Ungemach in der HYPERRAUM.TV-Doku „Im Labyrinth der Produkte – Wie die Wirtschaftswissenschaft das Kaufverhalten psychologisch untersucht“ nachgeht.

Christoph Ungemacht arbeitet im Forschungsbereich der Verhaltensökonomie und ist damit in der Wirtschaftswissenschaft angesiedelt. Seit fünfzig Jahren sind es verstärkt Psychologen mit ihren Methoden und empirischen Erkenntnissen, die die  Wirtschaftswissenschaft psychologisch aufpeppen. Für seine Forschungen setzt Ungemach auf die klassischen psychologischen Methoden: Experimente und  quantitative Befragungen in Stichproben von einigen hundert oder tausenden von Menschen. Solche Erhebungen ermöglichen statistische Ergebnisse mit Modellierungen von Entscheidungsverhalten.

Die Psychologie des menschlichen Verhaltens bildet auch beim Verkaufen im Netz die Grundlage. Doch ergänzt wird sie heute mit Big Data, Algorithmen, die mit Erkenntnissen aus solchen psychologischen Forschungen meist noch nicht direkt verknüpft sind. Big Data-Technologien werten das messbare massenhafte Verhalten von Nutzern im Netz algorithmisch aus. Das bildet die Grundlage für die sogenannte Personalisierung. Die Marketeers sprechen vom „Targeting“.  Diese Personalisierung erlaubt eine auf die Wünsche des Einzelnen zugeschnittene Auslieferung von Werbung –  das derzeit mächtige Geschäftsmodell der weltweiten Online-Player von Google über eBay bis Facebook.

Bots – abgekürzt für „robots“ – sind das allumfassende Nervensystem, das den „Organismus Internet“ steuert. Ihre Aufgaben sind vielfältig: Sie reichen von Such- und Empfehlungs-Algorithmen bis zum Einsatz für Forschungszwecke – und lassen sich darüber hinaus auch für kriminelle Tätigkeiten und unlautere Veränderungen der Big-Data-Ergebnisse  ins Netz schicken. Für kommerzielle Algorithmen sind heute die im Netz öffentlich verfügbaren Daten zentrale Grundlage. Die Bots können aber auch auf Daten zugreifen, die als sogenannte Cookies nur direkt auf den Rechnern der Internet-Nutzer gespeichert vorliegen. Mit diesen Cookies legt jeder Nutzer die Spur seines Verhaltens für die Algorithmen im Netz offen:  durch seine abgespeicherten Sucheingaben und die aufgerufenen Webseiten. Darüber lassen sich mit Big-Data-Algorithmen des Kaufverhaltens vieler Menschen erstaunliche Zusammenhänge finden, was den Einzelnen zum Kaufen interessieren könnte.

Lange Zeit gab es keinen Schutz vor diesem Eingriff auf diese virtuelle Privatsphäre, und die gewonnen Daten wurden im Markt breit gestreut: Nicht nur der Anbieter der jeweiligen Webseite selbst hatte darauf unbeschränkten Zugriff, sondern eine Vielzahl von Drittfirmen, vor allem Vermarkter und Werbeanbieter. Doch inzwischen verlangt die EU-Datenschutz-Grundverordnung zumindest für Europa  ein sogenanntes Opt-In: Der Nutzer muss seine Einwilligung geben, sonst dürfen die Daten nicht genutzt und schon gar nicht an Dritte weiter gegeben werden. Vielfach sind diese Abfragen jedoch umständlich, intransparent und gelegentlich auch bewusst irreführend. Es lohnt daher genauer hinzuschauen, was und wem allem man mit den Häkchen zustimmt.

Diese Cookies steuern bei Suchmaschinen beispielsweise im Verbund mit anderen Parametern das individuelle Ranking von Ergebnissen. Das auf dem jeweiligen Rechner erscheint, also die Reihenfolge der Suchergebnisse.  Für die dunkle Seite des Internet werden Bots von sogenannten SEO-Anbietern – SEO für Suchmaschinen-Optimierung – eingesetzt, um durch massenhafte, automatisierte Klicks von Pseudo-Usern die Bedeutung von Webseiten scheinbar zu erhöhen. Denn diese Zugriffszahlen sind  für Suchmaschinen-Anbieter ein wichtiges Kriterium für die automatische Bewertung einer Webseite. Ein ganz anderer manipulativer Einsatz von Bots ist der massenhafte Einkauf von  Veranstaltungstickets durch solche Fake-Kunden. Ihrer Vielfältigkeit im Internet sind kaum Grenzen gesetzt. Und dann sind Bots mit dem Auslesen und Verarbeiten der Infos aus Cookies vor allem für die personalisierte Auslieferung sämtlicher Werbeangebote verantwortlich.

Während also Anbieter im Netz über solche Algorithmen viel über den individuellen Kunden wissen, sind TV-Anbieter mit ihrer teuren, aber breit streuenden Werbung weitgehend im Dunklen über die Kaufwünsche ihrer Zuschauer. Deshalb versprechen Plattform-Betreiber im Internet den Werbekunden, die eigenen Nutzer zu kennen und mit dem durch dieses berechenbare Consumer-Wissen ermöglichte Online-Targeting einen wesentlich geringeren Streueffekt für Werbung als das Fernsehen zu bieten. Anders gesagt: Die Algorithmen seien so mächtig, dass Netzanbieter wie Social Media jene Kunden aus der Masse herausfiltern können, die sich für bestimmte Produkte der Werbeindustrie besonders  interessieren.

Doch ist das tatsächlich so? Verhaltenspsychologen debattieren diese Frage kontrovers – und Christoph Ungemach gehört da eher zu den Skeptikern. Das Problem fängt schon damit an, dass der Mensch den Bildschirm zwar sieht, was aber noch lange nicht heißt, dass er alle Informationen auf dem Monitor einschließlich der Werbung überhaupt wahrnimmt.  Die Währung, mit der die Onliner arbeiten, bezieht sich jedoch nicht auf dessen Wahrnehmung, sondern auf den bewussten Klick des Konsumenten auf die Werbung. Wer klickt, hat das Banner zweifellos gesehen. Doch auch ein Klick auf die Werbung heißt längst noch nicht, dass sich daran auch ein Kaufprozess anschließt – der neuenglisch „Return-on-investment“ –, der meist nur im unteren einstelligen Prozentbereich der gesamten Klicks liegt. Hinzu kommt, dass nicht jeder Klick ein echter Klick von einem Menschen ist. Denn eine unbekannte Zahl dieser Klicks wird heute von unlauter arbeitenden SEO-Firmen mit Hilfe der Bots erzeugt, von nur vorgetäuschten Copy-Paste-Nutzern, die so der Werbeindustrie mehr Klicks vorgaukeln.  Fake-News – auch in der Welt der digitalen Algorithmen sind sie schon angekommen!

Allerdings lassen sich die gleichen Algorithmen nicht nur  für das personalisierte Verkaufen im Netz einsetzen. Sie bilden heute das allumfassende Nervensystem der Online-Welt. Soziale Netze beispielsweise halten den Nutzer durch die Auswahl der präsentierten Inhalte auch auf ihren Plattformen. Die gleiche Targeting-Technologie führt in diesem Fall zu den berüchtigten Filterblasen mit dem Anwachsen von Fake News – und den derzeit verstärkt debattierten, weil inzwischen offensichtlich gewordenen gefährlichen Auswirkungen. Die Verhaltensökonomie sucht derzeit im Rahmen des Konsumentenschutzes forschend nach möglichen Abwehrmechanismen, die – natürlich! – auch algorithmisch bestimmt sind. Noch sind diese jedoch nicht im Netzeinsatz. Soll die Forschung dabei mit privaten Unternehmen zusammenarbeiten? Mit wem und wie kann sie solche Algorithmen wissenschaftlich seriös testen? Die Antworten dafür sind noch nicht gefunden.

Wir alle leben längst  in wachsenden Informations-Blasen. Was Google an Wissen aus dem Netz präsentiert … welche Zusatzinformationen Der Spiegel anbietet … und welche ergänzenden Nachrichten der Einzelne in der  Frankfurter Allgemeine findet – alles durch Filtermechanismen von Suchmaschinen à la Google auf unsere Vorstellungswelt abgestimmt, die sich aus unserem Such- und Netzverhalten ergibt. Die gesamte Welt der Information ist für den Menschen im Internet potenziell zwar erreichbar, aber was der Einzelne davon tatsächlich wahrnehmen kann, dem werden durch Filteralgorithmen von privaten Unternehmen enge Grenzen gesetzt. Das Fatale dieser Blasen: Ohne es wirklich zu wissen oder gar zu wollen, steuern wir diese Filter durch unser eigenes, in Cookies nachvollziehbares Verhalten und optimieren die Informationen auf uns selbst. Das ist allerdings  kein Phänomen der Onlinewelt, wie der Psychologe erklärt. Denn solche Basenbildung ist auch in der realen Welt bekannt: Sie führt in Städten beispielsweise zur Entstehung von Slums oder Zonen, in denen die Wohlhabenden leben. Für Christan Ungemach ist die algorithmische Dimension aber auch deshalb ein interessantes Forscherthema, weil er festgestellt hat, dass der Mensch zur KI heute ein merkwürdig ambivalentes Verhalten hat. Untersuchungen zeigen, dass der Mensch Algorithmen von Suchmaschinen und sozialen Netzen ohne große Scheu akzeptiert, ihnen aber gerade dort, wo sie einen unbestreitbaren Fortschritt bringen – beispielsweise in der Forschung oder im Gesundheitswesen –  viel skeptischer gegenüber steht.

Ansprechpartner:
Dr. Susanne Päch
Chefredaktion HYPERRAUM.TV
Bavariafilmplatz 3
82031 Grünwald
susanne.paech@hyperraum.tv

http://hyperraum.tv

http://hyperraum.tv/2021/02/13/im-labyrinth-der-produkte/

Media Contact

Dr. Susanne Päch
Hyperraum TV

Alle Nachrichten aus der Kategorie: Kommunikation Medien

Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.

Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Technologischer Durchbruch bei Energie-effizienten Teilchenbeschleunigern

Erfolgreiches Experiment an der TU Darmstadt… An der TU Darmstadt ist der weltweit erste Betrieb eines supraleitenden Linearbeschleunigers mit zweifacher Energie-Rückgewinnung gelungen. Das Experiment am Elektronen-Linearbeschleuniger der Universität (S‑DALINAC) wies…

Kleines Haus – große Wirkung: Tiny House Project 2021

Wohnraum, der ressourcenschonend und umweltfreundlich ist und außerdem noch bezahlbar: ja, das gibt es! Gerade wird von 20 Studierenden auf dem Campus Design der Hoch-schule Coburg ein ganz besonderes Tiny…

Künstliche Intelligenz hilft bei Leukämie-Diagnose

Forschende am Nationalen Centrum für Tumorerkrankungen Dresden (NCT/UCC), des Universitätsklinikums Carl Gustav Carus Dresden und der TU Dresden haben erstmals ein auf Künstlicher Intelligenz (KI) basierendes Computersystem entwickelt, das bei…

Partner & Förderer