Warum Alexa, Siri & Co. uns nicht immer verstehen

Juniorprofessor Dr.-Ing. Ingo Siegert Foto: Jana Dünnhaupt / Universität Magdeburg

Sich mit sprachgesteuerten Assistenten wie Alexa oder Siri zu unterhalten, ist mittlerweile Alltag – sie nach dem Wetter zu fragen oder bitten, einen bestimmten Song zu spielen. Wissenschaftlerinnen und Wissenschaftler der Otto-von-Guericke-Universität Magdeburg wollen diese Mensch-Maschinen-Interaktion nun aber entscheidend verbessern:

Künftig sollen die Systeme komplexere Fragen beantworten und unseren Tagesablauf kennen, um uns gezielt mit Informationen zu versorgen, die uns den Alltag erleichtern.

„Im Kern ist Alexa noch eine sprachgesteuerte Fernbedienung“, erklärt Juniorprofessor Ingo Siegert vom Institut für Informations- und Kommunikationstechnik und Leiter des Forschungsprojektes. „Alexa kann auf klare Kommandos mit festgelegten Aktionen reagieren und Antworten aus einer Wissensdatenbank ausgeben. Ein Gespräch, wie unter Menschen üblich, ist aber noch lange nicht möglich.“

In der interdisziplinärer Studie Unterschiede im Sprechverhalten von Nutzern zwischen Mensch-Maschine- und Mensch-Mensch-Interaktionen („Alexa-Studien“) untersuchen die Wissenschaftler nun, worin sich die Kommunikation der Menschen untereinander von der Interaktion mit technischen Systemen unterscheidet.

„Dafür nutzen wir einen eigens entwickelten Datenkorpus – den Voice Assistant Conversation Corpus (VACC), der auf Interaktionen mit Amazons Alexa basiert“, so Siegert. „Wir vermessen quasi verschiedene ‚Gesprächssituationen‘ sowohl zwischen Personen als auch zwischen Menschen und Sprachsystemen, indem wir akustische und lexikalische, also den Wortschatz betreffende Sprechmerkmale erfassen und auswerten. Anschließend vergleichen wir diese Messdaten mit den subjektiven Berichten der Nutzer.“

Ziel ist es, ein Set von Sprachmerkmalen zu finden, durch das sprachgesteuerte technische Systeme erkennen, ob sie vom Nutzer angesprochen werden oder nicht, ohne dass dieser einen Befehl immer wieder mit einem Kommando wie „Alexa …“ oder „Hey Siri …“ beginnen muss.

Eine große Hürde bei der Kommunikation zwischen Mensch und Maschine sei noch immer das Sprachverstehen, so Juniorprofessor Siegert weiter. „Sätze und Wörter bekommen innerhalb menschlicher Gespräche je nach Betonung unterschiedliche Bedeutungen.“

So könne, je nach Betonung der gleiche Satz mit der gleichen Wortfolge eine Frage oder eine Aussage sein. Auch auf Vergleichsfragen, wie „Was kam zuerst heraus: das Internet oder der Film Blade Runner“ oder „Was sind die Zutaten eines Hefeteigs?“ liefern die Systeme keine zufriedenstellenden Antworten. „Diese Art der Fragen waren von den Entwicklern nicht vorgesehen bzw. sind in den zugrundeliegenden Dialogen nicht benutzt worden. Man muss fragen: ‚Alexa, was ist Hefeteig?‘; also die Frage nach einer Definition stellen.“

Neben der präzisen Erfassung und Vermessung von Mensch-Maschine-Interaktionen möchte Siegert herausfinden, wie Nutzer technische Systeme wie Alexa wahrnehmen und ob diese Wahrnehmung unser Sprechverhalten beeinflusst: Werden dem Sprachassistenten im Alltag inzwischen schon eher menschliche oder immer noch technische Eigenschaften und Fähigkeiten zugeschrieben und ändert das etwas an der Art der Nutzung?

Dazu arbeitet sein Team eng mit den Kolleginnen und Kollegen des Lehrstuhls Kognitive Systeme sowie der Universitätsklinik für Psychosomatische Medizin und Psychotherapie zusammen.

„Unsere Vision ist es, dass Sprachsysteme wie Siri oder Alexa uns zukünftig über den gesamten Tag begleiten, unseren Alltag kennen und zum Beispiel entspannende Musik am Morgen spielen, weil viele Termine anliegen oder uns automatisiert Stauwarnungen für den Heimweg mitteilen“, so Juniorprofessor Siegert. „Letztendlich ist die Technik nur so gut, wie sie programmiert wird. Wir möchten dazu beitragen, dass dies noch besser und nutzerfreundlicher gelingen kann und die Nutzer dadurch mehr Freude mit solchen Assistenten haben.“

In einem Quiz auf dem Schiff MS Wissenschaft, das vom 25. bis 28. Mai 2019 und somit auch pünktlich zur Langen Nacht der Wissenschaft in Magdeburg auf der Elbe Halt macht, kann die interessierte Öffentlichkeit Alexa auf die Probe stellen und die technischen Grenzen sprachgesteuerter Systeme selber testen.

Jun.-Prof. Dr.-Ing. Ingo Siegert, Fakultät für Elektrotechnik und Informationstechnik, Otto-von-Guericke-Universität Magdeburg. Tel.: +49 391 67-50060, E-Mail: ingo.siegert@ovgu.de

Media Contact

Katharina Vorwerk idw - Informationsdienst Wissenschaft

Weitere Informationen:

http://www.uni-magdeburg.de/

Alle Nachrichten aus der Kategorie: Kommunikation Medien

Technische und kommunikationswissenschaftliche Neuerungen, aber auch wirtschaftliche Entwicklungen auf dem Gebiet der medienübergreifenden Kommunikation.

Der innovations-report bietet Ihnen hierzu interessante Berichte und Artikel, unter anderem zu den Teilbereichen: Interaktive Medien, Medienwirtschaft, Digitales Fernsehen, E-Business, Online-Werbung, Informations- und Kommunikationstechnik.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

KI-basierte Software in der Mammographie

Eine neue Software unterstützt Medizinerinnen und Mediziner, Brustkrebs im frühen Stadium zu entdecken. // Die KI-basierte Mammographie steht allen Patientinnen zur Verfügung und erhöht ihre Überlebenschance. Am Universitätsklinikum Carl Gustav…

Mit integriertem Licht zu den Computern der Zukunft

Während Computerchips Jahr für Jahr kleiner und schneller werden, bleibt bisher eine Herausforderung ungelöst: Das Zusammenbringen von Elektronik und Photonik auf einem einzigen Chip. Zwar gibt es Bauteile wie MikroLEDs…

Antibiotika: Gleicher Angriffspunkt – unterschiedliche Wirkung

Neue antimikrobielle Strategien sind dringend erforderlich, um Krankheitserreger einzudämmen. Das gilt insbesondere für Gram-negative Bakterien, die durch eine dicke zweite Membran vor dem Angriff von Antibiotika geschützt sind. Mikrobiologinnen und…

Partner & Förderer