Sprachcomputer sollen Gefühle erkennen – Emotionserkennung aus Sprachsignalen

Diese so genannten paralinguistischen Eigenschaften des Gesprochenen können von Systemen zur automatischen Spracherkennung wie beispielsweise in einer Telefonanlage bisher nicht erkannt werden. Wissenschaftler des Lehrstuhls für Systemtheorie und Signalverarbeitung der Uni Stuttgart suchen nach Wegen, damit Sprachcomputer auch Gemütsbewegungen verstehen können.

Die Sprachkommunikation besteht aus zwei Ebenen: dem linguistischen (oder expliziten) sowie dem paralinguistischen (oder impliziten) Kommunikationskanal. Über den ersten Kanal wird der Inhalt der Sprachkonversation ausgetauscht: Was wurde gesprochen? Über den zweiten Kanal werden alle darüber hinausgehenden Informationen, also der paralinguistische Anteil der Sprachäußerung, kommuniziert: Wie wurde es gesprochen? Solche paralinguistischen Eigenschaften sind beispielsweise das Alter und das Geschlecht der Sprecher, die in einer Sprachäußerung gespiegelte Emotion (normal, Wut, Glück, Trauer, …), die so genannte Stimmqualität (modal, hauchend, rau, knarrig, …), medizinische Auffälligkeiten in der Stimmgebung oder auch Stress und Nervosität. Auch Informationen über die regionale (Dialekt) beziehungsweise soziale Herkunft gehören zu den paralinguistischen Eigenschaften.

Ein Mensch kann aus einer Sprachkonversation den inhaltlichen wie auch den paralinguistischen Informationsstrom gleichzeitig extrahieren und gemeinsam auswerten. Beim „Gespräch“ zwischen Mensch und Computer – oder wissenschaftlich gesprochen an der akustischen Mensch-Computer-Schnittstelle – hat man sich allerdings bis heute fast ausschließlich auf den ersten Kommunikationskanal konzentriert. Diese automatische Erkennung des gesprochenen Textes aus den Sprachsignalen ist bekannt als Spracherkennung.

Mehrstufiges Vorgehen
Dagegen ist die automatische Erkennung der paralinguistischen Eigenschaften aus Sprachsignalen ein noch junges Forschungsfeld, das zunehmendes Interesse erweckt. Die mathematischen Methoden und Algorithmen, die dies ermöglichen sollen, stammen aus dem Gebiet der Mustererkennung, eines Zweiges der statistischen Signalverarbeitung. Wie die Spracherkennung besteht auch die Emotionserkennung aus mehreren Schritten: So werden zunächst emotional bewertete Sprachdatenbanken erstellt, anhand derer das Erkennungssystem trainiert werden kann. Dann werden Merkmale aus den Sprachsignalen berechnet, die sich bezüglich verschiedener Emotionen besonders gut unterscheiden lassen. Es folgen eine Auswahl der sinnvollsten Merkmale sowie der Entwurf und die Optimierung eines lernfähigen Erkennungssystems, das aus den Daten die Entscheidungsregel für die Emotionserkennung selbst extrahiert. Schließlich wird der „Erkenner“ trainiert und mit unbekannten Testdaten validiert.

Bei der Berechnung der Merkmale stellte sich allerdings heraus, dass die in der Spracherkennung etablierten Merkmale für die Emotionserkennung nur bedingt nützlich sind, weil sich die linguistischen und paralinguistischen Informationen an unterschiedlichen Stellen der Sprachsignale verstecken. Bis die automatische Emotionserkennung für einen praktischen Einsatz ausgereift ist, sind deshalb noch viele Forschungsarbeiten nötig.

Doch der Aufwand lohnt sich, denn die Anwendungen für die Emotionserkennung aus Sprachsignalen sind vielfältig. Interessenten finden sich in Callcentern ebenso wie im medizinischen Bereich. In Fahrerassistenzsystemen könnte die Technologie detektieren, ob der Fahrer gerade im Stress ist. Zudem könnte die konventionelle Spracherkennung verbessert werden, weil die emotionale Färbung einer Sprachäußerung oft mit dem Inhalt des Gesagten verbunden ist: Das Schimpfwort „Mist“ und das Grußwort „Herzlichen Glückwunsch“ sind immer mit unterschiedlichen Emotionen verbunden. In der umgekehrten Richtung sollen die Erkenntnisse aus der Emotionserkennung auch dazu beitragen, die synthetisierte Sprache des Sprachcomputers emotionaler zu gestalten.

Weitere Informationen bei: Prof. Bin Yang, Lehrstuhl für Systemtheorie und Signalverarbeitung, Tel. 0711/685-67330, e-mail: bin.yang@LSS.uni-stuttgart.de

Media Contact

Ursula Zitzler idw

Weitere Informationen:

http://www.uni-stuttgart.de/

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Der Klang der idealen Beschichtung

Fraunhofer IWS transferiert mit »LAwave« lasergestützte Schallanalyse von Oberflächen in industrielle Praxis. Schallwellen können auf Oberflächen Eigenschaften verraten. Parameter wie Beschichtungsqualität oder Oberflächengüte von Bauteilen lassen sich mit Laser und…

Individuelle Silizium-Chips

… aus Sachsen zur Materialcharakterisierung für gedruckte Elektronik. Substrate für organische Feldeffekttransistoren (OFET) zur Entwicklung von High-Tech-Materialien. Wie leistungsfähig sind neue Materialien? Führt eine Änderung der Eigenschaften zu einer besseren…

Zusätzliche Belastung bei Knochenmarkkrebs

Wie sich Übergewicht und Bewegung auf die Knochengesundheit beim Multiplen Myelom auswirken. Die Deutsche Forschungsgemeinschaft (DFG) fördert ein Forschungsprojekt der Universitätsmedizin Würzburg zur Auswirkung von Fettleibigkeit und mechanischer Belastung auf…

Partner & Förderer