3D-Gebärdensprach-Avatar als Sprachassistent zur automatisierten Gebärdenübersetzung

Einen 3D-Avatar als Dolmetscher für Gebärdensprache hat der Augsburger Lehrstuhl für Human-Centered Multimedia mitentwickelt. Eingegebener Text wird vom Avatar in Gebärdensprache übersetzt. Charamel GmbH

Die Digitalisierung der Gesellschaft schreitet voran und eröffnet viele neue Möglichkeiten. Barrierefreie digitale Kommunikation für Menschen mit Behinderung vereinfacht deren Alltag und gewährleistet ihre gesellschaftliche Teilhabe.

In dem vom BMBF geförderten Verbundprojekt AVASAG (steht für Avatar-basierter Sprachassistent zur automatisierten Gebärdenübersetzung) arbeiten sechs Partner aus Forschung und Entwicklung unter der Leitung der Firma Charamel (Spezialist für interaktive Avatar-basierte Assistenzsysteme) an einem echtzeitgesteuerten 3D-Gebärdensprach-Avatar zur automatischen Übersetzung deutscher Texte in Gebärdensprache.

Im Projekt entsteht eine völlig neuartige Gebärdenanimations-Methode für 3D-Avatare: Sie kombiniert solche des maschinellen Lernens mit regel-basierten Synthesemethoden, die Text in Gebärden abbilden.

Zeitliche und räumliche Abhängigkeiten der komplexen Gebärdenelemente werden dabei sehr genau aufgelöst. Damit wird eine qualitativ hochwertige, realistische Darstellung eines 3D-Gebärdensprach-Avatars erreicht.

Entsprechende Angebote ermöglichen gehörlosen und hörbehinderten Menschen eine umfassendere gesellschaftliche Teilhabe und eine stärkere Integration in die „Digitale Gesellschaft“. Die Ergebnisse des Projektes werden gemeinsam mit der Gehörlosen-Zielgruppe evaluiert und im Anwendungsfeld Reiseinformation und -service mit assoziierenden Partnern erprobt.

In AVASAG werden neue maschinelle Lernverfahren entwickelt, um Texte automatisch in Gebärdensprache für den 3D-Avatar zu übersetzen. Als Trainingsmaterial für das maschinelle Lernverfahren werden schätzungsweise mehrere 10.000 Datenpaare bestehend aus einem Text und der dazu korrespondierenden Übersetzung in Gebärdensprache benötigt.

Die Aufbereitung und Kodierung dieser Daten durch den Menschen ist mit einem immensen Zeitaufwand verbunden. In AVASAG wird dieser Aufwand durch eine teils automatische Kodierung mit dem am Augsburger Lehrstuhl für Human-Centered Multimedia entwickelten „NOVA“ Werkzeug erheblich reduziert.

„Wir freuen uns sehr, dass wir mit unserer Technologie in Augsburg dazu beitragen können, digitale Medien für Gebärdensprachler schneller zugänglich zu machen“, meint die Augsburger Informatikerin Prof. Dr. Elisabeth André.

Die Partner im Konsortium: im Verbund stark für gesellschaftliche Teilhabe

Unter Leitung von Charamel arbeiten Forscher und Entwicklerinnen der folgenden Unternehmen und Forschungseinrichtungen aus Deutschland in den nächsten drei Jahren zusammen: yomma GmbH – Experten für Gebärdensprache in Hamburg; Ergosign GmbH, Pionier für User Experience Design in Saarbrücken; Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) GmbH – Forschungsbereiche „Kognitive Assistenzsysteme“, „Sprachtechnologie und Multilingualität; Technische Hochschule Köln / Institut für Medien- und Phototechnik, Köln sowie die Universität Augsburg / Human Centered Multimedia (HCM) in Augsburg.

Das Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen von „KMU-innovativ“ mit Schwerpunkt Mensch-Technik-Interaktion gefördert. Das Projektvolumen beträgt 1,98 Mio. Euro, davon 74% Förderanteil durch das BMBF.

Alexander Stricker, Geschäftsführer Charamel GmbH und Projektleiter von AVASAG dazu: „Digitale Barrierefreiheit wird immer wichtiger, um Inhalte dynamisch und für alle Zielgruppen adäquat aufbereitet zu vermitteln. Automatisierte Instrumente helfen bei einer barrierefreien Kommunikation. Wir sind begeistert von der Idee, mithilfe unserer smarten, lernfähigen Avatare hierzu einen maßgeblichen Beitrag leisten zu dürfen“.

Über den Lehrstuhl für Human-Centered Multimedia

Der Lehrstuhl für Human-Centered Multimedia der Universität Augsburg hat sich auf internationaler Ebene als Experte für Forschung und Entwicklung an der Schnittstelle von Künstlicher Intelligenz und Mensch-Maschine Interaktion etabliert. Schwerpunkt ist die Interpretation nichtverbaler und paraverbaler Äußerungen mittels Methoden des maschinellen Lernens sowie die darauf basierende Interaktion mit virtuellen Agenten und sozial-interaktiven Robotern.

Weitere Informationen über www.hcm-lab.de

Prof. Dr. Elisabeth André
Lehrstuhl für Multimodale Mensch-Technik Interaktion
Institut für Informatik, Universität Augsburg
Tel. +49 (0) 821 598 – 2341
E-Mail: andre@hcm-lab.de

http://www.hcm-lab.de

Media Contact

Michael Hallermayer idw - Informationsdienst Wissenschaft

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Oberflächentopografie verlässlicher messen

Die PTB präsentiert einen Leitfaden und en Messnormal für optische Messtechnik auf der Messe Control vom 23. bis 26. April 2024 in Stuttgart. Hügel und Berge, Täler und Schluchten –…

Intelligentes Prüfsystem für technische Gläser

TH Köln optimiert Inspektion von transparenten Glasprodukten wie Linsen. Von Ofenfenstern über Messkolben bis zu Displays für Elektrogeräte: Technisches Glas wird aufgrund seiner Eigenschaften wie Hitze- und Chemikalienbeständigkeit in zahlreichen…

Mit den Wolken fliegen

Forschende untersuchen Rolle von Wolken in der Arktis. Welche Rolle Wolken und vom offenen Ozean kommende warme Luftmassen bei der rasanten Erwärmung der Arktis spielen, steht im Mittelpunkt eines aktuellen…

Partner & Förderer