Forum für Wissenschaft, Industrie und Wirtschaft

Hauptsponsoren:     3M 
Datenbankrecherche:

 

Neuartige Software kann Blickkontakt in alltäglichen Situationen erkennen

11.08.2017

Der menschliche Blickkontakt ist eine wichtige Informationsquelle im Bereich der Außenwerbung und des Marketings, für Assistenzsysteme wie beispielsweise im Auto oder auch für die Zusammenarbeit zwischen Robotern und Menschen. Allerdings war es bisher nur sehr eingeschränkt möglich, Blickkontakt in alltäglichen Situationen zu erkennen. Informatiker des Exzellenzclusters an der Universität des Saarlandes und des Max-Planck-Instituts für Informatik haben nun mit einem Kollegen von der Universität Osaka eine Methode entwickelt, mit deren Hilfe der Blickkontakt unabhängig von der Art und Größe der Zielobjekte, der Position der Kamera und der Umgebung möglich ist.

„Wenn Sie ein Werbeplakat in der Fußgängerzone aufhängen oder Werbung und wissen wollen, wie viele Personen es tatsächlich anschauen, hatten Sie bisher keine Chance“, erklärt Andreas Bulling, der am Exzellenzcluster der Universität des Saarlandes und am Max-Planck-Institut für Informatik die unabhängige Nachwuchsgruppe „Perceptual User Interfaces“ leitet.


Die neuartige Software erkennt mit Hilfe von lediglich einer Kamera, ob eine oder gar mehrere Personen ein Zielobjekt anschauen (grüner Kasten) oder nicht (roter Kasten).

Fotos: Universität des Saarlandes

Denn bisher sucht man diese wichtige, aber auch simple Information zu erfassen, indem man die Blickrichtung maß. Das setzte spezielle Kameras, deren minutenlange Kalibrierung voraus, und vor allem galt: Jeder musste eine solche Kamera tragen. Tests wie in der Fußgängerzone oder gar nur mehreren Personen waren damit im besten Fall sehr aufwendig, im schlimmsten Fall unmöglich.

Selbst wenn die Kamera am Zielobjekt, beispielsweise am Poster, saß und Maschinelles Lernen eingesetzt wurde, der Computer also mithilfe einer ausreichenden Menge von Beispieldaten trainiert wurde, konnten nur Blicke auf die Kamera selbst erkannt werden.

Zu oft war der Unterschied zwischen den Trainingsdaten und den Daten in der Zielumgebung zu groß. Ein universeller Blickkontakt-Erkenner, einsetzbar sowohl für kleine und große Zielobjekte, in stationären und mobilen Situationen, einen Anwender oder gar eine ganze Gruppe oder unter wechselnden Beleuchtungssituationen, war bislang nahezu unmöglich.

Zusammen mit seinem Doktorand Xucong Zhang und seinem Postdoktorand Yusuke Sugano, der nun Professor an der Universität Osaka ist, hat Bulling nun eine Methode entwickelt [1], die auf einer neuen Generation von Algorithmen zur Blickrichtungsschätzung basiert. Diese verwenden eine spezielle Art von neuronalem Netzwerk, das unter dem Begriff „Deep Learning“ aktuell in vielen Bereichen der Industrie und Wirtschaft für Furore sorgt.

Bereits seit zwei Jahren [2] arbeiten Bulling und seine Kollegen damit und haben es Schritt für Schritt weiterentwickelt [3]. Im nun vorgestellten Verfahren wird zunächst ein sogenanntes Clustering (Ballungsanalyse) der geschätzten Blickrichtungen durchgeführt. Mit der gleichen Strategie kann man beispielsweise auch Äpfel und Birnen anhand verschiedener Merkmale sortieren, ohne explizit vorgeben zu müssen, worin sich die beiden unterscheiden.

In einem zweiten Schritt wird dann der wahrscheinlichste Cluster identifiziert und die darin enthaltenen Blickrichtungsschätzungen für das Training eines, für das Zielobjekt spezifischen, Blickrichtungs-Erkenners verwendet. Ein entscheidender Vorteil dieses Vorgehens ist, dass er ganz ohne Mitwirkung des Benutzers erfolgt und die Methode somit auch immer besser werden kann, je länger die Kamera neben dem Zielobjekt verbleibt und Daten aufnimmt. „Auf diese Weise verwandelt unsere Methode normale Kameras in einen Blickkontakt-Erkenner, ohne zuvor Größe oder Position des Zielobjektes kennen oder vorgeben zu müssen“, erklärt Bulling.

Die Forscher haben ihre Methode bisher in zwei Szenarien getestet: Am Arbeitsplatz, die Kamera war hier auf dem Zielobjekt montiert, und im Alltag, der Anwender trug hier eine Kamera am Körper, so dass sich eine ich-bezogene Perspektive ergab. Das Ergebnis: Da die Methode sich ihr nötiges Wissen selbst erarbeitet, ist sie robust, selbst wenn die Anzahl der Personen, die Lichtverhältnisse, die Kamerapositionen und die Zielobjekte in ihrer Art und Größe variieren.

Bulling schränkt ein: „Wir können zwar grundsätzlich Blickrichtungs-Cluster auf mehreren Zielobjekten mit nur einer Kamera identifizieren, aber die Zuordnung dieser Cluster zu den verschiedenen Objekten ist noch nicht möglich. Unsere Methode nimmt daher momentan an, dass der nächstgelegene Cluster zum Zielobjekt gehört und ignoriert die restlichen Cluster. Diese Einschränkung werden wir als nächstes angehen.“ Dennoch ist er überzeugt: „Die vorgestellte Methode ist ein großer Schritt nach vorne. Sie ebnet nicht nur den Weg für neue Benutzerschnittstellen, die Blickkontakt automatisch erkennen und auf diesen reagieren, sondern auch für Blickkontaktmessungen in alltäglichen Situationen, wie beispielsweise Außenwerbung, die bisher unmöglich waren.“

Weitere Informationen:
[1] Xucong Zhang, Yusuke Sugano and Andreas Bulling. Everyday Eye Contact Detection Using Unsupervised Gaze Target Discovery. Proc. ACM UIST 2017.
https://perceptual.mpi-inf.mpg.de/files/2017/05/zhang17_uist.pdf

[2] Xucong Zhang, Yusuke Sugano, Mario Fritz and Andreas Bulling. Appearance-Based Gaze Estimation in the Wild. Proc. IEEE CVPR 2015, 4511-4520.
https://perceptual.mpi-inf.mpg.de/files/2015/04/zhang_CVPR15.pdf

[3] Xucong Zhang, Yusuke Sugano, Mario Fritz and Andreas Bulling. It’s Written All Over Your Face: Full-Face Appearance-Based Gaze Estimation. Proc. IEEE CVPRW 2017.
https://perceptual.mpi-inf.mpg.de/files/2017/05/zhang_cvprw2017.pdf
Demo-Video:
https://www.youtube.com/watch?v=ccrS5XuhQpk

Fragen beantwortet:
Dr. Andreas Bulling
Perceptual User Interfaces Group
Exzellenzcluster „Multimodal Computing and Interaction“
Saarland Informatics Campus
Tel. +49 681 932 52128
E-Mail: bulling@mpi-inf.mpg.de

Redaktion:
Gordon Bolduan
Kompetenzzentrum Informatik Saarland
Saarland Informatics Campus
Telefon: +49 681 302-70741
E-Mail: bolduan@mmci.uni-saarland.de

Hinweis für Hörfunk-Journalisten:
Sie können Telefoninterviews in Studioqualität mit Wissenschaftlern der Universität des Saarlandes führen, über Rundfunk-Codec (IP-Verbindung mit Direktanwahl oder über ARD-Sternpunkt 106813020001). Interviewwünsche bitte an die Pressestelle (0681/302-3610).

Thorsten Mohr | Universität des Saarlandes
Weitere Informationen:
http://www.uni-saarland.de

Weitere Nachrichten aus der Kategorie Informationstechnologie:

nachricht Original bleibt Original - Neues Produktschutzverfahren für KFZ-Kennzeichenschilder
19.01.2018 | Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS

nachricht Fliegen wird smarter – Kommunikationssystem LYRA im Lufthansa FlyingLab
18.01.2018 | Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI

Alle Nachrichten aus der Kategorie: Informationstechnologie >>>

Die aktuellsten Pressemeldungen zum Suchbegriff Innovation >>>

Die letzten 5 Focus-News des innovations-reports im Überblick:

Im Focus: Maschinelles Lernen im Quantenlabor

Auf dem Weg zum intelligenten Labor präsentieren Physiker der Universitäten Innsbruck und Wien ein lernfähiges Programm, das eigenständig Quantenexperimente entwirft. In ersten Versuchen hat das System selbständig experimentelle Techniken (wieder)entdeckt, die heute in modernen quantenoptischen Labors Standard sind. Dies zeigt, dass Maschinen in Zukunft auch eine kreativ unterstützende Rolle in der Forschung einnehmen könnten.

In unseren Taschen stecken Smartphones, auf den Straßen fahren intelligente Autos, Experimente im Forschungslabor aber werden immer noch ausschließlich von...

Im Focus: Artificial agent designs quantum experiments

On the way to an intelligent laboratory, physicists from Innsbruck and Vienna present an artificial agent that autonomously designs quantum experiments. In initial experiments, the system has independently (re)discovered experimental techniques that are nowadays standard in modern quantum optical laboratories. This shows how machines could play a more creative role in research in the future.

We carry smartphones in our pockets, the streets are dotted with semi-autonomous cars, but in the research laboratory experiments are still being designed by...

Im Focus: Fliegen wird smarter – Kommunikationssystem LYRA im Lufthansa FlyingLab

• Prototypen-Test im Lufthansa FlyingLab
• LYRA Connect ist eine von drei ausgewählten Innovationen
• Bessere Kommunikation zwischen Kabinencrew und Passagieren

Die Zukunft des Fliegens beginnt jetzt: Mehrere Monate haben die Finalisten des Mode- und Technologiewettbewerbs „Telekom Fashion Fusion & Lufthansa FlyingLab“...

Im Focus: Ein Atom dünn: Physiker messen erstmals mechanische Eigenschaften zweidimensionaler Materialien

Die dünnsten heute herstellbaren Materialien haben eine Dicke von einem Atom. Sie zeigen völlig neue Eigenschaften und sind zweidimensional – bisher bekannte Materialien sind dreidimensional aufgebaut. Um sie herstellen und handhaben zu können, liegen sie bislang als Film auf dreidimensionalen Materialien auf. Erstmals ist es Physikern der Universität des Saarlandes um Uwe Hartmann jetzt mit Forschern vom Leibniz-Institut für Neue Materialien gelungen, die mechanischen Eigenschaften von freitragenden Membranen atomar dünner Materialien zu charakterisieren. Die Messungen erfolgten mit dem Rastertunnelmikroskop an Graphen. Ihre Ergebnisse veröffentlichen die Forscher im Fachmagazin Nanoscale.

Zweidimensionale Materialien sind erst seit wenigen Jahren bekannt. Die Wissenschaftler André Geim und Konstantin Novoselov erhielten im Jahr 2010 den...

Im Focus: Forscher entschlüsseln zentrales Reaktionsprinzip von Metalloenzymen

Sogenannte vorverspannte Zustände beschleunigen auch photochemische Reaktionen

Was ermöglicht den schnellen Transfer von Elektronen, beispielsweise in der Photosynthese? Ein interdisziplinäres Forscherteam hat die Funktionsweise wichtiger...

Alle Focus-News des Innovations-reports >>>

Anzeige

Anzeige

IHR
JOB & KARRIERE
SERVICE
im innovations-report
in Kooperation mit academics
Veranstaltungen

Kongress Meditation und Wissenschaft

19.01.2018 | Veranstaltungen

LED Produktentwicklung – Leuchten mit aktuellem Wissen

18.01.2018 | Veranstaltungen

6. Technologie- und Anwendungsdialog am 18. Januar 2018 an der TH Wildau: „Intelligente Logistik“

18.01.2018 | Veranstaltungen

 
VideoLinks
B2B-VideoLinks
Weitere VideoLinks >>>
Aktuelle Beiträge

Rittal vereinbart mit dem Betriebsrat von RWG Sozialplan - Zukunftsorientierter Dialog führt zur Einigkeit

19.01.2018 | Unternehmensmeldung

Open Science auf offener See

19.01.2018 | Geowissenschaften

Original bleibt Original - Neues Produktschutzverfahren für KFZ-Kennzeichenschilder

19.01.2018 | Informationstechnologie