Aufmerksamkeit von den Augen ablesen

Diese sollen schon an der Augenbewegung erkennen, wohin ihr Träger blickt und Informationen zum betrachteten Objekt einblenden. Blickt er auf ein Medikament, könnte das System vor Wechselwirkungen mit anderen eingenommenen Arzneien warnen.

Mit solchen Ideen befasst sich der erste internationale Workshop zu Ansätzen der automatischen Analyse von Blickbewegungen („Solutions for Automatic Gaze Data Analysis“ – SAGA). Er findet am Donnerstag und Freitag, 24. und 25. Oktober, am Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld statt.

Der Workshop wird in Kooperation mit dem Sonderforschungsbereich „Alignment in Communication“ (Ausrichtung in der Kommunikation – SFB 673) der Universität Bielefeld organisiert.

Ziel der teilnehmenden Forscherinnen und Forscher ist es, das Verhalten von Menschen in komplexen natürlichen Umgebungen, etwa beim Einkaufen oder beim Schachspielen, zu verstehen. Dazu setzen sie mobile Eyetracking-Brillen ein, mit denen sie Blickbewegungen erfassen können. Kameras in den Brillen zeichnen auf, was der Nutzer betrachtet und speichern es als Video.

„Die Herausforderung ist es nun, den Bezug zwischen Blickbewegungen und betrachteten Objekten herzustellen“, erklärt CITEC-Forscher Dr. Thies Pfeiffer, einer der Organisatoren der Konferenz. „Dies wird derzeit noch in mühevoller Arbeit Bild für Bild von den Wissenschaftlerinnen und Wissenschaftlern per Hand erledigt.“

Kernfrage des Workshops ist es, wie die betrachteten Objekte von Maschinen automatisch erkannt und Blickbewegungen effizienter ausgewertet werden können. Gelingt dies, können die Forschungsdaten schneller als bislang erhoben und ausgewertet werden. Dazu werden verschiedene Ansätze vorgestellt und von den Expertinnen und Experten diskutiert. Live-Demonstrationen verschiedener Lösungen geben einen Einblick, was derzeit technisch bereits machbar ist.

Aktuelle Forschungsprototypen des CITEC können zum Beispiel bereits in Echtzeit – also während der Betrachtung – Produktverpackungen erkennen, die eine Person im Supermarkt mit ihren Augen fixiert, und liefern dazu passende Informationen aus einer Datenbank. Ein anderes System unterstützt den Träger beim Schachspielen, erkennt die aktuelle Spielsituation und kann Tipps zu den gerade vom Träger angeschauten Figuren abgeben.

Die Konferenz wird auf Englisch abgehalten. Für die Teilnahme am vollen Workshop ist eine Registrierung erforderlich. Die Hauptvorträge (Keynotes) sind öffentlich.

Kontakt:
Dr. Thies Pfeiffer, Universität Bielefeld
Exzellenzcluster Kognitive Interaktionstechnologie (CITEC)
Telefon: 0521 106-12373
E-Mail: thies.pfeiffer@uni-bielefeld.de

Media Contact

Jörg Heeren idw

Alle Nachrichten aus der Kategorie: Seminare Workshops

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Diamantstaub leuchtet hell in Magnetresonanztomographie

Mögliche Alternative zum weit verbreiteten Kontrastmittel Gadolinium. Eine unerwartete Entdeckung machte eine Wissenschaftlerin des Max-Planck-Instituts für Intelligente Systeme in Stuttgart: Nanometerkleine Diamantpartikel, die eigentlich für einen ganz anderen Zweck bestimmt…

Neue Spule für 7-Tesla MRT | Kopf und Hals gleichzeitig darstellen

Die Magnetresonanztomographie (MRT) ermöglicht detaillierte Einblicke in den Körper. Vor allem die Ultrahochfeld-Bildgebung mit Magnetfeldstärken von 7 Tesla und höher macht feinste anatomische Strukturen und funktionelle Prozesse sichtbar. Doch alleine…

Hybrid-Energiespeichersystem für moderne Energienetze

Projekt HyFlow: Leistungsfähiges, nachhaltiges und kostengünstiges Hybrid-Energiespeichersystem für moderne Energienetze. In drei Jahren Forschungsarbeit hat das Konsortium des EU-Projekts HyFlow ein extrem leistungsfähiges, nachhaltiges und kostengünstiges Hybrid-Energiespeichersystem entwickelt, das einen…

Partner & Förderer