EyeRing: Kameraring beschreibt Gesehenes

Fingerzeig-Frage: Was sehe ich dort? (Foto: MIT/Suranga Nanayakkara)<br>

Ein Team am Media Lab des Massachusetts Institute of Technology (MIT) hat ein System entwickelt, mit dem sich Sehbehinderte einfach per Fingerzeig Informationen über ihre Umgebung holen können.

Möglich macht das der „EyeRing“ mit integrierter Kamera in Kombination mit dem Smartphone des Trägers. Das ursprünglich als Sehhilfe konzipierte Augmented-Reality-System hat den Forschern der Fluid Interfaces Group http://fluid.media.mit.edu zufolge breiteres Anwendungspotenzial – beispielsweise als Navigationshilfe oder auch als Unterstützung für Kinder, die gerade das Lesen lernen.

Hören per Fingerzeig

Die Idee hinter dem am Zeigefinger getragenen EyeRing ist denkbar einfach: Der Nutzer muss nur auf ein Objekt zeigen, den Auslöser drücken und bekommt dann die per Sprachbefehl gewünschte Information akustisch ausgegeben. Zur Auswahl stehen dabei unter anderem Farb- und Texterkennung, berichtet Technology Review. Möglich macht das eine in den Ring verbaute Kamera, die ein Foto schießt und per Bluetooth an das Smartphone überträgt. Dort verarbeitet eine App die Bildinformation in geeigneter Form, ehe das Ergebnis auf dem Bildschirm sowie über Lautsprecher ausgegeben wird.

Die Idee einer Fingerkamera als Assistenzsystem für Sehbehinderte ist nicht neu. Ein 2009 vom US-Wissenschaftler Georg Stetten präsentiertes System (pressetext berichtete: http://pressetext.com/news/090121033/ ) hat damals allerdings auf Vibrations-Feedback gesetzt. Im Vergleich dazu ist die Bildschirm- und Sprachausgabe der MIT-Entwicklung unmittelbarer für Nutzer verständlich.

Nützlich für alle

Das Team geht davon aus, dass nicht nur Menschen mit eingeschränktem Sehvermögen vom EyeRing profitieren könnten. Denkbar ist beispielsweise auch, dass Kinder, die gerade das Lesen lernen, durch die Texterkennung mit Vorlesen unterstützt werden. Weitere mögliche Anwendungsgebiete, die von den Forschern genannt werden, umfassen die Nutzung als Navigations- oder Übersetzungshilfe.

Derzeit funktioniert der EyeRing bzw. die zugehörige Software mit Android-Smartphones oder Mac-Computern, eine iPhone-Umsetzung ist dem Team zufolge in Arbeit. Das System wurde bereits mit Sehbehinderten Nutzern getestet und soll zum kommerziellen Produkt weiterentwickelt werden. Das dürfte allerdings noch dauern, denn geplante Weiterentwicklungen sollen dank zusätzlicher Sensoren nicht nur Bilddaten erfassen.

Erklärungsvideo auf Vimeo: http://vimeo.com/37202680

Media Contact

Thomas Pichler pressetext.redaktion

Weitere Informationen:

http://web.mit.edu

Alle Nachrichten aus der Kategorie: Innovative Produkte

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Experiment öffnet Tür für Millionen von Qubits auf einem Chip

Forschenden der Universität Basel und des NCCR SPIN ist es erstmals gelungen, eine kontrollierbare Wechselwirkung zwischen zwei Lochspin-Qubits in einem herkömmlichen Silizium-Transistor zu realisieren. Diese Entwicklung eröffnet die Möglichkeit, Millionen…

Stofftrennung trifft auf Energiewende

Trennkolonnen dienen der Separation von unterschiedlichsten Stoffgemischen in der chemischen Industrie. Die steigende Nutzung erneuerbarer Energiequellen bringt nun jedoch neue Anforderungen für einen flexibleren Betrieb mit sich. Im Projekt ColTray…

Kreuzfahrtschiff als Datensammler

Helmholtz-Innovationsplattform und HX Hurtigruten Expeditions erproben neue Wege in der Ozeanbeobachtung. Wissenschaftliche Forschung nicht nur von speziellen Forschungsschiffen aus zu betreiben, sondern auch von nicht-wissenschaftlichen Schiffen und marinen Infrastrukturen –…

Partner & Förderer