EyeRing: Kameraring beschreibt Gesehenes
Ein Team am Media Lab des Massachusetts Institute of Technology (MIT) hat ein System entwickelt, mit dem sich Sehbehinderte einfach per Fingerzeig Informationen über ihre Umgebung holen können.
Möglich macht das der „EyeRing“ mit integrierter Kamera in Kombination mit dem Smartphone des Trägers. Das ursprünglich als Sehhilfe konzipierte Augmented-Reality-System hat den Forschern der Fluid Interfaces Group http://fluid.media.mit.edu zufolge breiteres Anwendungspotenzial – beispielsweise als Navigationshilfe oder auch als Unterstützung für Kinder, die gerade das Lesen lernen.
Hören per Fingerzeig
Die Idee hinter dem am Zeigefinger getragenen EyeRing ist denkbar einfach: Der Nutzer muss nur auf ein Objekt zeigen, den Auslöser drücken und bekommt dann die per Sprachbefehl gewünschte Information akustisch ausgegeben. Zur Auswahl stehen dabei unter anderem Farb- und Texterkennung, berichtet Technology Review. Möglich macht das eine in den Ring verbaute Kamera, die ein Foto schießt und per Bluetooth an das Smartphone überträgt. Dort verarbeitet eine App die Bildinformation in geeigneter Form, ehe das Ergebnis auf dem Bildschirm sowie über Lautsprecher ausgegeben wird.
Die Idee einer Fingerkamera als Assistenzsystem für Sehbehinderte ist nicht neu. Ein 2009 vom US-Wissenschaftler Georg Stetten präsentiertes System (pressetext berichtete: http://pressetext.com/news/090121033/ ) hat damals allerdings auf Vibrations-Feedback gesetzt. Im Vergleich dazu ist die Bildschirm- und Sprachausgabe der MIT-Entwicklung unmittelbarer für Nutzer verständlich.
Nützlich für alle
Das Team geht davon aus, dass nicht nur Menschen mit eingeschränktem Sehvermögen vom EyeRing profitieren könnten. Denkbar ist beispielsweise auch, dass Kinder, die gerade das Lesen lernen, durch die Texterkennung mit Vorlesen unterstützt werden. Weitere mögliche Anwendungsgebiete, die von den Forschern genannt werden, umfassen die Nutzung als Navigations- oder Übersetzungshilfe.
Derzeit funktioniert der EyeRing bzw. die zugehörige Software mit Android-Smartphones oder Mac-Computern, eine iPhone-Umsetzung ist dem Team zufolge in Arbeit. Das System wurde bereits mit Sehbehinderten Nutzern getestet und soll zum kommerziellen Produkt weiterentwickelt werden. Das dürfte allerdings noch dauern, denn geplante Weiterentwicklungen sollen dank zusätzlicher Sensoren nicht nur Bilddaten erfassen.
Erklärungsvideo auf Vimeo: http://vimeo.com/37202680
Media Contact
Weitere Informationen:
http://web.mit.eduAlle Nachrichten aus der Kategorie: Innovative Produkte
Neueste Beiträge
Erstmals 6G-Mobilfunk in Alpen getestet
Forschende der Universität Stuttgart erzielen leistungsstärkste Verbindung. Notrufe selbst in entlegenen Gegenden absetzen und dabei hohe Datenmengen in Echtzeit übertragen? Das soll möglich werden mit der sechsten Mobilfunkgeneration – kurz…
Neues Sensornetzwerk registriert ungewöhnliches Schwarmbeben im Vogtland
Das soeben fertig installierte Überwachungsnetz aus seismischen Sensoren in Bohrlöchern zeichnete Tausende Erdbebensignale auf – ein einzigartiger Datensatz zur Erforschung der Ursache von Schwarmbeben. Seit dem 20. März registriert ein…
Bestandsmanagement optimieren
Crateflow ermöglicht präzise KI-basierte Nachfrageprognosen. Eine zentrale Herausforderung für Unternehmen liegt darin, Über- und Unterbestände zu kontrollieren und Lieferketten störungsresistent zu gestalten. Dabei helfen Nachfrage-Prognosen, die Faktoren wie Lagerbestände, Bestellmengen,…