6 Spannende technische Produkte für Sehbehinderte

Laut der Weltgesundheitsorganisation leben weltweit 253 Millionen Menschen mit Sehbehinderungen. Und obwohl es alle Bevölkerungsgruppen betrifft, sind ältere Menschen überproportional betroffen: 81 Prozent der blinden oder mittelschweren bis schweren Sehbehinderten sind 50 Jahre und älter. Diese Zahl könnte sich nach Schätzungen der WHO um 50 verdreifachen.

Erfreulicherweise ist die Zahl der von Sehbehinderungen betroffenen Menschen in den letzten 25 Jahren tatsächlich zurückgegangen. Und unterstützende Technologien werden kontinuierlich verbessert, angeführt von beiden großen Unternehmen - Microsoft beispielsweise entwickelt seit Jahren 3D-Soundscape-Technologien - kleinen Startups und sogar Braille-Uhrmachern. Infolgedessen ist eine Reihe von Produkten entstanden, die modernste Technologie verwenden, intuitive Funktionen priorisieren und den sozialen Kontext berücksichtigen. Hier sind sechs Optionen, die Unabhängigkeit, Sicherheit und Diskretion bieten.

Maptic

Aus der Ferne sieht der Industriedesigner Emilios Farrington-Arnas Maptic wie ein Fitness-Tracker aus. Das ist beabsichtigt: Er wollte nicht, dass sein tragbares Gerät einem medizinischen Gerät ähnelt. Oder fühlen Sie sich auch wie einer. Das Maptic-System besteht aus einem visuellen Sensor, der um den Hals getragen wird, und vibrierenden Rückkopplungseinheiten, die um die Handgelenke getragen werden. Es hilft sehbehinderten Benutzern diskret, durch die Welt um sie herum zu navigieren

Maptic erklärt unebene Oberflächen, Hindernisse und die Tatsache, dass Telefone in der Hand gehalten werden müssen - ein Hindernis für jemanden, der beispielsweise einen Stock tragen muss. Sein Sensor auf Brusthöhe erkennt Objekte in den Gesichtsfeldern und sendet Informationen an eine App, die die Informationen weiterleitet, die die Einheiten am Handgelenk oder auf der Kleidung tragen. Durch haptisches Feedback (der Motor, der ein Telefon zum Vibrieren bringt) werden Benutzer durch eine physische Umgebung geführt. "Mithilfe des GPS des Telefons kann die App den Benutzer über Vibrationen auf der linken und rechten Körperseite zu ausgewählten Zielen navigieren, wenn der Benutzer sich drehen muss", sagt Farrington-Arnas, der sagt, das Feedback fühle sich wie Ticken oder Sonar an.

Die taktile Navigation des Systems setzt auch einen anderen Sinn frei: das Hören. „Durch die Verwendung des Tastsinns wird das Gehör frei, um unmittelbare Gefahren zu erkennen. Dies ist der vorherrschende Sinn bei Sehbehinderungen“, sagt Farrington-Arnas. Diejenigen, die von Maptic fasziniert sind, sollten auch Sunu erkunden, ein Armband mit haptischem Feedback, das Sonar verwendet, um Benutzer durch Hindernisse zu führen.

Taktil

Tactile wurde von TeamTactile, einem fünfköpfigen Studenten-Startup am MIT, entwickelt und zielt darauf ab, gedruckten Text für Blinde zugänglicher zu machen. Weniger als ein Prozent des gedruckten Materials verfügt über eine Braille-Übersetzung, wodurch einfache Aufgaben wie das Lesen von E-Mails unzugänglich werden können. Deshalb hat TeamTactile ein Gerät entwickelt, das über gedruckte Seiten gleitet, den Text scannt und ihn Zeile für Zeile in Braille übersetzt.

Es funktioniert auch mit einer App, die nach dem Scannen von digitalem Text entweder mit dem Tactile-Gerät eines Benutzers synchronisiert wird oder eine Voice-Over-Transkription bereitstellt. Obwohl es noch nicht öffentlich zugänglich ist, wurde das Gerät als Prototyp entwickelt und sein Patent ist angemeldet.

Horus

Apple hat Siri. Google hat Google Assistant. Amazon hat Alexa. Und Eyra, ein AI-fokussiertes Startup, hat Horus, einen virtuellen Assistenten, der speziell auf Sehbehinderte ausgerichtet ist. Horus schneidet eine Tascheneinheit mit einem Headset ab, das einem Sportkopfhörer ähnelt, und verwendet Echtzeit-Audio, um die Welt für seine Benutzer abzubilden.

Das Horus-Headset ist mit einer Kamera ausgestattet, mit der das Unternehmen laut Deep Learning lernen kann, Text zu lesen, Gesichter zu erkennen und Objekte mithilfe von Deep Learning zu identifizieren. Von der Kamera erfasste Informationen werden an die Tascheneinheit gesendet, die mit einem winzigen, aber leistungsstarken Prozessor ausgestattet ist. Das Gerät leitet dann über die Knochenleitungstechnologie, die auch in lauten Umgebungen funktioniert, Audiobeschreibungen weiter, ohne die Ohren des Benutzers zu blockieren.

Wie lernt Horus? Wenn sich Benutzer einem Objekt oder einer Person nähern, sendet Horus eine Eingabeaufforderung. Es erkennt automatisch alles in seinem Sichtfeld, auf das mit einer internen Datenbank verwiesen wird. Wenn ein Gesicht oder Objekt nicht erkannt wird, wird der Benutzer aufgefordert, es zu identifizieren. Je mehr Horus verwendet wird, desto intelligenter wird es. Derzeit ist die Technologie nur in Englisch, Italienisch und Japanisch verfügbar - und es gibt eine Warteliste, um eine zu erhalten.

Fotos: OrCam

MyEye 2.0

OrCam ist ein weiteres Startup, das künstliche Intelligenz einsetzt, um Lösungen für Sehbehinderte bereitzustellen. Das Unternehmen mit einem Wert von 1 Milliarde US-Dollar hat MyEye 2.0 entwickelt, eine fingergroße Kamera, die an einer Brille befestigt werden kann - und dem Benutzer das bietet, was OrCam als „Robotic Vision“ bezeichnet. Der Anhang, der in früheren Iterationen verkabelt war, verfügt über eine 12-Megapixel-Kamera und einen Miniaturlautsprecher, der Text, Gesichter, Banknoten und Produkte liest und die Informationen dann an den Benutzer weiterleitet.

MyEye 2.0 wird durch Gesten ausgelöst. Benutzer zeigen auf Objekte und der Wearable antwortet mit detaillierten Informationen. Es kann Objekte und Farben identifizieren, verfügt über eine Barcode-basierte Produktdatenbank und kann über 100 Gesichter speichern. MyEye 2.0 kann auch Text in allen Größen und Schriftarten lesen - und es kann gleichermaßen von Straßenschildern und Telefonbildschirmen gelesen werden. MyEye ist intuitiv, tragbar und leicht

Olli

Selbstfahrende Autos werden für sehbehinderte Benutzer zu einem echten Spielveränderer. Und obwohl sie nach dem Markteintritt wahrscheinlich unerschwinglich sind, wird die Autonomie der Fahrzeuge auch den öffentlichen Verkehr verbessern. Obwohl es oft die beste Option ist, wenn Sehbehinderung das Fahren verbietet, sind öffentliche Verkehrsmittel nicht immer so zugänglich, wie sie sein sollten - und das ist das Problem, das Olli, ein selbstfahrendes Shuttle von Local Motors, lösen möchte.Obwohl Olli nicht ausschließlich für Sehbehinderte entwickelt wurde, nutzt Olli, das Anfang dieses Jahres auf der CES vorgestellt wurde, künstliche Intelligenz, die mit IBM Watson-Technologie entwickelt wurde, um Benutzern mit unterschiedlichen Anforderungen Transportmöglichkeiten zu bieten.

Für blinde oder sehbehinderte Passagiere helfen Audio-Hinweise und haptische Sensoren, offene Plätze zu finden. Die Außenseite des Busses ist mit Kameras und Sensoren ausgestattet, die automatisch Rampen aktivieren, um Rollstuhlfahrern im Bus zu helfen. Eine App namens Modally, die Augmented Reality verwendet, um Gebärdensprachen zu sprechen, hilft gehörlosen Fahrern. Fahrten können auch über die Olli-App gebucht werden.

Jay B. Rogers, CEO von Local Motors, entwickelte das Olli-Konzept.

Olli fährt mit einer Geschwindigkeit von ungefähr 90 km / h und befördert bis zu zehn Passagiere. Außerdem erstellt er mit Kameras von Meridian Autonomous 3D-Karten von Stadtteilen. Es wird extern von einem menschlichen Controller überwacht. Es soll später in diesem Jahr produziert und verkauft werden.

Fotos: eSight

eSight

Im Februar wurde das in Toronto ansässige Unternehmen eSight bei den Canadian Innovation Awards als bahnbrechende Technologie ausgezeichnet. Das überzeugendste an diesem Wearable sind jedoch nicht die Auszeichnungen - und die ausführliche Berichterstattung in der Presse -, die es erhalten hat. Es sind vielmehr die bewegenden Geschichten, die es schafft.

ESight ähnelt einer Brille und sagt, dass es diejenigen sieht, die legal blind sind, indem sie sich teilweise wie ein VR-Headset verhalten. Die neueste Version, eSight 3 (oben), ist weitaus weniger umständlich als frühere Versionen. Es verwendet Digitalkameras und Bildverarbeitungsalgorithmen, um Bilder auf zwei OLED-Bildschirmen anzuzeigen, die nahe an den Augen liegen. Die Designer sagen, dass es Bilder in Echtzeit erzeugen kann, die der 20/20-Sicht ähneln - und dabei automatisch auf Objekte mit kurzer, mittlerer und großer Reichweite fokussieren.

Wie bei vielen technologischen Fortschritten geht es bei eSight um Konsolidierung. Es werden keine Vergrößerungsvorrichtungen, Hilfstiere und mehr benötigt. Die Ergebnisse, die eSight einfach als Momente bezeichnet: ein blinder Mann, der seine Frau bei seiner Hochzeit sehen darf. Ein Junge sieht zum ersten Mal das Gesicht seiner Mutter. Anblick als Weihnachtsgeschenk gegeben.

Abonnieren

Unser Newsletter