Augen, Nase und Ohren

Sehen per Radar und Hörgerät

Blinde Menschen sollen die Welt künftig über akustische Bilder wahrnehmen können. Forscher haben ein entsprechendes Sensorsystem auf der Basis einer Radartechnologie entwickelt.

17.05.2017

Bisher waren Blindenhund und Blindenstock für sehbehinderte Menschen die einzigen Orientierungshilfen. Das soll sich bald ändern. Forscher der Ruhr-Universität Bochum (RUB) wollen jetzt gemeinsam mit Partnern aus der Praxis im Projekt Ravis-3D die Alltagsunterstützung mit Hightech verbessern. Ihr Plan: Spezielle Sensoren am Kopf oder Körper erfassen die Umgebung per Radar. „Dank modernster Radartechnologie, ähnlich der, die zukünftig autonomes Fahren ermöglichen wird, funktioniert die Sensorik auch bei schlechten Lichtverhältnissen und bei Regen“, erklärt Projektpartner Prof. Dr. Nils Pohl vom Lehrstuhl für Integrierte Systeme der RUB. Anschließend wird die Umgebung in Echtzeit in Audiosignale übersetzt. Es entsteht eine 3D-Audioumgebung, die dem Nutzer über ein Hörgerät dargestellt wird.

Akustische 3D-Karte rotiert frei

Das System soll Hindernisse und Bewegungen durch unterschiedliche Geräuscheigenschaften wie Tonhöhe oder Tonfrequenz aus der entsprechenden richtigen Richtung kommend darstellen. „Um die 3D-Audioumgebung nutzbar zu machen, ist ein sehr kleines, aber schnelles Rechensystem notwendig“, so Prof. Dr. Michael Hübner vom Lehrstuhl für Eingebettete Systeme. „Es muss die Radardaten in Echtzeit verarbeiten und Bewegungen des Nutzers sowie Drehungen des Kopfes mit einberechnen. So kann es ein frei rotierendes 3D-Umfeld erzeugen und über das Hörgerät ausgeben.“
Die Technik soll es dem Nutzer möglich machen, Hindernisse zu erkennen, Entfernungen einzuschätzen und sich verhältnismäßig natürlich in der Umgebung zu bewegen. Die SNAP GmbH, ein weiterer Projektpartner, wird unter anderem prüfen, ob Audiosignale über ein Hörgerät für die Orientierung ausreichen, oder ob taktile Signale – also ein kurzes Antippen auf der Haut – eine zusätzliche Hilfestellung sein können.

Interdisziplinäre Zusammenarbeit

Möglich wird die Entwicklung des innovativen Hilfsmittels, weil drei Lehrstühle der Fakultät für Elektrotechnik und Informationstechnik der RUB und zahlreiche Partner aus der Wirtschaft ihre Kompetenzen bündeln: Das Team des Lehrstuhls für Integrierte Systeme übernimmt die Entwicklung der Radarsensorik. Es will die Sensorik weiter verkleinern und angenehm tragbar machen. Das Team vom Lehrstuhl Eingebettete Systeme kümmert sich darum, dass die Radar-Daten in Echtzeit verarbeitet werden und daraus eine virtuelle 3D-Karte entsteht.
In enger Kooperation mit dem Institut für Kommunikationsakustik sollen echtzeitfähige Algorithmen entwickelt werden, um die virtuelle Umgebungskarte dem Nutzer angenehm und hochauflösend über eine akustische 3D-Darstellung zugänglich zu machen. Besonderen Wert legen die Forscher darauf, dass das System auch intuitiv nutzbar ist und die Tondarstellung keinen Stress erzeugt. (red)