Entwicklerteam der Universität Ulm, Bild: Elvira Eberhardt / Universität Ulm

Das Entwicklerteam der Universität Ulm mit ihrem Ninja Turtle Roboter (v.l.); Reihe hinten: Prof. Heiko Neumann mit Prof. Marc Ernst; Reihe vorne: Maximilian Löhr, Christian Jarvers und Timo Oess. Bild: Elvira Eberhardt / Universität Ulm

Er hat tintenblaue Ohren, und mit seinen dunklen Kameraaugen, die seitlich auf dem rundlichen Aufbau montiert sind, sieht er recht possierlich aus. Auf einem fahrbaren Untersatz rollt der kleine Roboter den Ulmer Wissenschaftlern vorsichtig entgegen. Der NinjaTurtle, so sein Name, hilft den Neuroinformatikern und Kognitionsforschern dabei, spezielle Algorithmen zu testen, die der menschlichen Wahrnehmung und Kognition nachempfunden sind. Damit wollen die Ulmer Forscher die Verarbeitung von visuellen und auditiven Sensordaten robuster, schneller und effizienter machen. Das Projekt ist Teil des "Neurorobotik"-Programms der Baden-Württemberg-Stiftung und wird mit 500 000 Euro unterstützt.

"Das menschliche Gehirn gehört noch immer zu den effektivsten Datenverarbeitungssystemen überhaupt. Vor allem bei der Auswertung von Sinneseindrücken arbeiten natürliche Nervensysteme hocheffektiv und sind vielen technischen Systemen überlegen", erklärt Professor Heiko Neumann. Der stellvertretende Leiter des Instituts für Neuroinformatik gehört wie Professor Marc Ernst, Leiter der Abteilung für Angewandte Kognitionspsychologie, zu den erfolgreichen Antragstellern.

Mit ihrem VA-MORPH Projekt möchten die Wissenschaftler neurobiologische Funktionen des Gehirns auf robotische und informationstechnische Systeme übertragen. Im Mittelpunkt steht dabei die Entwicklung sogenannter neuro-morpher Algorithmen, die sich in ihrer Struktur und Arbeitsweise am menschlichen Gehirn und seinen elementaren Bestandteilen, den Neuronen, orientieren. Ausgangspunkt ist dabei die Frage, wie visuelle und auditive Sensorströme verarbeitet, fusioniert und technisch genutzt werden können, beispielsweise für die räumliche Orientierung und Navigation.

Das Gehirn wählt nur relevante Informationen aus

Ninja Turtle Roboter, Bild: Elvira Eberhardt / Universität Ulm
Der kleine Ninja Turtle Roboter nähert sich vorsichtig einem Wissenschaftler aus dem Projektteam. Bild: Elvira Eberhardt / Universität Ulm

"Die menschliche Wahrnehmung ist nicht wie bei technischen Systemen getaktet, sondern arbeitet ereignisbasiert. Das heißt, relevant ist vor allem das, was sich über einen bestimmten Zeitraum hinweg verändert. Aus all den Informationen, die auf uns einströmen, wählt das Gehirn nur diejenigen aus, die "überlebensrelevant" sind und in der jeweiligen Situation einen Sinn ergeben", erklärt der Kognitionspsychologe Ernst. Das laufe eben nicht wie bei einer herkömmlichen Kamera ab, wo die räumliche Umgebung über Einzelbilder erfasst wird. Der biologische Hörvorgang ist ebenso komplex und dabei nicht weniger "Daten-ökonomisch".

Hierfür kombiniert das Gehirn sensorische Signale mit Erwartungen aus unterschiedlichen Erfahrungskontexten und verrechnet die Informationen zu einem multisensorischen Gesamteindruck. "Die Integration dieser sensorischen Datenströme ist eine Meisterleistung des Gehirns. Wenn wir verstanden haben, wie das genau funktioniert, können wir versuchen, diese Funktionsweisen auf technische Systeme zur Sensordatenverarbeitung zu übertragen", fassen die Ulmer Forscher ihren wissenschaftlichen Auftrag zusammen. Gehirninspirierte Hard- und Software sind heute aus dem Cognitive Computing, der Neurorobotik und der Künstlichen Intelligenz nicht mehr wegzudenken.

Zur Generierung der neuro-morphen Algorithmen haben die Ulmer Wissenschaftler biologisch plausible Lernverfahren entwickelt, mit deren Hilfe die "relevanten" Informationen aus der Gesamtheit der sensorischen Daten herausgefiltert werden können. Jetzt wollen Neumann und Ernst mit ihren Doktoranden Christian Jarvers, Maximilian Löhr und Timo Oess herausfinden, wie praxistauglich und leistungsfähig die nach menschlichem Vorbild geschaffenen Algorithmen sind. Dafür werden sie auf der Roboterplattform implementiert und zunächst an einfachen Orientierungsaufgaben getestet. "Diesen Job hat nun der kleine Ninjabot: Ohne sich durch Nebengeräusche und Sichthindernisse irritieren oder ablenken zu lassen, soll er bestimmte visuelle und akustische Landmarken aufsuchen und einsammeln", erläutern die wissenschaftlichen Mitarbeiter Löhr und Oess.

Rechner mit gehirninspirierter Hardware im Einsatz

Um die Algorithmen zu realisieren, kommen ganz besondere Rechnerarchitekturen zum Einsatz. Bei dieser sogenannten gehirninspirierten Hardware sind Prozessor und Speicher nicht getrennt, wie dies bei herkömmlichen Rechnern der Fall ist.

Vielmehr arbeiten diese vereint wie Neuronen und ihre synaptischen Verbindungen im Gehirn. Damit lassen sich die Daten wesentlich schneller und effizienter verarbeiten. "Dank unserer Kooperationspartner haben wir Zugriff auf eine wissenschaftliche Ausstattung, die für Universitäten wohl einzigartig ist", freut sich das Ulmer Projektteam. Über den Technologiekonzern IBM Research Almaden (USA) stehen neuro-morphe Chip-Architekturen aus dem Bereich Brain-Inspired Computing zur Verfügung. Außerdem können die Wissenschaftler auf eine Hardware-Plattform aus dem EU-geförderten Human Brain Projekt zurückgreifen und über die Firma IniLabs zudem auf spezielle neuro-morphe Sensoren.

Wenn alles gut geht, wird sich der kleine Roboter NinjaTurtle unbehelligt von Störgeräuschen auch bei schwierigen Sichtverhältnissen seinen Weg zielstrebig durch das Labor bahnen, und dabei nur einen Bruchteil an Rechenkapazitäten und Speicherplatz verbrauchen wie herkömmliche Rechnerarchitekturen. Denn vom Gehirn lernen lohnt sich, glauben die Ulmer. hei

Mehr zum Thema Robotik & Handling erfahren Sie hier in unserem exklusiven Special. Hier geht es unter anderem um den Arbeitsplatz der Zukunft, wo Menschen und Roboter Seite an Seite arbeiten; oder um sensible Sensoren für Cobots.