Arm einer Schaufensterpuppe mit Verband, Bild: University of Twente

Sensoren am Arm einer Schaufensterpuppe. Bild: University of Twente

Ein Klopfer auf die Schulter, ein Händedruck oder eine Umarmung – Berührungen sind vielfältig und ein wichtiges Element bei der sozialen Interaktion von Menschen. Wenn es um Roboter geht, ist die soziale Komponente von Berührungen noch ein vergleichsweise unerschlossenes Terrain.

Roboter agieren mitten in der Gesellschaft

Dies überrascht vor dem Hintergrund, dass Roboter nicht mehr ausschließlich in kontrollierten Fertigungsumgebungen arbeiten. Mittlerweile operieren sie zunehmend häufiger mitten in der Gesellschaft.

Die Deutsche Merel Jung forscht am CTIT-Institut der University of Twente (UT) zum Thema soziale Berührungen bei Robotern. Mithilfe eines vergleichsweise einfachen Systems – bestehend aus einem Arm einer Schaufensterpuppe und Drucksensoren, die an einen Computer angeschlossen waren – gelang es ihr, 60 Prozent der Berührungen zu erkennen.

Roboter werden immer sozialer. Ein bekanntes Beispiel für einen sozialen Roboter ist „Paro“, ein Seehand-Roboter, der in Pflegeheimen eingesetzt wird, um Demenzpatienten zu beruhigen oder um sie zu Reaktionen zu animieren. Bei dieser Zielgruppe liefert dieser Roboter gute Ergebnisse.

Allerdings ist der Schritt zu Robotern, die genau wie Menschen verschiedene Arten sozialer Berührungen erkennen, interpretieren und entsprechend darauf reagieren können, noch sehr groß. Es ist ein relativ unbekanntes Forschungsfeld, jedoch ein wissenschaftliches Gebiet, von dem in absehbarer Zeit einiges zu erwarten ist.

Zu denken ist dabei beispielsweise an Roboter, die das soziale Leben autistischer Kinder stimulieren. Oder Roboter, mit deren Hilfe Medizinstudenten praxisnah Behandlungssituationen trainieren können.

Forschung nach sozialen Berührungen

Aus diesem Grund forscht Merel Jung an der University of Twente nach sozialen Berührungen zwischen Menschen und Robotern. Um einen Roboter auf die richtige Weise auf Berührungen reagieren lassen zu können, unterscheidet sie vier verschiedene Stufen.

Der Roboter muss die Berührung zunächst wahrnehmen, dann erkennen und interpretieren − um anschließend angemessen reagieren zu können. In der Diesem Stadium ihrer Forschung richtet sich Jung vor allem auf die ersten beiden Phasen: Wahrnehmen und Erkennen. Mit einer relativ einfachen Versuchsanordnung – dem Arm einer Schaufensterpuppe mit 64 darauf angebrachten Drucksensoren – gelang es ihr, 60 Prozent von rund 8.000 Berührungen (verteilt auf 14 verschiedene Berührungsformen in drei Intensitäten) unterscheiden lassen zu können.

60 Prozent der Berührungen wurden erkannt

60 Prozent klingt dabei zunächst nach keinem besonders hohen Wert, jedoch erscheint er umso beeindruckender, wenn bedacht wird, dass jede Form eines sozialen Kontextes fehlte und verschiedene Berührungen einander stark ähneln.

Beispiele sind der Unterschied zwischen Greifen und Kneifen und zwischen intensivem Streicheln und sanftem Reiben. Hinzu kommt, dass die Probanden, die den Arm der Schaufensterpuppe berühren mussten, keine Anweisungen zur Ausführung der Berührung des Puppenarms erhielten.

Zudem konnte das Computersystem nicht die Berührungen individueller Personen „trainieren“. Unter vergleichbaren Umständen wäre es selbst für Menschen schwierig, alle Berührungen zu erkennen. In einem Folgeversuch, mit dem Jung aktuell beschäftigt ist, erforscht sie, wie Roboter Berührungen im sozialen Kontext interpretieren können.

Erwartet wird, dass der Roboter durch die Interpretation des Kontextes besser dazu in der Lage sein wird, auf angemessene Art und Weise auf Berührung zu reagieren und der berührungssensible Roboter damit ein weiteres Stückchen näher rückt. hei