Zukunft Forschung 02/2022
Das Forschungsmagazin der Universität Innsbruck
Das Forschungsmagazin der Universität Innsbruck
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
INFORMATIK<br />
DER ROBOTER LERNT, von einer gelernten<br />
Bewegung auf ähnliche Bewegungen<br />
zu generalisieren.<br />
von A nach B zu legen. Soll er ihn aber mit<br />
der gleichen Bewegung nach dem weiter<br />
entfernten C legen, weiß er nicht, was zu<br />
tun ist. Er hat diese – längere – Bewegung<br />
im Training nicht gesehen.“ Dem Roboter<br />
fehlt die Fähigkeit, zu extrapolieren, sich<br />
aus Bekanntem Neues zu erschließen.<br />
Um diese Fähigkeit zu verbessern, setzt<br />
Piaters Team auf ein anderes künstliches<br />
neuronales Netzwerk (KNN) als üblich.<br />
Ein KNN besteht aus künstlichen Neuronen<br />
(Units), die über mehrere Eingänge Informationen<br />
als reale Zahlenwerte erhalten<br />
und diese mit einem Faktor multiplizieren.<br />
Die Resultate werden summiert und ergeben<br />
das Aktionspotenzial der Unit. „In<br />
sogenannten Equation Learner Networks<br />
berechnen Units hingegen ausdrucksstärkere<br />
Funktionen. Nicht die Summe, sondern<br />
z. B. das Produkt von zwei Eingängen.<br />
Oder die Sinusfunktion von lediglich<br />
einem Eingang“, erklärt Piater. Der Hintergedanke<br />
dabei: „Viele reale physikalische<br />
Prozesse sind durch derartige Funktionen<br />
beschrieben. Daher sollten wir auch solche<br />
Funktionen für die Repräsentation dieser<br />
Prozesse verwenden, damit die Repräsentation<br />
die realen physikalische Prozesse<br />
möglichst genau widerspiegelt.“ Darauf<br />
fußte die Annahme der Informatiker, dass<br />
Roboter mit Equation Learner Networks<br />
besser extrapolieren können. Und die Annahme<br />
konnten sie in der Simulation und<br />
im Praxisversuch bestätigen – obwohl der<br />
Roboter diese Bewegung nicht gelernt hatte,<br />
bewegte er den Stift von A nach C. Genauer<br />
gesagt: Nicht ganz bis nach C.<br />
„Im Prinzip funktionierte die Exploration<br />
auf die größere Strecke sehr gut. Es<br />
kam allerdings zu systematischen Abweichungen“,<br />
räumt Piater ein. Es zeigte<br />
sich, dass der Roboter die neue, weitere<br />
Bewegung zwar ausführen konnte, je<br />
weiter sie aber wurde, desto größer wurden<br />
die Abstände zum eigentlichen Ziel.<br />
Die Lösung fand Matteo Saveriano, ein<br />
inzwischen an der Università di Trento<br />
tätiger Mitarbeiter Piaters, gemeinsam<br />
mit Dissertant Héctor Pérez Villeda. „Sie<br />
entwickelten mit Hilfe von Quadratic<br />
Programing eine Methode, die gezeigte<br />
Bedingungen imitiert und dabei Randbedingungen<br />
erfüllt“, erläutert Piater. Dem<br />
Roboter werden Bewegungen gezeigt, die<br />
er lernt, zu rekonstruieren – inklusive der<br />
festgelegten Bedingung, dass die Bewegung<br />
von einem Anfang bis zu einem Ende<br />
reichen muss. In Kombination mit der<br />
erlernten Explorationsfähigkeit aus dem<br />
ersten Schritt gelingt es dem Roboter nun<br />
tatsächlich, den Stift von A nach C zu bewegen<br />
– egal, wie weit entfernt C auch ist.<br />
Robotik & Affordanzen<br />
Auf die Kollaboration mit Menschen<br />
zielt mit ELSA, kurz für Effective Learning<br />
of Social Affordances for Human-Robot<br />
Interaction, ein anderes Innsbrucker<br />
Robotik-Projekt ab. In französisch-österreichischer<br />
Zusammenarbeit wollen Forscherinnen<br />
und Forscher aus Informatik<br />
und Psychologie Robotern beibringen,<br />
sogenannte Affordanzen zu erkennen.<br />
„Der Begriff stammt aus der Psychologie<br />
und bezeichnet Aktionsmöglichkeiten,<br />
die ein Objekt einem Aktor bietet. In EL-<br />
SA haben wir den Begriff auf die soziale<br />
Ebene erweitert, nämlich auf Menschen,<br />
die ihrem Umfeld Interaktionsmöglichkeiten<br />
anbieten“, erklärt Piater. Durch<br />
das Erkennen solcher Affordanzen sollen<br />
Roboter lernen, mit ihrem menschlichen<br />
Umfeld zielgerichteter zu interagieren:<br />
„Menschen haben unterschiedliche Fähigkeiten,<br />
zum Beispiel, wenn sie bestimmte<br />
Werkzeuge bei sich haben. Jemanden mit<br />
einer Schere kann ein Roboter bitten, ein<br />
Blatt Papier durchzuschneiden. Die gleiche<br />
Bitte ohne Schere in der Nähe ergibt<br />
aber keinen Sinn, das muss ein Roboter<br />
allerdings auch begreifen“, erläutert Piater.<br />
Das bis 2<strong>02</strong>6 laufende Projekt, angesiedelt<br />
am Institut für Informatik und am<br />
„Digital Science Center“ (DiSC) der Uni<br />
Innsbruck, soll das Handlungsrepertoire<br />
von Robotern in Zusammenarbeit mit<br />
Menschen deutlich erweitern.<br />
Ein weiterer Schritt also zum humanoiden<br />
Roboter, wie ihn Čapek in R. U. R. konzipierte?<br />
„Aus wissenschaftlicher Sicht ist<br />
es extrem interessant, daran zu arbeiten.<br />
Wir lernen dabei viel über Intelligenz,<br />
Autonomie und wie der Mensch funktioniert“,<br />
sagt dazu Piater: „Ob aber jemals<br />
humanoide Roboter im Einsatz sein werden,<br />
ist offen, da die Komplexität immens<br />
ist. Möglicherweise kommt man mit spezialisierten<br />
Robotern viel weiter.“ ah<br />
JUSTUS PIATER (*1968 in Bremen) studierte<br />
Informatik an der TU Braunschweig<br />
sowie der Universität Magdeburg und<br />
schloss 1994 mit dem Diplom ab. An<br />
der University of Massachusetts machte<br />
er einen M. Sc. (1998) und einen Ph. D.<br />
(2001) in Computer Science. Nach einer<br />
Zeit als PostDoc am <strong>Forschung</strong>sinstitut<br />
INRIA Rhône-Alpes wechselte er 20<strong>02</strong> an<br />
die Université de Liège in Belgien. 2010<br />
wurde er an das Institut für Informatik<br />
der Universität Innsbruck berufen, wo er<br />
die Arbeitsgruppe Intelligent and Interactive<br />
Systems leitet.<br />
zukunft forschung <strong>02</strong>/22 29