Robotern wird Hausverstand eingebläut

Grazer TU-Team lehrt sie, aus ihren Fehlern zu lernen.

Für uns Menschen sind Irrtümer meist ohne große Folgen: Wer zur Mittagspause gedankenverloren mit dem Lift in die Tiefgarage statt in die Kantine fährt, kehrt halt wieder um. „Menschen benützen Schlussfolgerungen, um mit solchen Phänomenen umzugehen“, erklärt Gerald Steinbauer vom Institut für Softwaretechnologie der TU Graz. Er forscht mit seinen Mitarbeitern seit Jahren an der Entwicklung intelligenter autonomer Roboter. Für Serviceroboter etwa sind Irrtümer jedoch problematisch: „Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen.“

In einem kürzlich abgeschlossenen Projekt des Wissenschaftsfonds FWF haben Steinbauer und sein Team nun einen Schlussfolgerungsmechanismus entwickelt. Dieser erlaubt es dem Roboter, Irrtümer zu erkennen, indem er sein Wissen mit den Anforderungen der realen Welt abgleicht. Stimmte es nicht mehr überein, wurde ihm beigebracht, sich der neuen Situation anzupassen. „Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als Nächstes tun muss“, sagt Steinbauer.

Lässt sich nicht austricksen

Dieses Modell hat sich im Test bereits bewährt: Ein Roboter des Forschungsinstituts, der mehrere Tage einfache Lieferaufgaben bekam, ließ sich auch durch Tricks nicht irritieren.

An Grenzen stößt das Forscherteam dennoch: wegen der beschränkten Rechenleistung heute gängiger Computer. „Wenn die Aktionskette länger wird, wird es sehr komplex“, sagt Steinbauer. Es könne Stunden oder gar Tage dauern, bis der Roboter ein neues Problem löst. Die Erforschung von Wahrnehmung und Kognition sei deshalb grundlegend wichtig. „Wir müssen verstehen, wie biologische Systeme wirklich funktionieren.“ (APA/trick)

("Die Presse", Print-Ausgabe, 02.07.2016)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.