zum Hauptinhalt
Projektleiterin Kerstin Schill testet mit einem Mitarbeiter die neuartige Experimentierkugel.

© dpa

Neuroinformatik: Damit sich Roboter zurechtfinden

Probelauf im Hamsterrad: Bremer Neuroinformatiker arbeiten an einem Assistenzsystem für die Wohnung.

Thorsten Kluß läuft quer durch den Raum, vorbei an einem Sofa und einer Topfpflanze. Vor einem Gemälde hält er kurz inne. Dann dreht er sich um und betritt den nächsten Raum. Der Rundgang durch die Wohnung spielt sich allerdings nur vor seinen Augen ab. In Wirklichkeit läuft Kluß nur auf der Stelle – und zwar in einer riesigen Kugel. Dabei wirkt der wissenschaftliche Mitarbeiter an der Universität Bremen ein bisschen wie ein Hamster im Laufrad.

Die etwa 2,80 Meter große Kugel ist jedoch kein Sportgerät für bewegungshungrige Uni-Mitarbeiter, sondern eine in Europa einzigartige Versuchsplattform. Mit ihrer Hilfe wollen Kerstin Schill und ihre Kollegen vom Sonderforschungsbereich Raumkognition an den Hochschulen Bremen und Freiburg untersuchen, wie das menschliche Gehirn Räume konstruiert.

Die Professorin für kognitive Neuroinformatik geht davon aus, dass unsere Bewegungen durch einen Raum zusammen mit den dabei gesammelten Sinneseindrücken ausschlaggebend sind. „Motorik und Sensorik formen das Bild vom Raum.“ Damit steht Schill in der Kognitionsforschung jedoch ziemlich alleine da. Viel weiter verbreitet ist die Meinung, dass das Gehirn eine Art geometrische Karte des Raumes erstellt. „Wir zetteln da mit einigen anderen Vertretern auf der Welt eine kleine Revolution an“, sagt Schill.

Experimente mit der Kugel sollen ihre Annahme untermauern. Eine amerikanische Firma hat den Prototypen für die Bremer Uni angefertigt. Mit seiner Hülle aus extrem hartem, transparentem Kunststoff mutet er fast wie ein schickes Design-Möbelstück an. Die Form wurde aber aus einem ganz bestimmten Grund so gewählt: Sie erlaubt unendlich viele Versuchsmöglichkeiten.

Durch eine runde Öffnung im Kunststoff schlüpft Kluß in die Kugel. Diese lagert in einer festen Verankerung auf Rollen und erlaubt so Bewegungen in jede Richtung. „Es gibt keine physikalischen Grenzen“, erläutert Schill. Über eine dunkle Brille mit Display sieht Kluß nun eine Wohnung, die seine Kollegen am Computer modelliert haben. „Man braucht etwa eine halbe Stunde, um sich an das Laufen in der Kugel zu gewöhnen. Dann hat man es gut raus“, sagt er. Kluß beginnt mit seinem Rundgang. Auf einer Leinwand kann Schill verfolgen, wohin ihr Mitarbeiter läuft. Per Funk überträgt die Brille permanent Daten an einen Rechner. Dieser zeichnet die zurückgelegte Strecke und die Augenbewegungen von Kluß auf.

Im Januar sollen die ersten Versuchsreihen starten. Dann werden Testpersonen durch verschiedene virtuelle Welten geschickt. Wenn sie diese vollständig erkundet haben, bekommen sie Aufgaben gestellt. Die Forscher wollen unter anderem die Geometrie der Räume verändern und dann sehen, wie die Versuchsteilnehmer darauf reagieren. Später sollen sie über Kopfhörer auch Geräusche wahrnehmen können. Gerüche sind künftig ebenfalls geplant.

Bei ihren Experimenten geht es Schill nicht nur um die Erkenntnis. Sie hat ein ganz konkretes Ziel vor Augen. „Wir wollen die Ergebnisse nutzen, um Assistenzsysteme zu entwickeln, die älteren Menschen selbstständig helfen können“, erläutert die Informatikerin. „Der Umgang mit ihnen muss mühelos sein. Dafür müssen die Roboter die Wohnung kennen und wissen, wo sie selbst sind.“ Sie müssen sozusagen mitdenken können.

Gerade das ist eine Herausforderung. Bisher folgen technische Systeme ihren eigenen Regeln und können nur einzelne Aufgaben lösen. Ein Roboter könnte zwar einen Kochtopf erkennen, aber zum Beispiel nicht, ob das Essen darin gerade anbrennt. Das menschliche Gehirn kann dagegen mehrere Sinneseindrücke gleichzeitig verarbeiten und dadurch Situationen mit einem Blick erfassen. „Es gibt noch kein intelligentes System, das unsere sensorischen Wahrnehmungen nachahmen kann“, betont Schill.

Die Deutsche Forschungsgemeinschaft fördert Schills Versuche mit rund 110.000 Euro, noch einmal so viel bekommt sie von der Uni. Das Projekt ist bis 2015 angelegt. Erste einfache Assistenzsysteme mit diesen Fähigkeiten könnte es nach Ansicht von Schill in fünf bis sechs Jahren geben. Bis ein Roboter aber wirklich mitdenken kann, werden noch viele Jahre vergehen. (dpa)

Irena Güttel

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false