Vom Gehirn lernen

Für die Verarbeitung visueller Signale im menschlichen Gehirn ist der visuelle Cortex zuständig. Einem Innsbrucker Informatiker ist es nun gelungen, die Funktionsweise dieses Hirnbereichs in einem Computermodell weitgehend nachzubauen.
ipoint_rodriguez_sanchez_flickr.jpg
Die Verarbeitung optischer Signale im visuellen Cortex hat ein Innsbrucker Wissenschaftler als Modell nachgebaut. (Foto: flickr.com/orangeacid)

Das menschliche Gehirn ist ein bemerkenswertes Organ: Es integriert und verarbeitet alle Informationen, die der Körper aufnimmt. Mit der Informationsverarbeitung im Gehirn beschäftigt sich die „Computational Neuroscience“, ein interdisziplinärer Wissenschaftszweig, der besonders auf das Verständnis von informationsverarbeitenden Prozessen im Nervensystem abzielt. In verschiedenen Bereichen des Gehirns werden unterschiedliche Signale verarbeitet; für das Sehen ist der visuelle Cortex verantwortlich. Der Innsbrucker Informatiker Antonio Rodríguez-Sánchez hat nun vor kurzem ein Berechnungs-Modell veröffentlicht, das versucht, zu beantworten, wie die Nervenzellen im menschlichen Gehirn Formen und Gegenstände wahrnehmen.

Nervenzellen

Der visuelle Cortex besteht aus Millionen von Nervenzellen. Unser heutiges Verständnis dieses Gehirnbereichs geht auf die Neurowissenschaftler Torsten N. Wiesel und David H. Hubel zurück, die für ihre Arbeit ab 1962 später auch den Nobelpreis erhalten haben – das Forschungsfeld ist also noch vergleichsweise jung. „Vereinfacht gesprochen können Sie sich die Nervenzellen, die für die Wahrnehmung von Gegenständen verantwortlich sind, in etwa wie eine Pyramide vorstellen“, erklärt Antonio Rodríguez-Sánchez. Diese Hierarchie – untere Schichten sind etwa für die Interpretation von Ecken und Kanten verantwortlich, höhere für die ganzer Objekte – hat der Informatiker in einem Computermodell nachgebaut, mathematische Gleichungen übernehmen die Funktion der Neuronen.

Die Ergebnisse dieses Modells hat Rodríguez-Sánchez mit schon vorhandenen medizinischen Messungen bei Primaten-Gehirnen verglichen. Das Ergebnis ist vielversprechend: „Mein Modell hat 83 Prozent Genauigkeit erzielt, das ist für ein derartiges Modell sehr hoch“, erklärt er. Für praktische Anwendungen bedeutet das, dass Roboter, deren visuelle Wahrnehmung jener von Menschen nahe kommt, in realistische Reichweite rücken.

Anwendung

Entsprechende Roboter können zum Beispiel als Hilfe für bewegungseingeschränkte Personen dienen: „Ein Beispiel ist ein Projekt namens Playbot in meiner früheren Arbeitsstelle an der York University in Kanada: Ein Rollstuhl ist mit Sensoren ausgestattet, die erkennen, wohin der Mensch im Stuhl blickt und entsprechende Bewegungen ausführt“, sagt Rodríguez-Sánchez. „Das System erkennt Gegenstände – wenn Sie auf eine Tür schauen, öffnet oder schließt er die Tür für Sie und fährt Sie hin.“ Durch sein Modell kann diese visuelle Erkennung noch genauer abgestimmt werden. Auch in der Medizin könnten Rodríguez-Sánchez’ Erkenntnisse zur Anwendung kommen: „Es gibt Menschen, deren Augen zwar funktionieren, die aber aufgrund eines Fehlers im visuellen Kortex nicht sehen können“, erklärt der Informatiker. Für Schäden am Auge wird etwa bereits an Retina-Implantaten geforscht. „Wer weiß, vielleicht können wir in ferner Zukunft sogar beschädigte Teile des Gehirns selbst ersetzen. Die Forschung geht jedenfalls in diese Richtung“, sagt Antonio Rodríguez-Sánchez.