Zur Hauptnavigation springen [Alt]+[0] Zum Seiteninhalt springen [Alt]+[1]

Neue Methoden zum Gedankenlesen

Auch wenn die Hirnforscher nicht unter den ersten Plätzen des „Brain Interpretation"-Wettbewerbs vertreten waren, bewegt sich doch einiges an der Forschungsspitze der kognitiven Neurowissenschaft, um die neuronalen Grundlagen von Denkprozessen zu verstehen. Neuere multivariate Auswertmethoden beschränken sich nicht darauf, gemittelte Signalstärke einzelner Voxel oder Regionen auf ihre Korrelation mit einem Stimulus oder einer Aufgabe zu untersuchen. Stattdessen suchen sie in Gehirnaufnahmen einer bestimmten Zeitspanne nach spezifischen Mustern aktivierter Voxel in einem bestimmten Hirnbereich. Diese Ergebnisse können dabei helfen, ungelöste Fragen der neuronalen Informationsverarbeitung zu lösen, beispielsweise ob diese eher modular und lokal funktioniert (27, 28) oder holistisch und räumlich verteilt (29, 30). Die Verfahren, die dabei zum Einsatz kommen, werden schon bei zahlreichen praktischen Anwendungen zur Mustererkennung verwendet, etwa der automatischen Gesichtserkennung oder der Analyse von DNA Information. Dabei funktionieren die Auswerteprogramme, zum Beispiel die „Support Vector Machines" (SVM) (31, 32), nach dem folgenden Verfahren: Zunächst sucht der Algorithmus mit einer Reihe von Trainingsdatensätzen nach Zusammenhängen in der Aktivierung der einzelnen Datenpunkte, dem Muster. Dafür muss man jedoch nicht nur die Datenpunkte selbst, sondern auch Information darüber in das System füttern, welche experimentelle Bedingung zu welchen Daten gehört. Ist die Trainingsphase abgeschlossen, verwendet man idealerweise einen neuen Datensatz, um die Klassifikation des Algorithmus zu überprüfen. Hat dieser für bestimmte Datenpunkte ein Muster erkannt, wird er mit einer gewissen Wahrscheinlichkeit bestimmen können, welche experimentelle Bedingung bei der Aufnahme dieses Datensatzes vorlag. Gelingt das mit hoher Genauigkeit, so kann man darauf schließen, dass das Muster der neuronalen Verarbeitung an diesem Ort, über mehrere Datenpunkte verteilt, spezifisch mit der experimentellen Aufgabe verbunden ist (Abb. 1).

Konkret haben David Cox und Robert Savoy dies beispielsweise mit zehn verschiedenen Objektkategorien durchgeführt, zu denen jeweils zwölf graustufige Fotos gehörten. Den Versuchspersonen wurden in Blöcken von 20 Sekunden Länge zehn zufällig gewählte Fotos aus einer dieser Kategorien gezeigt, beispielsweise zehn Fotos von Teekannen, Gartenzwergen, Kühen oder Pferden. Zusätzlich zum Betrachten bekamen die Versuchspersonen noch die Aufgabe, jedes der gezeigten Objekte gedanklich zu benennen. In ihrem ersten Experiment nahmen sie die Trainings und Testdatensätze mehrere Tage oder gar Wochen getrennt voneinander auf. Dabei sollte eine bestimmte Liegevorrichtung sicherstellen, dass sich die Köpfe der Versuchspersonen an etwa derselben Stelle und in derselben räumlichen Ausrichtung befanden. Nach dem Training konnte die SVM schon mit nur 50 frei aus dem Gehirn gewählten Datenpunkten mit 85%iger Genauigkeit bestimmen, zu welcher Kategorie die gesehenen Objekte aus einem der Testblöcke gehören (31). Schränkt man dabei die Auswahl der Datenpunkte auf objektspezifische kortikale Areale ein, sinkt die Erkennungsrate auf 41%, was jedoch immer noch deutlich höher ist als der Zufallswert von 10%. Diese Werte variieren aber stark zwischen den Versuchspersonen. Bei einer zweiten wurden nur 58% beziehungsweise 33% Genauigkeit erzielt. Doch liegen auch diese Ergebnisse noch höher als der Zufall. In ihrem zweiten Experiment gingen Cox und Savoy noch einen Schritt weiter. Diesmal teilten sie die Fotos der zehn Objektkategorien in jeweils zwei Hälften: sechs Fotos für die Trainingsmessungen und sechs andere für die Testdurchläufe. Das heißt, diesmal sollte die SVM eine Zuordnung für Hirndaten treffen, die beim Betrachten von Fotos entstanden war, die zwar zur selben Kategorie gehörten, jedoch vorher noch nicht gezeigt wurden. Auch in diesem Fall gelang die Erkennung mit 59 bis 97%iger Genauigkeit für die Versuchspersonen, beziehungsweise 29 bis 55%iger, wenn man die Auswahl der Datenpunkte wieder auf objektspezifische kortikale Areale beschränkte. Das heißt, die Musterkennung konnte bestimmte Invarianten in den gemessenen Daten identifizieren, die einerseits über die Messzeitpunkte (Tage bis Wochen) oder andererseits über die jeweiligen Fotos hinweg (alte und neue Fotos einer Objektkategorie) generalisiert waren. Die Forscher werten dies als Hinweis darauf, dass die Objektrepräsentation im Gehirn auf räumlich verteilte Weise geschieht, denn sonst würden die gewonnenen Muster keine so gute Vorhersage ermöglichen.

bild

Abb. l Neuere Auswertverfahren suchen nicht nach einzelnen Bildpunkten, welche möglichst gut mit dem experimentellen Design korrelieren, sondern überprüfen räumlich verteilte Bildpunkte auf spezifische Zusammenhänge ihrer Aktivierung, das Muster.

Weiter: Verrate mir deine Absichten