Die Bildgebung des Gehirns zeigt, was Sie sehen

Wissenschaftler sind dem Aufbau einer digitalen Version des menschlichen Sehsystems einen Schritt näher gekommen. Forscher der University of California, Berkeley, haben einen Algorithmus entwickelt, der auf Bilder der funktionellen Magnetresonanztomographie (fMRI) angewendet werden kann, um ein bewegtes Bild zu zeigen, das eine Person sieht.

Neurowissenschaftler verwenden fMRT seit Jahren, um das menschliche Sehsystem zu untersuchen, bei dem Veränderungen des Blutsauerstoffspiegels im Gehirn gemessen werden. Dies funktioniert gut, um zu untersuchen, wie wir statische Bilder sehen, aber es greift zu kurz, wenn es um bewegte Bilder geht. Die individuelle neuronale Aktivität verläuft über einen viel schnelleren Zeitraum, daher haben sich die Forscher der aktuellen Studie vor einigen Jahren daran gemacht, ein Computermodell zu entwickeln, um dies stattdessen zu messen. Die Studie zeigt, dass dieser neue Ansatz nicht nur erfolgreich, sondern auch bemerkenswert genau ist.



Die Studie, die in . erscheint Aktuelle Biologie Diese Woche ist es das erste Mal, dass jemand die Bildgebung des Gehirns verwendet, um zu bestimmen, welche bewegten Bilder eine Person sieht. Es könnte Forschern helfen, das menschliche Sehsystem auf einem Computer zu modellieren, und es erhöht die verlockende Aussicht, eines Tages das Modell verwenden zu können, um andere Arten dynamischer Bilder wie Träume und Erinnerungen zu rekonstruieren.

Die an der Studie beteiligten Forscher sahen sich stundenlang Filmvorschauen an, während sie in einem fMRT-Gerät lagen. Als nächstes dekonstruierten sie die Daten akribisch, sodass sie für jede Sekunde des Filmmaterials ein spezifisches Aktivierungsmuster hatten. Sie ließen diese Daten durch mehrere verschiedene Filter laufen, um abzuleiten, was auf neuronaler Ebene geschah. Sobald Sie dies getan haben, haben Sie ein vollständiges Modell, das die Verrohrung des Blutflusses, die Sie mit fMRT sehen, mit der neuronalen Aktivität verknüpft, die Sie nicht sehen, sagt Jack Gallant, der die Studie gemeinsam mit seinem Kollegen Shinji Nishimoto verfasst hat.

Als nächstes stellten die Forscher eine Bibliothek mit 18 Millionen zufällig ausgewählten YouTube-Videoclips zusammen, um ihr Modell objektiv zu testen. Frühere Studien haben gezeigt, dass fMRI verwendet werden kann, um statische Bilder zu bestimmen, die ein Subjekt betrachtet, aber das neue Computermodell bot die Möglichkeit, Bilder mit Bewegungsrichtung und Form zu rekonstruieren. Niemand hat zuvor versucht, dynamisches Sehen mit dieser Detailgenauigkeit zu modellieren, sagt Jim Haxby, ein Neuroimaging-Experte am Dartmouth College, der nicht an der Studie beteiligt war.

Die Forscher nutzten die YouTube-Bibliothek, um zu simulieren, was auf den fMRT-Bildern passieren würde, wenn sie neue Filmtrailer sahen. Die Ergebnisse der Simulationen und fMRT-Scans waren nahezu identisch. Normalerweise bekommt man diese Art von Genauigkeit nur in der Physik, nicht in den Neurowissenschaften, sagt Benjamin Singer, ein fMRI-Forscher an der Princeton University, der nicht an der Studie beteiligt war. Es ist eine Tour de Force, die jahrzehntelange Arbeit vereint.

Es gibt zwei wesentliche Vorbehalte gegenüber der Studie. Die Forscher verwendeten fMRT-Daten aus nur einem Bereich des visuellen Systems – dem V1-Bereich, der auch als primärer visueller Kortex bekannt ist. Und die Modelle wurden auf jedes Thema zugeschnitten. Der Versuch, ein Modell zu entwerfen, das für alle funktioniert, wäre zu schwierig gewesen, sagt Gallant, obwohl er vermutet, dass in Zukunft ein allgemeineres Modell entwickelt werden könnte.

Das ultimative Ziel dieser Forschung ist es, eine Computerversion des menschlichen Gehirns zu erstellen, die die Welt so sieht, wie wir es tun. Die Studie zeigt auch einen unerwarteten Nutzen für eine bestehende Technologie. Jeder dachte immer, es sei unmöglich, dynamische Gehirnaktivitäten mit fMRT wiederherzustellen, sagt Gallant.

verbergen