Normalerweise hat man keine Probleme zu erkennen, welche Geräusche mit welchen visuellen Eindrücken zusammengehören – obwohl die Signale auf verschiedenen Nervenbahnen verarbeitet werden. Ein Mechanismus erklärt, wie das Gehirn es schafft, die Sinnesreize zusammenzuführen.
Pfeift der Schiedsrichter oder war es ein Störgeräusch aus dem Publikum? Diese mitunter spielentscheidende Wahrnehmungsfrage kann ein Fußballer wesentlich präziser beantworten, wenn er den Schiedsrichter nicht nur hört, sondern auch sieht. Aber woher weiß sein Gehirn bei der Unzahl von visuellen Eindrücken und Geräuschen, die in einem vollen Stadion herrschen, welche Sinnesinformationen zusammengehören? „Es ist eine grundlegende Fähigkeit, unseres Gehirns Informationen aller Sinneskanäle zu verwerten. So können wir unsere Umwelt möglichst robust und genau wahrnehmen“, sagt Dr. Cesare Parise von der Forschungsgruppe Kognitive Neurowissenschaften, die am Exzellenzcluster CITEC arbeitet. Parise, der ebenfalls am Max-Planck-Institut für biologische Kybernetik und als Wissenschaftler für Oculus VR Facebook tätig ist, ist Erstautor der neuen Studie. Verfasst hat er sie zusammen mit Professor Dr. Marc Ernst, der bis März 2016 an der Universität Bielefeld forschte. „Wir werden ständig mit einer Fülle von multisensorischen Informationen überhäuft. Doch woher weiß unser Gehirn, welche Signale zueinander passen und daher kombiniert werden müssen? Das wollten wir herausfinden“, sagt der Wissenschaftler. „Multisensorische Integration“ nennt er die Fähigkeit des Gehirns, zu erkennen, ob und wie visuelle, akustische und weitere Sinnesreize zusammenhängen.
Eine Reihe von Knallkörpern in der Silvesternacht, die aufblitzen und knallen, oder eine Person in einer Menschenmenge, die uns anspricht – meist hat das Gehirn keinerlei Schwierigkeiten herauszufinden, welche Geräusche mit welchen visuellen Eindrücken zusammengehören. Bisher ist jedoch unklar, wie unser Gehirn diese scheinbar so einfache Aufgabe löst und die Bildeindrücke und Geräusche automatisch nur dann miteinander verknüpft, wenn sie tatsächlich zusammengehören. „Eine solche Übereinstimmung herauszubekommen, ist kein triviales Problem für das Gehirn“, sagt Parise. „Die visuellen und akustischen Informationen kommen zwar vom gleichen Ereignis. Sie werden aber größtenteils in voneinander unabhängigen Nervenbahnen verarbeitet. Trotzdem können wir offensichtlich ohne große Anstrengung sagen, welche Signale zusammengehören.“
Um zu klären, wie das Gehirn diese Kombinationsaufgabe meistert, ließen sich Freiwillige in einem Wahrnehmungsexperiment testen. Darin beobachteten sie kurze Abfolgen mit zufälligen Klickgeräuschen und aufflackernden Lichtblitzen auf einem Monitor. Nach jeder Abfolge mussten sie angeben, ob Licht und Geräusch zusammengehörten und welches Signal zuerst vorkam. Mit statistischen Analysen zeigten Ernst und Parise, dass die Antworten davon abhingen, ob die Signale zeitlich korrelierten, also einen ähnlichen zeitlichen Ablauf hatten. „Das ist eine wichtige Erkenntnis, denn sie beweist nicht nur, dass das Gehirn die zeitliche Wechselwirkung zwischen Geräusch und Licht nutzt, um festzustellen, ob sie miteinander verbunden sind“, sagt Professor Dr. Marc Ernst. „Sie führt auch zu der Frage: Wie stellt das Gehirn diese Beziehung zwischen den Sinnen fest?“
Um diese Frage zu beantworten, nutzen Parise und Ernst computergestützte Modellberechnungen und Simulationen. Dabei identifizierten sie einen grundlegenden neuronalen Mechanismus, der die menschliche Wahrnehmung nachahmt. Die Forscher bezeichnen diesen Mechanismus als „Korrelationsdetektor für multisensorische Information“. Dieses „Suchgerät“ überwacht die Sinne und hält nach visuellen und akustischen Signalen Ausschau, die sich ähneln. Wenn die Reize einen ähnlichen zeitlichen Ablauf haben, folgert das Gehirn, dass sie zusammengehören und führt die Signale zusammen. Ein Beispiel: Hört eine Person im Verkehrslärm Schritte auf der Straße, dann erfasst das Gehirn den zeitlichen Abstand zwischen dem Klacken der Schuhe. Wenn die Person schließlich den Spaziergänger erblickt, dann misst das Gehirn, in welchem Tempo die Person auftritt. „Aus den ähnlichen zeitlichen Abläufen folgert das Gehirn, ob zwei Signale tatsächlich vom selben Ereignis stammen“, sagt Parise. „Verblüffenderweise gleicht dieser neu entdeckte Mechanismus den Bewegungsdetektoren im Gehirn von Insekten“, sagt der Experimentalpsychologe. „Hinzu kommt, dass er auch eine erstaunliche Verwandtschaft zu Mechanismen hat, die aus dem räumlichen Stereosehen oder dem räumlichen Stereohören bekannt sind – alles Wahrnehmungseigenschaften, bei der die Korrelation zwischen den einzelnen Signalen eine große Rolle spielt“
Mit weiteren Computersimulationen bewiesen Parise und Ernst die Allgemeingültigkeit des Mechanismus. Sie konnten mit demselben Mechanismus zahlreiche bereits veröffentlichter Daten und experimenteller Befunde zur multisensorischen Wahrnehmung aus Verhaltensexperimenten beim Menschen erklären. „Tatsächlich kam der Detektor in der Simulation zu den gleichen Ergebnissen wie die Menschen im Verhaltensexperiment “, sagt Parise, der für die Studie vom Bernstein Center for Computational Neuroscience Tübingen gefördert wurde. „Das Ergebnis unserer Studie stellt einen Meilenstein für das Verständnis der menschlichen Wahrnehmung dar“, sagt Parise. „Sie präsentiert zum ersten Mal einen allgemeingültigen Mechanismus, der die vielen unterschiedlichen Befunde aus früheren Studien erklärt, in denen es um die Verarbeitung von multisensorischen Reizen ging.“ Laut Parise lässt sich diese Erkenntnis für zahlreiche praktische Anwendungen nutzen. „Zum Beispiel ergeben sich neue klinische Untersuchungsansätze, um neurologische Störungen wie Autismus-Spektrum-Störungen oder Lese-Rechtschreibstörungen besser zu verstehen. Hinzu kommt, dass sich unser Modell leicht in die Technik und auf Roboter übertragen lässt“, sagt Parise. Originalpublikation: Correlation detection as a general mechanism for multisensory integration Cesare Parise et al.; Nature Communications, doi: 10.1038/ncomms11543; 2016