Was passiert im Gehirn, wenn wir das Wort „Telefon“ lesen? Das kommt darauf an, zeigt eine Studie. Welche Rolle dabei zum Beispiel auditorische Areale in der Großhirnrinde spielen, lest ihr hier.
Um die Welt zu verstehen, ordnen wir die einzelnen Objekte, Menschen und Ereignisse in verschiedene Konzepte. Konzepte wie Telefon bestehen vor allem aus sichtbaren Merkmalen sowie Geräuschen. Dazu kommen Handlungen, also wie wir ein Telefon benutzen. Das Konzept Telefon entsteht im Gehirn aber nicht nur, wenn wir ein Telefon vor uns haben. Es zeigt sich auch, wenn lediglich der Begriff fällt. Dabei werden im Gehirn dieselben Regionen aktiv, die anspringen, würden wir ein Telefon tatsächlich sehen, hören oder benutzen.
Bislang war jedoch unklar, ob jeweils das gesamte Konzept abgerufen wird oder lediglich einzelne Merkmale wie Geräusche oder Handlungen – und ob entsprechend nur die Hirnareale aktiv werden, die das jeweilige Merkmal verarbeiten. ForscherInnen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig haben jetzt in einer großangelegten Studie herausgefunden: Es kommt auf die Situation an.
Sollten die StudienteilnehmerInnen etwa bei dem Wort „Telefon“ an die damit verknüpften Geräusche denken, wurden die entsprechenden auditorischen Areale in der Großhirnrinde aktiv, die auch beim eigentlichen Hören anspringen. Ging es darum, an die Benutzung eines Telefons zu denken, traten die somatomotorischen Areale in Aktion, die auch die tatsächlich durchgeführte Handlung verarbeiten würden. Zusätzlich zu diesen modalitätsspezifischen Arealen zeigte sich, dass es Areale gibt, die beides gemeinsam verarbeiten – Geräusche und Handlungen. Eines dieser sogenannten multimodalen Areale ist der linke Lobus parietalis inferior (IPL). Der wurde aktiv, wenn beide Merkmale abgefragt wurden.
Und nicht nur das: Die ForscherInnen fanden auch heraus, dass es neben Merkmalen, die auf Sinneseindrücken und Handlungen basieren, noch andere Kriterien geben muss, anhand derer wir Begriffe verstehen und einsortieren. Das zeigte sich, als die TeilnehmerInnen lediglich unterscheiden sollten, ob es sich um echte oder erfundene Wörter handelt. Hier sprang eine Region an, die weder für Handlungen noch für Geräusche zuständig ist: Der anteriore Temporallappen (ATL). Der ATL scheint daher Konzepte abstrakt oder amodal zu verarbeiten.
Aus diesen Erkenntnissen haben die WissenschaftlerInnen schließlich ein hierarchisches Modell entwickelt, das widerspiegeln soll, wie konzeptuelles Wissen im menschlichen Gehirn repräsentiert ist. Demnach werden Informationen von einer Hierarchieebene an die nächste weitergegeben und gleichzeitig bei jedem Schritt abstrakter. Auf der untersten Ebene liegen die modalitätsspezifischen Areale. Diese übertragen ihre Informationen an die multimodalen Regionen wie den IPL, die mehrere verknüpfte Wahrnehmungen gleichzeitig verarbeiten. Auf der höchsten Ebene arbeitet der amodale ATL, der von Sinneseindrücken losgelöste Merkmale repräsentiert.
„Wir zeigen also, dass sich unsere Konzepte von Dingen, Menschen und Ereignissen zum einen aus den damit assoziierten Sinneseindrücken und Handlungen zusammensetzen und zum anderen aus abstrakten symbolartigen Merkmalen“, erklärt Philipp Kuhnke, Erstautor der zugrundeliegenden Studie, die im Fachmagazin Cerebral Cortex veröffentlicht wurde. „Welche Merkmale aktiviert werden, hängt stark von der jeweiligen Situation oder Aufgabe ab.“
Dieser Artikel basiert auf einer Pressemitteilung des Max-Planck-Instituts für Kognitions- und Neurowissenschaften. Die beiden Studien haben wir euch jeweils hier und hier sowie im Text verlinkt.
Bildquelle: Mike Meyers, Unsplash