Wahrnehmung von Musik und Sprache sind verwandt

(c) Bilderbox (Erwin Wodicka)
  • Drucken

Inwieweit sich die neuronalen Prozesse der Sprach- und Musikwahrnehmung gleichen, untersucht ein neuer Forschungscluster in Wien.

Sie lesen einen Roman von Thomas Mann oder hören ein Klavierkonzert von Franz Liszt. Zwei unterschiedliche Medien, zwei verschiedene Informationskanäle, zwei kulturelle Ereignisse. Das eine ein Buch, das andere ein Musikstück, zwei sinnliche Erlebnisse, das eine visuell, das andere auditiv – und dennoch haben sie möglicherweise eines gemeinsam: Es könnte Hirnregionen geben, die sowohl für die Verarbeitung von Thomas Mann als auch von Franz Liszt von Bedeutung sind.

Gemeinsam mit dem Kognitionsbiologen Tecumseh Fitch der Universität Wien geht der Neurologe Roland Beisteiner dieser Frage im Forschungscluster „Imaging & Kognitionsbiologie“ nach. „Neueste Forschungsergebnisse legen nahe“, so Beisteiner, „dass manche Bereiche des menschlichen Gehirns sowohl für das Verständnis von Sprache als auch für das Verständnis gehörter Musik von großer Bedeutung sind.“

Es ist nie genau das gleiche Netzwerk von Gehirnregionen aktiv, allerdings können sich Hirnaktivitäten beim Lesen und Musikhören überlappen. Kompliziert wird es, da je nachdem, welche Assoziationen ein Individuum beim Hören von Sprache und beim Hören von Musik entwickelt, das Gesamtaktivierungsbild sehr unterschiedlich sein kann. Manche Menschen assoziieren z.B. intensive Bilder beim Musikhören. „Bei Synästheten können beispielsweise Ton- und Farbwahrnehmungen assoziiert sein.“


Gemeinsame Gehirnregionen. Analog zum Hören gibt es auch überlappende Areale für die Produktion von Sprache und Musik. Wahrnehmung und Verarbeitung von Sprache und Musik scheinen also in manchen Punkten gemeinsame Hirnregionen zu benötigen.

Die Schwerpunkte des Forschungsclusters sind einerseits, diese Areale im Gehirn möglichst genau zu bestimmen, und andererseits, über deren gezielte Aktivierung neue Therapieansätze zu entwickeln. „Denkbar wäre es, neue therapeutische Maßnahmen bei motorischen Aphasien, also Sprechunfähigkeit nach Schlaganfällen, abzuleiten“, so Beisteiner.


Aufgaben lösen. Zu Beginn des Forschungsprojekts wird das Verhalten von Testpersonen bei der Lösung verschiedener kognitiver Aufgaben untersucht. Die Probanden müssen Muster bei Sprachstimuli, Musikstimuli und visuellen Reizen erkennen. Anschließend erfolgen Messungen, um herauszufinden, welche Gehirnregionen bei den Aufgabenlösungen in welcher Konfiguration aktiv sind.

Dabei werden Verfahren der funktionellen Magnetresonanztomografie verwendet, die seit 1992 von der Arbeitsgruppe um Roland Beisteiner am Exzellenzzentrum Hochfeld MR der Medizinischen Universität Wien und der Universitätsklinik für Neurologie am AKH entwickelt und implementiert wurden.

„Wir schauen, welche Art von Informationsstruktur im Gehirn wie verarbeitet wird und welche Überlappungen es bei der Sprach- und der Musikverarbeitung gibt“, so der Neurologe. Die Ergebnisse dienen dann als Grundlage für die Entwicklung von therapeutischen Ansätzen.

Interessant ist, dass Menschen mit Aphasien die Aussprache korrekter Sätze schwerfällt, viele von ihnen aber ein Lied singen können. Bei der Sprachtherapie ist es daher oftmals sinnvoll, auch musikalische Aufgaben zu trainieren.

Widerspricht sich das nicht? Sprechen von Wörtern nein, singen von Wörtern ja? „Es gibt eben verschiedene Möglichkeitenm Sprachnetzwerke im menschlichen Gehirn zu aktivieren.“ Fällt das „Standardnetzwerk“ aus, kann man bei manchen Patienten das Gehirn dazu bringen, über alternative Netzwerke doch noch Sprache zu produzieren. Wie dies genau funktioniert und am besten therapeutisch eingesetzt werden kann, sind zwei der großen Fragen des Forschungsclusters.


Unmusikalische Menschen. Interessant ist weiters, dass sich die kognitiven Verarbeitungsmechanismen von Hörerlebnissen sowohl bei musikalischen Menschen als auch bei Menschen, die sich selbst als unmusikalisch bezeichnen – wenn man es so vereinfachen will – ähneln. „Die Menschen unterscheiden sich also in ihren Fähigkeiten, selbst Musik zu produzieren; in ihrer Wahrnehmung können allerdings fundamentale Übereinstimmungen zu finden sein“, so der Kognitionsbiologe Tecumseh Fitch.

Der Forschungscluster „Imaging & Kognitionsbiologie“ ist einer von sechs Clustern, die die Med-Uni und die Universität Wien im Jahr 2011 gemeinsam ins Leben gerufen haben, um Synergien besser zu nutzen. Die sechs Forschungsvorhaben sind alle fächerübergreifend und sollen eine Brücke zwischen der Grundlagen- und der patientenorientierten Forschung schlagen. Gefördert werden die auf drei Jahre befristeten Projekte mit insgesamt 1,3 Millionen Euro. Danach sollen sie sich mit Drittmitteln selbst weiterfinanzieren können.

Gehirnareale

Sprachzentren im Gehirn: Die klassische Differenzierung in zwei große Gehirnareale, die für die Sprachverarbeitung zuständig sind, gilt als überholt. Früher wurden das Broca-Areal, das motorische Sprachzentrum, das für die Bildung von Lauten und Worten verantwortlich ist, und das Wernicke-Areal, das sensorische Sprachzentrum, das für das
Sprachverständnis notwendig ist, unterschieden.

Funktionelle Bildgebungsverfahren wie Magnetresonanztomografie haben diese klassische Vorstellung nicht bestätigt. Nun gehen die Forscher
von einer ganzen Reihe von relativ
weit verteilten Arealen für die
Sprachverarbeitung aus.

("Die Presse", Print-Ausgabe, 01.01.2012)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.