Wie ermöglicht das Gehirn Sprachverständnis? Wie sind Sprache und Denken miteinander verknüpft?
Umfang und Einsatzmöglichkeiten der menschlichen Sprache übersteigen in vielfacher Hinsicht die Möglichkeiten der Kommunikation von Tieren. Dennoch hat die menschliche Sprachfähigkeit biologische Wurzeln. Aus der Sicht der Gehirnforschung steht im Vordergrund, dass die Sprachfunktionen schwerpunktmäßig in ganz bestimmten Orten des Gehirns verankert sind.
Unter der Lateralisierung der Sprachfunktionen versteht man den Befund, dass Sprachfunktionen häufig dann defizitär werden, wenn es zu Verletzungen (Infarkt, Tumor) auf der linken Gehirnhälfte kommt. Die Leistungsunterschiede zwischen den Gehirnhälften (Hemisphären) kommen dadurch zustande, dass die Großhirnrinde, also die gewundene Oberfläche des Gehirns, links mehr Nervenzellen besitzt als rechts, wo es geringfügig mehr Fasern gibt. Vereinfacht gesprochen, können dadurch links mehr Einzelfakten (Kategorien, Symbole und eben auch sprachliche Zeichen) gespeichert werden. Die rechte Gehirnhälfte speichert in der Regel eher assoziative Verbindungen (Zusammenhangswissen, Landkarteninformationen, Episoden). Zu Fragen der Lateralisierung finden Sie eine Audiodatei beim Überblick über das Gehirn und weitere Informationen im Kapitel über kategoriales und regelgeleitetes Denken.
Für das Verstehen der Lautsprache ist der Hörsinn von zentraler Bedeutung (siehe Wahrnehmung). Die primäre Verarbeitung von Hörinformationen findet im schläfenseitigen Teil der Großhirnrinde statt. Dabei kann die Oberseite des rechten Schläfenlappens in hohem Maße einzelne Töne voneinander unterscheiden (hohe Frequenzauflösung), während die Oberseite des linken Schläfenlappens eher auf die Abfolge von Tönen spezialisiert ist (Abfolgeanalyse). Das wird als Grundlage der funktionellen Spezialisierung der Gehirnhälften auf Musik (rechts) und Sprache (links) angesehen.
Bei 96% der Rechtshänder und 73% der Linkshänder werden Sprachlaute im linken Schläfenlappen gespeichert und von den dortigen Netzwerken in den ankommenden Hörsignalen wiedererkannt. Die Analyse der Hörinformationen erfolgt schrittweise durch Informationsweiterleitung in aufeinanderfolgenden Arealen, zuerst durch Entdeckung elementarer Lauteinheiten (Phoneme wie „ba“ oder „tong“), dann durch Erkennung von bereits bedeutungstragenden Einheiten (Morpheme als Klangbilder von Worten und einfache Phrasen).
Bevor Sie den nachfolgenden Text lesen, sollten Sie sich das Video über „Lesen und Sprechen“ im Kapitel über das Grosshirn angesehen haben.
Das zentrale Sprachareal im Schläfenlappen der linken Hemisphäre, das die zuletzt genannten Leistungen erbringt wird nach seinem Erstbeschreiber als Wernicke-Areal bezeichnet (s. Forschungsliteratur). Das Pendent auf der rechten Gehirnhälfte dient der Erkennung von Betonungen und Akzentsetzungen. Ein Areal, das dicht hinter dem Wernicke-Areal liegt, kontrolliert offenbar bei Zweitsprachlern und Dolmetschern das Sprachverständnis. Unmittelbar vor dem Wernicke-Areal erfolgt linkshemisphärisch die Speicherung und Wiedererkennung von einfachen, häufig verwendeten Redewendungen und Redefiguren. Das entsprechende Areal in der rechten Hemisphäre dient der Melodieerkennung.
Wie sind Sprache und Wissen erknüpft?
Die Speicherung von Sprachinformationen erfolgt individuell sehr unterschiedlich, insbesondere auch bei Mehrsprachlichkeit. Als Faustregel gilt jedoch, dass etwa Begriffe, die den Körper oder Tiere betreffen, eher auf der Seitenfläche des Temporallappens gespeichert sind, während Begriffe zu Werkzeugen eher in Netzwerken verankert sind, die eine Nähe zum Tast- und Bewegungsgefühl aufweisen.
Verletzungen des Wernicke-Areal führen dazu, dass die Patienten ihrem eigenen Sprechen nicht mehr richtig zuhören können. Daher wird das, was sie sagen, inhaltlich nicht mehr gut kontrolliert und ist kaum verständlich. Vertauschungen werden nicht korrigiert („Schülkrank“ statt Kühlschrank) und nicht verfügbare Worte werden irgendwie ergänzt („Reisetasche“ statt Koffer). Der Sprachfluss ist dagegen ungehindert und sogar oft überschießend: „Und dann wird das eben gemeinsam wird das so gemacht“.
Auf der Seite zur Wahrnehmung finden Sie eine Audio-Datei zu den Hirnarealen, die Ton- und Sprachwahrnehmungen ermöglichen. Die folgende Audio-Datei informiert Sie zusammenfassend über die Fähigkeit des Menschen, Sprache zu verstehen und zu verwenden:
Tipps für den Alltag des Sprachverständnisses
Sprachverständnis und Sprechen hängen insofern zusammen, weil Sprechen ohne Sprachverständnis nicht möglich ist. Auf der anderen Seite hilft Wissen über Artikulationsgewohnheiten und häufig verwendeten grammatikalischen Formen beim Verstehen von Sprache.
Vor allem das Verstehen von komplizierten Sätzen oder von einem Sinnzusammenhang in einem Absatz muss geübt werden. Ein solches Verstehen wird nämlich nicht einfach durch die Sprachgewohnheiten im Alltag erworben. Texte, in denen viele Sachdetails verknüpft sind, sollte man daher nicht zu schnell überfliegen.
Buchempfehlungen:
Mehr zum Sprachverständnis und zu Gründen von Verständnisschwierigkeiten.
Mehr zum Verhältnis von Sprechen und Denken.
Informiert umfassend über die Fähigkeit, Sprache zu verstehen – auch ohne Spiegelneurone.
Informiert umfassend, über die Fähigkeit, Sprache zu verstehen – auf der Grundlage von Spiegelneuronen.