Wissenschaftler des Forschungszentrums Jülich haben herausgefunden, welche Gehirnregion dafür zuständig ist, Stimmen von Mitmenschen sozial zu bewerten. Bisher hatte sich die Erforschung sozialer Urteile weitestgehend auf die Auswertung von Gesichtern konzentriert, obwohl Stimmen ebenso reich an sozialen Informationen sind. Die Entdeckung könnte zum besseren Verständnis psychischer Krankheiten wie Autismus, Schizophrenie und Depressionen führen, so die Forscher.

Menschen kooperieren so vielseitig wie kaum eine andere Spezies. Jede Fortbildung, jede ärztliche Anamnese, sogar jeder Einkauf im Supermarkt erfordert zumindest eine kurzzeitige Zusammenarbeit mit zunächst oft fremden Interaktionspartnern. Auch wenn ein solch gemeinschaftliches Verhalten alltäglich ist, setzt dessen reibungsloser Ablauf eine entsprechende Einschätzung des Gegenübers als Basis weiterer Interaktion voraus. Binnen kürzester Zeit formt das menschliche Gehirn dabei erste Urteile basierend auf Sinneseindrücken wie Gesicht und Stimme. An diesen lassen sich zum einen Grundemotionen, wie Angst oder Wut, bewerten.

Zum anderen bilden wir aber auch intuitive Urteile über komplexe soziale Eigenschaften wie Vertrauenswürdigkeit und Attraktivität. Diese Urteile verschaffen uns eine Orientierung im sozialen Miteinander und bahnen maßgeblich das nachfolgende soziale Verhalten, zum Beispiel in Bezug auf Annäherung oder Meidung verschiedener Menschen [1]. Mit Hilfe funktioneller Bildgebungsstudien gelingt es nun zunehmend, die unterschiedlichen neuronalen Netzwerke hinter emotionalen und sozialen Urteilsprozessen zu identifizieren und deren Interaktionen zu beschreiben.

Angst oder Wut sind tief verwurzelt

Die Identifikation von Emotionen scheint biologisch und damit evolutionär tief verwurzelt. Dies zeigt sich unter anderem daran, dass über unterschiedliche Individuen und Kulturen hinweg Grundemotionen wie etwa Angst, Ekel oder Wut sehr sicher und schnell erkannt werden [2]. Basisemotionen bestehen dabei oft aus einer visuellen (Gesichtsausdruck) und einer auditiven (Äußerungen) Komponente. Diese erreichen das Gehirn zunächst getrennt in Seh- und Hörrinde, wo die jeweilige „Vorverarbeitung“ des Materials stattfindet. Es fällt auf, dass es in beiden Systemen Regionen gibt, die sich auf die Verarbeitung von menschlichen, d. h. potenziell kommunikativen Signalen spezialisiert haben. Im auditorischen System finden sich diese entlang des Sulcus temporalis superior, im visuellen System sind vor allem die gesichtsverarbeitenden Regionen auf dem Gyrus fusiformis zu nennen.

Amygdala als Warnleuchte

Die von dort ausgehenden Verarbeitungswege ließen sich mittels funktioneller Magnetresonanztomografie (fMRT) nachverfolgen, wobei eine Schnittstelle beider Wege besonders auffällt: die Amygdala (Mandelkern) reagiert sehr konsistent auf emotionale Informationen, sowohl in Gesichtern als auch Stimmen. Die Amygdala gilt daher vergleichbar mit einer Warnleuchte als wesentlicher Indikator für zwischenmenschlich relevante Informationen. Das heißt, immer wenn wir emotionale Informationen wahrnehmen, steigert sich die Aktivität der Amygdala [3].

Interessanterweise bleibt diese Aktivierung jedoch aus, wenn widersprüchliche Informationen, beispielsweise ein ängstliches Gesicht kombiniert mit einem Gähnen, gezeigt wurden. Daraus kann man schließen, dass die Fülle an Emotionen, die wir z. B. in einer Menschenmenge hören und sehen, miteinander in Bezug gesetzt und quasi auf das Vorliegen "entwarnender" Informationen abgeglichen werden. Erst ein solcher Mechanismus ermöglicht es der Amygdala, ihre Hinweisfunktion situativ angemessen zu entfalten, ohne uns ständig in (falsche) Alarmbereitschaft zu versetzen [4].

Wem kann man vertrauen?

Im Gegensatz zu Urteilen über Grundemotionen, welche sich von einem Moment zum nächsten ändern können, stellen soziale Urteile Rückschlüsse auf stabilere Eigenschaften von Mitmenschen dar. Deshalb sind Letztere insbesondere für langfristige Entscheidungen von großer Bedeutung. Dies wird vor allem in der Beurteilung von Vertrauenswürdigkeit und Attraktivität deutlich. Interessanterweise kommen wir aber auch bei diesen beiden komplexen Eigenschaften relativ schnell zu vorläufigen Einschätzungen [5].

Die Neurobiologie solcher Urteile auf Basis von visuellen Stimuli, also Gesichtern, ist dabei bereits relativ gut verstanden. So ließ man in einem Experiment Probanden entscheiden, welches von zwei gleichzeitig dargebotenen Gesichtern sie erstens vertrauenswürdiger beziehungsweise zweitens attraktiver fanden [6].

Um die neuronalen Effekte sozialer Urteile von emotionalen und rein kognitiven Entscheidungen unterscheiden zu können, bewerteten die Probanden in zwei Kontrollbedingungen ebenfalls die Fröhlichkeit und das Alter der Gesichter. Verglich man nun die mittels der funktionellen Magnetresonanztomographie gemessene neuronale Aktivität bei der Durchführung sozialer Urteile mit derjenigen in den Kontrollbedingungen, so ließ sich ein gemeinsames Netzwerk beider sozialer Urteile beobachten. Hierbei kam insbesondere einer Region im medialen Stirnlappen, dem dorso-medialen präfrontalen Kortex, eine Schlüsselrolle zu.

Jedoch stellt sich trotz der Beobachtung, dass diese Region bei beiden sozialen Urteilen stärker aktiv ist als bei beiden nicht-sozialen Urteilen, die Frage, inwieweit sie wirklich für soziale Verarbeitung im engeren Sinne zuständig ist. Darüber Aufschluss geben kann der Vergleich mit entsprechenden Urteilen auf der Basis von Stimmen, da diese nicht nur verbale Kommunikation (inhaltliche Ebene) ermöglichen, sondern vergleichbar mit Gesichtern auch emotionale und persönliche Informationen auf sozialer Ebene vermitteln [7].

In einer aktuellen Studie wurden Versuchspersonen gebeten, die Vertrauenswürdigkeit und Attraktivität auditiv präsentierter Stimmen zu beurteilen. Dabei zeigte sich, dass nur der dorso-mediale präfrontale Kortex spezifisch durch soziale Urteile aktiviert wird, unabhängig davon, ob sie auf der Basis von Gesichtern oder Stimmen erfolgen.

Diese Region scheint also eine zentrale Rolle bei sozialen Urteilsprozessen über Mitmenschen einzunehmen. Darüber hinaus wurde diese Region auch mit anderen sozial-kognitiven Leistungen in Verbindung gebracht [8, 9]. Ein Beispiel ist das Hineinversetzen in andere. Perspektivwechsel und Urteilsbildung über andere scheinen somit gemeinsame neuronale Korrelate zu haben, was dem dorso-medialen präfrontalen Kortex eine entscheidende Schlüsselfunktion für soziale Interaktion zukommen lässt.

Psychische Erkrankungen besser verstehen

Dieses Wissen ist eine wichtige Grundlage für das bessere Verständnis psychischer Erkrankungen. Diese gehen fast alle mit mehr oder weniger ausgeprägten Veränderungen der Sozialkognition einher. So finden sich bei Depression häufig schuldbesetzte, um soziale Interaktionen kreisende Gedanken, Autisten haben Schwierigkeiten, andere Menschen zu verstehen und sich in sie hineinzufühlen, Patienten mit Schizophrenie fehlt oft das intuitive Gespür für soziale Interaktionen, sodass es schnell zu (in der Regel paranoiden) Umdeutungen der Handlungen anderer kommt, um nur einige Beispiele zu nennen.

Im Gegensatz dazu bleiben soziale Fähigkeiten bei der Demenz vom Alzheimer-Typ lange Zeit relativ unbeeinflusst. Wenn man annimmt, dass die Amygdala unser soziales Warnsystem darstellt und der dorso-mediale präfrontale Kortex als Drehscheibe in sozialen Entscheidungsprozessen fungiert, so ist davon auszugehen, dass diese Regionen eine wichtige pathophysiologische Rolle bei psychischen Erkrankungen spielen. Jedoch ist noch unklar, ob es sich hierbei um strukturelle Veränderungen (Atrophie), Dysfunktion oder gestörte Interaktionen mit anderen Gehirnregionen handelt. Gerade Letztere rücken dabei immer mehr ins Blickfeld der aktuellen Forschung. Denn bei aller Spezialisierung darf nicht vergessen werden, dass jede Region ihre Rolle nur in enger und wohlkoordinierter Interaktion mit anderen erfüllen kann.


Literatur
1. D. Bzdok, R. Langner, S. Caspers, F. Kurth, U. Habel, K. Zilles, A. Laird, and S. B. Eickhoff, “ALE meta-analysis on facial judgments of trustworthiness and attractiveness,” Brain Struct Funct, vol. 215, no. 3, pp. 209–223, Oct. 2010.
2. J. Rojahn, F. Gerhards, S. T. Matlock, and T. L. Kroeger, “Reliability and validity studies of the Facial Discrimination Task for emotion research.,” Psychiatry Res, vol. 95, no. 2, pp. 169–181, Aug. 2000.
3. D. Sander, J. Grafman, and T. Zalla, “The human amygdala: an evolved system for relevance detection,” Rev Neurosci, vol. 14, no. 4, pp. 303–316, 2003.
4. V. I. Mueller, E. C. Cieslik, B. I. Turetsky, and S. B. Eickhoff, “Crossmodal interactions in audiovisual emotion processing,” NeuroImage, vol. 60, no. 1, pp. 553–561, Mar. 2012.
5. L. Cosmides and J. Tooby, “Cognitive adaptations for social exchange,” London: Oxford University Press, 1992.
6. D. Bzdok, R. Langner, F. Hoffstaedter, B. I. Turetsky, K. Zilles, and S. B. Eickhoff, “The modular neuroarchitecture of social judgments on faces.,” Cerebral Cortex, vol. 22, no. 4, pp. 951–961, Apr. 2012.
7. P. Belin, S. Fecteau, and C. Bédard, “Thinking the voice: neural correlates of voice perception,” Trends in Cognitive Sciences, vol. 8, no. 3, pp. 129–135, Mar. 2004.
8. L. Schilbach, D. Bzdok, B. Timmermans, P. T. Fox, A. R. Laird, K. Vogeley, and S. B. Eickhoff, “Introspective Minds: Using ALE Meta-Analyses to Study Commonalities in the Neural Correlates of Emotional Processing, Social & Unconstrained Cognition,” PLoS ONE, vol. 7, no. 2, p. e30920, Feb. 2012.
9. D. M. Amodio and C. D. Frith, “Meeting of minds: the medial frontal cortex and social cognition.,” Nat Rev Neurosci, vol. 7, no. 4, pp. 268–277, Apr. 2006.



Autoren:
Lukas Hensel, Danilo Bzdok und Simon B. Eickhoff
Institut für Neurowissenschaften und Medizin (INM-1)
Forschungszentrum Jülich
Institut für klinische Neurowissenschaften und medizinische Psychologie
Heinrich-Heine-Universität Düsseldorf