Objekt-Metadaten
Neural mechanisms for fast recognition of auditory emotion

Autor :Katja N. Spreckelmeyer
Herkunft :OvGU Magdeburg, Fakultät für Naturwissenschaften
Datum :19.07.2006
 
Dokumente :
Dataobject from HALCoRe_document_00004854
 
Typ :Dissertation
Format :Text
Kurzfassung :Die Arbeit beschäftigt sich mit der Wahrnehmung auditorischer Emotionen. Im Mittelpunkt des Interesses steht die schnelle Kategorisierung von emotionalem Ausdruck durch das Gehirn. Es ist wiederholt gezeigt worden, dass der non-verbale Ausdruck prototypischer Emotionen wie Trauer oder Freude mit systematischen Veränderungen bestimmter akustischer Parameter einhergeht. Es wird davon ausgegangen, dass der Sender einer emotionalen Botschaft bestimmte akustische Hinweise (engl. ‚cues‘) verwendet, um die emotionale Bedeutung zu enkodieren. Zumindest für sehr basale und prototypische emotionale Lautäußerungen wird angenommen, dass das Gehirn für die Erkennung auf abgespeicherte Schemata zurückgreifen kann, die den Code repräsentieren. In der Arbeit werden vier Experimente vorgestellt, in denen mithilfe ereigniskorrelierter Potentiale (EKP) die neurophysiologische Grundlage der schnellen Kategorisierung non-verbaler emotionaler auditorischer Reize untersucht wurde. Im ersten Teil der Arbeit wurde in zwei Experimenten mithilfe der ‚Mismatch Negativity‘ die pre-attentive Verarbeitung von emotionalem Ausdruck untersucht. Dazu wurden Teilnehmern ohne musikalische Vorbildung sich wiederholende Geigentöne des gleichen Typs (‚standards’) präsentiert, die hin und wieder von einem abweichenden Ton (‚deviant’) unterbrochen wurden, der sich hinsichtlich seines emotionalen Ausdrucks von den Standardtönen unterschied. Die Versuchspersonen beachteten die Töne nicht, sondern konzentrierten sich auf einen Film. Der ‚deviant’ evozierte auch dann eine Mismatch Negativity (MMN), wenn drei verschiedene Töne als emotionale ‚standards’ verwendet wurden. Eine MMN mit einer relativ langen Latenz (380 ms) wurde durch den fröhlichen Ton zwischen den unterschiedlichen traurigen Standardtönen evoziert, nicht jedoch in der umgekehrten Bedingung. Ein nachträgliches Multidimensionales Fechnerisches Skalierungs-Experiment zeigte, dass die fröhlichen Töne als weniger eindeutig hinsichtlich ihres emotionalen Ausdrucks wahrgenommen wurden als die traurigen Töne. Gemeinsam mit dem Befund des Skalierungsexperiments deuten die Ergebnisse darauf hin, dass die Töne auch dann in eine emotionale Kategorie zusammengefasst wurden, wenn sie sich hinsichtlich ihrer akustischen Struktur unterschieden, allerdings nur solange ausreichend viele ‚cues’ mit dem prototypischen Schema übereinstimmten. Die Experimente in Teil II der Arbeit adressierten die Verarbeitung von Emotionen, die durch die paralinguistischen Aspekte der menschlichen Stimme vermittelt werden. Bei beiden Experimenten wurden ereigniskorrelierte Potentiale abgeleitet. Reaktionszeiten wie EKP-Ergebnisse des ersten Experimentes in Teil II weisen darauf hin, dass emotionaler Ausdruck in der Stimme schneller erkannt wird als die Identität des Senders, allerdings nur, wenn die emotionale Information positiv ist. Im zweiten Experiment in Teil II wurde die frühe Integration von emotionaler Information in der auditorischen und der visuellen Modalität untersucht. Zu diesem Zweck wurden fröhliche, neutrale und traurige Bilder zeitgleich mit fröhlich, neutral und traurig gesungenen Tönen präsentiert. Bilder und Töne wurden zu emotional kongruenten und inkongruenten Paaren kombiniert. Auf der Verhaltensebene wurde die Bewertung der gehörten Stimme stärker durch den emotionalen Ausdruck der Bilder beeinflusst als umgekehrt. Im EKP zeigte sich der früheste Integrationseffekt der beiden Modalitäten bei 150 ms (P2-Komponente). Das Ergebnis zeigt, dass die multisensorische Integration von emotionaler Information bereits früh im auditorischen Verarbeitungsweg erfolgt. Insgesamt weisen die Ergebnisse aus Teil I und II auf eine schnelle und automatische Erkennung auditorisch übermittelter Emotionen hin. Sie unterstützen darüber hinaus aktuelle Modelle der Emotionsverarbeitung, die davon ausgehen, dass die Bewertung prototypischer emotionaler Äußerungen auf der Aktivierung von hirninhärenten Schemata basiert.
Schlagwörter :Emotion, ereignis-korrelierte Potentiale, MMN, multidimensionale Skalierung, auditive Verarbeitung, auditorische Wahrnehmung
Rechte :Dieser Text ist urheberrechtlich geschützt.
Größe :VI, 166 S.
 
Erstellt am :08.10.2008 - 09:48:05
Letzte Änderung :22.04.2010 - 08:33:16
MyCoRe ID :HALCoRe_document_00004854
Statische URL :http://edoc.bibliothek.uni-halle.de/servlets/DocumentServlet?id=4854