Studie zu Melodie und Rhythmus Wie Muttersprache die Musikalität beeinflusst
Menschen, die eine Ton-Sprache wie Chinesisch sprechen, können besser Melodien erkennen - so das Ergebnis einer großen Studie. Dafür sind sie allerdings schlechter im Erkennen von Rhythmen. Woran liegt das?
Wie musikalisch jemand ist, wird auch von der Muttersprache beeinflusst. Schon Babys schreien unterschiedlich, je nachdem mit welcher Sprache sie aufwachsen: Französische Säuglinge haben eine andere Schrei-Melodie als deutsche. Für unser Melodie- und Rhythmusverständnis macht es aber offenbar auch einen Unterschied, ob die Muttersprache eine tonale oder nicht-tonale ist. Das ist zumindest das Ergebnis einer großen Studie, die in der Zeitschrift Current Biology erschienen ist.
Chinesen erkennen am besten Melodien
Ein Ergebnis der Tests: Bei der Melodieerkennung schnitten Muttersprachler tonaler Sprachen im Vergleich zu Sprechern nicht-tonaler Sprachen deutlich besser ab. Am besten waren Mandarin-Sprecher. Die Auswirkungen einer tonalen Muttersprache auf das Melodieverständnis sind laut Studie enorm: nämlich etwa halb so groß wie der Effekt, den es hat, wenn jemand Musikunterricht auf einem Instrument hatte.
Zu den nicht-tonalen Sprachen gehören beispielsweise die meisten europäischen Sprachen, aber auch Arabisch oder Hindi. Auch hier können Bedeutungsunterschiede durch die Betonung gesetzt werden, etwa um Stimmungen auszudrücken. Allerdings bleiben Deutsch oder Englisch immer noch verständlich, selbst wenn ein Roboter alle Wörter gleich betont.
Tonhöhen sind wichtiger
Dafür gibt es laut den Forschern einen naheliegenden Grund: "Möglicherweise achten Sprecher von tonalen Sprachen weniger auf den Rhythmus und mehr auf die Tonhöhe, denn Tonhöhenmuster sind für die Kommunikation in einer tonalen Sprache wichtiger", erklärt Studienautor Courtney Hilton, von der Yale University. Auch der Musikpsychologe Daniel Müllensiefen von der Goldsmiths University in London hält das für plausibel: "Diese Menschen haben möglicherweise ein feineres Gespür für Melodien, weil sie Informationen in der Sprache durch absolute und relative Tonhöhen ausdrücken."
Begünstigt wird dieser Zusammenhang auch durch unsere Hirnstruktur. Denn Sprache und Musik werden teilweise in denselben Hirnregionen verarbeitet. "Es gibt es eine große Überlappung, allein schon, weil beides im auditorischen Kortex anfängt, also im Hörzentrum. Es gibt zum Beispiel auch Areale, die für Regeln oder Grammatikalität von Musik und Sprache zugleich zuständig sind", so Müllensiefen.
Drei verschiedene Tests
Für die Studie wurde den Teilnehmern beispielsweise drei Versionen derselben Melodien kurz hintereinander abgespielt. Danach mussten sie sagen, welche der drei Versionen leicht verschieden von den beiden anderen war. In einem weiteren Test wurden zwei kurze Stücke vorgespielt und hinterher gefragt, ob die Gesangsstimme zur Musik passte oder ob sie schief war. Im dritten Test, dem Beat Alignment Test, wurde ein Metronom-Klick über ein Musikstück gelegt; die Teilnehmer sollten dann sagen, ob der Klick zum Beat des Stücks passt.
Insgesamt nahmen fast 500.000 Menschen aus rund 200 Ländern an der Studie teil - eine enorm große Stichprobe. Darunter waren 34.000 Menschen mit 19 tonalen Sprachen als Muttersprache. Auf der anderen Seite waren 29 nicht-tonale Sprachen vertreten und sechs gemäßigte Tonsprachen ("pitch-accented") wie Japanisch oder Schwedisch. Sie absolvierten die Tests auf einer Homepage, wo sie die Klangbeispiele anhören und Angaben zu ihrer Person machen konnten.
Schweden haben beste Beat-Wahrnehmung
Die überraschendste Erkenntnis der Studie: Die tonalen Muttersprachler waren deutlich schlechter in der Wahrnehmung des Beats, also des durchgehenden Pulses eines Songs. Sie konnten also seltener sagen, ob das Metronom im gleichen Beat war wie das Musikstück. Das beste Verständnis hatte laut Studie Schweden, Deutschland lag im oberen Drittel.
Auch hier war der Unterschied signifikant. "Dass dieser Effekt so deutlich ausfällt, hat mich schon erstaunt", kommentiert Müllensiefen. "Es scheint Menschen zu geben, die eher auf die Tonhöhendimensionen achten und das besser verarbeiten, dafür aber eine andere Dimension vernachlässigen. Und das ist die des präzisen Timings und der Beat-Wahrnehmung." Es könne sein, dass nicht-tonale Sprachen Akzente oder Emotionen eher über ein präziseres Timing ausdrücken und dass das die Rhythmus-Wahrnehmung positiv beeinflusse.
Westliche Musikstücke als Hörproben
Müllensiefen weist jedoch auch auf einige Einschränkungen der Studie hin. So seien die Musikstücke in den Tests der westlichen Musikkultur entnommen. "Das bedeutet, dass Europäer und Nordamerikaner wahrscheinlich mehr an den Klang der Beats und Melodien gewöhnt waren." Zudem sei der Test nur auf Englisch und online verfügbar gewesen. "Das heißt, man hat nur Menschen erreicht, die neben ihrer Muttersprache auch über solide Englischkenntnisse verfügten. Sprecher von Tonsprachen, die nur ihre eigene Muttersprache beherrschen, werden also eher unterrepräsentiert sein unter den Studienteilnehmern."
Dennoch sei die Teilnehmerzahl für eine solche Studie außergewöhnlich hoch. Auch dass nicht nur eine, sondern eine große Zahl an verschiedenen Sprachen repräsentiert ist, "macht die Untersuchung robuster und besser verallgemeinerbar". Dies sei ein Vorteil gegenüber bisherigen Studien zu dem Thema.