Samstag, 29. Januar 2022
- Anzeige -
StartGesellschaftWenn Trommeln sprechen: Wie wir Sprache und Musik unterscheiden

Wenn Trommeln sprechen: Wie wir Sprache und Musik unterscheiden

Im Alltag sind wir von vielerlei Geräuschen umgeben, die wir normalerweise gut unterscheiden können. Wenn wir zum Beispiel das Radio einschalten, merken wir schnell, ob wir Musik hören oder jemand spricht. Aber was, wenn Sprache und Musik ähnlich klingen? Wie unterscheiden wir sie dann? Ein Team aus Wissenschaftlern des Frankfurter Max-Planck-Instituts für empirische Ästhetik, des Max Planck NYU Center for Language, Music, and Emotion (CLaME) und der Arizona State University ist dieser Frage auf die Spur gegangen.

- Anzeige -

Schon mehrfach wurde verglichen, wie Menschen Sprache bzw. Musik wahrnehmen. Die Unterschiede sind jedoch schwer zu erfassen – vor allem, wenn es Überschneidungen gibt, wie bei Reimen oder in der Rap-Musik. Um die Grenzen besser abstecken zu können, initiierte das internationale Forschungsteam eine Online-Studie mit mehr als hundert Personen mit insgesamt 15 verschiedenen muttersprachlichen Hintergründen.

Im Fokus der Studie stand die „sprechende“ Dùndún-Trommel. Diese wird im Südwesten Nigerias als Musikinstrument verwendet, aber auch zur Kommunikation eingesetzt. Die Trommel imitiert die tonale Sprache der Yorùbá, wodurch ein sogenanntes Sprachsurrogat entsteht. Eine kurze Einführung vermittelte allen Teilnehmer:innen ein Basiswissen über das Instrument, wobei etwa die Hälfte von ihnen schon vorher mit der Dùndún vertraut waren.

Die Wissenschaftler verglichen die akustischen Eigenschaften sprachlicher und musikalischer Dùndún-Aufnahmen. Dann baten sie die Studienteilnehmer, dieselben Aufnahmen anzuhören und anzugeben, ob sie Sprache oder Musik hörten.  

„Die meisten waren in der Lage, einen Großteil der Ausschnitte so zu identifizieren, wie sie vom Interpreten beabsichtigt waren – mit einer wenig überraschenden Tendenz zur musikähnlichen Kategorie. Personen, die mit dem Instrument vertraut waren, schnitten besonders gut ab, aber auch die anderen lagen bei ihren Beurteilungen über dem Zufallsniveau“, berichtet Pauline Larrouy-Maestri vom Max-Planck-Institut für empirische Ästhetik.

Mithilfe der erhobenen Daten entwickelten die Forscher ein statistisches Modell, anhand dessen vorhergesagt werden kann, wann ein Klangbeispiel als musikähnlich oder sprachähnlich wahrgenommen wird. Das Modell zeigt, dass sich Zuhörer bei der Unterscheidung auf mehrere akustische Merkmale verlassen. 

Lautstärke, Tonhöhe, Klangfarbe und Timing erwiesen sich dabei als maßgeblich. Ein regelmäßiger Rhythmus und häufige Änderungen in der Klangfarbe lassen eine Sequenz beispielsweise eher musikähnlich klingen, während eine geringere Intensität und weniger Änderungen in der Tonhöhe sprachähnlich anmuten. Die Vertrautheit mit dem Instrument beeinflusst schließlich, inwiefern Zuhörer diese akustischen Merkmale einsetzen.

Die Erkenntnisse wurden kürzlich in der Fachzeitschrift „Frontiers in Psychology“ veröffentlicht. Mit diesen Ergebnissen liefert die Studie empirische Belege für die Relevanz akustischer Merkmale sowie Erkenntnisse zur Rolle kultureller Hintergründe von Zuhörern und erweitert damit das Wissen um die Bildung von Wahrnehmungskategorien bei Sprache und Musik.

Newsletter abonnieren

Sie wollen als Erstes wissen, was es Neues gibt in der Welt von „die epoche“? Viele unserer Leser halten sich bereits mit unserem Newsletter auf dem Laufenden. Sie erhalten die wichtigsten News direkt und kostenlos in Ihr Postfach.

*Sie können sich jederzeit durch einen Mausklick wieder abmelden
Das könnte Sie auch interessieren

Hinterlassen Sie eine Antwort:

Gib deinen Kommentar ein
Bitte gib deinen Namen hier ein

- Anzeige -

Beliebteste Artikel

Letzte Kommentare