Mehr:

Kontakt:

Dr. Kai Siedenburg

Forschungsgruppe Musikwahrnehmung und -verarbeitung

+49-441-798-3579

  • Ein Mann mit Kopfhörern sitzt vor einem Computermonitor, der viele Regler anzeigt. Der Betrachter blickt dem Mann über die Schulter.

    Am Computer haben Kai Siedenburg und Karsten Gerdes die Lautstärke der Leadstimmen in Hunderten Songs im Verhältnis zu den sie begleitenden Instrumenten ausgewertet. Foto: Universität Oldenburg / Daniel Schmidt

  • Kai Siedenburg mit einer lebensgroßen Modellpuppe, die Hörgeräte trägt.

    Siedenburg forscht leitet die Gruppe „Musikwahrnehmung und -verarbeitung“ am Department für Medizinische Physik und Akustik. Er will Menschen mit Höreinschränkungen einen besseren Musikgenuss verschaffen. Gefördert wird der Hörforscher dabei seit 2019 mit dem renommierten Freigeist-Fellowship der VolkswagenStiftung. Foto: Universität Oldenburg

Die Mischung macht's

Forschende aus Oldenburg haben das Lautstärkeverhältnis von Leadstimmen in mehr als 700 Songs analysiert. Diese Erkenntnisse sollen dabei helfen, Musik so abmischen zu können, dass sie auch mit Hörgeräten wieder zum Genuss wird.

Dass ein weltbekannter Musiker zu Forschungsergebnissen aus Oldenburg befragt wird, ist bisher wohl noch nicht so oft vorgekommen: In der Nachmittags-Radiosendung „All Things Considered“ des US-Radionetzwerkes NPR ist aber kürzlich genau das geschehen. Indie-Rocker Beck, dessen bekanntesten Hit „Loser“ aus dem Jahr 1993 auch heute noch viele ihm Ohr haben, meldete sich zu Wort.

Der Anlass: Ein Paper des Oldenburger Hörforschers und Musikwissenschaftlers Dr. Kai Siedenburg, das dieser gemeinsam mit dem ehemaligen Studenten Karsten Gerdes im Fachmagazin „JASA Express Letters“ der Acoustical Society of America veröffentlicht hat. Die beiden Wissenschaftler hatten zuvor mehr als 700 Songs untersucht, die sich zwischen 1946 und 2020 an der Spitze der amerikanischen Billboard-Hot-100-Charts platzieren konnten oder für einen Grammy nominiert waren, darunter auch einige Songs von Beck. Sie wollten mehr darüber erfahren, wie die populären Stücke abgemischt sind, um daraus Rückschlüsse darüber zu ziehen, worauf es ankommt, wenn Musik für Menschen mit Schwerhörigkeit abgemischt werden soll.

Das „Ohrenmerk“ der Forscher lag dabei auf dem Lautstärkeunterschied zwischen der jeweiligen Leadstimme und den begleitenden Instrumenten. Dabei fanden sie heraus, dass dieser Unterschied in den ersten 30 Jahren ihrer Betrachtung immer kleiner wurde, die Leadstimme sich also immer mehr der Lautstärke der Instrumente anglich. Diese Entwicklung fand Mitte der 1970er-Jahre ein Ende, als sich der Pegelunterschied bei durchschnittlich rund ein Dezibel einpendelte – vorher waren es bis zu fünf Dezibel gewesen. „Für den abnehmenden Laustärkeunterschied dürfte der Fortschritt bei der Aufnahmetechnik eine Rolle gespielt haben“, vermutet Siedenburg. „Ein großer Schritt dabei war die Möglichkeit, Musik stereophon abzumixen, also so zu arrangieren, dass zum Beispiel die Rhythmusgitarren im Mix außen plaziert werden und der Gesang in der Mitte.“ Mit dieser Technik erhält die menschliche Stimme auch dann die entsprechende Aufmerksamkeit, wenn sie nur wenig lauter ist als die Instrumente.

Innerhalb dieses allgemeinen Trends gibt es aber messbare Unterschiede zwischen den verschiedenen Musikgenres, haben die Forschenden ebenfalls ermittelt. Die im Verhältnis zu den Instrumenten lautesten Leadstimmen verzeichnen Country-Songs, gefolgt von Rap, Pop und Rock. Metal markiert das untere Ende der Skala: In diesem Genre ist die Leadstimme sogar leiser als die Instrumente abgemischt.

In den Publikumsmedien fanden die Forschungsergebnisse aus Oldenburg große Resonanz, nachdem das Fachmagazin mit einer Pressemitteilung auf das Paper hingewiesen hatte. Tagesschau.de, Tagesspiegel, Radio Eins, die britische Daily Mail, das österreichische ORF und viele andere berichteten: „Gesang ist leiser geworden“. Siedenburg war überrascht von dem großen Interesse. „Ich vermute, das hat damit zu tun, dass die Message des Papers eingängig und leicht zu verstehen ist“, sagt er und fügt lachend hinzu: „Außerdem kann man daneben ein Bild von seinem Lieblingsstar platzieren.“

Besonders gefreut hat den Hör- und Musikforscher die Kontaktaufnahme des amerikanischen Radiosenders NPR, den er während seiner eigenen Studienzeit selbst oft und gern gehört hat. Die Reporterin interviewte für den Beitrag nicht nur Siedenburg, sondern auch die Sängerin der 2021 bei den Grammy Awards ausgezeichneten Hardcore-Band „Code Orange“ Reba Meyers. Sie erzählt, dass viele Rock- und Metalbands ihre Songs am Computer arrangieren, wo eine nahezu unbegrenzte Zahl an Aufnahmespuren zur Verfügung steht, die mit der Tonspur des Gesangs konkurrieren. Auch die Songs des eingangs erwähnten Beck, dessen Musik nicht viel mit Metal zu tun hat, waren in der Studie dadurch aufgefallen, dass die Leadstimme eher untypisch leise abgemischt ist, teilweise sogar leiser als die Instrumente. Pure Absicht, wie Beck der Reporterin erklärte: „Ich bin während der Indie-Rock-Ära bekannt geworden. Der Zeitgeist war, die Stimme geradezu unter den anderen Instrumenten zu vergraben. Man wollte gar nicht, dass die Leute verstehen, was man sagt.“

Gerade um eine gute Verständlichkeit geht es hingegen Kai Siedenburg. Um Musik so anzupassen, dass sie auch mit Hörgeräten gut klingt, spielten die Pegelverhältnisse zwischen Leadgesang und Instrumenten eine große Rolle. „Jetzt wissen wir, dass es genrespezifische Laustärkeverhältnisse gibt. Das ist eine Basis, auf der wir weitere genrespezifische Modifikationen aufbauen können“, so Siedenburg.