---
type: slide
title: MMG25 2.01 - Tonhöhe und Klangfarbe [p]
tags: public,MMG,MMG2,VL
slideOptions:
theme: 'dark'
transition: 'convex'
allottedMinutes: 80
width: 120%
height: 160%
# center: false # ist die VERTIKALE Zentrierung
pause: true
fragments: true
# erfordern: <p class="fragment">XXX</p> und gehen nicht mit Spiegelstrichen und Formatierung
#
# transitionSpeed: 'fast' - default/fast/slow
# backgroundTransition: 'convex' - none/fade/slide/convex/concave/zoom
# mouseWheel: true - Durch Folien skippen mit Rad, holt aber Banner hoc
# display: 'block'
# slideNumber: false
# history: false
# viewDistance: 3
# <!-- .slide: data-background="#aaaaaa" -->
---
##### Modul Empirische Musikforschung I
***
# VL Musik, Mensch und Gehirn 2
***
#### 2.01 Tonhöhe und Klangfarbe
***
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Bausteine
***
#### Ton
- Tonhöhe
- Einzeltöne (Sinus)
- Komplexe Töne
- Klangfarbe
- Musikalische Töne
***
#### Intervall
- horizontal
- vertikal
- Konsonanz/Dissonanz
***
#### Skala / Tonraum
- horizontal
- vertikal
- Konsonanz/Dissonanz
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Herausforderung der empirischen CNoM
**Dilemma**:
- Gehirn = **universell** (geografisch, historisch)
- Musik = **diversifiziert** (kulturell, geografisch, historisch)
<!-- .slide: data-background="#4fb443" -->
----
Zum Verständnis der Gehirnfunktion: Prozesse studieren, die folgende Eigenschaften haben:
- **alt**
- **adaptiv**
- **universell**
- **spontan**
<!-- .slide: data-background="#4fb443" -->
----
**Ausweg**: Schlüsselunterscheidung
- **Musik**
- **Musikalität**
CNoM untersucht Musikalität, d.h. Musikvermögen! (*Honing & Ploeger 2012*)
<!-- .slide: data-background="#4fb443" -->
---
Musik|Musikvermögen
---|---
Kulturell geformt|Kollektion mentaler Prozesse
variiert rund um die Welt|rund um die Welt gleich
stark zeitvariabel (Epochen und Moden)|fest in der Spezies angelegt
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
#### Zwei fundamentale (universelle) Prozesse der Musikalität
***
- Tonhöhenwahrnehmung
- Klangfarbenwahrnehmung
```
Bsp.:
- Zwei Töne gleicher Klangfarbe und verschiedener Tonhöhe
- Zwei Töne gleicher Tonhöhe und verschiedener Klangfarbe
```
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#ff9933" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---
### Bausteine - Ton, Tonhöhe
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Pitch (Tonhöhe)
* Hier nur Einzeltöne besprochen, noch keine Tonfolgen
* um zu illustrieren, wie sogar die einfachsten Bausteine der Musik mental sind - nicht physikalisch
* Tonhöhe und Klangfarbe sind keine akustischen Fakten, sondern vom Gehirn konstruierte Perzepte
* Menschen, aber auch Tiere
* alte Wurzeln, 100 Millionen Jahre
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Klangattribute
---
- **Tonhöhe**
- **Klangfarbe**
- Dauer
- Lautheit
- Raumposition
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Tonhöhe und Klangfarbe ausführlicher behandelt, weil sie
- wichtige psychologische Wirkungen haben
- gute Beispiele für Hemisphärenspezialisierung liefern
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
>"Pitch"
#### Was ist eigentlich die Tonhöhe?
+ Zusammenhang Frequenz - Tonhöhe?
+ Achtung: Unterscheidung Schallereignis - Hörereignis (Blauert 1966)
[comment]:# (Jens Blauert Räumliches Hören. S. Hirzel-Verlag, Stuttgart 1974, ISBN 3-7776-0250-7)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Definition “Pitch” der Acoustical Society of America Standard Acoustical Terminology:
:::spoiler
“that property of sound that enables it to be ordered on a scale going *from low to high*.”
:::
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
##### Shepard-Töne
[Bsp. 1](http://io.op3.eu/shepard1.mp3)
[Bsp. 2](http://io.op3.eu/shepard2.mp3)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
{%youtube u9VMfdG873E %}
<!-- .slide: data-background="#000" -->
---
#### Oktaväquivalenz: Eigenschaft **Chroma**
- Ein Ton "C" wird in allen Oktaven als "C-artig" wahrgenommen, d.h. alle C's sind auf eine bestimmte Weise gleichartig
- Ein C unterscheidet sich z.B. vom benachbarten D, obwohl dieses frequenzmäßig viel näher liegt als das nächstgelegene C
- Diese "Tonigkeit" nennt man Chroma
- In allen Kulturen vorhanden (vgl. Vokaldimorphismus)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
----
Aktuell! 2019:
Keine OÄ beim Singen der Tsimane'?
Jacoby Mc Dermott 2019 Universal and Non-universal Features of Musical Pitch Perception Revealed by Singing
Universal and Non-universal Features of Musical Pitch Perception Revealed by Singing Nori Jacoby,1,2,9,* Eduardo A. Undurraga,3,4 Malinda J. McPherson,5,6 Joaquı´n Valdes,7 Toma´s Ossando´n,7 and Josh H. McDermott5,6,8,*
Musical pitch perception is argued to result from nonmusical biological constraints and thus to have similar characteristics across cultures, but its universality remains unclear. We probed pitch representations in residents of the Bolivian Amazon—the Tsimane’, who live in relative isolation from Western culture—as well as US musicians and non-musicians. Participants sang back tone sequences presented in different frequency ranges. Sung responses of Amazonian and US participants approximately replicated heard intervals on a logarithmic scale, even for tones outside the singing range. Moreover, Amazonian and US reproductions both deteriorated for high-frequency tones even though they were fully audible. But whereas US participants tended to reproduce notes an integer number of octaves above or below the heard tones, Amazonians did not, ignoring the note ‘‘chroma’’ (C, D, etc.). Chroma matching in US participants was more pronounced in US musicians than non-musicians, was not affected by feedback, and was correlated with similarity-based measures of octave equivalence as well as the ability to match the absolute f0 of a stimulus in the singing range. The results suggest the cross-cultural presence of logarithmic scales for pitch, andbiologicalconstraintsonthelimitsofpitch, but indicate that octave equivalence may be culturally contingent, plausibly dependent on pitch representations that develop from experience with particular musical systems.
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#fff" -->
---
## Sinustöne
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Cochlea und Hörnerv: Telefonprinzip und Ortsprinzip
``` go
Telefonprinzip (Zeitkodierung):
+ Rate der Aktionspotentiale ~ Frequenz der Schwingung
+ Einzelneuron bis ca. 1500 Hz (warum nicht höher?)
+ Arbeitsteilig bis ca. 5 kHz
```
``` go
Ortsprinzip
+ Tonotopie der Cochlea -> Tonotopie der Hörrinde
+ vgl. "Müller-Doktrin"
+ Über 5 kHz einzige Möglichkeit
+ Musikalisch nicht brauchbar (warum?)
```
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#fff" -->
---
### Plastizität:
#### Dauernde Anpassung des Hörsystems an die Hörwelt
- Wdh. Funktionelle Plastizität (*Neurone wollen beschäftigt sein*)
- Studie:
+ 3 Stunden Musikhören an 3 Tagen
+ Manipuliert mit schmalbandigem 1 kHz Notch Filter
***
*Pantev et al. 1999*
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#fff" -->
---

:::spoiler
Immediately after listening to the notched music, the neural representation for a 1-kHz test stimulus centered on the notch was found to be significantly diminished compared to the neural representation for a 0.5-kHz control stimulus centered one octave below the region of notching.
:::
<!-- .slide: data-background="#fff" -->
---
### Intervallspreizung und Hörnerv
*Rakowski 1994, 1999, McKinney & Delgutte 1999*
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Intervallspreizung
- Hohe Oktaven klingen rein, obwohl f/f > 2/1
- Martin F. McKinney and Bertrand Delgutte 1999
- ähnlich: wenn Intervall >> Oktave (Rakowski!!!)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#fff" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---
***
## Komplexe (Einzel)Töne
***
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Physik und Perzept
Zwei überlagerte Sinustöne klingen je nach Frequenzabstand wie
+ Ein Ton
+ Ein Ton mit Schwebung
+ Ein Ton mit Rauigkeit
+ Zwei Töne (ggf. mit Schwebung/Rauigkeit)
+ Ein komplexer Ton
+ Ein nicht vorhandener komplexer Ton
> [Beispiele](https://onlinetonegenerator.com/binauralbeats.html)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Bereits (komplexe) Einzeltöne sind PERZEPTUELLES KONSTRUKT
- Am Trommelfell kommt ein Gemisch aller Frequenzen an
- Cochlea trennt die Frequenzanteile auf
- Gehirn nutzt dann dieses Muster (z.B. relative Energiedichten der Partialtöne) um daraus die Tonhöhenwahrnehmung (Fundamentalfrequenz) zu (re)konstruieren
:::danger
D.h. Komplexer Ton wird zunächst (physikalisch) zerlegt und dann (neuronal) wieder zusammengesetzt
:::
[Additive Synthesis](https://meettechniek.info/additional/additive-synthesis.html)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Ein komplexharmonischer Ton enthält zwar viele Frequenzen, aber wir können einen einzelnen Sinuston dazu finden, dessen Tonhöhe zur wahrgenommenen Tonhöhe passt.
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#ffe" -->
---
Wie konstruiert das Gehirn Tonhöhe aus einem komplexharmonischen Ton?

<!-- .slide: data-background="#fff" -->
---
### Tone Binding: Cochlea → AI
- Welche Partialtöne gehören zu welchen Quellen?
- Wichtig für Lokalisation
- Tone Binding Cochlea → AI
<!-- .slide: data-background="#2d625f" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#fff" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---

[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#000" -->
---
### Tone Binding: Cochlea → AI
Wozu Binding von Frequenzen?
:::spoiler
- Quellen-Identifikation
- Wichtig für Lokalisation
:::
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Wie konstruiert das Gehirn Tonhöhe aus einem komplexharmonischen Ton?
:::spoiler
Fundamentalfrequenz muss ja gar nicht da sein....
:::
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
#### Missing Fundamental / Residualton
Audiobeispiele:
[Klarinette175Hz_MIT_Fundamental](http:///io.op3.eu/Klarinette175Hz_MIT_Fundamental.mp3)
[Klarinette175Hz_OHNE_Fundamental](http:///io.op3.eu/Klarinette175Hz_MIT_Fundamental.mp3)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
#### Studie zur Missing Fundamental: Patel & Balaban 2001
- Unmanipulierte Missing Fundamental bei 600-900-1200: 300Hz
- Manipulation: Komplexer Ton aus 650-950-1250
- Prinzipiell mindestens VIER Outcomes möglich (welche?)
- Teilnehmer sollten die wahrgenommene Tonhöhe des komplexen Tons angeben (durch Justieren eines reinen Sinustons)
> [Zum Ausprobieren](https://www.szynalski.com/tone-generator)
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
#### Studie zur Missing Fundamental: Patel & Balaban 2001
- Überraschung: Zwei Gruppen
- Ein Teil der Teilnehmer hörte 650 (d.h. gar keine MF)
- der Rest hörte 325 (also halbe tiefste Harmonische)
- Beide Gruppen total überzeugt
- Unterschiede der Hirnaktivität!
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
#### Missing Fundamental - Virtuelle Tonhöhe
- wird im RECHTEN auditorischen Kortex (im rechten Temporallappen) verarbeitet (erzeugt)
- bekannt aus Läsionsstudien
- Beispiel für Hemisphärenspezialisierung
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Missing Fundamental keine menschliche oder musikspezifische Kapazität!
- Andere Tiere (Affen und Vögel) haben den Mechanismus ebenfalls
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
##### BA Modul Empirische Musikforschung I
***
# VL Musik, Mensch und Gehirn 2
***
#### 2.1 Tonhöhe und Klangfarbe pt.2
***
*2025 SS*
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
### Tone Binding: Cochlea -> AI
Tone Binding zeitlich:
- Good continuation zusammenhängender Quellen
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---
Phonemic Restauration
- [Full sentence - masked](http://io.op3.eu/PhonemicRestauration1.mp3)
- [Sentence with gap - gap masked](http://io.op3.eu/PhonemicRestauration2.mp3)
- [Sentence with gap](http://io.op3.eu/PhonemicRestauration5.mp3)
*Quelle: Warren*
[comment]: # (532e22 a83f2c d07f0d 2d625f)
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#444" -->
---

<!-- .slide: data-background="#444" -->
---

<!-- .slide: data-background="#444" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#111" -->
---
## Pitch vs. Timing
<!-- .slide: data-background="#f9ce4a" -->
---
### Pitch vs. Timing
Neuronenverbände können sich auf begrenztem Raum spezialisieren,
- *entweder* fein abgestimmt
- *oder* schnell zu sein!
- Grund: Myelinisierung. *Warum?*
<!-- .slide: data-background="#f9ce4a" -->
---

<!-- .slide: data-background="#014" -->
---

<!-- .slide: data-background="#014" -->
---

<!-- .slide: data-background="#fff" -->
---
### Musik und Sprache - Pitch und Timing
Was ist als wichtiger, wenn man nicht beides haben kann?
- Musik:
- Präzise Tonhöhenverarbeitung
- normalerweise viel weniger als 20 Pitches pro Sekunde
- aber hochpräzises Frequenztuning
- Sprache:
- Präzise Zeitverarbeitung
- Sprache: 20 und mehr Phoneme pro Sekunde!!
- Was tun?
<!-- .slide: data-background="#f9ce4a" -->
---
### Pitch vs. Timing
- *Trade-Off* zwischen Pitch und Timing
- "entweder oder"
- oder "beste aus beiden Welten?
<!-- .slide: data-background="#f9ce4a" -->
---
#### Pitch vs. Timing: Hemisphärenspezialisierung
- Zatorre et al. (2002) "Structure and function of auditory cortex: music and speech"
- Review-Meta-Artikel: **rechter** Temporallappen wichtiger für Tonhöhenverarbeitung als der linke
<!-- .slide: data-background="#f9ce4a" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---
### Wechselspiel der Hirnhälften – Frequenz und Zeit?
- [Rechtes Ohr, Linke Hörrinde](http://io.op3.eu/Brainstudy_LEFT.wav)
- [Linkes Ohr, Rechte Hörrinde](http://io.op3.eu/Brainstudy_RIGHT.wav)
- [Wer kennt die „ganze Geschichte“?](http://io.op3.eu/Brainstudy_LEFT+RIGHT.wav)
*aus: "Brainstudy", Julian Klein 2001, Live-Elektronik und Interfacing MB*
- Rhythmus, Konsonanten bevorzugt links
- Vokale, Prosodie bevorzugt rechts
- Gleichzeitig entsteht ein Gesamteindruck
- den keine der beiden Hörrinden hören kann
- jede kennt nur einen Teil der Geschichte
- einen unverständlichen !
<!-- .slide: data-background="#f9ce4a" -->
---
### Zatorre (2002) Meta-Review
Anatomische Spezialisierung:
- **Rechter** Temporallappen: Präzise Tonhöhenverarbeitung
- **Linker** Temporallappen: Präzise Zeitverarbeitung
R-L-Bias ist ein relativer Bias, keine Dichotomie!
- Sowohl für Sprache als auch für Musik braucht man natürlich beides; die Gewichtung ist entscheidend
<!-- .slide: data-background="#f9ce4a" -->
---
# Tonhöhen in der Musik
<!-- .slide: data-background="#7db7c3" -->
---
##### Tonhöhenwahrnehmung abhängig von… Verarbeitungsmodus
Bsp.:
- [Speech 1](http://io.op3.eu/SemiTranspSpeechBankNorm.wav)
- [Speech 2](http://io.op3.eu/SemiTranspSpeechBankUp.wav)
- [Music 1](http://io.op3.eu/SemiTranspMusicNorm.wav)
- [Music 2](http://io.op3.eu/SemiTranspMusicUp.wav)
- [Loop](http://io.op3.eu/BankLoopStandard8xWith2Deviants.wav)
*Schneider et al. 2005, Patel & Balaban 2001, Deutsch 1986, Patel 2015*
<!-- .slide: data-background="#7db7c3" -->
---
#### "Hoch-tief" Assoziation - eine Universalie?
<!-- .slide: data-background="#7db7c3" -->
---
#### "Hoch-tief" *Assoziation* keine Universalie!
+ Kpelle Stamm Liberia: **Leicht - schwer**
+ Alte Griechen: **scharf - schwer**
+ Bali, Java: **Klein - Groß**
+ Suyá Stamm am Amazonasbecken: **Jung - Alt**
+ Bashi Stamm Zentralafrika: **Schwach - Stark**
+ Weitere: Wach-schläfrig: **Dünn - Dick**
+ Shona mbira (Zimbabwe): **Krokodil - die den Krokodilen folgen**
+ Gbaya xylophon (Zentralafrika): **Genealogisch** als Familie
**Studie**: *Zohar Eitan & Rene Timmers (2010)*
<!-- .slide: data-background="#7db7c3" -->
---
##### Zohar Eitan & Rene Timmers (2010)
+ Westliche Hörer sollten diese nichtwestlichen Hoch-Tief-Metaphern einordnen
+ Hohe Übereinstimmung
+ sogar dann wenn sie eine bestimmte Metapher als nicht besonders geeignet beurteilten
<!-- .slide: data-background="#7db7c3" -->
---
#### „Hoch-tief“ *Emotion* mehr als eine Universalie
+ Tierreich ~100 Millionen Jahre
+ Frühe Säuger nachtaktiv
+ Habitatanalyse
+ Tonhöhe/Klangfarbe – schnelle Verarbeitung
+ Wellenlänge ~ Bedrohungspotential
+ In der Folge als Kommunikationsinhalt:
+ Größer/Kleiner wirken
Bsp. aus [Sacre](http://io.op3.eu/sacrehochtiefuniversalie.mp3)
<!-- .slide: data-background="#7db7c3" -->
---
## Zusammenhang zwischen Tonhöhe und aggressivem/friedlichem Verhalten
- Evolutionär alt und (/weil) in vielen Tierarten gleich
- interspezifisch, transspezifisch
- Tief : Aggression
- Hoch : Friedlichkeit bzw. Indifferenz
- Psychologe Eugene Morton seit den 1970ern (Tierkommunikation)
- Linguist John Ohala 1980er
- Möglicher Ursprung: Zusammenhang Körpergröße - Frequenzproduktion
- Antiker Zusammenhang, findet auch Einzug in die menschliche Sprache ... und Musik!
[comment]: # ([MB: Plausibel - hier war Ko-evolution schon deshalb nötig, weil es sich ja um einen Kommunikationskanal auch ZWISCHEN Spezies handelt Jäger/Beute])
<!-- .slide: data-background="#7db7c3" -->
---

<!-- .slide: data-background="#355" -->
---
##### BA Modul Empirische Musikforschung I
***
# VL Musik, Mensch und Gehirn 2
***
#### 2.1 Tonhöhe und Klangfarbe pt.3
***
*2025 SS*
<!-- .slide: data-background="#357583" -->
---
# Klangfarbe (Timbre)
<!-- .slide: data-background="#357583" -->
---

<!-- .slide: data-background="#fff" -->
---
##### Klangfarben = Komplexe Töne
- Trompete: viele, auch hohe Obertöne mit viel Energie: scharf und brilliant
- Klarinette: *ungeradzahlige* Vielfache des Grundtons überwiegen: eher stumpf/dumpf
- Oboe: *geradzahlige* Vielfache des Grundtons überwiegen
- usw.
<!-- .slide: data-background="#357583" -->
---

<!-- .slide: data-background="#fff" -->
---
Sonagramm (Judy Garland)
- Tonhöhen
- Klangfarbe (menschliche weibliche Stimme)
- Vibrato
- Formanten (Vokalbildung)
Ungewöhnlich hier:
- "Sängerformant" bei 5 kHz!
- Klassischer [Sängerformant](https://de.wikipedia.org/wiki/S%C3%A4ngerformant) liegt bei ca. [3 kHz](https://de.wikipedia.org/wiki/S%C3%A4ngerformant)
<!-- .slide: data-background="#357583" -->
---
##### Auditorischer Kortex: Das eigene Instrument
Pantev et al. 1998
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---
### Vorlieben der Hörnervenzellen
*Schneider et al. 2005*
- Delta-p: Asymmetrie in der Aktivierung bei Hörtests
- Mehr Grundfrequenz-orientiert, mehr zeitliche Strukturen, Rhythmizität, Konsonanten
- Oder mehr Obertonreich, spektrale Strukturen, Vokale
- Entsprechend verteilen sich die so nach Vorlieben ihrer Neuronen sortierten Teilnehmer auf die gespielten Instrumente
- harte Attack bzw weiche Attack
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#fff" -->
---
#### Spekulative Fragen:
1. Warum finden unser Gehirn Instrumentalklänge so interessant?
2. Warum können wir Instrumentalklänge so *nuanciert* verarbeiten?
3. Warum können wir Instrumentalklänge so *schnell* verarbeiten?
4. Warum sind diese Klänge ausserdem emotional aufgeladen?
<!-- .slide: data-background="#2d625f" -->
---
These
> Menschliches Gehirn mag komplexe Töne, weil ihr reiches Spektrum dem menschlicher **Vokale** nicht unähnlich ist
<!-- .slide: data-background="#2d625f" -->
---

Amber Leaver & Josef Rauschecker 2010
- Direkter Vergleich der Verarbeitung von Instrumental- (Flöte etc) und Vokalklängen
- Ähnliche Areale aktiv im auditorischen TL
- Grün: Sprache, Blau: Musik
- Conjunction - Weiß: gemeinsam aktive Areale - großer Überlapp!
<!-- .slide: data-background="#000" -->
----

<!-- .slide: data-background="#000" -->
---

*Sensorisch und Motorisch: Einiges an Overlap*
<!-- .slide: data-background="#004" -->
----

<!-- .slide: data-background="#004" -->
---
### Klangfarbe - evolutionäre Bedeutung
- Klangfarbe ist so kraftvoll, weil von großer Bedeutung in der Hörwelt der Säugetiere
- lange bevor es Menschen gab!
- Warum?
> Die meisten frühen Säuger waren **nachtaktiv**!
<!-- .slide: data-background="#2d625f" -->
---
### "Plink": Kurze Clips
- Studie zum musikalischen Gedächtnis - wie detailliert ist es eigentlich?
- Bekannte Songs zwischen 1960 und 2000, kurze winzige Fragmente ausgeschnitten
- Probanden sollten Song und Interpreten erkennen, dazu das Genre, emotionalen Content und das Jahrzehnt *raten* ("Erkennen Sie die Melodie?")
- Befund: Schon 300 ms reichen !!!
- für >25% Erkennnungsrate Titel/Künstler
- und volle Trefferrate bzgl. Stil, Genre, Emotion, Dekade!!
*Krumhansl C (2010) "Plink: Thin Slices of Music" Music Perception: An Interdisciplinary Journal, Vol. 27, No. 5:337-354*
<!-- .slide: data-background="#2d625f" -->
---
### "Plink": Kurze Clips
Was kann ein "Plink" von 300 ms überhaupt transportieren?
- Melodiefragmente: kaum
- Rhythmus: kaum
- Metrum/Takt: nein
Aber:
:::spoiler
- Klangfarben
- Stimmen
- Instrumentierung
- Aufnahmequalität etc
:::
<!-- .slide: data-background="#2d625f" -->
---

<!-- .slide: data-background="#fff" -->
---

<!-- .slide: data-background="#fff" -->
---
### Noch so eine Studie mit kurzen Clips
- evozierte (!) Emotionen kategorisieren
- rein instrumental, unbekannte Stücke um keine episodisch biografischen Emotionen zu triggern
- zunächst 30 Sekunden Clips
- Valenz-Arousal Dimensionen
- finden große Übereinstimmung der Kategorisierung (<-> Schlaug Bangert Emotion)
- aber wie schnell geht das? Bilden sich die Emotionen graduell aus?
- Zweite Messreihe, neue Probanden, nur noch *1 Sekunde* Länge
- -> ähnliche Ergebnisse
*Bigand et al. 2005*
<!-- .slide: data-background="#2d625f" -->
---
### Spekulative Fragen:
1. Warum finden unser Gehirn Instrumentalklänge so interessant?
2. Warum können wir Instrumentalklänge so *nuanciert* verarbeiten?
3. Warum können wir Instrumentalklänge so *schnell* verarbeiten?
4. Warum sind diese Klänge ausserdem emotional aufgeladen?
<!-- .slide: data-background="#2d625f" -->
---
### Spekulative Antworten:
- Instrumentalsounds haben aus Gehirnsicht große Ähnlichkeit mit *Vokalsounds*.
- Schnelles Erfassen, *plus* emotionale Bewertung zum schnellen handlungsorientierten Reagieren, ist das Erbe unserer nachtaktiven tierischen Ahnen.
<!-- .slide: data-background="#2d625f" -->
---
***
## EoT
***
<!-- .slide: data-background="#2d625f" -->
---