Schalllokalisierung - Sound localization

Schalllokalisierung ist die Fähigkeit eines Hörers, den Ort oder Ursprung eines erkannten Schalls in Richtung und Entfernung zu identifizieren .

Die Tonlokalisierung Mechanismen des Säugetier- Hörsystems wurden ausgiebig untersucht. Das Hörsystem verwendet mehrere Hinweise zur Lokalisierung der Schallquelle, einschließlich Zeitunterschied und Pegelunterschied (oder Intensitätsunterschied) zwischen den Ohren und Spektralinformationen. Diese Hinweise werden auch von anderen Tieren wie Vögeln und Reptilien verwendet, aber es kann Unterschiede in der Verwendung geben, und es gibt auch Lokalisierungshinweise, die im menschlichen Hörsystem fehlen, wie zum Beispiel die Auswirkungen von Ohrbewegungen. Tiere mit der Fähigkeit, Geräusche zu lokalisieren, haben einen klaren evolutionären Vorteil.

Wie der Klang das Gehirn erreicht

Schall ist das Wahrnehmungsergebnis mechanischer Schwingungen, die sich durch ein Medium wie Luft oder Wasser ausbreiten. Durch die Mechanismen der Kompression und Verdünnung wandern Schallwellen durch die Luft, prallen von der Ohrmuschel und der Concha des Außenohrs ab und gelangen in den Gehörgang. Die Schallwellen lassen das Trommelfell ( Trommelfell ) vibrieren , wodurch die drei Knochen des Mittelohrs in Schwingung versetzt werden, die dann die Energie durch das ovale Fenster in die Cochlea senden, wo sie von Haarzellen im Organ in ein chemisches Signal umgewandelt wird von Corti , die Synapse auf Ganglion spirale Fasern , die Reise durch den Hörnerv in das Gehirn.

Neuronale Wechselwirkungen

Bei Wirbeltieren werden interaurale Zeitunterschiede im oberen Olivenkern des Hirnstamms berechnet . Nach Jeffress beruht diese Berechnung auf Verzögerungsleitungen : Neuronen in der oberen Olive der Innervation von jedem Ohr nehmen mit unterschiedlichen Verbindungs Axon Längen. Einige Zellen sind direkter mit einem Ohr verbunden als mit dem anderen, daher sind sie für einen bestimmten interauralen Zeitunterschied spezifisch. Diese Theorie entspricht dem mathematischen Verfahren der Kreuzkorrelation . Da die Theorie von Jeffress jedoch nicht in der Lage ist, den Vorrangeffekt zu erklären , bei dem nur der erste von mehreren identischen Tönen verwendet wird, um die Position der Töne zu bestimmen (und so Verwirrung durch Echos zu vermeiden), kann sie nicht vollständig verwendet werden, um die Reaktion zu erklären. Darüber hinaus haben eine Reihe neuerer physiologischer Beobachtungen im Mittelhirn und im Hirnstamm kleiner Säugetiere erhebliche Zweifel an der Gültigkeit der ursprünglichen Ideen von Jeffress aufkommen lassen.

Neuronen, die auf interaurale Pegelunterschiede (ILDs) empfindlich reagieren, werden durch Stimulation eines Ohrs erregt und durch Stimulation des anderen Ohrs gehemmt, so dass die Reaktionsstärke der Zelle von der relativen Stärke der beiden Inputs abhängt, die wiederum von der Schallintensitäten an den Ohren.

Im Nucleus des auditiven Mittelhirns, dem Colliculus inferior (IC), haben viele ILD-sensitive Neuronen Reaktionsfunktionen, die als Funktion der ILD steil vom Maximum auf null abfallen. Es gibt jedoch auch viele Neuronen mit viel flacheren Antwortfunktionen, die nicht auf Nullspitzen abfallen.

Der Kegel der Verwirrung

Die meisten Säugetiere sind in der Lage, den Ort einer Schallquelle unter Verwendung von interauralen Zeitunterschieden und interauralen Pegelunterschieden aufzulösen. Jedoch gibt es keine solchen Zeit- oder Pegelunterschiede für Töne, die entlang des Umfangs von kreisförmigen konischen Scheiben entstehen, wobei die Achse des Kegels entlang der Linie zwischen den beiden Ohren liegt.

Folglich haben Schallwellen, die an einem beliebigen Punkt entlang einer gegebenen Umfangsneigungshöhe entstehen, mehrdeutige Wahrnehmungskoordinaten. Das heißt, der Hörer kann nicht feststellen, ob der Schall von hinten, vorne, oben, unten oder irgendwo anders entlang des Umfangs an der Basis eines Kegels in einem bestimmten Abstand vom Ohr stammt. Natürlich ist die Bedeutung dieser Mehrdeutigkeiten für Schallquellen, die sehr nahe oder sehr weit vom Objekt entfernt sind, verschwindend gering, aber es sind diese Zwischenabstände, die in Bezug auf die Fitness am wichtigsten sind.

Diese Mehrdeutigkeiten können durch Neigen des Kopfes beseitigt werden, was zu einer Verschiebung sowohl der Amplitude als auch der Phase von Schallwellen führen kann, die an jedem Ohr ankommen. Dadurch wird die vertikale Ausrichtung der interauralen Achse horizontal verschoben, wodurch der Lokalisierungsmechanismus auf der horizontalen Ebene genutzt wird. Darüber hinaus kann das Hörsystem auch ohne Änderung des Winkels der interauralen Achse (dh ohne den Kopf zu neigen) von Interferenzmustern profitieren, die durch die Ohrmuscheln, den Rumpf und sogar die vorübergehende Umnutzung einer Hand als Verlängerung der Ohrmuschel erzeugt werden (zB die Hand um das Ohr legen).

Wie bei anderen sensorischen Reizen wird auch die Wahrnehmungsdisambiguierung durch die Integration mehrerer sensorischer Inputs, insbesondere visueller Hinweise, erreicht. Nachdem ein Geräusch innerhalb des Umfangs eines Kreises in einer wahrgenommenen Entfernung lokalisiert wurde, dienen visuelle Hinweise dazu, den Ort des Geräuschs zu bestimmen. Darüber hinaus hilft eine vorherige Kenntnis des Ortes des schallerzeugenden Mittels beim Auflösen seines aktuellen Ortes.

Schalllokalisierung durch das menschliche Gehör

Schalllokalisierung ist der Prozess, den Ort einer Schallquelle zu bestimmen . Das Gehirn nutzt subtile Unterschiede in Intensität, Spektral- und Timing-Hinweisen, um uns zu ermöglichen, Schallquellen zu lokalisieren. In diesem Abschnitt werden wir kurz die Theorie der menschlichen Ohrlokalisation diskutieren, um den menschlichen Hörmechanismus besser zu verstehen.

Allgemeine Einführung

Die Lokalisierung kann in Bezug auf die dreidimensionale Position beschrieben werden: der Azimut- oder Horizontalwinkel, der Elevations- oder Vertikalwinkel und die Entfernung (für statische Geräusche) oder Geschwindigkeit (für bewegte Geräusche).

Der Azimut eines Tons wird durch die unterschiedlichen Ankunftszeiten zwischen den Ohren , durch die relative Amplitude hochfrequenter Töne (der Schatteneffekt) und durch die asymmetrischen Spektralreflexionen von verschiedenen Teilen unseres Körpers, einschließlich Rumpf, Schultern, und pinnae .

Die Entfernungshinweise sind der Amplitudenverlust, der Verlust hoher Frequenzen und das Verhältnis des Direktsignals zum Nachhallsignal.

Je nachdem, wo sich die Quelle befindet, fungiert unser Kopf als Barriere, um die Klangfarbe , Intensität und spektrale Qualität des Klangs zu ändern , und hilft dem Gehirn, sich zu orientieren, woher der Klang kommt. Diese winzigen Unterschiede zwischen den beiden Ohren werden als interaurale Signale bezeichnet.

Niedrigere Frequenzen mit längeren Wellenlängen beugen den Schall um den Kopf herum und zwingen das Gehirn, sich nur auf die Phasensignale von der Quelle zu konzentrieren.

Helmut Haas entdeckte, dass wir die Schallquelle trotz zusätzlicher Reflexionen um 10 Dezibel lauter als die ursprüngliche Wellenfront erkennen können, indem wir die am frühesten eintreffende Wellenfront verwenden. Dieses Prinzip ist als Haas-Effekt bekannt , eine spezielle Version des Präzedenzeffekts . Haas maß sogar eine Zeitdifferenz von 1 Millisekunde zwischen dem Originalton und dem reflektierten Ton, um die Räumlichkeit zu erhöhen, so dass das Gehirn den wahren Ort des Originaltons erkennen kann. Das Nervensystem kombiniert alle frühen Reflexionen zu einem einzigen wahrnehmbaren Ganzen, das es dem Gehirn ermöglicht, mehrere verschiedene Geräusche gleichzeitig zu verarbeiten. Das Nervensystem kombiniert Reflexionen, die innerhalb von etwa 35 Millisekunden voneinander liegen und eine ähnliche Intensität haben.

Duplextheorie

Zur Bestimmung der seitlichen Eingangsrichtung (links, vorne, rechts) wertet das Hörsystem folgende Ohrsignalinformationen aus:

1907 verwendete Lord Rayleigh Stimmgabeln, um monophone Erregung zu erzeugen, und studierte die Theorie der seitlichen Schalllokalisation an einem menschlichen Kopfmodell ohne Ohrmuschel. Er präsentierte zuerst die interaurale, auf Hinweisdifferenzen basierende Schalllokalisierungstheorie, die als Duplex-Theorie bekannt ist. Menschliche Ohren befinden sich auf verschiedenen Seiten des Kopfes, haben also unterschiedliche Koordinaten im Raum. Wie in der Abbildung der Duplextheorie gezeigt, gibt es einen Zeitunterschied und einen Intensitätsunterschied zwischen den Schallsignalen von zwei Ohren, da die Abstände zwischen der Schallquelle und den Ohren unterschiedlich sind. Wir nennen diese Arten von Unterschieden als Interaural Time Difference (ITD) bzw. Interaural Intensity Difference (IID).

Duplextheorie

ITD und IID

Interauraler Zeitunterschied ( ITD ) zwischen dem linken Ohr (oben) und dem rechten Ohr (unten).
[ Tonquelle : 100 ms weißes Rauschen von rechts]
Interauraler Pegelunterschied ( ILD ) zwischen dem linken Ohr (links) und dem rechten Ohr (rechts).
[ Schallquelle : ein Schwung von rechts]

Aus der Abbildung der Duplextheorie können wir sehen, dass es für Quelle B1 oder Quelle B2 eine Ausbreitungsverzögerung zwischen zwei Ohren gibt, die die ITD erzeugt. Gleichzeitig können der menschliche Kopf und die Ohren einen Schatteneffekt auf hochfrequente Signale haben, wodurch IID erzeugt wird.

  • Interauraler Zeitunterschied (ITD) – Schall von der rechten Seite erreicht das rechte Ohr früher als das linke Ohr. Das Hörsystem bewertet interaurale Zeitunterschiede aus: (a) Phasenverzögerungen bei niedrigen Frequenzen und (b) Gruppenverzögerungen bei hohen Frequenzen.
  • Theorie und Experimente zeigen, dass ITD mit der Signalfrequenz f zusammenhängt. Angenommen, die Winkelposition der Schallquelle ist θ, der Kopfradius ist r und die Schallgeschwindigkeit ist c, die Funktion von ITD ist gegeben durch: . In obiger geschlossener Form haben wir angenommen, dass 0 Grad rechts vor dem Kopf liegt und entgegen dem Uhrzeigersinn positiv ist.
  • Interauraler Intensitätsunterschied (IID) oder interauraler Pegelunterschied (ILD) – Der Schall von der rechten Seite hat am rechten Ohr einen höheren Pegel als am linken Ohr, da der Kopf das linke Ohr abschattet. Diese Pegelunterschiede sind stark frequenzabhängig und nehmen mit zunehmender Frequenz zu. Umfangreiche theoretische Untersuchungen zeigen, dass IID mit der Signalfrequenz f und der Winkelposition der Schallquelle zusammenhängt. Die Funktion von IID ist gegeben durch:
  • Für Frequenzen unter 1000 Hz werden hauptsächlich ITDs ( Phasenverzögerungen ) ausgewertet , für Frequenzen über 1500 Hz werden hauptsächlich IIDs ausgewertet. Zwischen 1000 Hz und 1500 Hz gibt es eine Übergangszone, in der beide Mechanismen eine Rolle spielen.
  • Die Lokalisierungsgenauigkeit beträgt 1 Grad für Quellen vor dem Hörer und 15 Grad für Quellen seitlich. Menschen können interaurale Zeitunterschiede von 10 Mikrosekunden oder weniger wahrnehmen.

Auswertung für tiefe Frequenzen

Bei Frequenzen unter 800 Hz sind die Abmessungen des Kopfes (Ohrabstand 21,5 cm, entsprechend einer interauralen Zeitverzögerung von 625 µs) kleiner als die halbe Wellenlänge der Schallwellen. So kann das Gehör ohne Verwechslung Phasenverzögerungen zwischen beiden Ohren feststellen. In diesem Frequenzbereich sind interaurale Pegelunterschiede sehr gering, insbesondere unterhalb von ca. 200 Hz, so dass eine genaue Beurteilung der Eingangsrichtung allein anhand von Pegelunterschieden kaum möglich ist. Wenn die Frequenz unter 80 Hz sinkt, wird es schwierig oder unmöglich, entweder die Zeitdifferenz oder die Pegeldifferenz zur Bestimmung der seitlichen Quelle eines Schalls zu verwenden, da die Phasendifferenz zwischen den Ohren für eine Richtungsbewertung zu klein wird.

Auswertung für hohe Frequenzen

Bei Frequenzen über 1600 Hz sind die Abmessungen des Kopfes größer als die Länge der Schallwellen. Eine eindeutige Bestimmung der Eingangsrichtung allein anhand der interauralen Phase ist bei diesen Frequenzen nicht möglich. Allerdings werden die interauralen Pegelunterschiede größer und diese Pegelunterschiede werden vom Hörsystem ausgewertet. Außerdem können Verzögerungen zwischen den Ohren immer noch über eine Kombination von Phasenunterschieden und Gruppenverzögerungen erkannt werden , die bei höheren Frequenzen ausgeprägter sind; d.h. bei einem Schalleinbruch kann die Verzögerung dieses Einsetzens zwischen den Ohren verwendet werden, um die Eingangsrichtung der entsprechenden Schallquelle zu bestimmen. Dieser Mechanismus wird besonders in hallenden Umgebungen wichtig. Nach einem Schallbeginn gibt es einen kurzen Zeitraum, in dem der direkte Schall die Ohren erreicht, aber noch nicht der reflektierte Schall. Das Hörsystem nutzt diesen kurzen Zeitrahmen zur Bewertung der Schallquellenrichtung und behält diese erkannte Richtung so lange bei, wie Reflexionen und Nachhall eine eindeutige Richtungsschätzung verhindern. Die oben beschriebenen Mechanismen können nicht verwendet werden, um zwischen einer Schallquelle vor dem Hörer oder hinter dem Hörer zu unterscheiden; daher müssen zusätzliche Hinweise ausgewertet werden.

Pinna-Filtereffekt

HRTF

Motivationen

Die Duplex-Theorie weist klar darauf hin, dass ITD und IID eine bedeutende Rolle bei der Schalllokalisierung spielen, sie jedoch nur mit lateralen Lokalisierungsproblemen umgehen können. Wenn beispielsweise zwei akustische Quellen symmetrisch auf der rechten Vorder- und rechten Hinterseite des menschlichen Kopfes angeordnet sind, erzeugen sie basierend auf der Duplextheorie gleiche ITDs und IIDs, was als Kegelmodelleffekt bezeichnet wird. Das menschliche Ohr kann diese Quellen jedoch tatsächlich unterscheiden. Außerdem kann im natürlichen Hörsinn nur ein Ohr, also kein ITD oder IID, die Quellen mit hoher Genauigkeit unterscheiden. Aufgrund der Nachteile der Duplextheorie schlugen die Forscher die Theorie des Pinna-Filtereffekts vor. Die Form der menschlichen Ohrmuschel ist sehr speziell. Es ist konkav mit komplexen Falten und asymmetrisch, egal ob horizontal oder vertikal. Die reflektierten Wellen und die direkten Wellen erzeugen am Trommelfell ein Frequenzspektrum, das auf die Schallquellen bezogen ist. Dann lokalisieren Hörnerven die Quellen anhand dieses Frequenzspektrums. Daher wurde eine entsprechende Theorie vorgeschlagen und als Pinna-Filtereffekt-Theorie bezeichnet.

Mathe-Modell

Dieser durch den Pinna-Filtereffekt erzeugte Spektrumshinweis kann als kopfbezogene Übertragungsfunktion (HRTF) dargestellt werden. Die entsprechenden Zeitbereichsausdrücke werden als Head-Related Impulse Response (HRIR) bezeichnet. HRTF wird auch als Übertragungsfunktion vom Freifeld zu einem bestimmten Punkt im Gehörgang bezeichnet. Wir erkennen HRTFs in der Regel als LTI-Systeme an:

,

wobei L und R das linke Ohr bzw. das rechte Ohr darstellen. und repräsentieren die Amplitude des Schalldrucks an den Eingängen des linken und rechten Gehörgangs. ist die Schalldruckamplitude in der Mitte der Kopfkoordinate, wenn kein Zuhörer vorhanden ist. Im Allgemeinen sind HRTFs und Funktionen der Winkelposition der Quelle , des Höhenwinkels , des Abstands zwischen der Quelle und der Mitte des Kopfes , der Winkelgeschwindigkeit und der äquivalenten Abmessung des Kopfes .

HRTF-Datenbank

Derzeit sind die wichtigsten Institute, die an der Messung der HRTF-Datenbank arbeiten, das CIPIC International Lab, das MIT Media Lab, die Graduate School in Psychoacoustics der Universität Oldenburg, das Neurophysiology Lab der University of Wisconsin-Madison und das Ames Lab der NASA. Datenbanken mit HRIRs von Menschen mit normalem und beeinträchtigtem Hörvermögen sowie von Tieren sind öffentlich zugänglich.

HRIR

Andere Hinweise für die 3D-Raumlokalisierung

Monaurale Hinweise

Das menschliche Außenohr , also die Strukturen der Ohrmuschel und des äußeren Gehörgangs , bilden richtungsselektive Filter. Je nach Schalleintrittsrichtung in der Medianebene werden unterschiedliche Filterresonanzen aktiv. Diese Resonanzen implantieren richtungsspezifische Muster in die Frequenzgänge der Ohren, die vom Hörsystem zur vertikalen Schallortung ausgewertet werden können . Zusammen mit weiteren richtungsselektiven Reflexionen an Kopf, Schultern und Rumpf bilden sie die Außenohrübertragungsfunktionen. Diese Muster im Frequenzgang des Ohrs sind je nach Form und Größe des Außenohrs sehr individuell. Wenn der Ton über Kopfhörer präsentiert wird und über einen anderen Kopf mit anders geformten äußeren Ohrflächen aufgenommen wurde, unterscheiden sich die Richtungsmuster von denen des Hörers, und es treten Probleme auf, wenn versucht wird, mit diesen fremden Ohren Richtungen in der Medianebene zu bewerten. Als Konsequenz können Front-Back-Permutationen oder Inside-the-Head-Lokalisierung beim Hören von Dummy-Head-Aufnahmen auftreten , die auch als binaurale Aufnahmen bezeichnet werden. Es hat sich gezeigt, dass menschliche Probanden hochfrequente Töne monaural lokalisieren können, jedoch keine niederfrequenten Töne. Bei niedrigeren Frequenzen war jedoch eine binaurale Lokalisation möglich. Dies liegt wahrscheinlich daran, dass die Ohrmuschel klein genug ist, um nur mit Schallwellen hoher Frequenz zu interagieren. Es scheint, dass Menschen nur die Höhe von Tönen genau lokalisieren können, die komplex sind und Frequenzen über 7.000 Hz umfassen, und eine Ohrmuschel muss vorhanden sein.

Dynamische binaurale Hinweise

Bei stationärem Kopf geben die binauralen Hinweise zur seitlichen Schalllokalisation (interauraler Zeitunterschied und interauraler Pegelunterschied) keine Auskunft über die Lage eines Schalls in der Medianebene. Identische ITDs und ILDs können durch Geräusche auf Augenhöhe oder in beliebiger Höhe erzeugt werden, solange die seitliche Richtung konstant ist. Wenn der Kopf jedoch gedreht wird, ändern sich ITD und ILD dynamisch, und diese Änderungen sind für Klänge unterschiedlicher Höhen unterschiedlich. Befindet sich beispielsweise eine Schallquelle auf Augenhöhe geradeaus und der Kopf dreht sich nach links, wird der Ton am rechten Ohr lauter (und kommt früher an) als am linken. Wenn sich die Schallquelle jedoch direkt über dem Kopf befindet, ändert sich die ITD und ILD nicht, wenn sich der Kopf dreht. Mittlere Erhöhungen erzeugen mittlere Änderungsgrade, und wenn die Präsentation binauraler Signale an die beiden Ohren während der Kopfbewegung umgekehrt wird, wird der Ton hinter dem Hörer gehört. Hans Wallach veränderte künstlich die binauralen Signale eines Klangs bei Bewegungen des Kopfes. Obwohl der Schall objektiv auf Augenhöhe platziert wurde, waren die dynamischen Änderungen von ITD und ILD bei Drehung des Kopfes diejenigen, die erzeugt würden, wenn die Schallquelle erhöht worden wäre. In dieser Situation wurde der Ton in der synthetisierten Höhe gehört. Die Tatsache, dass die Schallquellen objektiv auf Augenhöhe blieben, verhinderte, dass monaurale Hinweise die Höhe angeben, was zeigt, dass es die dynamische Änderung der binauralen Hinweise während der Kopfbewegung war, die es ermöglichte, den Schall in der vertikalen Dimension korrekt zu lokalisieren. Die Kopfbewegungen müssen nicht aktiv erzeugt werden; eine genaue vertikale Lokalisierung erfolgte in einem ähnlichen Aufbau, wenn die Kopfdrehung passiv erzeugt wurde, indem die Person mit verbundenen Augen in einen rotierenden Stuhl gesetzt wurde. Solange die dynamischen Veränderungen der binauralen Hinweise eine wahrgenommene Kopfdrehung begleiteten, wurde die synthetisierte Elevation wahrgenommen.

Entfernung der Schallquelle

Das menschliche Gehör hat nur begrenzte Möglichkeiten, die Entfernung einer Schallquelle zu bestimmen. Im Nahbereich gibt es einige Hinweise zur Entfernungsbestimmung, wie zB extreme Pegelunterschiede (zB beim Einflüstern in ein Ohr) oder spezielle Ohrmuschelresonanzen (der sichtbare Teil des Ohrs) im Nahbereich.

Das Hörsystem verwendet diese Hinweise, um die Entfernung zu einer Schallquelle abzuschätzen:

  • Direkt-/Reflexionsverhältnis: In geschlossenen Räumen erreichen zwei Schallarten einen Hörer: Der Direktschall erreicht die Ohren des Hörers, ohne an einer Wand reflektiert zu werden. Reflektierter Schall wurde mindestens einmal an einer Wand reflektiert, bevor er beim Hörer ankam. Das Verhältnis zwischen Direktschall und reflektiertem Schall kann einen Hinweis auf die Entfernung der Schallquelle geben.
  • Loudness: Entfernte Schallquellen haben eine geringere Lautstärke als nahe. Dieser Aspekt kann insbesondere für bekannte Schallquellen bewertet werden.
  • Klangspektrum: Hohe Frequenzen werden von der Luft schneller gedämpft als tiefe Frequenzen. Daher klingt eine entfernte Schallquelle gedämpfter als eine nahe, da die hohen Frequenzen gedämpft werden. Bei Schall mit bekanntem Spektrum (zB Sprache) lässt sich die Entfernung anhand des wahrgenommenen Schalls grob abschätzen.
  • ITDG: Die Initial Time Delay Gap beschreibt die Zeitdifferenz zwischen dem Eintreffen der direkten Welle und der ersten starken Reflexion beim Hörer. Nahegelegene Quellen erzeugen eine relativ große ITDG, wobei die ersten Reflexionen einen längeren Weg zurücklegen müssen, möglicherweise um ein Vielfaches länger. Wenn die Quelle weit entfernt ist, haben die direkten und die reflektierten Schallwellen ähnliche Weglängen.
  • Bewegung: Ähnlich wie das visuelle System gibt es auch das Phänomen der Bewegung Parallaxe in akustische Wahrnehmung. Für einen sich bewegenden Hörer passieren nahegelegene Schallquellen schneller als entfernte Schallquellen.
  • Pegelunterschied: Sehr nahe Schallquellen verursachen einen unterschiedlichen Pegel zwischen den Ohren.

Signalverarbeitung

Die Schallverarbeitung des menschlichen Gehörs erfolgt in sogenannten kritischen Bändern . Der Hörbereich ist in 24 kritische Bänder mit jeweils einer Breite von 1 Bark oder 100 Mel unterteilt . Für eine Richtungsanalyse werden die Signale innerhalb des kritischen Bandes gemeinsam analysiert.

Das Hörsystem kann aus Störgeräuschen den Schall einer gewünschten Schallquelle extrahieren. Dadurch kann sich der Hörer auf nur einen Sprecher konzentrieren, wenn auch andere Sprecher sprechen ( Cocktailparty-Effekt ). Mit Hilfe des Cocktailparty-Effekts wird Schall aus Störrichtungen gegenüber dem Schall aus der gewünschten Richtung abgeschwächt wahrgenommen. Das Hörsystem kann den Signal-Rauschabstand um bis zu 15  dB erhöhen , wodurch Störgeräusche auf die Hälfte (oder weniger) ihrer tatsächlichen Lautstärke gedämpft wahrgenommen werden .

Lokalisierung in geschlossenen Räumen

In geschlossenen Räumen erreicht nicht nur der direkte Schall einer Schallquelle das Ohr des Hörers, sondern auch Schall, der an den Wänden reflektiert wurde . Das Gehör analysiert nur den zuerst eintreffenden Direktschall zur Schalllokalisierung, nicht aber den reflektierten Schall, der später eintrifft ( Gesetz der ersten Wellenfront ). So bleibt die Schalllokalisierung auch in einer echoreichen Umgebung möglich. Diese Echokompensation tritt im Nucleus dorsalis des lateralen Lemniscus (DNLL) auf.

Um die Zeiträume zu bestimmen, in denen der Direktschall vorherrscht und die zur Richtungsbewertung verwendet werden können, analysiert das Hörsystem Lautstärkeänderungen in verschiedenen kritischen Bändern sowie die Stabilität der wahrgenommenen Richtung. Kommt es in mehreren kritischen Bändern zu einer starken Anhebung der Lautstärke und ist die wahrgenommene Richtung stabil, wird diese Anhebung aller Wahrscheinlichkeit nach durch den Direktschall einer Schallquelle verursacht, die neu eindringt oder ihre Signalcharakteristik ändert. Diese kurze Zeitspanne wird vom Hörsystem zur Richtungs- und Lautheitsanalyse dieses Schalls verwendet. Wenn Reflexionen etwas später eintreffen, erhöhen sie die Lautstärke innerhalb der kritischen Bänder nicht so stark, aber die Richtungshinweise werden instabil, weil es eine Mischung von Schall aus mehreren Reflexionsrichtungen gibt. Dadurch wird keine neue Richtungsanalyse durch das Hörsystem ausgelöst.

Diese erste erkannte Richtung aus dem Direktschall wird als gefundene Schallquellenrichtung genommen, bis weitere starke Lautheitsanfälle, kombiniert mit stabilen Richtungsinformationen, darauf hinweisen, dass eine neue Richtungsanalyse möglich ist. (siehe Franssen-Effekt )

Spezifische Techniken mit Anwendungen

Audioübertragungs-Stereoanlage

Diese Art der Tonlokalisierungstechnik liefert uns das reale virtuelle Stereosystem . Es verwendet "intelligente" Modelle wie KEMAR, um Signale zu sammeln oder DSP-Methoden zu verwenden, um den Übertragungsprozess von den Quellen zu den Ohren zu simulieren. Nach der Verstärkung, Aufnahme und Übertragung werden die beiden Kanäle der empfangenen Signale über Kopfhörer oder Lautsprecher wiedergegeben. Dieser Lokalisierungsansatz verwendet elektroakustische Verfahren, um die räumlichen Informationen des ursprünglichen Schallfelds zu erhalten, indem der Hörapparat des Hörers auf das ursprüngliche Schallfeld übertragen wird. Der größte Vorteil davon wäre, dass seine akustischen Bilder lebendig und natürlich sind. Außerdem benötigt es nur zwei unabhängige Sendesignale, um das akustische Bild eines 3D-Systems wiederzugeben.

Feige. 6 Schalllokalisierung mit Manikin

3D-Paravirtualisierungs-Stereosystem

Vertreter dieser Art von Systemen sind SRS Audio Sandbox, Spatializer Audio Lab und Qsound Qxpander. Sie simulieren mit HRTF die an den Ohren empfangenen akustischen Signale aus unterschiedlichen Richtungen mit einer gängigen Binärkanal-Stereowiedergabe. Daher können sie reflektierte Schallwellen simulieren und das subjektive Raum- und Raumempfinden verbessern. Da es sich um Paravirtualisierungs-Stereosysteme handelt, besteht ihr Hauptziel darin, Stereotoninformationen zu simulieren. Herkömmliche Stereosysteme verwenden Sensoren, die sich vom menschlichen Ohr stark unterscheiden. Obwohl diese Sensoren die akustischen Informationen aus verschiedenen Richtungen empfangen können, haben sie nicht den gleichen Frequenzgang des menschlichen Hörsystems. Daher können menschliche Hörsysteme, wenn der Binärkanalmodus angewendet wird, das 3D-Klangeffektfeld immer noch nicht wahrnehmen. Das 3D-Paravirtualisierungs-Stereosystem überwindet jedoch solche Nachteile. Es verwendet HRTF-Prinzipien, um akustische Informationen aus dem ursprünglichen Schallfeld zu gewinnen und dann über herkömmliche Ohrhörer oder Lautsprecher ein lebendiges 3D-Schallfeld zu erzeugen.

Virtuelle Mehrkanal-Stereo-Wiedergabe

Da die Mehrkanal-Stereosysteme viele Wiedergabekanäle benötigen, haben einige Forscher die HRTF-Simulationstechnologien übernommen, um die Anzahl der Wiedergabekanäle zu reduzieren. Sie verwenden nur zwei Lautsprecher, um mehrere Lautsprecher in einem Mehrkanalsystem zu simulieren. Dieser Vorgang wird als virtuelle Reproduktion bezeichnet. Im Wesentlichen verwendet ein solcher Ansatz sowohl das Prinzip der interauralen Differenz als auch die Theorie des Pinna-Filtereffekts. Leider kann diese Art von Ansatz das traditionelle Mehrkanal-Stereosystem wie ein 5.1 / 7.1-Surround-Soundsystem nicht perfekt ersetzen . Das liegt daran, dass bei einer relativ größeren Hörzone die Simulationswiedergabe durch HRTFs zu invertierten akustischen Bildern an symmetrischen Positionen führen kann.

Tiere

Da die meisten Tiere zwei Ohren haben, finden sich viele Effekte des menschlichen Gehörs auch bei anderen Tieren wieder. Daher spielen interaurale Zeitunterschiede (interaurale Phasenunterschiede) und interaurale Pegelunterschiede für das Hören vieler Tiere eine Rolle. Die Einflüsse auf die Lokalisation dieser Effekte sind jedoch abhängig von Kopfgrößen, Ohrabständen, den Ohrpositionen und der Ausrichtung der Ohren.

Seiteninformationen (links, vorne, rechts)

Befinden sich die Ohren seitlich am Kopf, können ähnliche seitliche Lokalisierungshinweise wie beim menschlichen Gehör verwendet werden. Das bedeutet: Auswertung interauraler Zeitunterschiede (interauraler Phasenunterschiede) für niedrigere Frequenzen und Auswertung interauraler Pegelunterschiede für höhere Frequenzen. Die Auswertung interauraler Phasenunterschiede ist sinnvoll, solange sie eindeutige Ergebnisse liefert. Dies ist der Fall, solange der Ohrabstand kleiner ist als die halbe Länge (maximal eine Wellenlänge) der Schallwellen. Bei Tieren mit einem größeren Kopf als dem Menschen verschiebt sich der Auswertebereich für interaurale Phasendifferenzen zu niedrigeren Frequenzen, bei Tieren mit kleinerem Kopf zu höheren Frequenzen.

Die niedrigste lokalisierbare Frequenz hängt vom Ohrabstand ab. Tiere mit größerem Ohrabstand können niedrigere Frequenzen lokalisieren als Menschen. Bei Tieren mit kleinerem Ohrabstand ist die niedrigste lokalisierbare Frequenz höher als beim Menschen.

Liegen die Ohren seitlich am Kopf, treten bei höheren Frequenzen interaurale Pegelunterschiede auf und können für Lokalisierungsaufgaben ausgewertet werden. Bei Tieren mit Ohren an der Oberseite des Kopfes treten keine Schatten durch den Kopf auf und daher gibt es viel weniger interaurale Pegelunterschiede, die ausgewertet werden könnten. Viele dieser Tiere können ihre Ohren bewegen, und diese Ohrbewegungen können als Hinweis zur seitlichen Lokalisierung verwendet werden.

Odontocetes

Delfine (und andere Odontoceten) verlassen sich auf die Echoortung, um Beute zu erkennen, zu identifizieren, zu lokalisieren und zu fangen. Dolphin-Sonarsignale sind gut geeignet, um mehrere kleine Ziele in einer dreidimensionalen Wasserumgebung zu lokalisieren, indem sie stark gerichtete (3 dB Strahlbreite von etwa 10 Grad), Breitband (3 dB Bandbreite typischerweise von etwa 40 kHz; Spitzenfrequenzen zwischen 40 kHz und 120 kHz), kurze Klicks (ca. 40 μs). Delfine können Geräusche sowohl passiv als auch aktiv (Echoortung) mit einer Auflösung von etwa 1 Grad lokalisieren. Der modale Abgleich (zwischen Sehen und Echoortung) deutet darauf hin, dass Delfine die räumliche Struktur komplexer Objekte wahrnehmen, die durch Echoortung abgefragt werden, eine Leistung, die wahrscheinlich die räumliche Auflösung einzelner Objektmerkmale und die Integration in eine ganzheitliche Darstellung der Objektform erfordert. Obwohl Delfine empfindlich auf kleine, binaurale Intensitäts- und Zeitunterschiede reagieren, deuten zunehmende Hinweise darauf hin, dass Delfine positionsabhängige spektrale Signale verwenden, die von gut entwickelten kopfbezogenen Übertragungsfunktionen abgeleitet sind, um Schall sowohl in der horizontalen als auch in der vertikalen Ebene zu lokalisieren. Eine sehr kleine zeitliche Integrationszeit (264 μs) ermöglicht die Lokalisierung mehrerer Ziele in unterschiedlichen Entfernungen. Lokalisationsadaptionen umfassen eine ausgeprägte Asymmetrie des Schädels, Nasensäcke und spezialisierte Lipidstrukturen in Stirn und Kiefer sowie akustisch isolierte Mittel- und Innenohren.

In der Medianebene (vorne, oben, hinten, unten)

Bei vielen Säugetieren gibt es auch in der Ohrmuschel nahe dem Eingang des Gehörgangs ausgeprägte Strukturen. Als Folge können richtungsabhängige Resonanzen auftreten, die als zusätzlicher Lokalisationshinweis verwendet werden könnten, ähnlich der Lokalisation in der Medianebene im menschlichen Hörsystem. Es gibt zusätzliche Lokalisierungshinweise, die auch von Tieren verwendet werden.

Kopfneigung

Zur Schallortung in der Medianebene (Elevation des Schalls) können auch zwei Detektoren verwendet werden, die in unterschiedlichen Höhen positioniert sind. Bei Tieren hingegen erhält man durch einfaches Neigen des Kopfes grobe Höheninformationen, sofern der Ton lange genug anhält, um die Bewegung zu vollenden. Dies erklärt das angeborene Verhalten, den Kopf zur Seite zu neigen, wenn man versucht, einen Klang genau zu lokalisieren. Um eine sofortige Lokalisierung in mehr als zwei Dimensionen aus Zeitdifferenz- oder Amplitudendifferenz-Hinweisen zu erhalten, sind mehr als zwei Detektoren erforderlich.

Lokalisation mit gekoppelten Ohren (Fliegen)

Die winzige parasitäre Fliege Ormia ochracea ist aufgrund ihres einzigartigen Ohrs zu einem Modellorganismus in Schalllokalisierungsexperimenten geworden . Das Tier ist zu klein, um den Zeitunterschied des an den beiden Ohren ankommenden Schalls auf die übliche Weise zu berechnen, kann aber die Richtung von Schallquellen mit höchster Präzision bestimmen. Die Trommelfelle der gegenüberliegenden Ohren sind direkt mechanisch verbunden, was die Auflösung von Zeitunterschieden im Submikrosekundenbereich ermöglicht und eine neue neuronale Codierungsstrategie erfordert. Ho zeigte, dass das gekoppelte Trommelfellsystem bei Fröschen erhöhte interaurale Vibrationsunterschiede erzeugen kann, wenn nur kleine Ankunftszeit- und Schallpegelunterschiede für den Kopf des Tieres verfügbar waren. Bemühungen, Richtmikrofone basierend auf der gekoppelten Trommelfellstruktur zu bauen, sind im Gange.

Bi-koordinierte Schallortung (Eulen)

Die meisten Eulen sind nachtaktive oder dämmerungsaktive Greifvögel . Da sie nachts jagen, müssen sie sich auf nicht-visuelle Sinne verlassen. Experimente von Roger Payne haben gezeigt, dass Eulen empfindlich auf die Geräusche ihrer Beute reagieren, nicht auf die Hitze oder den Geruch. Tatsächlich sind die Tonsignale sowohl notwendig als auch ausreichend, um Mäuse von einem entfernten Ort aus zu lokalisieren, an dem sie sitzen. Damit dies funktioniert, müssen die Eulen sowohl den Azimut als auch die Elevation der Schallquelle genau lokalisieren können.

Geschichte

Der Begriff „binaural“ bedeutet wörtlich „mit zwei Ohren hören“ und wurde 1859 eingeführt, um die Praxis zu bezeichnen, denselben Klang durch beide Ohren oder zwei getrennte Klänge, einen durch jedes Ohr, zu hören. Erst 1916 unterschied Carl Stumpf (1848–1936), ein deutscher Philosoph und Psychologe , zwischen dichotischem Hören, das sich auf die Stimulation jedes Ohrs mit einem anderen Reiz bezieht , und diotischem Hören, der gleichzeitigen Stimulation beider Ohren mit dem gleichen Reiz.

Später sollte sich herausstellen, dass das binaurale Hören, ob dichotisch oder diotisch, das Mittel ist, mit dem die Schalllokalisierung stattfindet.

Die wissenschaftliche Betrachtung des binauralen Hörens begann, bevor das Phänomen so benannt wurde, mit Spekulationen, die 1792 von William Charles Wells (1757-1817) auf der Grundlage seiner Forschungen zum binokularen Sehen veröffentlicht wurden . Giovanni Battista Venturi (1746–1822) führte und beschrieb Experimente, bei denen versucht wurde, einen Ton mit beiden Ohren zu lokalisieren oder ein Ohr mit einem Finger blockiert zu haben. Diese Arbeit wurde nicht weiterverfolgt und wurde erst wiederhergestellt, nachdem andere herausgefunden hatten, wie die menschliche Geräuschlokalisierung funktioniert. Lord Rayleigh (1842–1919) führte dieselben Experimente durch und kam zu den Ergebnissen, ohne zu wissen, dass Venturi sie zuerst durchgeführt hatte, fast fünfundsiebzig Jahre später.

Charles Wheatstone (1802–1875) arbeitete an Optik und Farbmischung und erforschte auch das Hören. Er erfand ein Gerät, das er "Mikrofon" nannte und bei dem über jedem Ohr eine Metallplatte angebracht war, die jeweils mit Metallstäben verbunden waren; er benutzte dieses Gerät, um den Ton zu verstärken. Er führte auch Experimente durch, die Stimmgabeln gleichzeitig oder getrennt an beide Ohren hielten , um herauszufinden, wie das Gehör funktioniert, die er 1827 veröffentlichte. Ernst Heinrich Weber (1795–1878) und August Seebeck (1805–1849) und William Charles Wells versuchte auch, das, was als binaurales Hören bekannt wurde, mit den Prinzipien der binokularen Integration im Allgemeinen zu vergleichen und zu kontrastieren.

Zu verstehen , wie die Unterschiede in der Schallsignale zwischen zwei Ohren trägt zur auditorischen Verarbeitung in einer solchen Art und Weise , wie Tonlokalisierung und Richtung nach der Erfindung der war weit fortgeschritten , damit stethophone von Somerville Scott Alison im Jahre 1859, der den Begriff ‚Binaural‘ geprägt. Alison baute das Stethophon auf dem von René Théophile Hyacinthe Laennec (1781–1826) erfundenen Stethoskop auf ; Das Stethophon hatte zwei separate "Pickups", die es dem Benutzer ermöglichten, von zwei getrennten Orten stammende Klänge zu hören und zu vergleichen.

Siehe auch

Verweise

Externe Links