Bachelorarbeit, 2010
74 Seiten, Note: 2
Einleitung
1. Das Gehör
1.1 Anatomie des Gehörs
1.2 Funktionsweise des Gehörs
1.3 Kontrolle der Haarzellen
2. Psychoakustik
2.1 Kurven gleicher Lautstärke
2.2 Hörfeld
2.3 Lokalisierbarkeit von akustischen Ereignissen
2.4 Kopfbezogenes Koordinaten System
2.6 Tiefenlokalisation
3. Schwingungen und Wellen
3.1 Wellen
3.2 Frequenz
3.3 Amplitude
3.4 Schallgeschwindigkeit
3.5 Schallerzeugung
3.6 Schalldruck
3.7 Schalldruckpegel (Sound Pressure Level / dBs)
3.8 Die Hörschwelle:
3.9 Schallausbreitung in Räumen
3.10 Freies Schallfeld
3.11 Reflexion
3.12 Stehende Wellen
3.13 Absorption
3.14 Schalldämmung
4. Charakterisierung von Hörereignissen
4.1 Lautheit
4.2 Tondauer
4.3 Hörbare Phasenänderungen
5. Digitale Tonstudiotechnik
5.1 Wandlung
5.2 Sampling
5.3 Quantisierung
6. Audiodatenformate
6.1 Verlustfreie Komprimierung
6.2 MLP
6.3 DST
6.4 FLAC (Free Lossless Audio Codec)
6.5 AIFF
6.6 Wave
6.7 Verlustbehaftete Komprimierung
6.8 Datenreduktion durch Verringerung der Bits
7. Perceptual Audio Coding
7.1 Irrelevanzreduktion
7.2 Hörschwelle
7.3 Maskierung
7.4 Redundanzreduktionen
7.5 Joint Stereo
8. Verbreitete Verlustbehaftete Audio Codecs
8.1 AC-3
8.2 DTS
8.3 MPEG-1 Layer 2
8.4 MPEG-1 Layer 3
8.5 OGG Vorbis
8.6 AAC
8.7 WMA
9. Aufnahme und Speichermedien
9.1 CD / CD-R
9.2 DVD - Digital Versatile Disc
9.3 DVD Video
9.4 DVD Audio
9.5 DAT
9.6 Flash Card
10. Leitungen
10.1 Unsymmetrische Leitungen
10.2 Symmetrische Leitungen
11. Anschlüsse
11.1 XLR
11.2 Klinke
11.3 Die symmetrische Mono Klinke Verbindung
11.4 Verbindung Stereoklinke / XLR
11.5 Verbindungen zwischen symmetrischen und unsymmetrischen Geräten
11.6 Unsymmetrisch auf Symmetrisch
11.7 Cinch
11.8 Speakon
11.9 AES / EBU
12. Mikrofone
12.1 Kondensatormikrofone
12.2 Elektretmikrofon
12.3 Elektrodynamische Mikrofone
12.4 Induktionsgesetz:
12.5 Lavalier Mikrofone
12.6 Grenzflächenmikrofon
12.7 Körperschallmikrofon
12.8 Stereomikrofone
12.9 Kugelflächenmikrofone
12.10 Drahtlose Mikrofone
12.11 Richtcharakteristiken
12.12 Druckempfänger
12.13 Druckgradientenempfänger mit Achtercharakteristik
12.14 Druckgradientenempfänger mit Nierencharakteristik
12.15 Druckgradientenempfänger mit Keulencharakteristik
12.16 Der Nahbesprechungseffekt
12.17 Übertragungsmaß und Übertragungsfaktor
12.18 Geräuschpegelabstand
12.19 Grenzschalldruck
12.20 Impulsverhalten
13. Aufnahme
13.1 Stereomikrofonie
13.2 Intensitätsstereophonie
13.3 X - Y Mikrophonie
13.4 M - S - Mikrophonie
13.5 Laufzeitstereomikrophonie
13.6 AB Verfahren
13.7 Äquivalenzstereofonie
13.8 Decca Tree
14. Mischpulte
14.1 Analoge Mischpulte
14.2 Funktionen eines analogen Mischpultes
14.3 Analoge Mischpulte mit digitaler Steuerung
14.4 Digitale Mischpulte
14.5 Funktionen eines digitalen Mischpultes
15. Signalbearbeitung
15.1 Fader
15.2 Panorama (Panspot)
15.3 Mute
15.4 Hochpassfilter
15.5 Tiefpassfilter
15.6 Bandpassfilter
15.7 Kompressor
15.8 Limiter
15.9 Expander
15.10 Noise Gate
15.11 Delay
16. Lautsprecher
16.1 Elektrodynamische Lautsprecher
16.2 Konuslautsprecher
16.3 Bassreflex
16.4 Mehrwegbox
16.5 Floormonitor
16.6 Expotential
16.7 Bandpäss
16.8 Koaxial
16.9 Line Array Boxen
17. Beschallung und Montage
17.1 Inverse Square Law
17.2 Stereo Beschallung im Studio
17.3 Mehrkanal Beschallung im Studio
17.4 Saalbeschallung bei fester Installation
17.4.1 Zentralbeschallung
17.4.2 Semi-Zentralbeschallung
18. Forschungsergebnis
19. Audiotechnische Begriffe
20. Literaturverzeichnis
21. Abbildungsverzeichnis
Zu Beginn der Arbeit wird auf die Anatomie des Gehörs und die Funktion des menschlichen Hörens eingegangen. Anschließend werden die Grundlagen der Psychoakustik behandelt. Dann geht die Arbeit auf die Hindergründe zur Schallwellenausbreitung, die damit in Zusammenhang stehenden audiotechnischen Eigenheiten und Begriffe ein. In weiterer Folge befasst sich die Arbeit mit der digitalen Wandlung, Speicherung und Komprimierung von Schallsignalen. Weiters werden die in der Audiotechnik gängigen Anschlüsse und Leitungen besprochen. Die Arbeit erklärt die unterschiedlichen Wandlerprinzipien, Aufnahmearten und gibt Hinweise zum richtigen Mikrofonieren. Später werden Mischpulte und die Möglichkeiten zur Signalbearbeitung besprochen. Abschließend wir auf die Beschallungstechnik eingegangen.
Diese Arbeit stellt ein Handbuch über die Grundlagen der Audiobearbeitung dar. Sie richtet sich vor allem an Personen, die neu auf dem Gebiet der Audiosignalbearbeitung sind bzw. kein Vorwissen besitzen, wie beispielsweise Videojournalisten, Cutter, Studenten, alle nicht Professionellen und alle Interessierten auf dem Gebiet der Audiotechnik.
Diese Arbeit ist als Einstiegswerk gedacht. Fragestellung In der Arbeit wird der Frage nachgegangen ob es möglich ist, einen umfassenden Überblick über die audiotechnischen Grundlagen in einer Bakkalaureatsarbeit, die den Umfang von 50 bis 90 Seiten nicht überschreiten soll, zu geben.
Es wird untersucht, ob diese Arbeit also einen schnellen Überblick über die wichtigsten Begriffe und die Grundlagen geben, die einem auf dem Gebiet der Audiotechnik begegnen.[1]
Eine Arbeit über die Grundlagen der Audiobearbeitung, kann nicht verstanden werden, ohne auf die Grundlagen des Gehörs einzugehen nicht verstanden werden. Zu Beginn soll daher das menschliche Gehör, als Schnittstelle zwischen mechanischen Schallwellen und unserer Wahrnehmung, beschrieben werden.[2]
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1 : Schematische Teilskizze des menschlichen Gehörs, vom Michael Alexander Geyer
Das Ohr wird unterteilt in Außenohr (1-4) Mittelohr (6-8) und Innenohr (9-11). Das Außenohr besteht aus Ohrmuschel(3), Gehörgang(2) und Trommelfell(4). Das Mittelohr besteht aus Hammer(6), Amboss(7), Steigbügel(8), ovale Fenster(5), Eustachische Röhre(12). Das Innenohr sind die Gehörschnecke(10) und die Bogengänge(9).[3]
Die Ohrmuschel dient als akustischer Resonator, welcher bei Schallwellen angeregt wird. Der Gehhörgang mit einer Länge von ~3,5cm und einem Durchmesser von ~0,7cm leitet den Schall weiter. Angeregt duch den Schall gebinnt das Trommelfell zu schwingen und überträgt die Schwingungen bis zum Mittelohr. Das Mittelohr ist die Verbindung zwischen Trommelfell und Innenohr. Dort wird von den drei Gehörknöchelchen Hammer, Ambos und Steigbügel, die Druckwandlung durchgeführt. Sehr geringe Pegel verstärkt werden verstärkt, sehr hohe Schalldruckpegel dagegen gedämpft um das Gehör zu schützen, wie beispielweise in der Disco, wo ja nach einem längen Besuch alle „normalen" Schallereignisse als sehr leise empfunden werden. Das Mittelohr ist über die Eustachsche Röhre mit dem Rachenraum verbunden, dadurch kann es beim Schlucken zu einem Druckausgleich zwischen Außen-, und Mittelohr kommen. Das Innenohr (bekannt als Schnecke)wandelt die Schwingungen in Nervenimpulse um. An den vollständig mit Lymphflüssigkeit gefüllten Bogengängen befinden sich Haarzellen, welche die Bewegung weiterleiten. Zum Mittelohr hin wird das Innenohr durch das ovale und das runde Fenster abgeschlossen. Das ovale Fenster überträgt die Bewegungen der Gehörknöchelchen auf die Flüssigkeiten des Innenohrs.
Nach Untersuchungen von Zenner[4] ist es je nach Situation möglich auf laute oder leise Töne gezielt zuhören. Es kann also ein selektives Hinhören und die Trennung von Signalen z.B. von Vorder-, und Hintergrundgeräuschen, erreicht werden, indem die Haarzellen die Bogengänge innerhalb der Hörschnecke langsam positionieren.[5]
„Die Psychoakustik untersucht die Zusammenhänge zwischen Reizen, die auf das Gehör einwirken, den so genannten Schallereignissen und die daraus resultierenden Empfindungen, den Hörereignissen" Hubert Henle, „das Tonstudio Handbuch", S.50 Carstensen 2001 Im Folgenden wird erklärt, wie die vom Ohr aufgenommenen Reize empfunden werden.
Die Kurven gleicher Lautstärke werden oft auch Fletcher und Munson Kurven genannt. Wir hören unterschiedliche Frequenzen nicht gleich laut. So nehmen wir die Frequenzen im Bereich von 2 bis 4 kHz am lautesten war. Das wird durch die Kurven gleicher Lautstärke dargestellt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2 : Darstellung des Hörfelds, aus http://www.silcom.com/~aludwig/images/Fletcher- Munson.jpg besucht 30.07.2010
Sie wurden nachgewiesen, indem 1-kHZ-Testtöne mit einem festen Schallpegel und unterschiedlicher Frequenz über den hörbaren Frequenzbereich von 20Hz bis 20 kHz geführt wurden. Als Konsequenz wurde festgestellt, dass das Ohr für hohe und tiefe Töne nicht so empfindlich ist, und die höchste Empfindlichkeit bei 2kHz bis 4 kHz hat. Für die Wiedergabe von Audiosignalen bedeutet das, dass tiefe Töne und sehr hohe Töne lauter als mittlere abgespielt werden müssen, um gleich laut wahrgenommen werden zu können. Auf Stereoanlagen gibt es oft eine „Loudness" Taste, welche die Frequenzen entsprechend der Kurven anhebt, damit das Ohr alle Frequenzen gleich laut empfindet.
Das Hörfeld wird durch den hörbaren Frequenzbereich von 20 Hz bis 20 kHz und weiters durch die Schwelle zwischen Absolutschwelle und Schmerzgrenze beschrieben. Die Schmerzgrenze die auch als Toleranzgrenze bezeichnet wird, liegt bei einem Bereich von 120-140 dB SPL.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3 : Darstellung des Hörfelds, aus
http://www.sandwichbau.de/bilder/artikel/akustik/02.gif besucht 30.07.2010
„Räumliches Hören" als wissenschaftliches Fachgebiet erforscht und beschreibt die Beziehungen zwischen den Orten sowie den räumlichen Ausdehnungen der Hörereignisse ... aber z.B. auch physiologische Vorgänge, Ereignisse anderer Sinnesgebiete usw..."
Die Orte der akustischen Ereignisse in Bezug zum Gehör werden oftmals durch das kopfbezogene Polkoordinatensystem dargestellt. Es hat den Ursprung auf der interauralen Achse, die genau zwischen den Gehörkanalgängen liegt und auf der sich auch die Horizontalebene befindet. Die Frontalebene steht senkrecht auf der Horizontalebene. Senkrecht sowohl zur Frontal, als auch zur Horizontalebene verläuft die Medianebene, welche den Kopf in zwei Hälften trennt. Schallquellen werden duch die Polarkoordinaten Azimut !, Elevation 5, und Entfernung r dargestellt.[6]
Durch Schalldruckunterschiede oder Laufzeitenunterschiede am linken und am rechten Ohr kann die Herkunft einer Schallquelle räumlich zugeordnet werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4 : Kopfbezogenes Koordinatensystem, aus Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, 2008
Die Orte der akustischen Ereignisse in Bezug zum Gehör werden oftmals durch das kopfbezogene Polkoordinatensystem dargestellt. Es hat den Ursprung auf der interauralen Achse, die genau zwischen den Gehörkanalgängen liegt und auf der sich auch die Horizontalebene befindet. Die Frontalebene steht senkrecht auf der Horizontalebene. Senkrecht sowohl zur Frontal, als auch zur Horizontalebene verläuft die Medianebene, welche den Kopf in zwei Hälften trennt. Schallquellen werden duch die Polarkoordinaten Azimut !, Elevation ", und Entfernung r dargestellt.
Durch Schalldruckunterschiede oder Laufzeitenunterschiede am linken und am rechten Ohr kann die Herkunft einer Schallquelle räumlich zugeordnet werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5 : Schematische Darstellung der Link-Rechts Wahrnehmung, aus Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, 2008
Durch die Tiefenlokalisation kann das Gehör die Entfernung einer Schallquelle erkennen. Dabei wird das Verhältnis von Direktschall und Diffusschall ermittelt. Je mehr Direktschall die Schallquelle hat, desto näher wird das akustische Ereignis erkannt.
Schallwellen werden vom Gehör aufgenommen und in elektrische Impulse gewandelt. So verhält es sich auch bei der Aufzeichnung von Schall. Durch ein Mirkofon werden Schallwellen in elektrische Schwingungen umgewandelt und wieder über einen Lautsprecher hörbar gemacht. Um die audiotechnischen Grundlagen zu verstehen, wird nun auf die wichtigsten Begriffe welche die Grundlagen der Akustik bilden eingehen.
Die Moleküle in Medien wie beispielweise Luft oder Wasser lassen sich zu Schwingungen anregen. Schwingende Moleküle eines Mediums regen benachbarte Moleküle zum Schwingen an, wodurch sich diese Schwingung ausbreitet. So entsteht die Welle. Schallwellen breiten sich kugelförmig aus.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 6 : Schematische Darstellung der Luftverdichtung bei einem Schallereignis, aus http://www.datacomm.ch/albo/Schallwelle.htm besucht 02.07.2010
Die Frequenz beschreibt die Anzahl der Schwingungsperioden innerhalb einer Sekunde. Die Einheit der Frequenz f ist 1/s bzw. ein Herz : F = 1 / T Frequenz = 1 / Periodendauer
Das Maß für die Auslenkung der Schwingung ist die Amplitude. Sie beschreibt den Abstand des oberen oder unteren Umkehrpunktes von der Nulllinie.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 7 : Schematische Darstellung einer Schwingung, aus http://www.indecentmusic.com/blog/wp-content/uploads/2009/06/amplitude-and-frequency.png, besucht 30.06.2010
Wie schnell sich eine Welle fortpflanzen kann ist abhängig vom Medium, in dem sie sich fortbewegt. Die Einheit der Ausbreitungsgeschwindigkeit ist m/s. Folgende Formel kann im Zusammenhang mit der Ausbreitungsgeschwindigkeit verwendet werden: ! = c / f
Wellenlänge = Schallgeschwindigkeit / Frequenz
In Luft bei 20° C beträgt die Ausbreitungsgeschwindigkeit des Schalls, also die Schallgeschwindigkeit ~340m/s.
Wie sich die Ausbreitungsgeschwindigkeit des Schalls in unterschiedlichen Medien mit mitunter drastisch ändert, soll diese Tabelle in einen Überblick zeigen:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 8 : Tabellarische Darstellung der Schallgeschwindigkeit in unterschiedlichen Medien, aus Hubert Henle „das Tonstudio Handbuch" 5 Auflage Carstensen 2001
Um mit Schall zu arbeiten ist es nicht notwendig alle physikalisch-mathematischen Beschreibungen zu kennen. Es gibt jedoch unverzichtbare Grundlagen auf die hier eingegangen wird.
Die relativen Luftdruckveränderungen, die zustande kommen wenn Luftmoleküle schwingen und den Schall bilden, werden Schalldruck genannt. Die Einheit des Schalldrucks ist Pascal (Pa) oder Newton/m2 (N/m)
Der Schalldruck wird auf einer logarithmischen Scala dargestellt. Der Bereich ist die Hörschwelle 0db SPL von 0,00002 Pa bis zur Schmerzgrenze 137,5 dB SPL von 150 Pa. Ermittelt kann der Schalldruckpegel durch folgende Formel werden:
L = absoluter Schallpegel in dB SPL
P0 = Bezugsschalldruck von 0,00002 Pascal
P = Schalldruck der zu berechenden Schallquelle in Pascal
In der Folgenden Tabelle werden die Schalldruckwerte von alltäglichen Geräusche aufgezeigt.
Die Hörschwelle ist "die Absolutschwelle für Sinustöne in Abhängigkeit von Frequenz..."
Die Hörschwelle ist anders ausgedrückt der Schalldruckpegel, der gerade nötig ist, um bei Ruhehörschwelle (ruhiger Umgebung) eine Hörempfindung auszulösen. Grundsätzlich beträgt der Hörbereich des Menschen von 20 Hz bis 20 kHz. Es gibt Untersuchungen (vgl. Pedersen u. M0ller 2004) wonach das menschliche Gehör auch Schallpegel unterhalb von 20 Hz wahrnehmen kann. Jedoch ist in diesem Bereich die auditive Wahrnehmung von der Wahrnehmung der Vibrationen zu trennen. Oberhalb des Bereichs von 20 kHz lässt sich bis heute keine auditive Wahrnehmung nachweisen.
Im folgenden Kapitel wird auf die Grundlagen der Schallausbreitung eingegangen. Schall kann sich nur in Medien ausbreiten, die sich zum Schwingen anregen lassen. Folglich kann sich Schall ohne Medium, beispielsweise im Vakuum, nicht ausbreiten. Je dichter hingegen das Medium ist, desto besser breitet sich der Schall aus.
Kann sich die Schallwelle ungehindert in alle Richtungen ausbreiten spricht man von einem „freien Schallfeld". Besonders für Tonaufnahmen und die Tonwiedergabe ist es wichtig, die Grundlagen der Wellenausbreitung zu kennen. Ein „freies Schallfeld" kommt in der Natur nicht vor. Es muss unter Kenntnis der Wellenausbreitung eigens konstruiert werden. In schalltoten Räumen kann ein freies Schallfeld vorgefunden werden, dort werden etwa Lautsprecher unter optimalen Bedingungen gemessen
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 9 : Foto des „schalltoten Raums" der Technischen Universität Berlin von http://www.milchhof.net stand 02.07.2010
Wenn Schall auf eine ebene Fläche trifft, wird er mit demselben Winkel reflektiert mit dem er auf die Fläche trifft. Es gelten die gleichen physischen Gesetze wie bei Reflexion von Licht, also Einfallswinkel ist gleich dem Ausfallswinkel.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 10 : Darstellung des Schalleinfalls auf eine Ebene Fläche, aus Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, 2008
Wird Schall zwischen zwei parallelen ebenen Flächen reflektiert, beispielsweise zwischen zwei Wänden, kann es zur „stehenden" Welle kommen. Sie treten häufig in kleinen Räumen auf. Als Konsequenz der stehenden Welle, löschen sich die Schallwellen entweder aus, oder verstärken sich. Eine stehende Welle entsteht, wenn ein Dauerton erzeugt wird, und der Abstand zwischen den reflektierenden Flächen eine halbe Wellenlänge oder ein ganz ganzzahliges Vielfaches davon beträgt. Zur Vermeidung von stehenden Wellen wird beim Bau von Aufnahmeräumen darauf geachtet, dass es keine parallelen Flächen gibt.
Bei der Absorption wird der Schallwelle Energie entzogen, sie wird gebremst, was zur Folge hat, dass sie nur mehr teilweise oder gar nicht reflektiert wird. Das Maß für die Schallabsorption ist der Absorptionsgrad a . Er wird als Zahl zwischen 0 (ist ungestörte Reflexion) und 1 (ist vollständige Absorption) angegeben. Schallabsorption ist das Verhältnis von auftreffender und absorbierter Energie.
Um nun das Absorptionsvermögen einer Wand zu bestimmen, kann folgende Formel angewendet werden:
Schallabsorption im Mittenbereich kann durch Loch-, und Schlitzplatten erreicht werden, welche vor der Wand angebracht werden, sodass ein Hohlraum entsteht, und die mit Faserstoff verkleidet sind. Schallabsorption im Tiefenbereich wird erzielt, indem unterschiedlich schwere Platten in unterschiedlichem Abstand von der Wand, ebenfalls mit Fasermaterial gefüllt, befestigt werden.
Folgende Tabelle zeigt beispielsweise, welche Materialen Schall wie stark absorbieren:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 11 : Tabellarische Darstellung von unterschiedlichen Materialen und deren Absorptionsgraden, aus Michael Dickreiter, Handbuch der Tonstudiotechnik, Band 1, 6.Auflage, Saur1997
Die Schalldämmung beschreibt die Fähigkeit von Baumaterialien, den Durchgang von Schall zu hemmen. Die Schalldämmung bzw. das Schalldämm-Maß wird in dB angegeben. Es ist das Verhältnis der auf eine Wand auftreffenden Schallintensität I zur durchgelassenen Schallintensität und kann wie folgt berechnet werden:
Geeignete Schalldämmmaterialien gegen Luftschall sind luftdichte, harte Materialien, wie Stein, Metall oder Holz. Körperschall (Schritte, Türschlagen, Vibrationen) kann generell durch mitschwingende Teile wie Gummi und Kork gedämpft werden. Um Trittschall, eine häufige Form des Körperschalls, zu dämmen wird gewöhnlich Estrich verwendet. Wichtige Begriffe, welche die zeitliche Ausbreitung des Schallfeldes beschreiben, sind Direktschall, Reflexion und Nachhall. Sie sollen hier, unter anderem anhand der folgenden Grafik erläutert werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 12 : Zeitlicher Aufbau des Schallfelde, von Michael Geyer
Der von einer Schallquelle abstrahlende Schall wird von den Wänden (Raumbegrenzungsflächen) und den sich darin befindenden Gegenständen je nach ihrer geometrischen Form reflektieret, gestreut, gebündelt, absorbiert oder bebeugt. Beim Empfänger trifft zunächst der Direktschall ein. Nach dem Direktschall treffen die ersten Reflexionen ein (early reflexions). Ihnen kommt eine große Bedeutung zu, da sie zusammen mit dem Direktschall für die empfundene Lautstärke verantwortlich sind.
„Unter Nachhallzeit versteht man die Zeit, in der der Schalldruckpegel nach Ende der Erregung einer Schallwelle um 60 dB abnimmt"
Die Nachhallzeit ist frequenzabhängig und nimmt mit steigender Frequenz ab. Richtwerte für Nachhallzeiten sind beispielsweise
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 13 : Tabellarische Darstellung für Richtwerte von Nachhallzeiten, aus Michael Dickreiter, Handbuch der Tonstudiotechnik, Band 1, 6.Auflage, Saur 1997
Um die Empfindung von akustischen Ereignissen zu beschreiben und vergleichbar zu machen muss man sie definieren. Hörereignisse werden im Allgemeinen durch bestimmte Eigenschaften beschrieben, die im Folgenden erklärt werden sollen.
Der Begriff Lautheit wird dazu verwendet, um verschieden laute Schallereignisse mit einander zu vergleichen. Sie ist abhängig von Schalldruckpegel, Frequenz und Zeitverhalten des Schalls und wird in der Einheit Sone angegeben. Dabei entspricht ein Sone einem Lautstärkepegel von 40 Phon bei 1000Hz. Zwei Sone entsprechen dem als doppelt so laut empfundenen Wert von 50phon.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 14 : Zusammenhang zwischen Lautheit und Lautstärkepegel, von http://upload.wikimedia.org/wikipedia/de/c/c7/Akustik_phon2sone3.jpg besucht am 03.07.2010
Der Begriff Tondauer wird verwendet, um die subjektive Länge von Schallimpulsen zu bewerten. Dabei ist es wichtig zu wissen, dass bei Tonimpulsen von 1s und mehr, die subjektive und die objektive mit den, dazwischen liegenden Pausen übereinstimmen. Bei kürzer Dauer der Pausen wirken diese länger. Dieser subjektiv wahrgenommene Unterschied kann sehr groß sein, beispielsweise wirkt ein 3.2kHz Tonimpuls mit 100ms ebenso lange wie eine 400ms lange Pause. Soll Pause und Ton als gleich lange empfunden werden, muss die Pause deutlich länger sein, als der Ton.
Bei der Kopfhörerwiedergabe wird eine Phasenänderung erst deutlich, meist ist sie bei einer Wiedergabe durch Lautsprecher kaum wahrzunehmen. Phasenänderungen sind bei tiefen und bei hohen Frequenzen weniger deutlich als bei mittleren Frequenzen.[7] [8]
Einer der Vorteile gegenüber der analogen Technik ist, dass Übertragungen und Aufnahmen bei der digitalen Auditechnik keinerlei Störungen seitens des Aufnahmemediums erfahren. Im Folgenden wird auf die Wandlung und Kodierung die bei der Digitalisierung passiert eingegangen.
[...]
[1] Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, 2008
[2] Hubert Henle, „das Tonstudio Handbuch“ , 5 Auflage, 2001, Carstensen
[3] Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, Springer 2008
[4] Hannes Raffaseder, „Audiodesign“ Fachbuchverlag Leipzig 2002
[5] Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, 2008
[6] Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, Springer 2008
[7] Hubert Henle, „das Tonstudio Handbuch“, Carstensen 2001
[8] Alexander Lindau und Stefan Weinzierl, Handbuch der Audiotechnik, Springer 2008
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare