Re: Räume\Tiefenstaffelung: Wieviele Reverb- und Delay- Buss
Verfasst: Freitag 22. Juni 2018, 18:34
Nee, so isses nicht....
KSM-Zeit:
Wir müssen unterschieden zwischen Hall als soundbildendes Mittel und Hall als Möglichkeit, den (realen) Raumeindruck abzubilden, um eine dritte Dimension ("Tiefe") in den Mix zu bekommen.
Hall als soundbildendes Mittel ist Teil des Sounds eines bestimmten Instrumentes: Die Plate auf der Snare, der Springreverb auf der Gitarre, die Kathedrale auf dem Metalsänger. Damit soll ja nicht der Eindruck entstehen, dass der Sänger tatsächlich in einer Kathedrale singt, sondern die Dramaturgie und Fülle des Sounds erhöht werden (Kathedralenhall auf Drums ist z.B. ganz blöd...).
In der Realität: Wenn man mit seiner Band in einem mittelgroßen Raum spielt und den Reverb am Amp an hat, tut man dies nicht, weil man irgendwelche Staffelungen im Kopf hat oder ein bestimmtes Raumgefühl erzeugen will, sondern natürlich, weil man den Sound des Amps mit dem Reverb mag. Dieser Reverb ist also integraler Bestandteil des Sound und hat keine Auswirkungen auf die Ortung der Gitarre im Raum, denn die Gitarre wird inkl. diesem Reverb-Amp-Sound geortet.
Gleiches gilt z.B. für eine Snare, die für den typischen 90iger Sound mit einem Plate-Reverb-Effekt gemischt wird oder mit dem Metalsänger, der die IR des Peterdoms als Hallfahne braucht, um diesen bestimmten NWOBHM-Sound zu bekommen, ganz abgesehen davon, dass ein Klavier deutlich klavieriger klingt, wenn ein guter Concert-Hall-Algo hintendran arbeitet.
All das hat aber nichts mit Ortung zu tun, sondern ist Sounddesign des Einzelinstrumentes. Wenn wir z.B. das Jazzpiano mit dem großen Concerthall 8 dBa lauter machen als den puren Kontrabass und das Schlagzeug des Jazztrios (und diesen beiden jeglichen Hall verweigern), wird das Klavier trotzdem in Vordergrund sein, denn der Hallsound hat keine wirklich Rauminformation zu bieten (dafür klingt der Mix sehr zweidimensional...)
Ebenso klingt eine Gitarre mit einem klassischen Spring-Reverb topfig und zweidimensional, denn es fehlt unserem Ohr die Information, in was für einem Raum sie aufgenommen wurde.
ALSO:
In einem ersten Prozess mischen wir das Instrument (soliert, d.h. einzeln geschaltet), wie wie es wollen; mit seinem spezifischen Hallalgo, um einen bestimmten Sound des Instruments zu bekommen.
Im zweiten Prozess (dem eigentlich Mixdown) stellen wir (wenn gewünscht) die dritte Dimension des Mixes her: Wir nehmen einen Raum und stellen die Band hinein. Je nach gewünschter Tiefenstaffelung bekommen die verschiedenen Instrumente mehr (tiefer, d.h. weiter hinten im Raum stehend) oder weniger (weiter im Vordergrund) stehend Raumanteile (den Raumanteil bestimmen wir mit dem Pegel des Auxsends, der auf den Raumsimulator führt); dies geschieht in Kombination mit dem Pegel des Instrumentes im Mix (je mehr Pegel, desto vorne).
Diese Raum(zu)mischung hört man (wenn man nicht mit halbwegs erfahrenen Ohren genau hinhört) eher weniger, aber man fühlt die Tiefe des Mixes.
Diese Vorgehensweise ist übrigens kein tontechnisch-komplexes Konstrukt, sondern bildet einfach nur die Wirklichkeit ab:
Wenn ihr auf ein Konzert geht, hört ihr auch die einzelnen Instrumente mit ihren verschiedenen Hallsounds, aber ihr hört sie mit den Impulsantworten des Raumes, in dem ihr diese Band hört...und diese Impulsantworten sind abhängig vom Abstand und Pegel der Instrumente. Genau das bildet obige Arbeitsweise ab.
Beispiel: Rockproduktion
- Drums: EMT140 mit 2,2s Hallzeit auf die Snare, Room auf die Overheads und die Toms
- Bass: Pur (die haben nix verdient)
- R-Gitarre: Springreverb
- Sologitarre: Concerthall mit Delay vornedran
- Gesang: Lexicon224-Cathedral mit Delay vornedran, Hall wird komprimiert
So und dann im Mix alle (inkl. ihren FX-Halls) auf den einen Raumsimulator (die Angaben sind ungefähre Prozente des Pegels des jeweiligen Auxweges, d.h Wet-Anteil des Auxweges):
Drums (in Subgruppe zusammengefasst): Anteil 40%
Bass: Anteil 40% (ich habe es ganz gerne, das Bass und Drums auf einer Höhe sind)
R-Gitarre: 30%
Solo-Gitarre 10%
Gesang: Leadvox 10%, Backing Vox 35%
Anteil des Raumsimulators im Mix: Eher wenig, man soll ihn merken, aber nicht plakativ hören (aber man kann ihn natürlich auch plakativ mischen, um die Band sehr "authentisch" klingen zu lassen...oh wie ich den Begriff hasse...)
Und bitte nicht vergessen: Nur der Raumsimulator macht es nicht. Der Pegel muss auch passen. Und beim Pegel drandenken, dass nicht nur der Fader Pegel macht, sondern ein parametrischer EQ viel besser Pegel macht, weil man frequenzselektiv Pegel machen kann....Die Frequenzstaffelung muss halt auch zur Tiefenstaffelung passen.
Hugh, ich kluggescheissert.
KSM-Zeit:
Wir müssen unterschieden zwischen Hall als soundbildendes Mittel und Hall als Möglichkeit, den (realen) Raumeindruck abzubilden, um eine dritte Dimension ("Tiefe") in den Mix zu bekommen.
Hall als soundbildendes Mittel ist Teil des Sounds eines bestimmten Instrumentes: Die Plate auf der Snare, der Springreverb auf der Gitarre, die Kathedrale auf dem Metalsänger. Damit soll ja nicht der Eindruck entstehen, dass der Sänger tatsächlich in einer Kathedrale singt, sondern die Dramaturgie und Fülle des Sounds erhöht werden (Kathedralenhall auf Drums ist z.B. ganz blöd...).
In der Realität: Wenn man mit seiner Band in einem mittelgroßen Raum spielt und den Reverb am Amp an hat, tut man dies nicht, weil man irgendwelche Staffelungen im Kopf hat oder ein bestimmtes Raumgefühl erzeugen will, sondern natürlich, weil man den Sound des Amps mit dem Reverb mag. Dieser Reverb ist also integraler Bestandteil des Sound und hat keine Auswirkungen auf die Ortung der Gitarre im Raum, denn die Gitarre wird inkl. diesem Reverb-Amp-Sound geortet.
Gleiches gilt z.B. für eine Snare, die für den typischen 90iger Sound mit einem Plate-Reverb-Effekt gemischt wird oder mit dem Metalsänger, der die IR des Peterdoms als Hallfahne braucht, um diesen bestimmten NWOBHM-Sound zu bekommen, ganz abgesehen davon, dass ein Klavier deutlich klavieriger klingt, wenn ein guter Concert-Hall-Algo hintendran arbeitet.
All das hat aber nichts mit Ortung zu tun, sondern ist Sounddesign des Einzelinstrumentes. Wenn wir z.B. das Jazzpiano mit dem großen Concerthall 8 dBa lauter machen als den puren Kontrabass und das Schlagzeug des Jazztrios (und diesen beiden jeglichen Hall verweigern), wird das Klavier trotzdem in Vordergrund sein, denn der Hallsound hat keine wirklich Rauminformation zu bieten (dafür klingt der Mix sehr zweidimensional...)
Ebenso klingt eine Gitarre mit einem klassischen Spring-Reverb topfig und zweidimensional, denn es fehlt unserem Ohr die Information, in was für einem Raum sie aufgenommen wurde.
ALSO:
In einem ersten Prozess mischen wir das Instrument (soliert, d.h. einzeln geschaltet), wie wie es wollen; mit seinem spezifischen Hallalgo, um einen bestimmten Sound des Instruments zu bekommen.
Im zweiten Prozess (dem eigentlich Mixdown) stellen wir (wenn gewünscht) die dritte Dimension des Mixes her: Wir nehmen einen Raum und stellen die Band hinein. Je nach gewünschter Tiefenstaffelung bekommen die verschiedenen Instrumente mehr (tiefer, d.h. weiter hinten im Raum stehend) oder weniger (weiter im Vordergrund) stehend Raumanteile (den Raumanteil bestimmen wir mit dem Pegel des Auxsends, der auf den Raumsimulator führt); dies geschieht in Kombination mit dem Pegel des Instrumentes im Mix (je mehr Pegel, desto vorne).
Diese Raum(zu)mischung hört man (wenn man nicht mit halbwegs erfahrenen Ohren genau hinhört) eher weniger, aber man fühlt die Tiefe des Mixes.
Diese Vorgehensweise ist übrigens kein tontechnisch-komplexes Konstrukt, sondern bildet einfach nur die Wirklichkeit ab:
Wenn ihr auf ein Konzert geht, hört ihr auch die einzelnen Instrumente mit ihren verschiedenen Hallsounds, aber ihr hört sie mit den Impulsantworten des Raumes, in dem ihr diese Band hört...und diese Impulsantworten sind abhängig vom Abstand und Pegel der Instrumente. Genau das bildet obige Arbeitsweise ab.
Beispiel: Rockproduktion
- Drums: EMT140 mit 2,2s Hallzeit auf die Snare, Room auf die Overheads und die Toms
- Bass: Pur (die haben nix verdient)
- R-Gitarre: Springreverb
- Sologitarre: Concerthall mit Delay vornedran
- Gesang: Lexicon224-Cathedral mit Delay vornedran, Hall wird komprimiert
So und dann im Mix alle (inkl. ihren FX-Halls) auf den einen Raumsimulator (die Angaben sind ungefähre Prozente des Pegels des jeweiligen Auxweges, d.h Wet-Anteil des Auxweges):
Drums (in Subgruppe zusammengefasst): Anteil 40%
Bass: Anteil 40% (ich habe es ganz gerne, das Bass und Drums auf einer Höhe sind)
R-Gitarre: 30%
Solo-Gitarre 10%
Gesang: Leadvox 10%, Backing Vox 35%
Anteil des Raumsimulators im Mix: Eher wenig, man soll ihn merken, aber nicht plakativ hören (aber man kann ihn natürlich auch plakativ mischen, um die Band sehr "authentisch" klingen zu lassen...oh wie ich den Begriff hasse...)
Und bitte nicht vergessen: Nur der Raumsimulator macht es nicht. Der Pegel muss auch passen. Und beim Pegel drandenken, dass nicht nur der Fader Pegel macht, sondern ein parametrischer EQ viel besser Pegel macht, weil man frequenzselektiv Pegel machen kann....Die Frequenzstaffelung muss halt auch zur Tiefenstaffelung passen.
Hugh, ich kluggescheissert.