#Mixing-Essentials (4) 🎛 | Hall und Delay

Die bisher besprochenen drei wesentlichen Kategorien des Mixings (Kompressor, Equalizer, Saturierung) beeinflussen, vereinfacht gesagt, die Charakteristika von Wellenformen, ändern die Lautstärke bestimmter Teile des Klangspektrums von Tiefen bis Höhen und ihre intuitiv wahrnehmbare Charakteristik, die man mit sprachlichen Metaphern wie „dünn“ oder „voll“, „glatt“ oder „rau“ beschreibt.

Was dabei bisher unberücksichtigt blieb, ist die Tatsache, dass sich Klangwellen in einem Raum ausbreiten. Entweder, sie erreichen ein menschliches Ohr direkt, ausgehend von ihrer Quelle, oder sie werden zunächst an anderen Orten reflektiert und deshalb mit zeitlicher Verzögerung und nur zum Teil zum Standpunkt des Hörers gelenkt. Wir verstehen uns schnell, wenn wir dabei von Hall sprechen. Ein besonderer Fall dieser Art ist das Echo, bei dem noch erkennbare Einzeltöne sich in bestimmter Anzahl und Schnelligkeit wiederholen – je nach Entfernung von reflektierenden Flächen.

Im Audio-Mixing wird der allgemeinere Begriff Delay (Verzögerung) verwendet, zu dessen Arten der Reverb (Hall) und das Echo zählen.

Hier drei Tutorials vom Recording Blog, delamartv und Martin Wolfinger zum Mixen von Hall:

Martin Wolfinger geht auch gesondert auf die Funktion von Hall für die Tiefenstaffelung eines Mixes ein:

Big Z gibt einen weiteren englischsprachigen Überblick zu wesentlichen Aspekten von Hall/Reverb:

Wer sich die Einstellungsmöglichkeiten von Reverb und Delay ansieht, findet eine sehr große Bandbreite von Stilvorlagen. Ihre Wirkung ist in sich noch einmal sehr variabel, indem die Intensität der Anwendung des Effekts (optional zzgl. mehrerer Parameter) ganz unterschiedliche Ergebnisse (oft bis zu irritierend-störenden Verzerrungen) hervorbringt.

Natürlich spielt für Raumwirkungen auch das Stereo-Spektrum eine Rolle, durch das dem Ohr Raumpositionen der Klangquelle signalisiert werden. Gezielte Ungleichgewichte im Delay nach links und rechts können z. B. auch für psychoakustische Lautstärke-Illusionen verwendet werden.

Der Begriff des Delays bezeichnet in der Praxis oft entweder einen begrenzten Einsatz als Verdoppelung von Klangereignissen im Abstand von Millisekunden (was schon neben Pegel, Kompressor und EQ ein weiteres Mittel der Verstärkung bedeutet). Das andere Extrem sind relativ lange nachklingende, meist leiser werdende Wiederholungen, die entweder subtil im Hintergrund eine Textur bilden, um das Gesamtbild voller zu machen (ohne zwingend deutlich herausgehört zu werden) oder die bewusst zur Erzeugung deutlich hörbarer Reihen von Klangereignissen eingesetzt werden. So können eher schlichte gespielte Tonfolgen komplexere Resultate haben. Weit über die Erzeugung bestimmter realistischer Raumillusionen hinaus (bezeichnet mit Stilen wie „Raum“ oder „Halle“) können Delays dann extrem artifizielle, vor den entsprechenden Effektgeräten und -Plugins nie dagewesene Klangwelten erzeugen.

Weiterlesen

#Mixing-Essentials (3) 🎛 | Saturierung

In den Erklärungsschritten dieses kurzen Überblicks zum Thema Mixing und Mastering haben wir nun schon die Dimensionen Lautstärke und Frequenz-Spektrum durchmessen. Sie lassen sich in der Visualisierung leicht auf einer Fläche in Höhe und Breite verteilen. Damit haben wir diese Visualisierung jedoch auch ausgeschöpft.

Einer weiteren Grundfunktion wie der Saturierung (zu Deutsch auch Bandsättigung) lässt sich nur noch mit Hörerlebnissen und deren Beschreibung nachspüren. Allgemein lässt sich dies vielleicht als eine Manipulation der ‚Dichte‘ und der ‚Klang-Textur‘ beschreiben – abhängig auch von den im Einzelnen verwendeten Effekten, die sich natürlich voneinander unterscheiden. In einem weiteren metaphorischen Vergleich kann man u. a. von einem ‚Aufrauhen‘ oder ‚plastischer Machen‘ des Sounds sprechen. Die Zahl der Plugins hierfür ist – wie die aller anderen – mittlerweile groß. Der Ursprung dieser Effekte ist eine Klangdifferenz, die sich zwischen rein digitalen und dabei eher rauscharmen Aufzeichnungstechniken gegenüber physischen Tonbändern früherer Zeiten ergibt. Es wird je nach Vorlieben heute noch praktiziert, Spuren auch nachträglich noch auf Band aufzunehmen und wieder zurückzuspielen. Viele der Plugins weisen durch ihre Namen und/oder ihr Design auf Tonband-Geräte hin oder emulieren gar spezielle Modelle dieser Hardware.

Holger Steinbrink erläutert es hier für KEYS auf Deutsch:

Hier drei weitere Tutorials zu den Grundlagen von Saturierung von Musician on a Mission, Sage Audio und Warren Huart von Produce Like A Pro:

Weiterlesen

#Mixing-Essentials (2) 🎛 | Equalizer (EQ)

Während Lautstärke/Amplitude gerne auf einer senkrechten Skala dargestellt wird, stellen die gebräuchlichen Displays und Diagramme das Ton-Spektrum von Bässen bis Höhen in der Waagerechten dar. Das wichtigste Instrument, um in Mixing und Mastering auf dieser Ebene einzugreifen, ist der Equalizer, kurz: EQ. In unterschiedlich feinen Aufteilungen (neben Tiefen, Mitten und Höhen noch tiefe oder hohe Mitten etc.) werden heute meist stufenlose Kurven verwendet.

Hier drei Tutorials für den Einstieg ins Thema – von Martin Wolfinger, delamartv und Jonas Wagner vom Recording-Blog.

Wie Pegel und Kompressoren sowie Limiter für die Lautstärke, wird das Zusammenspiel mehrerer Spuren hierdurch auf der Skala der Frequenzen ausbalanciert, sodass nicht zuviele Signale im selben Bereich miteinander konkurrieren.

Zu dieser Ausbalancierung gehören auch eher lokale und teilweise etwas extremere Absenkungen von Frequenzbereichen – da, wo sie zu besonders deutlichen Störungen führen. Es sind dumpfe Klangqualitäten, die so im Gesamtbild entstehen und mit dem EQ verhindert werden können. Dazu werden einzelne Spuren oder der gesamte Mix auf solche störenden Frequenzbereiche mit dem EQ durchsucht – man macht probeweise besonders laut, was dann in seiner Amplitude an dieser Stelle auf der Waagerechten abgesenkt wird.

Philipp Ernst
von abmischenlernen erklärt es:

Dies im Zusammenspiel der Spuren besser zu erkennen, helfen heute zusätzlich avancierte Plugins, die durch simultanen Vergleich von Spuren und entsprechender Visualisierung die konkurrierenden Stellen im Frequenzband markieren. Die Angelsachsen nennen das Problem „Masking“, wie hier erklärt von Plugin Boutique am Beispiel des Plugins „Neutron 3“ von iZotope:

Weiterlesen

#Mixing-Essentials (1) 🎛 | Kompressor

Ein erster Schritt bei den meisten Tonaufnahmen besteht meist in einer Lautstärken-Anhebung; deshalb der erste Teil der „Mixing Essentials“ zum folgenden Thema. Im Gegensatz zum bloßen ‚Aufdrehen‘ einer gesamten Lautstärke werden Kompressoren eingesetzt – teilweise schon zwischen Instrument und dem Aufzeichnungsgerät. Der Kompressor hebt die Lautstärke der schwächeren Anteile des Klanges an. Denn was im Realraum für das menschliche Ohr teilweise gut zu hören ist, kann auf dem elektrifizierten Signalweg tendenziell untergehen; erst recht aber im Zusammenspiel mit anderen Tonspuren.

KEYS-Autor Holger Steinbrink
erklärt hier ein paar Grundlagen:

Auch Philipp Ernst von abmischenlernen.de kann man sich zum Thema zu Gemüte führen:

Rick Beato zu spezielleren Aspekten:

Wie hier nebenbei erwähnt, geht das Komprimieren ab einer starken Abflachung in das klare obere Begrenzen der Amplitude über, für die man einen Limiter verwendet. Bei MixbusTV wird der Unterschied erklärt:

Joe Gilder fasst noch einmal auf eine andere Weise Grundfunktionen und Empfehlungen für die Anwendung von Kompressoren zusammen. Es geht um die Faktoren Attack und Release, um die Anwendung auf einzelne Spuren oder mehrere in einem Mix-Bus, Reihenfolge von Equalizer und Kompressor sowie die Frage nach Lautstärke vs. Ton-Qualität.

Weiterlesen

#Mixing-Essentials (0) 🎛 | Vorwort

Musik wird gemacht. Musik aus Lautsprechern noch auf andere Weise als die, die jemand im realen Raum auf seinem Instrument spielt.

Begleitend zu allem anderen im Blog möchte ich mit Euch ein paar Blicke in den Maschinenraum der Musikproduktion werfen – als Artikel-Reihe „Mixing Essentials“, die hier in den nächsten Wochen fortgesetzt wird. Der Schwerpunkt liegt dabei auf dem, was neu ist: Auch die nun schon hergebrachten Mittel der analogen Aufnahmetechnik sind fast komplett übergegangen in die Digitalisierung (mit ein paar Streitpunkten unter Experten).

GRÜBELBACH ist bisher ein Studio-Projekt. Hinter Akustikgitarre, menschlicher Stimme, E-Gitarre, Keyboard und ein paar ‚echten‘ Mikrofonen beginnt mit einer einfachen Schnittstelle, einem kleinen Gehäuse mit Buchsen und USB-Kabel zum Computer die digitale Welt.

Wir sprechen mittlerweile fast überall in der Tonträger-Welt von digitalen Programmlösungen. Selbst das klassische Ensemble kommt ab den ersten Bearbeitungsschritten nicht mehr ohne digitale Bearbeitungsmittel aus.

Das sieht auf dem Computer-Bildschirm im Prinzip so aus:

cubase projektfenster
Cubase-Projektfenster

Ich arbeite derzeit mit Cubase 10. Daneben sind Branchen-Standards Logic Pro (für Apple-Nutzer), Ableton Live und Avid Pro Tools. Neuere Produkte dieser Art sind Studio One und Reaper (hier bei bonedo eine Übersicht zu solchen Programmen). Das sind „Digital Audio Workstations“ (DAW). Sie ersetzen auf einem Personal Computer die früher raumgreifenden Apparaturen von Verstärkern, Effektgeräten, Tonbandgeräten und Mischpulten. Übrig bleiben die übereinander angeordneten Spuren mit ihren Clips (entsprechend Schnipseln von Tonband) sowie links davon allerlei Schaltflächen, über die man zu den genannten Funktionen gelangt. Jede Audio-Spur hat außerdem noch auszuklappen die sog. „Automation“, in der neben Lautstärke auch verschiedenste Parameter von Effekten gesteuert werden können – meist variabel auf der Zeitleiste. Zu den Effekten sagt man gleichbedeutend „Plugins“.

Der deutschsprachige Begriff der „Tonmischung“ wird heute meist „Mixing“ genannt. Dieselben Mittel werden in einem abschließenden Arbeitsschritt dann nochmal in meist geringerer Zahl und Stärke beim „Mastering“ angewendet. Im professionellen Musikgeschäft werden diese Vorgänge meist auf mehrere Köpfe verteilt. Je nach Aufwand gibt es natürlich dort spezialisierte Ton- und Aufnahme-Techniker, die noch eine Menge mit physischen Apparaten zu tun haben. Auch von der Arbeitszeit her ist es ein gravierender Unterschied, ob man ein Schlagzeug mit mehreren Mikrofonen abnimmt. Je mehr man digital macht, desto weniger unerwünschte Störeffekte sind zu erwarten.

Stilistisch ist das natürlich ein großer Unterschied, wobei mit zunehmender Verfremdung analog aufgenommene Klänge auch immer technischer klingen können. An mehreren Stellen – bei Aufnahme, in der Übertragung an die DAW und in der Nachbearbeitung einzelner Spuren oder des ganzen Projekts in Mixing und Mastering – können auch noch verschiedenste Gerätschaften zur Anwendung kommen, für die es heute als Ersatz Plugins gibt. Manche Mixing-Ingenieure hören Unterschiede und schwören dabei auf ihre traditionell-analogen Standards.

Erwähnenswert ist noch ein Begriffspaar: In DAWs gibt es zwei Arten von Spuren – das Audio in Wellenformen und die MIDI-Spuren. Erstere dürfte jeder kennen, der schon einmal die Visualisierung einer Klangwelle sah. MIDI bedeutet „Musical Instrument Digital Interface“ und ist seit 1982 im Gebrauch. Es sind Signale, die v. a. mit Keyboards bzw. Synthesizern übermittelt werden – technisch vollkommen eindeutige Angaben, welcher Ton wie lange, teilweise mit welcher Anschlagsmodulation gespielt wird. Entsprechend den schier unendlichen Klangwelten der Synthesizer können alle Arten von Instrumenten emuliert werden, vom Klavier bis zu den Einzelteilen eines Drumkits.

Die einzelnen Tonereignisse werden in der DAW dann im Clip ihrerseits als schmale Streifen dargestellt, zu denen unten noch die Lautstärke als senkrechter Streifen annotiert ist:

cubase midi spur
Cubase MIDI-Spur

Da nach den Äras von Vinyl-Schallplatte und CD Musik heute schon mehrheitlich über das Internet zu den Hörern transportiert wird, haben sich ein paar Bedingungen der Musikproduktion auch im Gestalterisch-Tontechnischen verändert. Der wichtigste Begriff ist der „Loudness War“. Einerseits gibt es teilweise Rückschritte bei den Wiedergabegeräten, sodass jeder Song halbwegs annehmbar über einfachere Notebook-Lautsprecher oder gar Mono-Speaker von mobilen Telefonen klingen sollte. Jede Plattform verwendet außerdem eigene Algorithmen, um die zugelieferten Klangdateien an einen einheitlichen Lautstärke-Pegel anzupassen. Damit unter diesen Bedingungen Musik satt und im Vergleich ausreichend laut klingt, müssen die bekannten Mittel des Mixings, um die es in den folgenden Beiträgen gehen wird, teilweise modifiziert und verstärkt angewendet werden.

Wer als Profi Zeit und Geld hat, kann solchen Aufwand beliebig treiben und seinen Spaß daran haben. In jedem Fall sehen wir eine technische Entwicklung, die den Namen „Revolution“ verdient. Sie ermöglicht nämlich durch Vereinfachungen im Umgang, die programmtechnische Implementierung in den Computer, ergo drastische Kostenreduktion: die Anwendung durch alle Interessierten – an erster Stelle natürlich diejenigen, die selbst Musik machen.

Die folgenden Beiträge dieser Reihe geben, meist mit Hilfe einzelner der vielen Video-Tutorials auf YouTube, einen Überblick zu den wichtigsten Gestaltungsmitteln, die in der aktuellen Musikproduktion zur Anwendung kommen.

Weiterlesen