#Mixing-Essentials (2) 🎛 | Equalizer (EQ)

Während Lautstärke/Amplitude gerne auf einer senkrechten Skala dargestellt wird, stellen die gebräuchlichen Displays und Diagramme das Ton-Spektrum von Bässen bis Höhen in der Waagerechten dar. Das wichtigste Instrument, um in Mixing und Mastering auf dieser Ebene einzugreifen, ist der Equalizer, kurz: EQ. In unterschiedlich feinen Aufteilungen (neben Tiefen, Mitten und Höhen noch tiefe oder hohe Mitten etc.) werden heute meist stufenlose Kurven verwendet.

Hier drei Tutorials für den Einstieg ins Thema – von Martin Wolfinger, delamartv und Jonas Wagner vom Recording-Blog.

Wie Pegel und Kompressoren sowie Limiter für die Lautstärke, wird das Zusammenspiel mehrerer Spuren hierdurch auf der Skala der Frequenzen ausbalanciert, sodass nicht zuviele Signale im selben Bereich miteinander konkurrieren.

Zu dieser Ausbalancierung gehören auch eher lokale und teilweise etwas extremere Absenkungen von Frequenzbereichen – da, wo sie zu besonders deutlichen Störungen führen. Es sind dumpfe Klangqualitäten, die so im Gesamtbild entstehen und mit dem EQ verhindert werden können. Dazu werden einzelne Spuren oder der gesamte Mix auf solche störenden Frequenzbereiche mit dem EQ durchsucht – man macht probeweise besonders laut, was dann in seiner Amplitude an dieser Stelle auf der Waagerechten abgesenkt wird.

Philipp Ernst
von abmischenlernen erklärt es:

Dies im Zusammenspiel der Spuren besser zu erkennen, helfen heute zusätzlich avancierte Plugins, die durch simultanen Vergleich von Spuren und entsprechender Visualisierung die konkurrierenden Stellen im Frequenzband markieren. Die Angelsachsen nennen das Problem „Masking“, wie hier erklärt von Plugin Boutique am Beispiel des Plugins „Neutron 3“ von iZotope:

Weiterlesen

#Mixing-Essentials (1) 🎛 | Kompressor

Ein erster Schritt bei den meisten Tonaufnahmen besteht meist in einer Lautstärken-Anhebung; deshalb der erste Teil der „Mixing Essentials“ zum folgenden Thema. Im Gegensatz zum bloßen ‚Aufdrehen‘ einer gesamten Lautstärke werden Kompressoren eingesetzt – teilweise schon zwischen Instrument und dem Aufzeichnungsgerät. Der Kompressor hebt die Lautstärke der schwächeren Anteile des Klanges an. Denn was im Realraum für das menschliche Ohr teilweise gut zu hören ist, kann auf dem elektrifizierten Signalweg tendenziell untergehen; erst recht aber im Zusammenspiel mit anderen Tonspuren.

KEYS-Autor Holger Steinbrink
erklärt hier ein paar Grundlagen:

Auch Philipp Ernst von abmischenlernen.de kann man sich zum Thema zu Gemüte führen:

Rick Beato zu spezielleren Aspekten:

Wie hier nebenbei erwähnt, geht das Komprimieren ab einer starken Abflachung in das klare obere Begrenzen der Amplitude über, für die man einen Limiter verwendet. Bei MixbusTV wird der Unterschied erklärt:

Joe Gilder fasst noch einmal auf eine andere Weise Grundfunktionen und Empfehlungen für die Anwendung von Kompressoren zusammen. Es geht um die Faktoren Attack und Release, um die Anwendung auf einzelne Spuren oder mehrere in einem Mix-Bus, Reihenfolge von Equalizer und Kompressor sowie die Frage nach Lautstärke vs. Ton-Qualität.

Weiterlesen

#Mixing-Essentials (0) 🎛 | Vorwort

Musik wird gemacht. Musik aus Lautsprechern noch auf andere Weise als die, die jemand im realen Raum auf seinem Instrument spielt.

Begleitend zu allem anderen im Blog möchte ich mit Euch ein paar Blicke in den Maschinenraum der Musikproduktion werfen – als Artikel-Reihe „Mixing Essentials“, die hier in den nächsten Wochen fortgesetzt wird. Der Schwerpunkt liegt dabei auf dem, was neu ist: Auch die nun schon hergebrachten Mittel der analogen Aufnahmetechnik sind fast komplett übergegangen in die Digitalisierung (mit ein paar Streitpunkten unter Experten).

GRÜBELBACH ist bisher ein Studio-Projekt. Hinter Akustikgitarre, menschlicher Stimme, E-Gitarre, Keyboard und ein paar ‚echten‘ Mikrofonen beginnt mit einer einfachen Schnittstelle, einem kleinen Gehäuse mit Buchsen und USB-Kabel zum Computer die digitale Welt.

Wir sprechen mittlerweile fast überall in der Tonträger-Welt von digitalen Programmlösungen. Selbst das klassische Ensemble kommt ab den ersten Bearbeitungsschritten nicht mehr ohne digitale Bearbeitungsmittel aus.

Das sieht auf dem Computer-Bildschirm im Prinzip so aus:

cubase projektfenster
Cubase-Projektfenster

Ich arbeite derzeit mit Cubase 10. Daneben sind Branchen-Standards Logic Pro (für Apple-Nutzer), Ableton Live und Avid Pro Tools. Neuere Produkte dieser Art sind Studio One und Reaper (hier bei bonedo eine Übersicht zu solchen Programmen). Das sind „Digital Audio Workstations“ (DAW). Sie ersetzen auf einem Personal Computer die früher raumgreifenden Apparaturen von Verstärkern, Effektgeräten, Tonbandgeräten und Mischpulten. Übrig bleiben die übereinander angeordneten Spuren mit ihren Clips (entsprechend Schnipseln von Tonband) sowie links davon allerlei Schaltflächen, über die man zu den genannten Funktionen gelangt. Jede Audio-Spur hat außerdem noch auszuklappen die sog. „Automation“, in der neben Lautstärke auch verschiedenste Parameter von Effekten gesteuert werden können – meist variabel auf der Zeitleiste. Zu den Effekten sagt man gleichbedeutend „Plugins“.

Der deutschsprachige Begriff der „Tonmischung“ wird heute meist „Mixing“ genannt. Dieselben Mittel werden in einem abschließenden Arbeitsschritt dann nochmal in meist geringerer Zahl und Stärke beim „Mastering“ angewendet. Im professionellen Musikgeschäft werden diese Vorgänge meist auf mehrere Köpfe verteilt. Je nach Aufwand gibt es natürlich dort spezialisierte Ton- und Aufnahme-Techniker, die noch eine Menge mit physischen Apparaten zu tun haben. Auch von der Arbeitszeit her ist es ein gravierender Unterschied, ob man ein Schlagzeug mit mehreren Mikrofonen abnimmt. Je mehr man digital macht, desto weniger unerwünschte Störeffekte sind zu erwarten.

Stilistisch ist das natürlich ein großer Unterschied, wobei mit zunehmender Verfremdung analog aufgenommene Klänge auch immer technischer klingen können. An mehreren Stellen – bei Aufnahme, in der Übertragung an die DAW und in der Nachbearbeitung einzelner Spuren oder des ganzen Projekts in Mixing und Mastering – können auch noch verschiedenste Gerätschaften zur Anwendung kommen, für die es heute als Ersatz Plugins gibt. Manche Mixing-Ingenieure hören Unterschiede und schwören dabei auf ihre traditionell-analogen Standards.

Erwähnenswert ist noch ein Begriffspaar: In DAWs gibt es zwei Arten von Spuren – das Audio in Wellenformen und die MIDI-Spuren. Erstere dürfte jeder kennen, der schon einmal die Visualisierung einer Klangwelle sah. MIDI bedeutet „Musical Instrument Digital Interface“ und ist seit 1982 im Gebrauch. Es sind Signale, die v. a. mit Keyboards bzw. Synthesizern übermittelt werden – technisch vollkommen eindeutige Angaben, welcher Ton wie lange, teilweise mit welcher Anschlagsmodulation gespielt wird. Entsprechend den schier unendlichen Klangwelten der Synthesizer können alle Arten von Instrumenten emuliert werden, vom Klavier bis zu den Einzelteilen eines Drumkits.

Die einzelnen Tonereignisse werden in der DAW dann im Clip ihrerseits als schmale Streifen dargestellt, zu denen unten noch die Lautstärke als senkrechter Streifen annotiert ist:

cubase midi spur
Cubase MIDI-Spur

Da nach den Äras von Vinyl-Schallplatte und CD Musik heute schon mehrheitlich über das Internet zu den Hörern transportiert wird, haben sich ein paar Bedingungen der Musikproduktion auch im Gestalterisch-Tontechnischen verändert. Der wichtigste Begriff ist der „Loudness War“. Einerseits gibt es teilweise Rückschritte bei den Wiedergabegeräten, sodass jeder Song halbwegs annehmbar über einfachere Notebook-Lautsprecher oder gar Mono-Speaker von mobilen Telefonen klingen sollte. Jede Plattform verwendet außerdem eigene Algorithmen, um die zugelieferten Klangdateien an einen einheitlichen Lautstärke-Pegel anzupassen. Damit unter diesen Bedingungen Musik satt und im Vergleich ausreichend laut klingt, müssen die bekannten Mittel des Mixings, um die es in den folgenden Beiträgen gehen wird, teilweise modifiziert und verstärkt angewendet werden.

Wer als Profi Zeit und Geld hat, kann solchen Aufwand beliebig treiben und seinen Spaß daran haben. In jedem Fall sehen wir eine technische Entwicklung, die den Namen „Revolution“ verdient. Sie ermöglicht nämlich durch Vereinfachungen im Umgang, die programmtechnische Implementierung in den Computer, ergo drastische Kostenreduktion: die Anwendung durch alle Interessierten – an erster Stelle natürlich diejenigen, die selbst Musik machen.

Die folgenden Beiträge dieser Reihe geben, meist mit Hilfe einzelner der vielen Video-Tutorials auf YouTube, einen Überblick zu den wichtigsten Gestaltungsmitteln, die in der aktuellen Musikproduktion zur Anwendung kommen.

Weiterlesen

Wünschen #Charts keine Children?

Wie bitte? Nach 9 Monaten hat ein Musikvideo zweier attraktiver Damen, angenehm schräg im Konzept, mit Retro-Appeal und easy listenbarer Musik fantastisch überschminkt gerade einmal 20.000 Zuschauer? Das Ganze beim Label Grönland Records?

Das Duo Children mit „Hype“:

Ein einprägsamer samtiger E-Bass-Sound (hier sieht man ihn gespielt on camera) verweist im aktuellen Pop-Geschehen schon sehr deutlich auf Tame Impala und dessen Lolita-lastiges Video zu „The less I know the better“ von 2015 (95 Mio. YouTube-Aufrufe):

Hier gibt’s noch genauere Erklärungen zur Erzeugung des Bass-Sounds:

Weiterlesen