Suche
Close this search box.

Vertraue deinen Ohren – Wie intuitiv ist Musikproduktion heute?

Lesezeit: 12 Minuten

Video killed the Radio Star

MTV war nur der Anfang. Wie es scheint, hat Video vollends die Oberhand gegenüber dem guten alten Audio erlangt. Aus der Kommunikationswissenschaft wissen wir, dass Bilder die direkteste Form von Kommunikation darstellen. Bedeutet das gleichzeitig, dass bildhafte Kommunikation generell überlegen ist? Welchen Einfluss hat das auf die Art und Weise wie wir Musik konsumieren und produzieren? Ist Sehen gar wichtiger als Hören?

Corona verändert unsere Welt nachhaltig. So hat sich seit Beginn der Pandemie der Video Datenverkehr in Deutschland vervierfacht und statt zum Telefon zu greifen wird bevorzugt zum Zoom Call gebeten. Das hat einen deutlichen Einfluss auf unsere Kommunikationsstrukturen. Aber wie bei jedem Massenphänomen, so gibt es stets ein ausgleichendes Korrelat, eine Gegenbewegung. Dieses manifestiert sich in Form des guten, alten Plattenspielers.

Erstmals wurden in 2021 in Deutschland mehr Schallplatten als CDs verkauft. Diese entschleunigte Art des Musikkonsums widerspricht so ganz dem herrschenden Zeitgeist. Der Wunsch, seine Lieblingsmusik in Vinyl Form in der Hand halten zu können, erfreut sich größter Beliebtheit. Die Tatsache, dass wir Musik vom Plattenspieler ausschließlich mit dem Gehör verarbeiten ist dermaßen archaisch, dass es aus der Zeit entrückt zu sein scheint.

pexels matthias groeneveld 4200747 scaled 1

Dabei entspricht der Musikgenuss mit Hilfe eines Plattenspielers phylogenetisch (stammesgeschichtlich) vollends der menschlichen Natur. Warum das so ist, werden wir im Folgenden klären. Aus der Vergangenheit lernen wir für die Zukunft. Das trifft auch für das Produzieren von Musik zu. Ziel einer erfolgreichen Musikproduktion sollte sein, dass Publikum zu begeistern. Musik ist kein reiner Selbstzweck. Dafür brauchen wir uns nur die Entstehung von Musik anzusehen [sic].

Die Entstehung von Musik

Deutschland ist eine alte Kulturnation. Sehr alt, um genau zu sein. Das zeigen archäologische Funde, die bei Ausgrabungen in einer Höhle auf der Schwäbischen Alb gefunden wurden. Forscher fanden dort aus Knochen und Elfenbein gefertigte Flöten, die voraussichtlich bis zu 50.000 Jahre alt sind. Die Flötenbauer haben sogar Grifflöcher implementiert, die eine Manipulation der Tonhöhe erlaubt. Experten schätzen, dass die Menschheit sich bereits seit sehr langer Zeit rhythmisch und melodisch ausdrückt. Es wird vermutet, dass diese nichtsprachlichen Akustik Ereignisse vor allem sozialen Zusammenhängen dienten. Musik ermöglichte emotionale Lautäußerungen und etablierte sich parallel zur Sprache als ein zweites Kommunikationssystem. Vieles von der emotionalen Ebene des Musizierens ist bis heute erhalten, wie der sogenannte „Chill-Effekt“.

Dieser tritt ein, wenn einem die Musik eine Gänsehaut verschafft. Die Gänsehaut ist die körperliche Reaktion auf einen Chill-Effekt Moment. Der Chill-Effekt bewirkt zudem, dass das Belohnungssystem des Gehirns stimuliert und Glückshormone ausgeschüttet werden. Das geschieht, wenn die Musik für den Zuhörer besondere Momente bereithält, und diese Momente sind oftmals sehr subjektiv. Aber genau daraus ziehen Musikhörer ihren Nutzen während des Musikkonsums. Emotionalität ist die Währung der Musik. Aus diesem Grund sollte man Kindern ermöglichen, ein Musikinstrument zu erlernen. Musik ist neben Sprache ein zutiefst menschliches Ausdrucksmittel. Musik lehrt Kinder Gefühle zu erfahren und auch eigene Gefühle auszudrücken. Eine alternative Ausdrucksmöglichkeit, für den Fall, dass Sprache versagt. Es ist der Wunsch nach Emotionalität, die uns in besonderen Momenten zur Vinyl-Platte als bevorzugtes Musikmedium greifen lässt.

Damals und heute

Die Schallplatte ist konservierte Musik. Die Flötisten der schwäbischen Alb konnten ihre Musik immer nur im „Hier und Jetzt“ praktizieren. Keine Aufzeichnung, kein Playback – handgemachte Musik für den Augenblick. Das bedeutete Musizieren für den längsten Zeitraum der Menschheitsgeschichte. Mit der digitalen Revolution änderte sich das Musizieren radikal. Neben den traditionellen Instrumenten kamen in den 80er Jahren Keyboards, Drum Computer, Sampling und Sequenzer hinzu. Die Linearität des Musizierens wurde aufgebrochen. Musik musste nicht mehr zwingend zeitgleich gespielt werden. Vielmehr konnte ein einzelner Musiker nach und nach unterschiedlichste Instrumente einspielen und war nicht mehr auf Mitmusiker angewiesen. Dadurch entstanden in kurzer Zeit einige neue Musikstile nebeneinander, ein Markenzeichen der 80er Jahre.

Die Neunziger

In den 90er Jahren ging der Siegeszug des Digital Recordings und der Sampling Technologie weiter. Echte Klänge wurden ersetzt durch Sampler und Rompler, welche wiederum Konkurrenz durch Midi-Programmierung erhielten. Mit den Midi-Sequenzern hielten Bildschirme und Monitore vermehrt Einzug in die Tonstudios und Musik wurde erstmals sichtbar gemacht. Das Arrangement konnte zeitgleich gehört und gesehen werden. Die 2000er Jahre ist die Zeit der umfassenden Visualisierung der Musikproduktion. Schlagzeug, Gitarren, Bässe und Synths – alles ist als VST-Instrument erhältlich und seitdem virtuell in unseren Monitoren zu Hause.

Gleichzeitig löst die DAW die bis dahin gebräuchlichen Harddisk Recorder ab. Die Wellenform Darstellung in einer DAW ist die bis heute umfassendste visuelle Darstellung von Musik und erlaubt einen genauen Eingriff in das Audiomaterial. Die DAW wird für viele User zum universellen Produktionsmittel, das theoretisch unendliche Ressourcen in Punkto Mix-Kanäle, Effekte, EQs und Dynamik-Tools bereitstellt. In den letzten Jahren veränderte sich zudem die bis dahin bekannte Personalstruktur. Nicht die Band, sondern der Produzent erschafft die Musik. Dabei spielt sich fast alles im Rechner ab.

Durch diesen Paradigmenwechsel entstehen neue Musikrichtungen, die besonders im elektronischen Bereich (Trap, Dubstep, EDM) zu Hause sind. Nicht selten kommt bei diesen Produktionen keine Audio-Hardware oder echte Instrumente mehr zum Einsatz.

Burnout vom Wellness Urlaub

Ein Computer mit mehreren Monitoren ist für viele Kreative das wichtigste Produktionsmittel. Die Vorteile liegen auf der Hand. Kostengünstig, unbegrenzte Spurenanzahl, verlustfreie Aufnahmen, komplexe Arrangements handelbar, unbegrenzte Anzahl an VST-Instrumenten und Plugins. Alles ist automatisier- und speicherbar. Ein Total Recall ist dabei obligatorisch. Kommt man an irgendeinen Punkt in der Produktion nicht weiter, bietet YouTube passende Tutorials zu nahezu jedem Audio-Thema. Malen nach Zahlen. Musik aus dem Thermomix. Vordefinierte Zutaten prädestinieren ein vorhersagbares Ergebnis ohne großes Kopfzerbrechen.

Steinzeit

Unsere schwäbischen Flötisten würden sich wundern. Musik nur noch visuell? Keine Hardware mehr von Nöten? Kein Handanlegen? Der in unserem Stammhirn verborgene Neandertaler sträubt sich unterbewusst. Das Auge ersetzt das Ohr? Irgendwie läuft da doch etwas verkehrt. Tatsächlich widerspricht diese Art des Produzierens der natürlichen Priorisierung menschlicher Sinne. Der Steinzeit Flötenspieler konnte Gefahren zumeist erst hören, bevor er sie sehen konnte. Dank unserer Ohren lässt sich sogar erstaunlich genau die Richtung orten, aus der sich ein Säbelzahntiger nähert.

Die Evolution hat sich dabei etwas gedacht, das der Gehörsinn der einzige Sinn ist, der sich nicht völlig unterdrücken lässt. Man kann sich die Nase zu halten oder die Augen schließen, doch selbst mit Fingern im Ohr nimmt ein Mensch die nahende Mammutherde wahr. Die dumpfen Schwingungen lösen eine Angstempfindung aus. Das war und ist überlebenswichtig. Geräusche werden stets mit Emotionen verbunden. Nach Carl Gustav Jung (1875 – 1961) verfügt die menschliche Psyche über kollektive Erinnerungen im Unterbewusstsein. Diese Urbilder bezeichnete er als Archetypen.

Emotionen

Geräusche wie Donner, Wind oder Wasser erzeugen in uns unmittelbare Emotionen. Umgekehrt lassen sich Emotionen wie Freude oder Traurigkeit bestens mit Musik ausdrücken. Dabei ist das Gehör eminent wichtig. Hände und Ohren sind die wichtigsten Werkzeuge des klassischen Musikers und aus diesem Grund gibt es verhältnismäßig viele blinde Musiker, die auf höchstem Niveau spielen. Wer bei der Musikproduktion ausschließlich auf den Computer zurückgreift, der beraubt sich eines seiner besten Werkzeuge. Die Musikproduktion mit Tastatur und Maus ist selten mehr als eine nüchterne Datenverarbeitung mit künstlichem Zuckerguss. Die DAW Bedienung via Maus fordert eine ständige Kontrolle durch unsere Augen. Eine taktile Rückmeldung bleibt dabei aus. Auf die Dauer ist das ermüdend und bleibt nicht ohne Kollateralschaden. An erster Stelle der Schadensmeldung steht meist die Intuition.

Sehen statt hören?

Die Visualisierung von Musik ist nicht per se problematisch. Ganz im Gegenteil, denn manchmal ist sie sogar extrem hilfreich. Das Erfassen komplexer Song-Abläufe oder das genaue Editieren von Audiodateien ist mit adäquater Visualisierung ein Segen. Was die Kernkompetenz der Musikproduktion betrifft, sieht die Bilanz deutlich ambivalenter aus. Das Einstellen eines EQs, Kompressors, Effekts oder gar das Zurechtrücken von Lautstärken Verhältnissen ausschließlich mit Monitor & Maus ist ergonomisch fragwürdig. Es kommt dem Versuch gleich, ein Brett mit einem Hobel durchsägen zu wollen. Es ist schlichtweg eine unglückliche Werkzeug Wahl.

Ein weiterer Aspekt hat ebenfalls direkten Einfluss auf unseren Mix.

Die optische Darstellung der EQ-Kurve in einer DAW oder eines Digital-Mixers bestimmt nachhaltig, wie wir Signale mit dem EQ bearbeiten. Je nach Auflösung der Darstellung setzten wir die Filter mal mehr und mal weniger drastisch ein. Wenn die optische Darstellung einen massiven EQ Buckel auf den Bildschirm zaubert, hinterfragt unser Gehirn diese EQ-Entscheidung zwangsläufig. Die Erfahrung zeigt, dass bei einem analogen EQ ohne grafische Repräsentation diese Zweifel deutlich weniger ausgeprägt sind.

Der Grund: Die Referenz eines analogen EQs ist das Ohr und nicht das Auge. Wenn eine Gitarre eine breite Anhebung bei 1.2 kHz benötigt, um sich im Mix durchzusetzen, dann sind wir mit einem analogen EQ eher bereit drastische Korrekturen durchzuführen als mit einem DAW-EQ, dessen Visualisierung einen massiven EQ Buckel im Monitor auftürmt. Erfolgreiche Produzenten und Mixer arbeiten teils mit drastischen EQ Einstellungen, ohne sich viele Gedanken darüber zu machen. Unerfahrene User, die auf einen Equalizer mit optischer Kurven Darstellung zurückgreifen, nutzen zu häufig ihre Augen anstatt der Ohren auf der Suche nach passenden Einstellungen. Das führt nicht selten zu Fehlentscheidungen.

Umarme das Chaos

Auf die Frage, was in aktuellen Musikproduktionen am meisten fehlt, lautet die Antwort: Intuition, Interaktion und Improvisation. In der Interaktion mit anderen Musikern sind wir gezwungen, spontane Entscheidungen zu treffen und mitunter Modifikationen an den Akkorden, Abläufen, Tempi und Melodien vorzunehmen. Durch die Improvisation entstehen neue Ideen oder gar ein Song-Gerüst, dessen DNA auf das Gehör und den Tastsinn zurückzuführen ist.

Touch and Feel

Der Tastsinn in Kombination mit einem echten Instrument bietet einen ungefilterten Zugang in das Unterbewusstsein. Oder frei nach Jung zu den Urbildern, den Archetypen. Tastatur & Maus verfügen nicht über diese direkte Verbindung. Um mit VST-Instrumenten und Plugins musikalisch Interagieren zu können, benötigen wir deshalb neue User Interfaces, die unseren Wunsch nach Haptik und Taktilität bedienen. Gerade in diesem Punkt hat sich in den letzten Jahren viel getan. Die Zahl an DAW- und Plugin Controller steigt stetig und bilden eine Gegenbewegung zu Tastatur & Maus.

Das Fühlen von Poti-Stellungen erlaubt eine Bedienung ohne bewusstes Hinsehen, wie bei einem Autoradio. Das Kraftfahrzeug Bundesamt sieht aus diesem Grund die überwiegende Bedienung eines modernen Elektroautos via Touchscreen als problematisch an. Fakt ist: Der Blick des Fahrzeugführers wandert bei diesem Bedienkonzept häufiger von der Straße auf den Touchscreen als bei herkömmlichen PKWs mit Hardware Taster und Schalter. Das falsche Werkzeug für den Job? Die Parallelen sind auffällig. Ein guter Schlagzeuger spielt einen Song in wenigen Takes ein. Dennoch bevorzugen manche Produzenten das Schlagzeug zu programmieren, selbst wenn es deutlich länger dauert. Vor allem dann, wenn man den binären Drum Takes so etwas wie Feeling und Groove implementieren möchte.

Das gleiche gilt für das Programmieren von Automationskurven für Synth-Sounds, beispielsweise dem Cut Off einer TB 303. Es ist schneller eingespielt als einprogrammiert und das Ergebnis ist stets organisch. Es kommt nicht von ungefähr, wenn gestandene Tontechniker ihr altes SSL oder Neve Pult als Instrument begreifen. Und zwar im wörtlichen Sinne. Intuitive Eingriffe in den Mix mit Potis und Fadern rücken das Gehör in den Fokus und liefern originäre Ergebnisse in Real Time.

Maximale Reduktion als Erfolgsrezept

In den analogen Tagen konnte man sich nur eine begrenzte Anzahl an Instrumenten und Pro Audio Equipment leisten. Kaufentscheidungen traf man bewusster und das wenige Equipment, das man zur Verfügung hatte, wurde in seinen Möglichkeiten ausgereizt. Heute ist es einfach mit kleinem Budget die Plugin Slots seiner DAW mit unzähligen Plugins zu fluten. Dabei wird eine Tatsache oftmals übersehen. Die Reduktion auf sorgsam ausgesuchte Instrumente ist sehr oft stilbildend. Viele Musiker generieren gerade durch ihre eingeschränkte Instrumentenauswahl einen eindeutigen musikalischen Fingerabdruck.

Die Konzentration auf wenige, aber bewusst ausgesuchte Werkzeuge definieren einen Signature Sound, der im besten Fall zu einem akustischen Markenzeichen wird. Das gilt sowohl für Musiker als auch für Tontechniker und Produzenten. Würde Andy Wallace die gleichen Mixe abliefern, wenn er sein bevorzugtes Werkzeug (SSL 4000 G+) gegen ein Plugin Bundle samt DAW tauschen würde? Es ist kein Zufall, dass Plugin Hersteller versuchen, die Essenz erfolgreicher Produzenten und Tontechniker auf die Plugin Ebene zu portieren. Plugins sollen den Sound von Chris Lord Alge, Al Schmitt oder Bob Clearmountain einfangen.

Ein nachvollziehbarer Ansatz. Allerdings mit dem kuriosen Beigeschmack das gerade diese Herrschaften nur bedingt dafür bekannt sind, bevorzugt Plugins zu benutzen. Eine weiteres Beispiel ist es, beliebte Hardware Klassiker als Plugin Emulationen aufleben zu lassen. Ein ansehnliches GUI soll eine vergleichbare Wertigkeit wie die der Hardware vermitteln. Dabei bestimmt lediglich die Programmierung, der Code den Sound des Plugins. Darin sieht man mal wieder, wie die Visualisierung Einfluss auf die Wahl der Audio Werkzeuge nimmt.

Einfach mal Abschalten

Damit wir uns nicht missverstehen, auch mit Maus & Tastatur lässt sich gute Musik produzieren. Aber es gibt nachhaltige Gründe, diese Arbeitsweise zu hinterfragen. Wir verbreiten nicht das tontechnische Evangelium. Wir möchten lediglich eine Alternative zur visualisierten Audioproduktion anbieten und den Fokus vom Auge wieder mehr auf das Ohr richten. Das sich Musik oftmals im Hintergrundrauschen des Zeitgeistes versendet, werden wir kaum umkehren können.

Aber vielleicht hilft es, sich an die Archetypen der Musik zu erinnern. Musik hören, statt zu sehen und dabei im wörtlichen Sinne wieder selbst Hand anzulegen. Echte Instrumente verwenden, mit anderen Musikern interagieren und dabei Pro Audio Hardware verwenden, die ein taktiles Feedback erlaubt.

Die Selbstbeschränkung auf wenige, bewusst ausgesuchte Instrumente, analoge Audio-Hardware und Plugins mit Hardware Controller Anbindung. Dieser intuitive Workflow kann helfen, gewohnte Strukturen zu durchbrechen und letztlich etwas Neues zu erschaffen, das die Zuhörer berührt. Im Idealfall finden wir auf diesem Weg zurück zum eigentlichen Wesen der Musik: Emotion!

Zum Abschluss ein letzter Tipp: „Einfach mal abschalten!“ Und zwar den DAW Monitor. Den Song durchhören statt ansehen. Keine Plugin Fenster, keine Meteranzeigen, keine Wellenform Darstellung – den Song ohne jegliche Visualisierung hören. Wie eine Schallplatte, denn im Gegensatz zu MTV hat diese eine Zukunft.

Mit besten Grüßen, Euer Ruben