Suche
Close this search box.

Tipps für den Umgang mit Latenz in Audioproduktionen

Lesezeit: 10 Minuten

Erhöhte Signallaufzeit und lästige Audiolatenz sind ungebetene Dauergäste in jedem Tonstudio und bei Live Events. Wie ihr Latenz Probleme vermeidet und euren Workflow optimiert, zeigt euch dieser Blog-Beitrag.

Wie ihr sicherlich wisst, ist der der Name elysia Inbegriff für feinste Analog Audio Hardware. Klar ist, dass auch wir als Musiker die Vorteile der digitalen Audiotechnik kennen und schätzen. Mix Szenen und DAW Projekte sind speicherbar, Total Recall damit obligatorisch, monströse Kupfer-Multicores werden durch schlanke Netzwerkkabel ersetzt. Ein maximal flexibler Signalfluss über Netzwerkprotokolle wie DANTE und AVB erlaubt den einfachen Aufbau von komplexen Systemen. Digital Audio macht alles besser? Das wäre schön, aber die Realität zeigt eine ambivalente Bilanz. Schaut und hört man genau hin, dann verursacht die digitale Domäne mitunter Probleme, die in der analogen Welt gar nicht vorhanden sind. Beispiel gefällig?

Aus den Untiefen der Bits & Bytes entstand ein unbarmherziger Endgegner, der mit Phasen- und Kammfilter Problemen auch deine Aufnahmen oder Live Gigs sabotiert. Aber mit den richtigen Einstellungen ist man der lästigen Latenz in digitalen Audiosystemen nicht machtlos ausgeliefert.

Was ist Latenz und warum tritt sie in analogen Setups nicht auf?

Bei jeder Digital Wandlung (AD oder DA) entsteht Latenz. Latenz macht sich in Audiosystemen als Signallaufzeit bemerkbar. In der analogen Domäne ist der Sachlage eindeutig: Die Signallaufzeit von Eingang bis zum Ausgang eines analogen Mischpultes ist stets null.

Latenzen gab es nur im Verbund Midi Gerätschaften, wo externe Synths oder Sampler via Midi eingebunden wurden. Das stellte in der Praxis kein Problem dar, da die komplette Abhörsituation stets analog blieb und somit keine Latenz hörbar wurde. Bei digitalen Mischpulten oder Audio Interfaces gibt es dagegen immer eine Verzögerung zwischen Eingang und Ausgang.

Latenz kann unterschiedliche Gründe haben, zum Beispiel die unterschiedliche Signallaufzeit verschiedener Wandlertypen. Je nach Typ und Ausführung benötigt ein Wandler mehr oder weniger Zeit, das Audiosignal zu verwalten. Daher verwendet man bei Mischpulten und Recording Interfaces in gleichen Baugruppen (z.B. Eingangskanäle) stets identische Wandlertypen, damit die Baugruppen untereinander die gleiche Signallaufzeit besitzen. Wie wir noch sehen werden, ist innerhalb eines digitalen Mixers oder Recording Setups Latenz nicht Nichten eine feste Größe.

Signallaufzeit und Round Trip Latency

Latenz in digitalen Audiosystemen wird entweder in Samples oder Millisekunden angegeben. Eine DAW mit einer Buffersize von 512 Samples generiert mindestens eine Verzögerung von 11,6 Millisekunden (0,016 s), wenn wir mit einer Abtastrate von 44,1 kHz arbeiten. Die Rechnung ist simpel: Wir teilen 512 Samples durch 44,1 (44100 Samples pro Sekunde) und erhalten 11,6 Millisekunden (1 ms = 1/1000 sek).

Arbeiten wir mit einer höheren Abtastrate, verringert sich die Latenz. Betreiben wir unsere DAW mit 96 kHz statt 44,1 kHz, halbiert sich die Latenz. Je höher die Abtastrate, desto niedriger die Latenz. Liegt es dann nicht auf der Hand stets mit der höchstmöglichen Samplerate zu arbeiten, um damit Latenzprobleme elegant zu umschiffen? Klare Antwort: Jein! Ein 96 oder gar 192 kHz Betrieb von Audio Systemen ist eine große Herausforderung für die Computer CPU. Die höhere Samplerate lässt die CPU schnell ins Schwitzen geraten, weshalb bei einer hohen Kanalzahl zwingend eine sehr potente CPU benötigt wird. Das ist ein Grund, dass viele Audio Interfaces der Einsteigerklasse oftmals nur mit einer Samplerate von 44,1 oder 48 kHz ans Werk gehen.

Üblicherweise beziehen sich die Latenz Angaben bei Mischpulten auf die Zeit, die ein Signal benötigt, um von einem analogen Eingangskanal zum analogen Summenausgang zu gelangen. Dieser Vorgang wird auch „RTL“ genannt, die Abkürzung für „Round Trip Latency“. Die tatsächliche RTL eines Audio Interfaces hängt von vielen Faktoren ab: Die Art der Schnittstelle (USB, Thunderbolt, AVB oder DANTE), der Performance des Recording Computers, das verwendete Betriebssystem, die Einstellungen der Soundkarte/Audiointerface und die des Recording Projektes (Samplerate, Anzahl an Audio & Midi-Spuren, Plugin Auslastung) und die Signallaufzeiten der verwendeten Wandler. Daher ist es nicht einfach, die reale Performance verschiedener Audio Interfaces in Puncto Latenz miteinander zu vergleichen.

Es kommt auf den Einzelfall an!

Eine hohe Gesamtlaufzeit in einer DAW muss nicht zwingend problematisch sein. Manches hängt vom eigenen Workflow ab. Selbst mit der Buffersize von 512 Sample aus unserem Einstiegsbeispiel lässt sich problemlos recorden. Die DAW spielt die Backing Tracks ab zu denen wir Overdubs aufnehmen. Dabei spielt Latenz keine Rolle. Kritisch wird es im Studiobereich erst, wenn man die DAW auch für das Ausspielen von Kopfhörermixen nutzt oder man VST Instrumente oder VST Gitarren Plug-Ins anspielen möchte, um diese auf die Festplatte zu bannen. In diesem Fall macht sich eine zu hohe Latenz in einem verzögerten Kopfhörermix und einem indirekten Spielgefühl bemerkbar.

In diesem Fall wird man die Latenz seiner DAW nach unten korrigieren müssen. Eine Faustregel, ab wann Latenz das Spielgefühl oder die Abhörsituation negativ beeinflusst, gibt es nicht. Da reagiert jeder Musiker individuell. Manche kommen mit einem Versatz von zehn Millisekunden klar, während andere sich schon bei 3 oder 4 Millisekunden unwohl fühlen.

Der Versatz

Schall legt in einer Sekunde 343 Meter zurück, was 34,3 Zentimetern pro Millisekunde entspricht. Besagte zehn Millisekunden entsprechen daher einer Wegstrecke von 3,43 Metern. Erinnert Ihr euch noch an den letzten Club Gig? Ihr steht rockend am Bühnenrand mit der Gitarre in der Hand, während der Gitarren Amp drei bis vier Meter hinter euch thront. Das entspricht einer Signallaufzeit von 10-12ms. Daher sollte für die meisten Anwender eine Buffersize zwischen 64 und 128 Samples, niedrig genug sein, um VST-Instrumente anzuspielen oder Kopfhörer Mixe direkt in der DAW zu erstellen.

Es sei denn, Ihr verwendet Plug-Ins, die selbst eine hohe Latenz verursachen! Die meisten modernen DAW Programme verfügen über einen automatischen Latenzausgleich, der alle Kanäle und Busse dem Plugin mit der höchsten Laufzeit anpasst. Das hat den Vorteil, dass alle Kanäle und Busse phasenkohärent arbeiten und es somit zu keinen Audio Artefakten (Kammfiltereffekten) kommt. Der Nachteil liegt in der hohen Gesamtlatenz.

Manche Plugins wie z.B. Faltungshall oder Linearphasige EQs haben teilweise deutlich höhere Latenzen. Sind diese dann im Monitoring wirkt sich das auch mit einer kleinen Buffersize sofort hörbar aus. Nicht alle DAWs zeigen Plugin Latenzen an, auch Plugin Hersteller halten sich eher bedeckt, was diesen Punkt betrifft.

Erste Hilfe

Zwei Direktmaßnahmen bei störender Latenz haben wir jetzt schon kennengelernt. Eine weitere ist das Abhören über das Hardware Monitoring, welches das Audio Interface zur Verfügung stellt.

RME Audio Interfaces bringen beispielsweise die Total Mix Software mit zum Job. Diese erlaubt ein low latency monitoring mit Bordmitteln. Je nach Interface sogar mit EQ, Dynamics und Reverb. Anstatt über die DAW oder die Hardware des Interfaces abzuhören, kann man die DAW Projekt Summe oder Stems alternativ in einen analogen Mixer schicken und dort das Aufnahmemikro zusammen mit den DAW Signalen analog mit null Latenz abhören. Arbeitet man ausschließlich in der DAW, dann hilft es die Sample Rate zu erhöhen und/oder die Buffersize zu verkleinern. Beides bürdet der Computer CPU eine deutliche Last auf.

totalmix config 1 1500x630 1
RME Total Mix Low Latency Monitoring

Je nach der Größe des DAW Projekts und der verbauten CPU kann es hier schneller zu Engpässen kommen. Steht kein anderer Computer mit mehr Rechenleistung zur Verfügung, kann es helfen in dem DAW Projekt CPU-hungrige Plugins zu ersetzen oder auf Bypass zu stellen. Alternativ rechnet man Plugins in Audiodateien ein, oder friert Spuren ein.

Die guten alten Tage

Moderne Probleme erfordern moderne Lösungen? Manchmal kann auch der Blick zurück helfen.

Nicht immer ist es von Vorteil alles flat und ohne Processing aufzunehmen. Mix Entscheidungen, wie ein aufgenommener Track letztlich klingt, wird dadurch in die Zukunft verschoben. Warum nicht mal wie in den analogen Tagen sich auf einen Sound festlegen und diesen direkt auf die Festplatte bannen? Wer Angst hat, vielleicht einen Gitarren Sound aufzunehmen, der sich später im Mixdown als Problemkind erweist, der kann eine zusätzliche cleane DI-Spur für späteres Re-Amping recorden.

Keyboards und Synthesizer lassen sich live einspielen und als Audiospur festhalten, was die Latenz Problematik ebenfalls umschifft. Warum nicht während des Trackings bereits Signale mit Processing aufnehmen? Das beschleunigt jede Produktion und kommen analoge Produkte wie die Unsere zum Einsatz, braucht man sich, um die Latenz keine Gedanken zu machen.

Stehen Gesangsaufnahmen auf dem Stundenplan, versucht doch mal das Signal schon während der Aufnahme mit einem guten Kompressor wie dem mpressor moderat zu verdichten oder versucht es gleich mit einem elysia skulpter. Bei Letzterem gibt es zu den klassischen Preamp Möglichkeiten noch einige schöne und praktische Soundshaping Funktionen wie z.B. Filter, Sättigung und Kompressor und du hast so also quasi einen kompletten Channel Strip. Sind Spuren schon mit analogem Processing aufgenommen, spart diese Vorgehensweise auch wiederum einiges an CPU Leistung beim Mixen. Besonders bei vielen Vocal – Overdub Spuren werden somit unnötig viele Plugins benötigt, was wiederum zu einer Änderung der Buffersize führt und folglich die Latenz negativ beeinflusst.

Was ist Audiolatenz und warum tritt sie bei analogen Setups nicht auf?

Latenz tritt bei jeder digitalen Wandlung (AD oder DA) auf. Latenz macht sich in Audiosystemen als Signallaufzeit bemerkbar. Im analogen Bereich ist die Situation klar: Die Signallaufzeit vom Eingang bis zum Ausgang eines analogen Mischers ist immer Null. Latenzen gab es nur bei den zusammengesetzten Midi-Geräten, wo externe Synthesizer oder Sampler über Midi eingebunden wurden. In der Praxis war dies kein Problem, da die gesamte Abhörsituation immer analog blieb und somit keine Latenz hörbar war. Bei digitalen Mischpulten oder Audio-Interfaces hingegen gibt es immer eine Verzögerung zwischen Eingang und Ausgang. Die Latenz kann verschiedene Ursachen haben, zum Beispiel die unterschiedlichen Signallaufzeiten verschiedener Wandlertypen. Je nach Typ und Bauart benötigt ein Wandler mehr oder weniger Zeit, um das Audiosignal zu verarbeiten. Aus diesem Grund werden in Mischpulten und Recording-Interfaces immer gleiche Wandlertypen in den gleichen Modulen (z. B. Eingangskanäle) verwendet, damit die Module untereinander die gleiche Signallaufzeit haben. Wie wir noch sehen werden, ist die Latenz innerhalb eines digitalen Mischpults oder Aufnahmeaufbaus keine feste Größe.

Was ist eine Round Trip Latenz

Typischerweise bezieht sich die Mixer-Latenz auf die Zeit, die ein Signal für den Weg von einem analogen Eingangskanal zum analogen Summenausgang benötigt. Dieser Vorgang wird auch als “RTL” bezeichnet, was eine Abkürzung für “Round Trip Latency” ist. Die tatsächliche RTL eines Audio-Interfaces hängt von vielen Faktoren ab: Dem Typ des Interfaces (USB, Thunderbolt, AVB oder DANTE), der Leistungsfähigkeit des Aufnahmerechners, dem verwendeten Betriebssystem, den Einstellungen der Soundkarte/des Audiointerfaces und denen des Aufnahmeprojekts (Samplerate, Anzahl der Audio- & Midispuren, Plugin-Last) und den Signalverzögerungen der verwendeten Wandler. Daher ist es nicht einfach, die tatsächliche Leistung verschiedener Audio-Interfaces in Bezug auf die Latenz zu vergleichen.