Tonbearbeitung

Dialog Edit, Tonschnitt, Audio Restauration, Mixdown und Mastering für Broadcast / EBU, TV und Kino.

Tonbearbeitung München

Tonbearbeitung findet an einer Digital Audio Workstation (kurz DAW) statt, ein computergestütztes System für Tonaufnahme, Musikproduktion, Abmischung und Mastering, das sich durch eine hohe Integration von Komponenten innerhalb des Systems auszeichnet. Es ist ein Verbund digitaler Geräte zur digitalen Aufzeichnung und Verarbeitung von Schallsignalen. „Digital Audio Workstation“ ist die ursprüngliche Bezeichnung für Harddisk-Recording-Geräte, als HD-Recording mittels PC oder Mac – zum Beispiel mit Pro Tools – noch nicht möglich war. Die ersten DAWs zur Tonbearbeitungs waren HD-Recorder wie der Fairlight CMI. Heute nennt man PCs und Macs mit entsprechender Hardware (hochwertige Audiokarte) und Musiksoftware auch DAWs.

Grundlagen der Tonbearbeitung

Zur Tonbearbeitung können externe Geräte analoger und digitaler Natur (Röhrenkompressoren, Bandmaschinen, Nachhall, Verzögerung = Delay usw.) durch interne digitale Bausteine emuliert bzw. ersetzt werden. Diese Bausteine werden als Plug-ins, zum Beispiel VST-Modul oder Audio Unit, für einen Software-Host bereitgestellt. Durch die entstehende Minimalisierung sinken die Anschaffungskosten bei gleichzeitiger Leistungssteigerung. Trotzdem findet man heute in den meisten Tonstudios eine Kombination von DAW zur Tonbearbeitung und externen, zumeist analogen Geräten, um die Vorteile beider Verfahren gleichermaßen auszunutzen.
Die DAW hat besonders durch den enormen Anstieg von Prozessorleistung und angepasster Befehlssätze große Verbreitung gefunden. So kann man heutzutage selbst mit einem kostengünstigen Rechner, mit relativ geringem Materialaufwand, professionell klingende Musikproduktionen erstellen.

Arbeit mit der DAW

Mit einer DAW zur Tonbearbeitung arbeitet man üblicherweise nicht-linear und nicht-destruktiv. Nicht-linear bedeutet, dass man im Gegensatz zur Arbeit mit einem Tonband mühelos jede Stelle eines Projektes in beliebiger Reihenfolge bearbeiten kann. Das geschieht auf nicht-destruktive Weise, es wird also kein Audiomaterial verändert oder gar zerstört, sondern man arbeitet lediglich mit Verweisen auf das Material, sogenannten Regionen, die in einer Wiedergabeliste arrangiert und bearbeitet werden. Durch eine hohe grafische Auflösung kann mit einer Genauigkeit von einem Sample geschnitten werden. Die Arbeit hat so auch eine hohe visuelle Komponente, da man sich nicht mehr nur auf das Hören, wie beim Schnitt an der Bandmaschine, sondern auch auf den optischen Eindruck verlässt. Sämtliche Veränderungen können rückgängig gemacht werden.

Systeme

Bei den DAWs gibt es im Wesentlichen zwei verschiedene Systeme, stand-alone und host-basierte:

Stand-alone-Systeme

Eigenständige Audio-Systeme wie AMS-Audiofile, Fairlight oder Sonic Solutions, deren Hardware in einem eigenen Rechner untergebracht ist, der ausschließlich für die Audio-Aufzeichnung und -Tonbearbeitung zuständig ist. Dazu gibt es, etwa bei Fairlight, eine Fernbedienung, die durch spezielle Tasten und ein Jog Shuttle eine einfache und schnelle Bedienung des Systems ermöglicht. Die Vorteile von solchen Systemen sind extrem hohe Betriebssicherheit und eine einfache Bedienung, weswegen Fairlight beim öffentlich-rechtlichen Rundfunk verbreitet ist. Dabei sind Stand-alone-Systeme allerdings auch extrem teuer.

Host-basierte Systeme

Hier übernimmt ein Desktop-Computer die Rolle eines „Hosts“ (Gastgebers) für die Software und Hardware. Dadurch sind die Kosten relativ gering, das System ist leicht erweiter- oder umrüstbar, bietet aber auch nur eine geringe Betriebssicherheit, die von dem verwendeten Betriebssystem (üblicherweise Mac OS X oder Microsoft Windows 7) abhängt. Die DAWs können je nach Ausbaustufe an verschiedene Einsatzbereiche angepasst werden.

Es gibt zwei Arten der host-basierten Systeme, native und DSP-Systeme.

Native Systeme bestehen aus einem Computer mit Audio-Software, dessen Prozessor die komplette Tonbearbeitung aller Signale übernimmt. Dadurch ist diese Lösung sehr preiswert und man kann verschiedene Software-Applikationen wie Logic Pro oder Pro Tools abwechselnd verwenden. Ältere leistungsschwächere CPUs stoßen dabei aber auch leicht an ihre Grenzen, da der Computer nicht nur für die Audio-Bearbeitung, sondern auch für andere Prozesse Rechenleistung verwenden muss, weswegen native Systeme eher in Heimstudios verbreitet sind, deren Budget keine aufwändigere Lösung zulässt. Durch die technische Weiterentwicklung der CPUs (zum Beispiel die i7-Generation), Solid-State-Drive-Festplatte und des Arbeitsspeichers können auch native Systeme aktuell eine sehr gute Leistung vorweisen.
DSP-Systeme haben integrierte DSP-Karten, auf denen von eigenen Prozessoren die Audio-Tonbearbeitung erledigt wird. Die CPU des Rechners bleibt so frei für die üblichen Aufgaben wie Grafik-Darstellung. Ein DSP-System ist wesentlich teurer als ein natives System, aber dafür auch deutlich leistungsfähiger.

Leistung

In jeder DAW zur Tonbearbeitung ist die Leistung eines Systems abhängig von der Prozessorleistung beziehungsweise -geschwindigkeit. Folglich sollte die CPU so schnell wie möglich sein. Außerdem ist es von Vorteil, einen sehr großen Arbeitsspeicher (RAM) zu verwenden. Ein schnelles und leistungsfähiges System kann viele Plugins einsetzen und eine hohe Anzahl an Spuren gleichzeitig abspielen. Ferner ist es ratsam, Audio nicht auf der Systemfestplatte aufzunehmen. Bei Verwendung von Festplatten sollte für die Aufnahmen eine separate Festplatte zur Verfügung stehen, bei Verwendung von Solid State Drives spielt dies keine Rolle. Ein wichtiges Kriterium ist außerdem die Lautstärke der Hardware. So sind ein lüfterloses Netzteil, ein geräuschdämmendes Festplattengehäuse oder der vollständige Verzicht auf Festplatten und Ersatz durch geräuschlose SSDs und sehr leise CPU- und Systemlüfter empfehlenswert. Da bei leistungsstärkeren Systemen die Lautstärke zunimmt (zum Beispiel Zusatzlüfter zur Kühlung der Hardware, laute Grafikkarten, etc.), können diese Systeme auch in einem klimatisierten, schalldichten Serverschrank untergebracht werden.

Funktionen und Funktionseinteilung

Die Benutzerschnittstelle einer DAW besteht meistens aus mehreren Programmfenstern, die unter anderem ein virtuelles Mischpult beinhalten. Hier werden die Spuren/Kanäle mit Einschleif- und Ausspielwegen, der Bus-Zuweisung, Panoramaregler, Solo- und Mute-Tasten und der Fader dargestellt. Sämtliche Parameter können mit der Maus verändert werden. Eine Automation ist ebenfalls möglich. Manche Programme lassen sich auch über eine externe Fernsteuerung bedienen (Pro Tools, Logic, Cubase, Samplitude, etc.). Diese ähnelt einem konventionellen Mischpult und erleichtert so die analoge Anpassung der digitalen Werte.

Standard DAW

Eine DAW die normale Anwendungen im Audiobereich durchführen kann (Aufnahme, Audioschnitt).

Spezial DAW

Eine DAW die nur einen speziellen Aufgabenbereich abdeckt (nur Aufnahme, nur Audioschnitt, nur Sound-Design, etc.)

Advanced DAW

Eine DAW mit der alle Anwendungsmöglichkeiten realisiert werden können (Aufnahme, Audioschnitt, Mischen, Mastering, Videovertonung, uvm.).

Freie/Open Source DAWs

Ardour, Audacity, Audiotool, Linux MultiMedia Studio, MusE, Qtractor, Rosegarden, Traverso DAW, Ubuntu Studio, Chaotic, DarkWave Studio, Frinika, Macaw, Musagi, Open Octave, Psycle, PyDAW, Jeskola Buzz, MuLab-Free

Kommerzielle DAWs

  • Ableton Live
  • ACID Pro
  • Adobe Audition
  • AMS Neve Audiofile SCX
  • Apple Logic Pro
  • Bitwig Studio
  • Cakewalk Sonar
  • Chaotic Daw
  • Digital Performer
  • FL Studio
  • GarageBand
  • MadTracker
  • Magix Music Maker
  • Magix Samplitude Music Studio
  • MAGIX Samplitude
  • MAGIX Sequoia
  • Mixcraft
  • Monkey Tools
  • MU.LAB (freie version auch)
  • MultitrackStudio
  • Hindenburg Journalist (speziell für die Bedürfnisse von Radioreportern zugeschnitten)
  • n-Track Studio
  • Orion Platinum
  • PreSonus Studio One
  • Pro Tools
  • Propellerhead Reason
  • Pyramix
  • REAPER
  • Record
  • Renoise
  • SAWStudio
  • Steinberg Cubase
  • Steinberg Nuendo
  • Tracktion
  • Usine
  • Zynewave Podium
  • Z-Maestro

Abmischung

Abmischung (engl. „mixing“ oder „mixdown“) ist in der Musikproduktion die Zusammenfügung aller analog oder digital bearbeiteten einzelnen Tonspuren zu einer Einheit, dem Summensignal (engl. „stem“). Es handelt sich um den vorletzten Prozess im Tonstudio, dem nur noch das Mastering folgt. Beim Film wird unter Abmischung im weiteren Sinne die gegenseitige Abstimmung der Tonspuren (Dialoge, Geräusche, Musik, Soundeffekte und Effektgeräusche) und im engeren Sinne die Mischung der vielen Toninformationen zu einem Masterband und die Verbindung der Tonspuren mit der Masterkassette verstanden.

Abmischungsphasen in der Popmusik

Ist bei allen Tonspuren das letzte Take aufgenommen, können in einer weiteren Phase alle selektierten Tonspuren zu einer Einheit zusammengefügt werden. Hierdurch soll ein natürlich klingender, ausgewogener und kommerziell verwertbarer Gesamtklang erreicht werden. Beim Mixing werden die Lautstärken der einzelnen Tonspuren aufeinander angepasst und diese im Stereopanorama rechts und links oder auf einem Kanal verteilt. Insbesondere wird die Balance der Pegel zwischen Rhythmusgruppe, Hintergrundinstrumenten und Hintergrundgesang sowie Leadinstrumenten und -gesang festgelegt. Der Mixing-Engineer kann die Musik so abbilden, wie sie auf einem Konzert klänge (etwa Schlagzeug und Sänger in der Mitte, Bass daneben und Gitarren an den Seiten). Es gibt jedoch auch Abmischungen mit komplexen Soundcollagen, bei denen von vorneherein feststeht, dass sie bei Live-Auftritten nicht mehr reproduzierbar sind (etwa Teile der Beatles-LP Sgt. Pepper’s Lonely Hearts Club Band).

Nachbearbeitung

Es gibt die nicht-additive und die additive Klangbearbeitung. Bei der nicht-additiven geht es um Stummschaltung einzelner Tonspuren (mute) oder Lautstärkeanpassung der Spuren (Pegel). Die additive Klangbearbeitung findet im Rahmen der Postproduktion (Nachproduktion; „post-production“) statt. Hier können die einzelnen Tonspuren mit Soundeffekten bearbeitet werden. Diese sorgen einerseits dafür, dass jedes Instrument als solches wahrgenommen werden kann und andererseits das Musikstück als Einheit entsteht. Der Equalizer schafft mehr Raum für andere Tonspuren und arbeitet den Charakter eines Instruments stärker heraus. Nachhall oder Kompression sorgen dafür, dass der Song zu einer Einheit reift. Der Mixing-Prozesses findet seinen Abschluss darin, dass das Musikstück auf eine einzige Stereospur (mit jeweils einem Kanal links und einem rechts) zusammengefasst wird. Es ergibt sich daraus ein fertig synchronisierter Musiktitel, der als Grundlage für das Mastertape dient. Insgesamt wird beim Abmischen die musikalische Balance hergestellt und die klangliche Gestaltung abgeschlossen.

Tonmeister

Der Tonmeister (oder „mixing engineer“) bedient sich bei der Abmischung eines Mischpultes (Konsole), das für jede Tonspur eigene Regelungsmöglichkeiten vorsieht. Heutige computergestützte Konsolen ermöglichen auch die Ausführung komplexer Klanggebilde. So sorgte Chefingenieur Lawrence Thomas Horn bei Motown Records für die endgültige Abmischung. Deren Ergebnis wurde freitags dem Labelinhaber Berry Gordy im Rahmen der „Quality Control“ vorgelegt und begutachtet, bevor es zum Mastering kam. Wesentliches Kriterium war die Filterung des Klangs, damit durch das belassene Spektrum der Obertöne Residualtöne entstanden.[8] Die Abmischung durch den Tonmeister oder Musikproduzent war und ist in deshalb der Pop- und Rockmusik im Hinblick auf die Klangqualität als eigenständiges ästhetisches Gestaltungsmittel von größter Bedeutung. Tonmeister und Musikproduzent können während der Abmischung teilweise in komponistenähnliche Aufgaben hineinwachsen.

Film

Als Mischung (engl. „mix“ oder „re-recording“) wird bei der Filmproduktion der Prozess bezeichnet, bei dem aus den verschiedenen Toninformationen, die bei der Entstehung eines Films zustande kamen, ein Masterband hergestellt wird. Hierfür werden insbesondere Atmosphäre, Originalton, Synchronisation oder Soundeffekte zusammengeführt. Als Vormischung („premix“) wird die Zusammenführung mehrerer Spuren des gleichen Tontyps (Geräusch, Sprache, Musik) bezeichnet, Endmischung („final mix“) ist die Zusammenführung der vorgemischten Spuren mit den Musikspuren.

Abgrenzung

Im engeren Sinn gehört die Abmischung bereits zur Postproduktion (Nachbearbeitung). Zur Postproduktion zählen bei der Musikproduktion alle Vorgänge, die zwischen dem Ende der Musikaufnahmen und der Auslieferung des fertigen Masterbandes liegen. Auch das an das Mixing anschließende Audio Mastering ist Teil der Nachbearbeitung.
In der Phasengliederung einer Filmproduktion sind Nachproduktion sämtliche Vorgänge, die zwischen dem Ende der Dreharbeiten und der Auslieferung des fertigen Films liegen. Das während der Dreharbeiten entstandene Film- und Tonmaterial wird geordnet und geschnitten, bild- und tontechisch bearbeitet, Spezialeffekte eingefügt, die Farben korrigiert, der Ton angelegt sowie die Kopierwerksarbeiten koordiniert, überwacht und kontrolliert.


Der Text dieser Seite dient als Platzhalter und basiert auf den Artikeln Digital_Audio_Workstation und Abmischung aus der freien Enzyklopädie Wikipedia und stehen unter der Lizenz Creative Commons CC-BY-SA 3.0 Unported (Kurzfassung). In der Wikipedia ist eine Liste der Autoren von Digital_Audio_Workstation und Abmischung verfügbar. Bildquelle: freerangestock.com
2018 Tonmenschen | Sounddesign : Made in Munich Sounddesign München : Klanggestaltung von Soundlogos, Soundeffekte für In-Game, Trailer, Werbung und Cooperate Musikproduktion München : Musik für Videospiele, Jingels für Firmen, Score für Film ... Konzeption, Komposition und Arrangement Audioprogrammierung München : Middleware und Engine Integration, Procedural Audio für Videospiele, MIDI-Programmierung und Sound-Patches Tonbearbeitung München : Dialog Edit, Tonschnitt, Audio Restauration, Mixdown und Mastering für Broadcast / EBU, TV und Kino Game Audio München : Game Sound, Interactive Audio und Musik entlang der Game Development Pipeline