Kompetenzerwartung: Verständnis für den Unterschied zwischen MIDI und Audio
Lerninhalt: Fachbegriffe rund um Midi und Audio in einer DAW (Digital Audio Workstation)
Voraussetzungen: keine
Anmerkungen: Einheit im Rahmen einer Multimedia-Einführung
MIDI und Audio
Download: Unterrichtseinheit als PDF-Datei
Was ist Midi?
Midi ist die Abkürzung für Musical Instrument Digital Interface und bezeichnet eine Hardware-Schnittstelle, ein binäres Speicherformat sowie ein Protokoll, das Steuerinformationen enthält, die es elektronischen Geräten wie beispielsweise Keyboards, Synthesizern und virtuellen Instrumenten ermöglicht, zusammen zu arbeiten. Da technische Definitionen leider meist abstrakt sind, soll ein Beispiel den Sachverhalt veranschaulichen:
Stellen Sie sich Midi wie eine Kutsche vor. Würden Sie in einer Kutsche sitzen und irgendwo hin fahren wollen, wären sie im übertragenen Sinn Steuerinformationen. Doch diese Steuerinformationen könnten nichts bewirken, wenn z.B. ein Kutscher fehlt oder keine Pferde da wären. Und Ihre Steuerinformationen würden auch nichts bewirken, wenn Sie nur deutsch könnten, der Kutscher hingegen nur chinesisch verstehen würde. Ein Protokoll könnte nun festlegen, in welcher Sprache Sie mit dem Kutscher reden müssen, damit er Sie versteht. Der Kutscher wiederum kann Ihre Befehle nur dann umsetzen, wenn Pferde vor die Kutsche gespannt sind, die seine Befehle ausführen können. Aus diesem Bild lassen sich alle Informationen entnehmen, um Midi zu verstehen.

Ein Midi-Signal kann beispielsweise aus den Anweisungen Note an/aus (Note On/Off), Tonhöhe C3 und Anschlagstärke 75 (Velocity) bestehen. Midi-Signale verfügen dabei über 128 Werte, d.h. Befehle können Werte aus dem Bereich zwischen 0 bis 127 annehmen. MIDI-Dateien (mit der File-Extension *.mid) können darüber hinaus zahlreiche Spuren enthalten, wobei durch den geringen Speicherbedarf der Midi-Austausch zwischen Geräten bzw. Programmen sehr einfach ist. Die Eingabe von Midiinformationen erfolgt über einen sog. Controller (z.B. ein Midi-Keyboard), die Midi-Ausgabe über ein sog. Instrument (Hardware- oder virtuelles Instrument).
Was ist Audio?
Beim Thema Audio wird zwischen analogen und digitalen Tonsignalen unterschieden. Ein analoges Tonsignal besteht aus Schallwellen bzw. Schwingungen, die wir hören und manchmal auch sehen können (z.B. an den Saiten eines Instruments oder an Lautsprechermembranen). In der Luft lassen sich Schallwellen als Folge von Druckänderungen vorstellen (Verdichtung-Verdünnung), die der Mensch in einem bestimmten Bereich (16 und 20.000 Hz) wahrnehmen und in neuronale Impulse umwandeln kann. Analoge Musik kann z.B. auf Schallplatten gespeichert, über einen Tonabnehmer in ein elektrisches Signal verwandelt, über einen Verstärker verstärkt und über Lautsprechermembranen wieder in Schalldruck umgewandelt werden.

Analoge Tonsignale werden zur Verarbeitung heute meist in digitale Tonsignale umgewandelt (analog -> digital = A/D-Wandlung). Dazu werden analoge Signale gerastert und letztendlich über einen Encoder als lange Kette in binäre Zahlen übersetzt. Solche aus Zahlen bestehende Objekte werden auch als BLOBs (Binary Large Objects) bezeichnet. Um eine binäre Zeichenfolge wieder in ein Audioformat zurück zu verwandeln (bzw. zu dekodieren), wird ein Decoder benötigt, der zu dem Encoder ›passt‹, mit dem die Audiodatei ursprünglich in die binäre Zeichenkette kodiert worden ist. Encoder und Decoder bilden einen sogenannten Codec. Bei Audioformatem wird zwischen verlustfreien und verlustbehafteten Formaten unterschieden. Ein verlustfreies Format ist beispielsweise WAV-Format, ein verlustbehaftetes MP3-Format.
Fachchiesisch
Bei einer AD-Umwandlung werden also analoge Signale (mehrere tausend Mal in der Sekunde) von dem A/D-Wandler abgetastet und in eine binäre Zahlenkombination gespeichert (jeder Speichervorgang eines akustischen Ereignisses heißt Sample). Die Anzahl der Samples pro Sekunde wird dabei als Samplingrate bezeichnet. Je höher also die Samplingrate ist, desto feiner ist die Abtastung des analogen Signals. Beim Abspielen eines Audio-Files dreht sich dieser Prozess um: alle Samples werden über einen D/A-Wandler (digital -> analog = D/A-Wandlung) transformiert und über einen Line-out-Ausgang als analoges Signal ausgegeben (also zuerst als elektrisches Signal, das dann verstärkt über Lautsprechermembranen in Schalldruckwellen umgewandelt wird). Abtastraten werden pro Sekunde gemessen: 1 Hertz ist eine Abtastung pro Sekunde. Die Radioqualität liegt bei ungefähr 22.000 Hz (also 22.000 Abtastungen pro Sekunde), für eine CD-Qualität werden 44.100 Hz benötigt und in Studioqualität wird sogar mit **96.000 Hz gearbeitet.
Wozu brauche ich das Wissen?
Wenn Sie in einer DAW (= Digital Audio Workstation) arbeiten, benötigen Sie das Wissen andauernd. Legen Sie zum Beispiel eine MIDI-Spur an, wissen Sie natürlich, dass Sie noch ein Instrument benötigen, um überhaupt etwas hören zu können. Oder für den Fall, dass Sie eine Audiospur anlegen, wissen Sie, dass Sie mit unkomprimierten Audiofiles arbeiten müssen. Und dass Sie gleich zum Beginn für Ihr ganzes Projekt eine Samplingrate (bzw. Samplerate) angeben sollten, müsste Ihnen auch klar sein, oder?