Kompetenzerwartung: Verständnis für den Unterschied zwischen MIDI und Audio
Lerninhalt: Fachbegriffe rund um Midi und Audio in einer DAW (Digital Audio Workstation)
Voraussetzungen: keine
Anmerkungen: Einheit im Rahmen einer Multimedia-Einführung

MIDI und Audio

Download: Unterrichtseinheit als PDF-Datei

Was ist MIDI?

MIDI ist die Abkürzung für Musical Instrument Digital Interface und bezeichnet eine Hardware-Schnittstelle, ein binäres Speicherformat sowie ein Protokoll, das Steuerinformationen enthält, die es elektronischen Geräten wie beispielsweise Keyboards, Syn­thesizern und virtuellen Instrumenten ermöglicht, zusammen zu arbeiten. Da technische De­finitionen leider meist abstrakt sind, soll ein Beispiel den Sachverhalt veranschaulichen:
Stell dir Midi wie eine Kutsche vor. Würdest du in einer Kutsche sitzen und irgendwo hin fahren wollen, wären dies im übertragenen Sinn Steuerinformationen. Doch diese Steuerinformationen könnten nichts bewirken, wenn z.B. ein Kutscher fehlt oder keine Pferde da wären. Und deine Steuer­infor­mationen würden auch nichts bewirken, wenn du nur Deutsch könntest, der Kutscher hingegen nur Chinesisch ver­stehen würde. Ein Protokoll könnte nun festlegen, in welcher Sprache du mit dem Kutscher reden müsstest, damit er dich versteht. Der Kutscher wiederum kann deine Befehle nur dann umsetzen, wenn Pferde vor die Kutsche gespannt sind, die seine Befehle ausführen können. Aus diesem Bild lassen sich alle Informationen entnehmen, um Midi zu verstehen.

Ein Midi-Signal kann beispielsweise aus den Anweisungen Note an/aus (Note On/Off), Tonhöhe C3 und Anschlagstärke 75 (Velocity) bestehen. Midi-Signale verfügen dabei über 128 Werte, d.h. Befehle können Werte aus dem Bereich zwischen 0 und 127 annehmen. MIDI-Dateien (mit der File-Extension *.mid) können darüber hinaus zahlreiche Spuren enthalten, wobei durch den geringen Speicherbedarf der Midi-Austausch zwischen Geräten bzw. Programmen sehr einfach ist. Die Eingabe von Midi-Informationen erfolgt über einen sog. Controller (z.B. ein Midi-Keyboard), die Midi-Ausgabe über ein sog. Instrument (Hardware- oder virtuelles Instrument).

Was ist Audio?

Beim Thema Audio wird zwischen analogen und digitalen Tonsignalen unterschieden. Ein ana­loges Tonsignal besteht aus Schall­wel­len bzw. Schwingungen, die wir hören und manchmal auch sehen können (z.B. an den Saiten eines Instruments oder an Laut­spre­chermembranen). In der Luft lassen sich Schallwellen als Folge von Druckänderungen vorstellen (Verdichtung-Ver­dün­nung), die der Mensch in einem bestimmten Bereich (16 und 20.000 Hz) wahr­nehmen und in neuronale Impulse umwandeln kann. Analoge Musik kann z.B. auf Schallplatten gespeichert, über einen Tonab­nehmer in ein elektrisches Signal verwandelt, über einen Verstärker verstärkt und über Laut­sprechermembranen wieder in Schalldruck umge­wan­delt werden.

Analoge Tonsignale werden zur Verarbeitung heute meist in digitale Tonsignale umgewandelt (analog → digital = A/D-Wandlung). Dazu werden analoge Signale gerastert und letztendlich über einen Encoder als lange Kette in binä­re Zahlen übersetzt. Solche aus Zahlen beste­hen­de Ob­jekte wer­den auch als BLOBs (Binary Large Objects) bezeich­net. Um eine binäre Zeichenfolge wieder in ein Audioformat zurück zu verwandeln (bzw. zu dekodieren), wird ein Decoder benötigt, der zu dem Encoder ›passt‹, mit dem die Audiodatei ursprünglich in die binäre Zeichenkette kodiert worden ist. Encoder und Decoder bilden einen sogenannten Codec. Bei Audioformatem wird zwischen verlustfreien und verlustbehafteten Formaten unterschieden. Ein verlustfreies Format ist beispielsweise WAV-Format, ein verlustbehaftetes MP3-Format.

Fachjargon

Bei einer AD-Umwandlung werden also analoge Signale (mehrere tausend Mal in der Sekunde) von dem A/D-Wandler abgetastet und in eine binäre Zahlenkombination gespeichert (jeder Spei­cher­vorgang eines akustischen Ereignisses heißt Sample). Die Anzahl der Samples pro Sekunde wird dabei als Samplingrate bezeichnet. Je höher also die Samplingrate ist, desto feiner ist die Abtastung des analogen Signals. Beim Abspielen eines Audio-Files dreht sich dieser Prozess um: Alle Samples werden über einen D/A-Wandler (digital -> analog = D/A-Wandlung) transformiert und über einen Line-out-Ausgang als analoges Signal ausgegeben (also zuerst als elektrisches Signal, das dann verstärkt über Lautsprechermembranen in Schalldruckwellen umgewandelt wird). Abtastraten werden pro Sekunde gemessen: 1 Hertz ist eine Abtastung pro Sekunde. Die Radioqualität liegt bei ungefähr 22.000 Hz (also 22.000 Abtastungen pro Sekunde), für eine CD-Qualität werden 44.100 Hz benötigt und in Studioqualität wird sogar mit 96.000 Hz gearbeitet.

Wozu brauche ich das Wissen?

Wenn du in einer DAW (= Digital Audio Workstation) arbeitest, benötigst du dieses Wissen an­dauernd. Legst du zum Beispiel eine MIDI-Spur an, weißt du natürlich, dass du noch ein Instrument be­nötigst, um überhaupt etwas hören zu können. Oder für den Fall, dass du eine Audiospur anlegst, weißt du, dass du mit unkomprimierten Audiofiles arbeiten musst. Und dass du gleich zum Beginn für dein ganzes Projekt eine Samplingrate (bzw. Samplerate) angeben solltest, müsste dir auch klar sein, oder?