Kompetenzerwartung: Verständnis für den Unterschied zwischen MIDI und Audio
Lerninhalt: Fachbegriffe rund um Midi und Audio in einer DAW (Digital Audio Workstation)
Voraussetzungen: keine
Anmerkungen: Einheit im Rahmen einer Multimedia-Einführung

MIDI und Audio

Download: Unterrichtseinheit als PDF-Datei

Was ist Midi?

Midi ist die Abkürzung für Musical Instrument Digital Interface und bezeichnet eine Hardware-Schnittstelle, ein binäres Speicherformat sowie ein Protokoll, das Steuerinformationen enthält, die es elektronischen Geräten wie beispielsweise Keyboards, Syn­thesizern und virtuellen Instrumenten ermöglicht, zusammen zu arbeiten. Da technische De­finitionen leider meist abstrakt sind, soll ein Beispiel den Sachverhalt veranschaulichen:
Stellen Sie sich Midi wie eine Kutsche vor. Würden Sie in einer Kutsche sitzen und irgendwo hin fahren wollen, wären sie im übertragenen Sinn Steuerinformationen. Doch diese Steuerinformationen könnten nichts bewirken, wenn z.B. ein Kutscher fehlt oder keine Pferde da wären. Und Ihre Steuer­infor­mationen würden auch nichts bewirken, wenn Sie nur deutsch könnten, der Kutscher hingegen nur chinesisch ver­stehen würde. Ein Protokoll könnte nun festlegen, in welcher Sprache Sie mit dem Kutscher reden müssen, damit er Sie versteht. Der Kutscher wiederum kann Ihre Befehle nur dann umsetzen, wenn Pferde vor die Kutsche gespannt sind, die seine Befehle ausführen können. Aus diesem Bild lassen sich alle Informationen entnehmen, um Midi zu verstehen.

Ein Midi-Signal kann beispielsweise aus den Anweisungen Note an/aus (Note On/Off), Tonhöhe C3 und Anschlagstärke 75 (Velocity) bestehen. Midi-Signale verfügen dabei über 128 Werte, d.h. Befehle können Werte aus dem Bereich zwischen 0 bis 127 annehmen. MIDI-Dateien (mit der File-Extension *.mid) können darüber hinaus zahlreiche Spuren enthalten, wobei durch den geringen Speicherbedarf der Midi-Austausch zwischen Geräten bzw. Programmen sehr einfach ist. Die Eingabe von Midiinformationen erfolgt über einen sog. Controller (z.B. ein Midi-Keyboard), die Midi-Ausgabe über ein sog. Instrument (Hardware- oder virtuelles Instrument).

Was ist Audio?

Beim Thema Audio wird zwischen analogen und digitalen Tonsignalen unterschieden. Ein ana­loges Tonsignal besteht aus Schall­wel­len bzw. Schwingungen, die wir hören und manchmal auch sehen können (z.B. an den Saiten eines Instruments oder an Laut­spre­chermembranen). In der Luft lassen sich Schallwellen als Folge von Druckänderungen vorstellen (Verdichtung-Ver­dün­nung), die der Mensch in einem bestimmten Bereich (16 und 20.000 Hz) wahr­nehmen und in neuronale Impulse umwandeln kann. Analoge Musik kann z.B. auf Schallplatten gespeichert, über einen Tonab­nehmer in ein elektrisches Signal verwandelt, über einen Verstärker verstärkt und über Laut­sprechermembranen wieder in Schalldruck umge­wan­delt werden.

Analoge Tonsignale werden zur Verarbeitung heute meist in digitale Tonsignale umgewandelt (analog -> digital = A/D-Wandlung). Dazu werden analoge Signale gerastert und letztendlich über einen Encoder als lange Kette in binä­re Zahlen übersetzt. Solche aus Zahlen beste­hen­de Ob­jekte wer­den auch als BLOBs (Binary Large Objects) bezeich­net. Um eine binäre Zeichenfolge wieder in ein Audioformat zurück zu verwandeln (bzw. zu dekodieren), wird ein Decoder benötigt, der zu dem Encoder ›passt‹, mit dem die Audiodatei ursprünglich in die binäre Zeichenkette kodiert worden ist. Encoder und Decoder bilden einen sogenannten Codec. Bei Audioformatem wird zwischen verlustfreien und verlustbehafteten Formaten unterschieden. Ein verlustfreies Format ist beispielsweise WAV-Format, ein verlustbehaftetes MP3-Format.

Fachchiesisch

Bei einer AD-Umwandlung werden also analoge Signale (mehrere tausend Mal in der Sekunde) von dem A/D-Wandler abgetastet und in eine binäre Zahlenkombination gespeichert (jeder Spei­cher­vorgang eines akustischen Ereignisses heißt Sample). Die Anzahl der Samples pro Sekunde wird dabei als Samplingrate bezeichnet. Je höher also die Samplingrate ist, desto feiner ist die Abtastung des analogen Signals. Beim Abspielen eines Audio-Files dreht sich dieser Prozess um: alle Samples werden über einen D/A-Wandler (digital -> analog = D/A-Wandlung) transformiert und über einen Line-out-Ausgang als analoges Signal ausgegeben (also zuerst als elektrisches Signal, das dann verstärkt über Lautsprechermembranen in Schalldruckwellen umgewandelt wird). Abtastraten werden pro Sekunde gemessen: 1 Hertz ist eine Abtastung pro Sekunde. Die Radioqualität liegt bei ungefähr 22.000 Hz (also 22.000 Abtastungen pro Sekunde), für eine CD-Qualität werden 44.100 Hz benötigt und in Studioqualität wird sogar mit **96.000 Hz gearbeitet.

Wozu brauche ich das Wissen?

Wenn Sie in einer DAW (= Digital Audio Workstation) arbeiten, benötigen Sie das Wissen an­dauernd. Legen Sie zum Beispiel eine MIDI-Spur an, wissen Sie natürlich, dass Sie noch ein Instrument be­nötigen, um überhaupt etwas hören zu können. Oder für den Fall, dass Sie eine Audiospur anlegen, wissen Sie, dass Sie mit unkomprimierten Audiofiles arbeiten müssen. Und dass Sie gleich zum Beginn für Ihr ganzes Projekt eine Samplingrate (bzw. Samplerate) angeben sollten, müsste Ihnen auch klar sein, oder?

Lizenz: CC BY-SA 3.0 DE
Quelle: elmu.online, Artikel »MIDI und Audio«, https://elmu.online'/articles/midi-und-audio, 9.12.2019, 4:40
Bearbeitungen durch: Jonas Meier, ulrich-kaiser