Sprache oder Musik wird in der Regel durch PCM (pulse code modulation) codiert. Diese Codierung wurde breits während der 60er Jahre für die Digitalisierung des Telefonnetzes eingesetzt.
Bei PCM sind zwei unterschiedliche
Übertragungsraten üblich:
Neben PCM existiert eine Erweiterung von PCM. Diese Erweiterung DPCM (differential pulse code modulation) nutzt das in der Regel das sehr stetige Verhalten von Sounddaten. Da keine sehr steilen Lautstärkeschwankungen entstehen, und statt dessen zwischen den einzelnen Samples vergleichsweise geringe Änderung vorhanden sind, wird bei DPCM nur die Differenz zum vorhergehenden Signalwert übertragen. Hierdurch kann bereits eine Kompression auf 32.000 KBit/Sekunde erreicht werden.
ADPCM ist eine weitere Ergänzung
von DPCM, die längerfristige Entwicklungen des Soundsignals noch intensiver
berücksichtigt.
Ein weiterer Ansatz zur Soundkompression
stellt die Spektralanalyse dar. Ähnlich wie die DCT bei der Bildkompression
einen Macroblock in seine einzelnen Frequenzen zerlegt hat, kann dies auch
bei Soundkompression eingesetzt werden. Statt dem eigentlichen Signal wird
dann nur die stationäre Frequenzverteilung und ihre entsprechende
Gewichtung gespeichert.
Neuere Verfahren:
Beim Mobilfunk war von Anfang an eine sehr hohe Kompressionsrate erwünscht. Somit wurde ein sehr effizientes Soundkompressionsverfahren entwickelt, daß sehr genau die spezifischen Eigenschaften der menschlichen Sprache berücksichtigt. Somit wurde es möglich die menschliche Sprache mit einer Datenrate von 13KBit/Sekunde zu übertragen.
Da dieses Verfahren eine sehr hohe Komplexität hat, wird hier verzichtet dies ausführlich zu beschreiben.
Eine Beispielimplementierung
der GSM Sprachcodierung und einige theoretische Grundlagen werden in .
Gerade bei derartigen Kompressionsverfahren
sind herkömliche Prozessoren nicht mehr einsetzbar, und somit werden
auch in diesem Bereich sehr häufig spezielle Signalprozessoren eingesetzt.
Nächstes
Kapitel:
Ausblick
in die Zukunft: Kompressionsverfahren