Digitales Video NewMedia FHTW-Berlin, Universität Linz

Digitales Video

Im Rahmen von New Media (was ja insbesondere den Einsatz von sogenannten "neuen" Medien meint) ist der Einsatz u.a. von Video, genauer gesagt digitalem Video, ein wichtiger Punkt. Zur Begründung seien nur die beiden Modebegriffe Video on demand und Pay per view ins Feld geführt.

Folgende Standards sind in diesem Dokument erwähnt:


MPEG

MPEG steht für Moving Pictures Experts Group und bezeichnet eine Gruppe von Personen der ISO, also der International Standards Organisation, die sich um die Standardisierung von Digitalem Video und Audio Komprimierung kümmern.

Bisher sind folgende Standards verabschiedet worden bzw. in Planung:

Die MPEG-Gruppe trifft sich regelmäßig 4mal im Jahr für eine Woche, in den Zwischenzeiten wird bereits ein Großteil der Arbeit erledigt, so daß nicht alles bei den Treffen besprochen wird. Die Aufgabe bei den Treffen besteht hauptsächlich in der Koordinierung und Verteilung der Arbeit der einzelnen Arbeitsgruppen. Der offizielle Name der Gruppe: ISO/IEC JTC1 SC29 WG11 (IEC=International Electro-technical Commission, JTC1=Joint Technical Commitee 1, SC29=Sub-commitee 29 und WG11=Work Group 11 (moving pictures with audio)) - alles klar?

Zur MPEG gehören viele der weltweit führenden Unternehmen der Branchen EDV, Telekommunikation und Unterhaltungselektronik.

Grundsätzliche Eigenschaften:

Eine gute Übersicht über MPEG (daraus wurden hier auch z.T. die Informationen gewonnen) findet sich bei Frank Gadegast in der TU Berlin.

zum Seitenanfang

MPEG 1

Seit Ende 1991 regelt der Standard ISO 11172 die Codierung von Bewegtbildern und dazugehörigem Audio für digitale Speichermedien mit einer Übertragungsrate von bis zu 1.5MBit/s.

Um ein Bild in Truecolour und VGA-Qualität abzulegen, werden ca. 1MB an Speicherplatz benötigt. Für die Erzeugung eines Videos braucht man 25 Bilder/Sekunde (PAL-Norm). Damit liegt der insgesamt Speicherbedarf bei 27 MB/Sekunde - das ist technisch nicht realisierbar. Daher müssen Kompressions-Algorithmen eingesetzt werden. Die in MPEG verwendete Codierung beruht auf JPEG. Zusätzlich wird ausgenutzt, daß bei einer Reihe von Bildern ein hoher Anteil gleichbleibt. MPEG unterscheidet 3 verschiedene Bildarten:

I-Frames (Intraframes)
Diese Bilder entsprechen dem JPEG-komprimierten Bild
P-Frames (Predicted Frames)
Vorhergesagte Bilder aus der Differenzrechnung
B-Frames (Bidirectional Frames)
Mittelbilder, die aus dem vorhergehenden und nachfolgenden I- und P-Frames errechnet worden sind
Hier befindet sich eigentlich ein Bild über die Frame-Typen

Der Abstand zwischen zwei I-Frames kann variieren, liegt aber i.d.R. zwischen 10 und 15 Bildern. Ebenso kann auch der Abstand zwischen zwei P-Frames unterschiedlich sein. Für gewöhnlich liegt jedes zwölfte Bild als I-Frame vor

Jedes Frame (also sowohl I- als auch P- und B-Frames) besteht wieder aus 3 Planes, und zwar für eines für die Luminanz und zwei für die Chrominanz. Jedes Plane wiederum besteht aus 8x8 Pixel großen Makroblöcken.

Hier befindet sich eigentlich ein Bild über den Aufbau von Frames

Merkmale von MPEG 1:

zum MPEG-Verzeichnis

MPEG 1 Audio

Im MPEG 1 Standard wird für den Audio-Teil folgendes festgelegt: Vier mögliche Arten der Codierung gibt es: Eine Codierung für Monosignale, eine für zwei Mono-Kanäle (z.B. für Zweikanalton-Sendungen) und zwei für Stereosignale. Das Eingangssignal wird in 32 Teilbänder zerlegt und in Abstimmung mit den Wahrnehmungseigenschaften des menschlichen Gehörs codiert. Zur Quantisierung und Codierung wird die Diskrete Fourier-Transformation (DFT) verwendet.

zum MPEG-Verzeichnis

MPEG 1+

MPEG 1+ ist kein echter Standard. Es ist im Prinzip MPEG 1 Codierung mit MPEG 2 Auflösung. Das Ergebnis sind Datentransferraten von 3.5 bis 5.5 MBit/s.

Eingesetzt werden soll es u.a. für Video-on-demand.

zum MPEG-Verzeichnis

MPEG 2

Seit Ende 1994 gibt es den Standard ISO 13818, der die generische Codierung von Bewegtbildern und synchronisiertem Audio regelt.

Dieser Standard regelt die Parameter für die Aufzeichnung und Übertragung von Fernsehprogrammen in Studioqualität und schließt auch hochauflösendes Fernsehen (HDTV) mit ein (durch die sog. Scalability ist sowohl das Format 4:3 als auch 16:9 möglich). MPEG 2 ist keine direkte Weiterentwicklung von MPEG 1, sondern ein komplett neuer Standard mit anderer Zielsetzung.

Merkmale von MPEG 2:

zum MPEG-Verzeichnis

MPEG 2 Audio

Für die Audio-Signale regelt der MPEG 2 Standard folgendes:
zum MPEG-Verzeichnis

MPEG 4

Dieser Standard steckt noch in den Anfängen. Dabei geht es um hochwertiges Bildtelefon über ISDN und Funktelefon.

zum MPEG-Verzeichnis

M-JPEG

M-JPEG (Motion JPEG) basiert auf JPEG, einem Kompressionsverfahren für Standbilder. M-JPEG ist dabei aber nicht standardisiert und somit verwendet jeder Hersteller eines Dekoders ein etwas anderes Verfahren, was die unterschiedlichen Qualitäten erklärt.

Der JPEG-Algorithmus verwendet eine Transformation, die das gezielte Weglassen oder Reduzieren der 'unwichtigen' Informationen (starke Helligkeitsänderungen über kurze Strecken) erlaubt. Das ganze basiert auf der DCT (Diskrete Cosinus-Transformation), einem Spezialfall der Fourier-Transformation.

Das Bild wird in 8x8 Pixel große Blöcke aufgeteilt, und jeder Block wird für sich transformiert und dann komprimiert. Als Ergebnis erhält man 8x8 reele Frequenzwerte, die ein Maß für die im Bildausschnitt enthaltenen Informationen darstellen. Dabei beschreibt der erste Koeffizient (linke obere Ecke) die mittlere Helligkeit des gesamten Blockes und wird als DC-Koeffizient bezeichnet. In ihm befinden sich also die wichtigsten Bildinformationen und daher wird er verlustfrei abgespeichert. Je weiter man sich von diesem Punkt entfernt, desto feinere Strukturen des Bildes werden beschrieben. Während der DCT ist der JPEG noch verlustfrei. Die Daten befinden sich jetzt in einem linearen Feld (also Vektor).

Der Informationsverlust tritt im nächsten Schritt auf, bei der Quantisierung. Nur in den ersten Felder des Vektors sind Werte, die nicht Null sind, der Rest ist oftmals nahe bei oder genau Null. Nun wird entschieden, welche Werte davon noch beötigt werden und welche nicht. Dazu werden die Koeffizienten durch eine Konstante dividiert und dann abgerundet.

Der letzte Schritt ist die Binärkodierung. Dazu wird gewöhnlich ein Huffman-Kodierer oder ein arithmetischer Kodierer verwendet.

Die Dekompression verläuft analog umgekehrt - natürlich lassen sich die Verluste, die man sich bei der Quantisierung eingehandelt hat, bei der Dequantisierung nicht rückgängig machen.

JPEG ist in erster Linie für Standbilder entwickelt worden. Dennoch arbeiten heutzutage die meisten Schnittsysteme mit diesem Verfahren, weil es sich im Vergleich mit MPEG wesentlich einfacher in Hardware realisieren läßt und einen direkten Zugriff auf einzelne Bilder ermöglicht.

zum Seitenanfang

Wavelet

Das Kompressionsverfahren ist ähnlich dem von JPEG. Die eigentliche Transformation läuft hier über DWT (Diskrete Wavelet Transformation), danach geschieht wieder eine Quantisierung und dann ein Kodierung.

Was ist nun also der Unterschied? Im Gegensatz zu DCT transformiert DWT das gesamte Bild, und nicht 8x8 Pixelblöcke. daher macht es auch Sinn, die Transformation mehrfach anzuwenden, um schrittweise die Datenmenge so weit zu begrenzen, wie man es auf Kosten der Qualität noch verantworten kann.


prev up next <= home autor send mail post mail help
© Torsten Buller, created: 1995-10-17, modified:1996-01-25