4:2:0

  • gudd'n dach, ich hätt da ma gerne ein problem ...


    Weiß jemand, ob beim 4:2:0 Farbsampling eines DV-Signals die Reduktion des V-Signals in eine bestimmte Richtung definiert ist?
    Also - findet die Reduktion vertikal und horizontal statt?


    (Wußte nicht so recht, in welches Forum mit diesem Posting, hab nach sowas wie "Technik" gesucht ...)

  • Hi Marco,


    >>(Wußte nicht so recht, in welches Forum mit diesem Posting, hab nach sowas wie "Technik" gesucht ...)<<


    bist hier schon richtig, geht ja um Bits und Bites (kein Schreibfehler! *g*)


    Allerdings weiß ich darauf keine Antwort.


    Mit bissigen (bites) Grüßen
    Tom

  • Zitat aus Slashcam:
    http://www.slashcam.de/multi/Glossar/_Buchstabe__4.html#2
    >>4:2:0:
    Das Luminanzsignal wird mit 13,5 MHz abgetastet. Bei der Abtastung der Farbdifferenzsignale macht man sich zu nutze, dass das menschliche Auge in vertikaler Richtung eine erheblich geringeres Auflösungsvermögen besitzt als in der Horizontalen. Abwechselnd wird eine Bildzeile im Verhältnis 4:2:2 und die darauffolgende Zeile im Verhältnis 4:0:0 digitalisiert. Zeilen, für die keine Farbinformation aufgezeichnet wurde, übernehmen das Farbsignal der darüberliegenden Zeile.


    Oder mal wieder einfacher ausgedrückt: Hierbei wird das Farbsignal in jeder zweiten Zeile überhaupt nicht abgetastet, und in jeder ersten nur halb so oft wie das Luminanzsignal, was die Datenrate im Vergleich zur 4:2:2-Abtastung nocheinmal deutlich reduziert. Die 4:2:0 Abtastung wird im PAL-DV Standard verwendet. Daher benötigt Digital Video trotz einer 5:1 Kompression weniger Speicherplatz (ca.3,5 MB/sec) als das ähnliche MJPEG-Verfahren. Dieses benötigt bei gleicher Kompression mit 4:2:2 Abtastung ca. 4,4 MB/sec bei PAL-Vollbild (786 x 576 Pixel). <<


    Könnte gut sein, daß das der Grund für die horizontalen Sägelinien bei schrägen Kanten ist. :richter: (Suche eigentlich nach einem Smilie, das sich mit fremden Federn schmückt)


    Federgeschmückte Grüße

  • Alexander & Günther, danke für Eure Infos!


    Die Frage nach dem Sampling habe ich tatsächlich in Verbindung zu dem anderen Thread gestellt, wo es um das Blue-Boxing mit VegasVideo geht.


    Nun habe ich die gleichen Bilder aber auch mal mit meiner DV-Schnittsoftware CineStream gestanzt. Dort gibt es definitiv keine Tricks wie Interpolation zur Verbesserung des Keyings. Aber dort gibt es ein solches Sägezahnmuster NICHT.
    Und wenn ich in VegasVideo das Bild um 90 Grad drehe, bevor ich das Keying anwende, dann bleiben diese Linien dennoch horizontal.
    Beides halte ich für einen Hinweis, dass dieses Sägezahnmuster, so extrem wie es sich hier darstellt, nicht vom 4:2:0-Sampling kommt, sondern durch irgendeinen besonderen Prozess innerhalb von VV erzeugt wird, vielleicht eben durch diese Interpolation.


    Mmh ...

  • Sorry, Marco, den anderen Thread kannte ich nicht, hab jetzt kurz nachgelesen.


    Wenn es aber in Cinestream diesen Sägezahn-Effekt nicht gibt, dann geh ich doch sehr davon aus, dass dieses Programm intern mit 4:2:2 arbeitet. Genauso geschieht es nämlich auch bei Canopus. Normalerweise wird nativ mit 4:2:0 gearbeitet. Kommt es aber zu einer Berechnung (eben zB durch Keying), dann wird der komprimierte DV-Strom (wie ihn die Kamera liefert) entpackt und alle Änderungen werden mit der Samlpingrate 4:2:2 berechnet.


    So hab ich mir das zumindest von Herrn Stephan Kexel (seines Zeichens Geschäftsführer von Canopus Deutschland) seinerzeit erklären lassen, als ich danach gefragt habe, was es mit der internen Samplingrate von 4:2:2 bei Canopus auf sich hat.

  • Hallo Günther,


    ich hatte das Thema 4:2:0 auch mit Absicht von dem anderen Thread getrennt, weil ich erstmal etwas 'Grundlagenforschung' betreiben wollte.


    Die Sache mit dem 4:2:2-Sampling beim Keying mit CineStream, das könnte tatsächlich so sein. Was ich dabei aber dann nicht verstehen würde:
    Eine Farbinformation, die durch 4:2:0-Sampling quasi herausgefiltert wurde, die kann man doch nicht durch ein nachträgliches 4:2:2-Sampling wiederherstellen, oder?


    Ich wollte aber generell hier nochmal posten, dass Ihr beide es richtig dargelegt hattet. Es hängt tatsächlich doch direkt mit dem PAL-DV zusammen.
    Ich habe mir nämlich jetzt mal in einer Graphiksoftware einen Kreis mit Farbverlauf auf blauem Hintergrund erstellt, den als BMP abgespeichert und das BMP in VegasVideo importiert.


    Der Kreis als BMP ist unauffällig.
    Der Kreis als PAL-DV gerendert zeigt Sägezähne und zwar deutlich HORIZONTAL.
    Der Kreis als NTSC-DV gerendert zeigt Sägezähne und zwar deutlich VERTIKAL.


    Nach dem Keying ändert sich an diesem Muster gar nichts. Von Interpolation weit und breit nichts zu sehen, weder bei der PAL-, noch bei der NTSC-Variante ...

  • Hallo Marco, zum Glück hab ich den Thread aus dem Canopus-Forum wieder gefunden. Hier erklärt Herr Kexel das ganze Mysterium genauer:
    http://www.forumexperts2.com/c…iewid=1936&mode=all&row=0


    Der entscheidende Absatz ist:


    Im Unterschied zu MPEG oder MJPEG arbeitet die DV-Komprimierung nicht nur mit "Weglassen" von Informationen die das Auge sowieso nicht wahrnimmt sondern auch durch einen rein Rechnerichen Teil. Wenn man also Daten duch einen Faktor teilt damit dieser Zahlenwert kleiner wird (komprimierung) kann man genausogut diesen Wert später durch multiplizieren mit dem selben Faktor wieder in den ursprünglichen Wert wandeln (dekomprimieren).


    Sind einfach Pixel weggelassen worden um das Signal zu verkleinern kann man die Pixel später wieder hinzufügen indem man eine Diffrenzbildung der Nachbarpixel kalkuliert. Auch das bekommt das Auge nicht mit! Man hat aber dann Pixel zum Keying die bei einem 4:2:0 Signal überhaupt nicht vorhanden sind.


    Wohlgemerkt funktioniert obiges nur bei einem DVSignal da dieses mit einer festen Struktur komprimiert wird. MPEG oder MJPEG arbeitet da ganz anders, aber das ist auch ein ganz anderes Thema.


    Stephan Kexel
    Canopus GmbH Deutschland

  • Ich erinnere mich da an einen Clubabend (schon länger her), an dem ein Gastredner einen Vortrag über das Thema "Multiprocessing mit PAL-DV" hielt. Er war damals der Meinung, dass man - wenn in einem Video viele Multi-Pass- oder Multi-Layer-Effekte verwendet werden - vor der Bearbeitung das DV-Material auf ein niedrigkomprimierendes MJPEG-System umkopieren sollte. Diese Vorgehensweise würde manchem zwar zunächst etwas überzogen erscheinen, vom technischen Standpunkt aus gesehen würde sie jedoch durchaus Sinn machen, da MJPEG wegen des damit verbundenen 4:2:2-Farbsamplings das bessere Farbverhalten biete.


    Ich hatte dem Herrn damals die gleiche Frage gestellt: kann man denn die beim 4:2:0 fehlenden Farbanteile wieder rekonstruieren? Er hatte das so erklärt, dass dabei einfach jede zweite Zeile in die vorherige "hineingerechnet" wird und dadurch zwar keine originale, jedoch eine ziemlich gute Rekonstruktion möglich sei. Diese Erklärung würde in etwa auch mit dem Posting von Alex und Günthers letzter Erklärung übereinstimmen.


    Wenn heute Schnittsysteme wie CineStream und Canopus tatsächlich jede veränderte Szene vor dem Berechnen in 4:2:2 umwandeln, würde dies ebenfalls mit o.a. Theorie zusammenpassen - nur dass heutzutage eben das generelle vorherige Umkopieren des gesamten Materials wegfallen kann.


    Gesampelte Grüsse
    Wiro

  • Ich glaube, hier geraten ein paar Sachen durcheinander.


    Zitat

    Im Unterschied zu MPEG oder MJPEG arbeitet die DV-Komprimierung nicht nur mit "Weglassen" von Informationen die das Auge sowieso nicht wahrnimmt sondern auch durch einen rein Rechnerichen Teil. Wenn man also Daten duch einen Faktor teilt damit dieser Zahlenwert kleiner wird (komprimierung) kann man genausogut diesen Wert später durch multiplizieren mit dem selben Faktor wieder in den ursprünglichen Wert wandeln (dekomprimieren).


    Die DV-Kompression hat mehrere Bestandteile. Einmal die Farbreduktion auf 4:2:0. Dieser Vorgang ist an sich NICHT reversibel.
    Dann eine mathematische Transformation, um Energiewerte in ein räumliches Raster zu bringen, die zwar mathematische Rundungsfehler mit sich bringt, die aber als reversibel und verlustfrei gilt.
    Dem folgt die Quantisierung, die verlustbehaftet ist, und dem folgt der letzte Schritt, der als vollkommen verlustfrei und reversibel gilt und bei dem quasi Wörter zusammengefasst werden, was dann zu der eigentlichen Datenreduktion bei DV führt.


    Grob spricht man sowohl bei M-JPEG als auch bei DV von einer Kombinatioin aus Redundanzreduktion, also Daten, die für eine verlustfreie Darstellung gar nicht gebraucht werden, und einer Irrelevanzreduktion, bei der Daten weggelassen oder vereinfacht werden, die für die subjektive Wahrnehmung nicht von Bedeutung sind.
    Diese Redundanzreduktion ist aber bei DV und bei MJPEG vom gleichen Prinzip. Denn das ist dieser erste Schritt zur Transformation der Daten und dieser letzte Schritt für Kürzung der Wörter.


    Die Unterschiede zwischen MJPG und DV sind zum einen die verschiedene Farbreduktion, dann aber auch die Tatsache, dass bei MJPEG jedes 8x8-Raster einzeln vollständig berechnet werden muss, bei DV werden aber 8x8-Raster verglichen und zusammengefasst, bzw. genähert.
    Ausserdem arbeitet DV mit einer Voranalyse von Bildern, so dass bei einem Umschnitt gewährleistet ist, dass auch schon das erste Bild möglichst Artefaktfrei codiert wird. Das geht bei MJPG nicht, weshalb man dort bei Einzelbildanalysen - gerade bei niedrigen Datenrate - oft beim ersten Bild nach einem Umschnitt eine mehr oder minder starke Artefaktbildung hat.
    Ausserdem arbeitet DV im Gegensatz zu MJPG mit einer Halbbild-Analyse und Halbbilder, die voneinander stark abweichen, werden dann optimiert codiert.
    Andere Unterschiede zwischen MJPG und DV gibt es meines Wissens nicht.


    Wenn nun also infolge des 4:2:0-Samplings Pixel wegfallen, können die nach meinem Verständnis nicht durch 4:2:2-Sampling wieder rekonstruiert werden, denn dieser Prozess des 4:2:0-Samplings ist Bestandteil der Irrelevanzreduktion, wo man Daten weglässt oder vereinfacht, die für die subjektive Betrachtung nicht von Bedeutung sein sollen.


    Wenn nun aber eine Signalverbesserung an Farbkanten dadurch erreicht wird, dass man benachbarte Zeilen vergleicht und aus dieser Differenz eine Ergänzung von Pixeln möglich wird, dann ist das erst mal nicht dem 4:2:2-Sampling zu verdanken, sondern es ist eine Interpolation.
    Das 4:2:2-Sampling ermöglicht es jedoch, diese durch Interpolation ergänzten Informationen zu erhalten.
    Was ich dann aber wieder nicht verstehe:
    Dieses Signal wird ja letztlich wieder nach YUV-DV rekomprimiert, also wieder zu einem 4:2:0-Signal.
    Da müsste doch dann eigentlich auch wieder das Ausgangsproblem erkennbar sein???


    Aber z.B. bei CineStream ist das Ergebnis nach Keying tatsächlich besser als bei VV.

    Einmal editiert, zuletzt von Avalon ()

  • Zitat

    Ich hatte dem Herrn damals die gleiche Frage gestellt: kann man denn die beim 4:2:0 fehlenden Farbanteile wieder rekonstruieren? Er hatte das so erklärt, dass dabei einfach jede zweite Zeile in die vorherige "hineingerechnet" wird und dadurch zwar keine originale, jedoch eine ziemlich gute Rekonstruktion möglich sei.


    Das ist das einzige, was für mich an Verbesserungsmaßnahmen als logisch erscheint. Nur, warum bleibt dieses Hineinrechnen von Zusatzinformationen erhalten, wenn dann wieder nach DV recomprimiert wird?

  • Auch dies erscheint mir durchaus logisch.


    Beim Rekomprimieren nach DV wird ja nicht etwa der identische ursprüngliche Zustand der Bilder wieder hergestellt, sondern jedes Bild wird - mitsamt den neuen Informationen - vollständig neu in 4:2:0 umgerechnet. Da das "Quellmaterial" während des Keyings eine "höhere Qualität" hatte (jede Zeile eine vollständige Cr- und Cb-Farbinformation), profitiert die erneute Wandlung davon und lässt die Kanten glatter erscheinen. Um wieviel "glatter" das ist, hängt von den jeweiligen Rundungsfehlern beim Hoch- und Herunterrechnen ab.


    Man kann dies am Beispiel Einzelbildbearbeitung in guten Grafikprogrammen in etwa nachvollziehen. Wenn man ein 8-Bit-Farbbild - dem ja True-Color-Farbinformationen fehlen - mit einem Keyer behandeln will, rechnet man es vorher in ein 24-Bit-Bild um. Die vorhandenen Farbwerte werden dadurch zwar nicht zahlreicher, der Keyer (oder Antialiaser) hat jedoch mehr "Farbspielraum" zur Verfügung, um Kanten zu glätten. Wenn man nach dem Keying das Bild wieder in 8-Bit zurückrechnet, ist die Kanten-Qualität zweifellos besser, als wenn man alles im 8-Bit-Modus gemacht hätte. Aus diesem Grund lässt z.B. mein Grafikprogramm (Picture Publisher) ein Keying im 8-Bit-Modus gar nicht zu, sondern verlangt eine vorherige Umwandlung in 24-Bit. Zumindest so ähnlich ist es auch bei den "upper-class" Videosystemen - sie rechnen intern von Hause aus im 4:2:2-Modus und verbessern damit automatisch die Render-Qualität. Vielleicht hinkt der Vergleich etwas, der Effekt ist jedoch identisch.


    Gerenderte Grüsse
    vom Wiro

  • Irgendwie muss das wohl stimmen, sonst wären die praktischen Ergebnisse mit den Systemen, die in YUV rendern nicht so deutlich anders.


    Jetzt muss ich dazu aber mal dumm fragen:


    Wieso ist denn dann das Rendering in RGB nicht sogar noch besser, denn RGB bedeutet doch auch 4:4:4-Sampling, oder?

  • Da überforderst Du mich, Avalon. Ich gehe davon aus, dass dies von Spezial-Spezialisten längst vielhundertmal "ausprobiert" wurde. Mit 4:4:4 hätten wir ja wieder das "Grundproblem" der Videobearbeitung, nämlich die viel zu hohe Datenrate. Mir fällt dazu eine Diskussion mit einem Techniker bei Deinem Konkurrenzunternehmen ZDF ein, der sagte, dass er erst dann zufrieden sei, wenn Video in 4:4:4 bearbeitet und gesendet werden könne. So einfach scheint das jedoch nicht zu funktionieren, sonst wäre diese Herausforderung längst gelöst.


    Gruss aus dem Ahrtal
    Wiro

  • Ich glaube, ich habe das falsch und missverständlich formuliert.
    Was ich meinte war, dass doch ohnehin bei jedem Rendering das DV-Signal zunächst vom komprimierten DV in ein unkomprimiertes RGB-Signal gewandelt werden muss, bzw. bei manchen Systemen ist es eben ein unkomprimiertes 4:2:2 YUV-Signal, weil man an einem komprimierten DV-Signal selbst ja keine Bildveränderungen durchführen kann.
    Wenn nun aber der "Normalzustand" innerhalb des Renderings unkomprimiertes RGB ist, dann kann doch im Vergleich dazu eigentlich unkomprimiertes YUV keinen Vorteil mehr haben.
    Nach dieser Decompression nach RGB oder 4:2:2 YUV wird ja dann das Signal wieder zurück nach 4:2:0 DV gewandelt.


    Ich hab das mal zur Sicherheit getestet. Es macht tatsächlich auch keinen Unterschied, wenn ich zuerst das DV nach unkomprimiert RGB rendere, dann diese unkomprimierte Datei in die Timeline lege und dort dann das Keying anwende.


    Oder begehe ich da einen Denkfehler, wenn ich davon ausgehe, dass unkomprimiert oder decomprimiert gleichzeitig auch 4:4:4 RGB, bzw. 4:2:2 YUV bedeutet?

  • Vielleicht liest ja der eine oder andere unserer Codec-Spezialisten mit und kann dazu ein paar erklärende Worte abgeben? Würde mich freuen.


    Gruss Wiro

  • Ich bin ja absolut kein Codec-Spezialist, aber irgendwie hab ich halt den Eindruck,daß Du Farbinformationen, die Du durch die Kompression "verschliffen" hast, also für mehrere Pixel verwendest, als ursprünglich der Fall war, nicht wieder zurückgewinnen kannst. Du hast dort halt dann eine Mischfarbe, die, so nehme ich an, beim Keying halt entweder der Keyfarbe oder dem Rest zugeteilt wird. Ob sie dafür auf die Pixel aufgeteilt ist oder nicht ändert doch nichts daran?

  • Die Reduktion der Farbinformation durch das 4:2:0-Signal gehört noch nicht zur eigentlichen Kompression, wenn es auch das erste Hilfsmittel darstellt, womit ein DV-Signal Daten einspart.


    Hier das, was ich in der Fachzeitschrift "FKT" Nr. 6/1999 nachlesen konnte:




    Nun gut, das ist eine Basis, erklärt aber immer noch nicht, warum ein 4:2:2-Rendering von 4:2:0-DV-Material besser ist als ein 4:4:4-RGB-Rendering.
    Was mich an diesem Artikel aufhorchen ließ, dass war der Part, wo beschrieben wird, dass 4:1:1-Signale, also NTSC-DV, horizontal reduzieren und 4:2:0-Signale, also PAL-DV, vertikal.
    Bei unseren Renderergebnissen sieht das ja genau umgekehrt aus ...


    Ich lese mal weiter (und hoffe, dass ich mit diesen Postings nicht wieder die Psychoanalytiker beschwöre ... ;-))