• Hallo,
    ich habe zum Thema Codec von Sonic Foundry keine so sachliche informationen bekommen. Ich möchte wissen wie der Codec richtig arbeitet. Benutzt der Codec die sämtliche Bandbreite von 0 - 255 (wie canopus?) oder eher begrenzt ?
    Wäre sehr dankbar für nähere infos.


    Grüße aus Berlin
    Halis

  • Der SonicFoundry-DV-Codec benutzt die komplette "Bandbreite" von 0 - 255. Ein DV-Videosignal wird hier also in keinster Weise im Luminanz- oder Farbraum
    beschnitten oder komprimiert, wie das manch andere DV-Codecs tun.


    In dieser Hinsicht arbeitet der SonicFoundry-DV-Codec also exakt genauso wie der Canopus-Codec.


    Welche andere Fragen hättest Du denn noch zu diesem Codec?

  • Marco, du bist ein echter Freak !!!! Mein kompliment ! Hast du irgend eine Homepage, wo man deine Weisheiten studieren kann ?!?!?! :richter:


    "Nicht verzagen, Marco fragen"


    Grüße aus Berlin
    Halis

  • Du meinst eine Art "Homepage der Philosophie". Das wär's!


    ;)


    Danke für das Lob. Allerdings ist es mehr oder minder Zufall, dass ich der erste war, der auf Deine Frage geantwortet hat. Es gibt etliche andere, die ähnliche "Weisheiten" auf Lager haben ...


    Eine Homepage zu VegasVideo ist in Arbeit. Ich hoffe nur, die wird auch irgendwann mal fertig ;(


    Hier nochmal die Info zu der Frage, die Du im anderen Forum gestellt hast:


    Der SonicFoundry-Codec arbeitet im Gegensatz zum Canopus-Codec NICHT im 4:2:2 YUV-Farbraum, sondern IMMER in RGB.
    Allerdings kenne ich keine Anwendung, bei der das letztlich von Nachteil für den SonicFoundry-Codec wäre, auch nicht das Chroma-Keying.

  • Zitat

    Original von Avalon


    Der SonicFoundry-Codec arbeitet im Gegensatz zum Canopus-Codec NICHT im 4:2:2 YUV-Farbraum, sondern IMMER in RGB.


    mal ne dumme Frage von einem Anfänger:
    lässt sich der Unterschied 4:2:2 zu RGB einfach und verständlich erklärt irgendwo nachlesen?
    Gibt es ein besser oder schlechter?

  • Uwe, das ist eine sehr gute Frage! - Hab schon oft danach gesucht, aber nichts gefunden, was mir den Unterschied wirklich plausibel erklären würde.


    Also generell ist mir das durchaus klar.
    RGB meint ein Videosignal, bei dem der Farbraum ohne Reduktionen abgetastet wird, also alle Farbanteile Rot, Grün und Blau werden mit gleicher Frequenz abgetastet.
    Beim YUV-Signal werden dagegen die Farbdifferenzsignale U und V nur mit halber Frequenz gegenüber dem Y-Signal abgetastet. Dieses Verfahren ist im Grunde genommen irreversibel, aber gleichzeitig auch irrelevant, da dabei das menschliche Auge diese Farbreduktion gar nicht wahrnehmen kann.


    Soviel zum grundsätzlichen Unterschied.
    Aber welche Rolle das nun beim Rendering eines DV-Signals spielt - da muss ich passen.
    PAL-DV ist ein 4:2:0-Signal, also ein YUV-Signal, dessen Farbraum nochmals reduziert wurde. Auch irreversibel und bis an die Grenzen der Irrelevanz gehend.
    Was kann dabei nun vorteilhaft sein, wenn dieses 4:2:0-Signal im 4:2:2-, anstatt im 4:4:4-Farbraum gerendert wird?????


    Angeblich ist es aber von Vorteil, sagen alle Produkthersteller von Bearbeitungssoftware, die dieses Rendering im 4:2:2-Raum durchführen.
    Und tatsächlich erfährt man auch einen Vorteil bei Avid und Canopus, die dieses 4:2:2-Rendering anwenden, wenn man z.B. Chroma-Keying macht, denn dort scheinen fehlende Farbinformationen durch Interpolation (wenigstens schätzend) wiederhergestellt zu werden.
    Nur - meines Wissens hat die Umwandlung eines 4:2:0-Signals in ein 4:2:2-Signals erstmal überhaupt gar nichts mit der Interpolation von benachbarten Farbinformationen zu tun! Das mag ein ZUSÄTZLICHES Feature sein, dass die ihrem Codec beigepackt haben, aber doch keine Eigenschaft eines 4:2:2-Signals!?


    Letztlich lässt sich dann das, was bei solchen Programmen z.B. beim Chroma-Keying mit der Interpolation erreicht wird, bei VegasVideo mit einem gezielten Farbkanal-Blurring erreichen.

    Einmal editiert, zuletzt von Avalon ()

  • Tja,
    ich dachte immer dass der RGB Raum für die Schnittbearbeitung immer die ungünstigste methode ist um videos professionell zu schneiden. Wenn ich das keying von adobe premiere benutze, so sehe ich erhebliche qualitätsprobleme. Bei sonic foundry dagegen sieht das ordentlich aus, obwohl beide in RGB Farbraum arbeiten. Also, ist es nicht wichtig in welchem farbraum man arbeitet, sondern wie die signale verarbeitet werden (oder irre ich mich?)
    Besonders canopus legt bei der 4:2:2 methode die oberste priorität. Matrox dagegen behauptet, dass der RGB Raum die bessere sei. merkwürdig...


    Grüße
    HAlis

  • Hallo HAlis,


    das ist genau das, was ich auch nicht so recht verstehe.
    Generell ist natürlich die Videobearbeitung im RGB-Farbraum wesentlich besser, denn nur dort gibt es keine Farbreduktion. Aber das kann nur dann gelten, wenn ein Video auf der gesamten Produktionslinie als 4:4:4-Signal vorliegt. Also von der Aufnahme bis hin zum Endprodukt.
    Das ist aber ein Prozess, der auf einem derart hohen Level stattfinden würde, dass sich kein Normalsterblicher das dafür notwendige Equipment leisten könnte.
    Wenn ein Signal aber einmal farbreduziert wurde, dann lässt sich diese Farbreduktion eigentlich auch nicht mehr rückgängig machen - egal, ob man nun ein 4:2:2-Signal nach 4:4:4 überführt oder ein 4:2:0-Signal nach 4:2:2.


    Ich habe bisher noch in keiner einzigen Informationsquelle eine genaue Beschreibung finden können, warum die Effektberechnung eines DV-Signals im 4:2:2-Farbraum so vorteilhaft sein soll.
    Die einzige vage Erklärung, die ich mir denken kann, ist die Tatsache, dass die Überführung eines Videosignals von einem Farbraum in den anderen auch immer irgendwie verlustbehaftet sein muss oder kann.
    Nun müsste bei einer "Wandlung" von einem YUV-Signal mit 4:2:0 nach 4:2:2 ja nur ein einziges Farbdifferenzsignal, nämlich das V-Signal "gewandelt" werden.
    Wenn ich aber ein YUV-Signal mit 4:2:0 nach RGB mit 4:4:4 überführe, dann muss ich sämtliche Farbdifferenzsignale wandeln, was das Risiko eines Verlustes zwangsläufig erhöht.


    Das ist aber nur meine Theorie.
    Nimmt man die mal so hin, dann würde das tatsächlich bedeuten, dass ein Effektrendering eines DV-Signals im RGB-Raum zwar ein höheres Verlustpotential mit sich bringt, dieses aber allein von der Qualität der YUV-RGB-Wandlung abhängig ist.
    Und da beweist eine Software wie VegasVideo, dass eine solche Wandlung durchaus im Bereich der Irrelevanz liegen kann, da man bis in eine sehr hohe Rendergeneration hinein überhaupt keine Verluste ausmachen kann.
    Also kann man an dieser Stelle auch keinen Nachteil gegenüber einem Rendern im YUV-Raum erfahren.


    Ich komme da zum gleichen Schluss wie Du:
    Es ist weniger wichtig, ob eine DV-Bearbeitungssoftware im RGB- oder YUV-Raum rendert, sondern viel wichtiger ist die Qualität dieser Wandlung.
    Es ist besser, eine gute YUV-RGB-Wandlung zu haben, als eine schlechte 4:2:0-4:2:2 Wandlung.

    Einmal editiert, zuletzt von Avalon ()

  • Marco
    Auf der Suche nach der Wahrheit, welche Informationen sind in den YUV-Signalen und ihrer Reduzierung vorhanden, bin ich nun wieder ein wenig verunsichert.
    Bis vor einigen Tagen dachte ich noch 4:2:0 bedeutet das Y-Signal wird voll, das U-Signal halb und das V-Signal gar nicht verwendet. So habe ich auch deinen Satz
    "Nun müsste bei einer "Wandlung" von einem YUV-Signal mit 4:2:0 nach 4:2:2 ja nur ein einziges Farbdifferenzsignal, nämlich das V-Signal "gewandelt" werden. " verstanden.
    In Rudis SlashCAM habe ich aber etwas anderes gelesen.
    Siehe hier http://www.slashcam.de/artikel…en_MPEG2-Videostrom_.html


    Die Tabelle zeigt die Auswertung recht eindeutig. Es macht auch Sinn, da mir nicht vorstellen kann, das man auf das V-Signal ganz verzichten kann. Was stimmt nun?
    fragt Wolfgang


    P.s. Ich glaube die Adresse kommt nicht richtig rüber, daher hier noch einmal im Klartext -> slashcam - grundlagen - codecs - Auf der Suche nach dem perfekten MPEG2-Videostrom.

    Grüße von wolfgang vom bodensee

    Einmal editiert, zuletzt von wok ()

  • Hallo, Wok!


    Hier http://www.ptv-gmbh.de/lexicon/lexicon-09.htm steht es noch mal genau erklärt. Diese Erklärung deckt sich mit der Erklärung bei Slashcam.


    4:4:4 bedeutet volle Abtastung der Helligkeit und der Farbe
    4:2:2 bedeutet volle Helligkeitsabtastung, halbe Farbabtastung in jeder Zeile
    4:2:0 beduetet volle Helligkeitsabtastung, eine Zeile halbe Farbabtastung, dann eine Zeile keine Farbabtastung etc...


    Der Vorteil der 4:2:2-Abtastung gegenüber der 4:2:0 Abtastung ist der, daß die Farbinformation doppelt so groß ist, was sich besonders in der Gleichmäßigkeit der Farbverläufe und an harten Farbübergängen mit starkem Kontrast bemerbar macht.


    In diesem Thread haben wir schon einmal über die Nachteile des DV-Codecs (4:2:0) diskutiert:
    http://www.videofreunde.ch//th…light=Titel&hilightuser=0
    An den ersten beiden Bildern kann man schön den Unterschied zwischen 4:2:2 (MJPEG) und 4:2:0 (DV) erkennen.


    Viele Grüße
    Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Vor- und Nachteile und die verschiedenen Eigenschaften der verschiedenen Signale sind mir schon klar. Darum ging es mir aber nicht, sondern um die Dekompression eines DV-Signals beim Rendering, bzw. warum eine Dekompression nach 4:2:2 qualititativ vorteilhafter sein sollte als eine Dekompression nach 4:4:4. Diese Frage bleibt aber auch durch jene Infos unbeantwortet. Die Praxis zeigt, dass es bei den verschiedenen Dekompressionsarten zwar qualitative Unterschiede geben KANN, aber keinesfall geben MUSS. Nur - Warum ...?

  • Hallo, Marco!


    Der Begriff KANN ist hier falsch. Es MUSS qualitative Unterschiede geben und die gibt es auch - immer!


    Eine andere Frage ist, ob unsere Farbempfindlichkeit ausreicht, diese Unterschiede zu erkennen. Wenn, wie in dem gezeigten Beispiel mit der grünen Schrift auf roten Grund, die Parameter so ungünstig sind, daß die Interpolation versagt, dann erkennen wir die Fehler. Wenn die Interpolationsfehler weniger auffallend sind, dann erkennt sie nur der Fachmann am hochwertigen Gerät. Aber vorhanden sind die Qualitätsunterschiede immer.


    Sieh Dir mal an dem o.g. Beipiel die Kirche an! Bei genauem Hinsehen wirst Du feststellen, daß die gleiche Art von Farbfehlern auch in die Kirche hineinragen. Wegen der geringen Helligkeitsunterschiede sind diese jedoch kaum zu erkennen, sie entgehen dem flüchtigen Blick. Auf einem normalen Fernseher wären sie auch für den geübten Fachmann nicht zu erkennen.


    Eine interne 4:2:2-Interpolation ist bei Programmen dann sinnvoll, wenn durch Änderung, Übergänge und Effekte, die Source manipuliert wird. Durch die bessere Information wird natürlich auch der Qualitätsabfall durch die Neuberechnungen geringer.


    Die Dekompression nach 4:2:2 kann natürlich manchmal die Fehler der noch schlechteren 4:2:0 Kompression teilweise wieder aufheben. Die kann sie aber auch verstärken. Die Chancen liegen bei 50%, denke ich.


    Viele Grüße
    Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Hallo Peter, so gesehen war meine Formulierung tatsächlich falsch.
    Allerdings bin ich noch immer der Meinung, dass diese Interpolation, die manche Software da macht, eigentlich gar nichts mit der 4:2:2-Dekompression zu tun hat, sondern dass das ein Vorgang ist, den man ZUSÄTZLICH zu dieser YUV-Dekompression verwendet.
    Bisher konnte mir niemand erklären oder beweisen, dass eine 4:2:2-Dekompression automatisch oder zwangsläufig mit einer Farbinterpolation gekoppelt ist (wenn auch z.B. der Canopus-, Avid- und teilweise RadiusSoft-DV-Codec dies so anwendet).
    Umgekehrt kann man aber leicht beweisen, dass bei einer einfachen "Format"-Wandlung, z.B. von DV auf BetaSP oder DigiBeta eine solche Interpolation NICHT stattfindet.