Nomal SoFo DV-codec / hier vs MS

  • Zitat

    es ist wirklich schönes Wetter draußen...


    ... und ich muss zur Arbeit und sitze dann in einem "Bunker" ohne Fenster :heul:

  • Zitat

    Original von wenzi
    Ich konnte nicht ahnen, dass einem nur dann geglaubt wird, wenn man sein Reifezeugnis gleich mit ins Brett hängt. Zu Euerer Beruhigung: Ich arbeite seit nunmehr 25 Jahren für zwei Videozeitschriften und kenne mich daher "ein klein' wenig aus". Ich habe jedoch absolut keine Lust, das hier unter Beweis zu stellen. Klar? Es ist tatsächlich schönes Wetter draußen.... :müde:


    Also ich stelle dir (und auch keinen anderen) die Kompetenz in abrede, und auch Alex macht sowas nicht wirklich - ich gebe zu, mich mit codec-Testerein wenig beschäftigt zu haben (finds aber spannend!). Und klar, es ist einfach und auch zeitökonomisch sich auf die Tests von Leuten zu verlassen, denen man weil lange bekannt einfach vertraut!


    Also was solls - es ist sicherlich schön draußen, aber ein wenig testen ist auch nicht unhübsch - schlage daher vor keine schlechten Gefühle zu bekommen (oder gar Reifezeugnise zu posten! :rofl: ).

  • Marco,
    Schau, wenn die Arbeit nur schön wär, gäbe es doch immer die Gefahr, daß sie jemand umsonst machen will, bloß weil's so schön ist..... Ich hab zwar einen äußerst hübschen Ausblick von meinem Bürofenster ins Grüne, aber was hilft mir das?
    @wenzi und wer immer sich durch meine Sätze von weiter oben auf den Schlips getreten fühlt: Ihr dürft von mir aus Codecs testen, bis der Schirm schwarz wird, jeder nach Lust und Laune. Und das darf von mir aus auch jeder Anfänger machen. Ich habe bloß für mich beschlossen, daß mir die offensichtlich gute Qualität des sofo-Codecs für meine Zwecke völlig reicht. Und ich laß mich sicher nicht auf Diskussionen darüber mit Leuten ein, die einfach durch ihre Ausbildung mehr Ahnung davon haben (müssen) als ich.


    Lieben Gruß

    Einmal editiert, zuletzt von AlexB ()

  • Marco,


    um Dich in Deinem Bunker etwas von der Arbeit abzulenken, woher hast Du die Information, daß bei DV codierung eine 'Voranalyse' stattfindet? Dann müßte die Qualität des ersten Frames einer Aufzeichnung eigentlich schlechter sein, als die dann folgenden, denn der 1. hat keine verwertbare History. Selbst bei I-Frames in MPEG files wird ein 'statisches' Bild codiert - so weit ich weiß.


    Auch wenn das Wetter so toll ist, die Freude darüber wird durch meinen gleich anstehenden Zahnarzt-Termin drastisch reduziert :rolleyes: Dann würd' ich doch lieber im Bunker arbeiten .........

  • Wenn ich mich nicht irre, ist das z.B. im "DV Compression Book" von Panasonic nachzulesen. Ich werde das heute Abend mal recherchieren. Ich hab das so im Hinterkopf, weil das einer der Unterschiede zu M-JPEG ist, bzw. wäre. Aber bevor ich da bezüglich DV was Falsches behaupte, werd ich das nochmal überprüfen.

  • Zitat

    daß mir die offensichtlich gute Qualität des sofo-Codecs für meine Zwecke völlig reicht


    Genau das wollte ich eigentlich mit meinem Quick-and-dirty-Test aussagen - der SoFo-Codec ist wirklich Spitze. Ganz oben wurde ja mal behauptet, der MS-DV-Codec wäre diesem ebenbürdig. Und das ist Unsinn.


    Auch soll allein deswegen bitte keiner bis in die 8. Generation seine Filme rendern. Diese Fehlinterpretation meiner Aussage ist "irrelevant". Es tut aber gut zu wissen, dass die 1. oder 2. Generation immer noch nicht vom Original zu unterscheiden ist und der integrierte Mpeg2-Encoder seine Freude damit hat.


    Viele Grüße an alle, die in Bunkern sitzen oder zum Zahnarzt müssen... :bia:

    Einmal editiert, zuletzt von wenzi ()

  • holger:


    Zitat

    ....glaubt es oder nicht....


    Im Zweifelsfall immer "oder nicht"! Das geht jetzt nicht gegen Dich persönlich, Holger. Es ist einfach nicht meine Art, etwas ungeprüft hinzunehmen. Statt Deiner genervten Äußerungen über der xten Frager und das 1000ste Posting hättest Du einfach nur zwei, drei Links setzten können und jeder hätte alles (ohne lange zu suchen) selbst nachsehen können.



    @Wenzi:


    Zitat

    .... der MS-DV-Codec wäre diesem ebenbürdig. Und das ist Unsinn.


    Das wäre erst noch zu beweisen! Nach den ersten beiden Bildern ist der MS-Codec der bessere. Nach den anderen beiden Bildern ist´s umgekehrt. Also, wie wäre es wenn Du die Originalclips (1/25 sec Länge) zur Verfügung stellst?



    Marco:


    Unter diesm Link Datenkompression findet man eine sehr schöne Beschreibung der Datenkompression von DV, MJPEG und MPEG.



    @all:


    In vieler Beziehung bin weder mit den Testen, noch mit den Testmethoden einverstanden! Wollen wir doch einmal festhalten was uns, die Anwender, beim DV-Rendering insteressiert:


    1. Wie kommt DV vom Camcorder auf die Platte, bzw. ins Schnittprogramm?
    Das ist, wohl jetzt für alle geklärt. Wie bereits in einem oben von einem anderen Videofreund bescchrieben, wird einfach nur - unabhängig von Programm und Codec - ein Kopiervorgang durchgeführt. Der Codec manipuliert maximal (wenn überhaupt), den Header des Files.


    2. Welche Veränderugen ergeben sich durch beim Rendering in der Praxis?
    Da kann man nicht einfach bestimmte Szenarien ignorieren weil man es selbst nicht benutzt. Man muß alle Situationen berücksichtigen:
    -Clips vom Camcorder
    -Filter und Transitionen
    -Titel und Animationen
    -Grafiken


    3. Welche Codecs verändern nun in welchen Situtionen das Ursprungsmaterial bei vorher genau definierten Testbedingungen?


    Dabei sollten die Testbedingungen der Praxis entsprechen. Es ist z.B. hirnrissig zu verlangen, daß man Bilder erst mit einem bestimmten Codec aufs Band spielt. Das macht in der Praxis kein Schwein - und was nicht gemacht wird, muß ich auch nicht testen!
    Es interessiert auch nicht ob und wie vielleicht die Begrenzung auf sendefähige Farben stattfindet. Der normale Hobbyfilmer sendet nicht, und weiß auch nichts von dieser Begrenzung. Also ist jede Veränderung des Ausgangsmaterials (wenn nicht ausdrücklich gewollt) als Fehler zu betrachten. Die Begrenzung auf sendefähige Farben ist dem Schnittprogramm vorbehalten, der Codec hat daran nichts herumzumengen!
    Auch das Pixelshifting emfinde ich als unsinnnig. In der Praxis mache ich das auch nicht. Man kann das Programm zum Rendern zwingen indem man z. B. in einen definierten Teibereich die Nummer der Rendergeneration einblendet und diesen Teil vom Vergleich ausnimmt.



    Nun mein Vorschlag:


    Wie wäre es, wenn wir Videofreunde die genauen Definitionen der Testreihen und das Ausgangsmateriel (es müssen ja immer nur ein, zwei Bilder sein) zur Verfügung stellen.
    Auf diese Weise könnte jeder der Lust, Zeit, Neugier und die Codes hat, die Testreihen selber durchführen.


    Bitte um vielfältige Vorschläge für eine Videofreunde-Testanweisung.


    Viele Grüße
    Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • In diesem Thread wollte ich eigentlich nur nach einer objektiveren Methode zur Bewertung bzw. Meßmethode von Codecs suchen. Die rein optische Beurteilung der Renderergebnisse ist sehr subjektiv und erlaubt keine quantitative Aussage. So entstehen Bezeichnungen wie 'grottenschlecht'...


    Was erwarten wir denn von dem besten Codec? Eigentlich doch, daß sich das neue nicht von dem Original unterscheidet - Das wäre dann doch wohl das Optimum. Simulieren kann man das indem man wie oben beschrieben das Original invertiert und darunter eine Kopie legt und die Tracks jeweils mit add aktiviert -- Absolut nichts bleibt bei V4 dabei übrig. Dabei werden beide Tracks mit dem gleichen Codec in den RGB Raum gerechnet und das eine invertiert und die RGB-Weter dann addiert. Ergo sehe ich bei dem gleichen Vorgehen und einem neu gerenderten DV-AVI (oder MPEG) die Fehler, die der Encoder erzeugt hat. Ob man zum Erzwingen des Rendern Pixelshift nutzt (läßt sich bei V4 halt einfach machen) oder wie Peter beschreibt ein Text aufprägt, sollte im Erebnis keinen Unterschied machen. Peters Vorschlag hat den Vorteil, daß man auch gut AP6 oder MSP nutzen kann.
    V4 kann da mit den VideoScopes zusätzliche Hilfmittel bereitstellen, speziell Histogramm und Wave sind da recht übersichtlich.


    Wie Marco schon anmerkte ist es dabei natürlich äußert wichtig die Differenzbilder mit dem selben Codec zu erzeugen.


    Damit wollte ich lediglich die Meßmethode zur Diskussion stellen und es spricht eigentlich nichts, aber vieles dafür, eine TestSuite von Clips und TestCharts zu nutzen, wie es Peter vorgeschlagen hat. Dazu gehören dann IMHO 'Peter' Testbild (0...255) sowie ein EIA1956 Chart wie real clips dazu. Nur mit TestCharts kann man die ntürlich vorkommenden Bilder nachbilden und wie z.B. mit dem EIA1956 auch eine Aussage über das hor./vert. Auflösungsvermögen bekommen.


    Ich wollte hier in keiner Weise den SoFo Codec bemäkeln, sondern vielmehr zeigen, daß V4 mit seinen Filtern und Tools nicht nur zum Schnitt benutzt werden können


    :geist:


    @Wenzi
    rendere doch mal dieses EIA TestChart mit dem MS DX8.1 und anschließend der 9er Version, Wenn Du da keinen Unterschied sehen kannst .....
    Falls doch, hat sich der Codec doch verbessert, oder.

  • holger:


    Zitat

    Könnte schwören das habe ich gemacht.


    Ach? ..... und bei welchem Thread, in welchem Forum?


    In diesem Thread hast Du nur einen Link auf den "Canopus-Unterschied" gesetzt! Das hat jedoch mit mit obiger Thematik wenig zu tun. Da geht es nur um einen Fehler im Canopus-Codec.


    Viele Grüße
    Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • > In diesem Thread hast Du nur einen Link auf den "Canopus-Unterschied"
    > gesetzt! Das hat jedoch mit mit obiger Thematik wenig zu tun.


    Dann hast du diesen Artikel nicht verstanden, denn genau um diese Problematik geht es. Es geht genau darum, dass einige Codecs den vollen Bereich verarbeiten (am Beispiel des Canopus-Codec) und die Konsequenzen daraus, wenn Schnittprogramme damit nicht umgehen können (Schriften und Grafiken mit anderem Kontrastumfang, passender MPEG-Coder usw.). Genauso um die Konsequenzen, wenn der Codec nur 16-235 verarbeitet (Helligkeitssprünge an Übergängen).


    > Da geht es nur um einen Fehler im Canopus-Codec


    Das ist kein Fehler!!! sondern eine Eigenschaft. Diese Eigenschaft hat der SoFo-Codec genauso, nur mit dem Unterschied, dass Vegas im Gegensatz zu Premiere eine Anpassung für Grafiken und Titel bietet (ComputerRGB ->StudioRGB Filter)


    Aber dein Posting zeigt genau das, weshalb ich genervt bin. Die Grundlagen nicht gelesen oder nicht verstanden, selber unkorrekte Schlüsse aufgrund von falschen Messaufbauten oder Verständnisfehlern gezogen, und als einzigen Kommentar "Das soll er mir erst mal beweisen!". Deshalb sagte ich: Es ist mir völlig egal, ob mir jemand glaubt oder nicht. Ich stelle meine Erkenntnisse zur Verfügung, wer sie gebrauchen kann, kann sie gerne benutzen. Wer mir nicht glaubt, auch gut. Ich werde aber nicht zu jedem einzelnen nach Hause fahren und ihm das auf seinem eigenen Schnittsystems vorführen. Dazu habe ich nicht die Zeit und auch nicht die Lust.


    hs

  • Zitat

    woher hast Du die Information, daß bei DV codierung eine 'Voranalyse' stattfindet?


    Nochmal dazu. Ich lag nicht verkehrt. Zwar war meine Aussage nicht ganz korrekt, dass sich diese Voranalyse auf das nächste zu komprimierende Frame bezieht, denn eine Besonderheit des DV-Codecs ist die Tatsache, dass die Quantisierung der Blöcke sowohl auf Fields als auch auf Frames angewendet werden kann (in Abhängingkeit der Bildveränderungen zwischen Fields), aber es findet tatsächlich eine Voranalyse der Macroblöcke statt.


    Diese Voranalyse hat aber rein gar nichts mit dem MPEG-2-Encoding gemeinsam, sondern ist ganz im Gegenteil eine Eigenschaft, die das DV-Encoding deutlich vom MPEG-2-Encoding und auch vom M-MJEG-Encoding unterscheidet.
    Dieser Prozess der Voranalyse vor Auswahl und Anwendung der Quantisierungstabellen nennt sich "Feed-Forward"-Steuerung und ist fast genau das Gegenteil, was beim MPEG-2-Encoding durch die "Feedback"-Steuerung erreicht wird.


    Zu finden ist diese Information in vielen Quellen, die sich mit DV-Encoding und v.a. mit der Abgrenzung des DV-Encodings gegen das MPEG-2- und M-JPEG-Encoding befassen.
    Eine dieser Quellen ist auch tatsächlich - wie ich es in Erinnerung hatte - das "Video-Kompressionsbuch" von Panasonic. Was man dort lesen kann, ist aber fast wortwörtlich gleich in mehreren Quellen abgedruckt, so auch in der FKT (Fernseh- und Kinotechnik) Nr. 6/1999.


    So heißt es in diesen Quellen:


    [Zitat] "Die Leistungsfähigkeit der DV-Kompression beruht auf der Analyse der DCT-codierten Blöcke vor (!) dem Komprimierungsprozess. Das Ziel ist eine Optimierung dieses auf die Analyse folgenden eigentlichen Komprimierungsschrittes. Es soll hier noch einmal angemerkt werden, dass MPEG-2 mit einem völlig anderem Prinzip arbeitet. Der MPEG-Kompressionsprozess wird über eine Rückführung eines Steuersignals kontrolliert, das nach (!) abgeschlossener Kompression gewonnen wird. Man kann auch sagen, dass DV vorwärts blickt, MPEG-2 aber rückwärts." [Zitatende]


    Es folgt in den Artikeln eine genau Beschreibung dieser Vorgänge und dann eine Zusammenfassung:


    [Zitat] "Fazit - Der Schlüssel zur Leistungsfähigkeit der DV-Kompression liegt in der Analyse der DCT-codierten Blöcke bevor die eigentliche Kompression stattfindet. Es wird aufgrund einer Vielzahl von "virtuellen" Kompressionen mit 64 möglichen Varianten eine auf den Bildinhalt abgestimmte optimale Quantisierungstabelle ermittelt. Diese Methode garantiert eine konstante Zahl von Bytes je Frame, wie digitale Videorecorder es erfordern. Zusätzlich minimiert ein Block-Shuffling den Einfluss des Szeneninhaltes auf die Bildqualität." [Zitatende]


    Da diese Beschreibung so oft in Fachabhandlungen zitiert wird, nehme ich fast an, dass es sich dabei um einen Auszug aus dem "Sony Blue Book" zur Beschreibung der DV-Technologie handelt.

  • Peter, ganz so einfach ist das Durchführen eines neutralen und allgemein aussagefähigen Rendertests nun mal nicht. Wir bewegen uns hier in einem Bereich, für den es wahrscheinlich bisher noch gar keine optimale und unfehlbare Methode gibt.


    Zu Deinen o.a. Punkten


    >> 2. Welche Veränderugen ergeben sich durch beim
    >> Rendering in der Praxis?
    >> Da kann man nicht einfach bestimmte Szenarien
    >> ignorieren weil man es selbst nicht benutzt.


    Da hast Du sicher recht, man kann und sollte die nicht ignorieren, wenn es darum geht eine geeignete Testmethode zu finden, ich habe bisher Graphiken auch nie dabei ignoriert.
    Was ich aber dann letztlich machen kann:
    Wenn sich nach einem solchen Test zeigt, dass allein eine ganz bestimmte Art von Graphiken den DV-Codec überfordert, dann kann ich für mich persönlich doch entscheiden, dass das für mich irrelevant ist, weil ich solche Graphiken normalerweise nicht verwende.


    >> Es ist z.B. hirnrissig zu verlangen, daß man Bilder
    >> erst mit einem bestimmten Codec aufs Band spielt.
    >> Das macht in der Praxis kein Schwein - und was nicht
    >> gemacht wird, muß ich auch nicht testen!


    Ich glaube, hier liegt ein Missverständnis vor. Es geht nicht darum, dass dies ein Prozess ist, der der allgemein gängigen Praxis entspricht, sondern es geht nur darum, eine Standardisierung zu schaffen. Denn wenn schon die Basis für vergleichende Rendertests zu differenziert sind, um daraus eine Standardisierung herleiten zu können, dann wird das - egal wie man später einen solchen Test aufbaut - immer der berüchtigte "Äpfel-Birnen-Vergleich" bleiben.


    >> Es interessiert auch nicht ob und wie vielleicht die
    >> Begrenzung auf sendefähige Farben stattfindet. Der
    >> normale Hobbyfilmer sendet nicht, und weiß auch nichts
    >> von dieser Begrenzung.


    Vielleicht meinen wir hier ja dasselbe. Ich bin da auf jeden Fall der Meinung, dass es den Hobbyfilmer spätestens dann interessiert, wenn er bei Überblendungen auf einmal Helligkeitssprünge sieht, von denen er sich nicht erklären kann, wie sie zustande kommen.


    >> Auch das Pixelshifting emfinde ich als unsinnnig. In der Praxis
    >> mache ich das auch nicht. Man kann das Programm zum Rendern
    >> zwingen indem man z. B. in einen definierten Teibereich die
    >> Nummer der Rendergeneration einblendet und diesen Teil vom
    >> Vergleich ausnimmt.


    Diese Methode ist alles andere als unsinnig. Natürlich kann man ein Rendering auf viele verschiedene Arten erzwingen und die Hauptsache ist wohl tatsächlich, dass man ein Rendern über eine Bildveränderung erzwingt.
    Dennoch ist es gerade bei der Überprüfung von DV-Codecs alles andere als egal, auf welche Weise man das Rendern erzwingt.
    Je nachdem wie man das macht, ändert sich ja auch der Bildinhalt auf eine ganz bestimmte Weise. Und je nachdem, wie sich der Bildinhalt ändert, ändert sich dann auch die Quantisierung im DV-Codec u.U. erheblich.
    Wenn man also einen neutralen Rendertest durchführen wollte, der dennoch auch deutlich die Renderfehler zeigt, müsste man entweder alle nur denkbaren Filter auf einen Clip anwenden, damit man sich sicher sein kann, dass auch für jeden Quantisierungsfall was dabei war. Oder aber man wählt gleich eine Methode, die die Quantisierung eines DV-Codecs ganz besonders reizt. Eine solche Methode ist nun mal das Pixelshifting, die man nicht mit einer Titeleinblendung vergleichen kann.
    Es schadet dabei auch nicht, dass ein Pixelshifting den Rendervorgang stärker reizen wird als ein kleine Titeleinblendung (wobei gerade die Titeleinblendung auch wieder andere Risiken mit sich bringt, die das Verfahren gefährdet). Denn wenn es darum geht, einen Vergleichstest durchzuführen, dann ist es umso besser, je stärker die Ergebnisse sich letztendlich unterscheiden, weil man dann viel genauer analyisieren kann, worin denn auch der Unterschied in den Renderverlusten besteht.


    Hier nochmal ein Auszug aus einem Artikel, der von der EBU stammt (habe leider keine genau Quellenangabe) und der sich mit der Beschreibung der Findung geeigneter Testmethoden für DCT-basierende Videocodecs befasst (leider nur auf Englisch):


    [Zitat] "The multigeneration tests were all performed with at least two spatial shifts occuring, so that the DCT block alignment was changed. This is a worst-case scenario for any DCT-based codec, and will be worse than the losses incurred in nonlinear editing when a filter, effect or matte is applied and the spatial location of the video is not changed." [Zitatende]


    Sicher kann man sich darüber streiten, ob das denn nun wirklich so bedeutend ist, wenn man nur den Grad eines Verlustes feststellen möchte, aber zumindest hilft es dann trotzdem, eine reproduzierbare Standardisierung zu finden.
    Ausserdem finde ich die Art und Weise, wie und wo Verluste stattfinden, mindestens ebenso interessant, wie eben der Grad des Verlustes. Denn nur so kann ich letztlich zu der Entscheidung gelangen, inwiefern das für meine eigene Arbeit auch relevant ist und wie und wo ich mich auf die Suche nach einer Optimierung der Kompression machen kann.


    Sehr interessant finde ich den Vorschlag, den Versuch zu starten, eine für uns alle austauschbare Testmethodik zu finden, obwohl ich gleichsam auch sehr skeptisch bin, weil da einfach immens viele Faktoren eine Rolle spielen. Wenn man das für eine vielzahl von Schnittsystemen vergleichbar machen soll, dann wird das wohl 'ne Menge Arbeit.
    Und man muss sich auch die Frage stellen, was es letztlich bringt.


    Wie manch anderen auch interessieren mich solche Dinge zwar sehr, aber ich bin eigentlich mit "meinem" DV-Codec überaus zufrieden. Anderen wird's ebenso gehen und was sollten wir durch welche Erkenntnis nun ändern?


    Es ist und bleibt ein Thema, über das man so wunderschön diskutieren und streiten kann ... ;)

    2 Mal editiert, zuletzt von Avalon ()

  • holger:


    Ich habe den Artikel sehr wohl gelesen und ihn wohl besser verstanden als Dir recht ist:


    Meine Antwort stand im Kontext zum Eingangsposting mit den Differenzbildern. Falls es Dir nicht aufgefallen sein sollte, geht es dabei um die Veränderungen des Bildinhaltes durch eines Codec mit der Vorgabe, möglichst das Original beizubehalten. Dein "Canopus-Unterschied" zeigt nur die Unterschiede der Berechnungsarten im "normalen" und "erweiterten Bereich". Das ist nett zu lesen, auch ganz gut zu wissen, tangiert aber diese Diskussion nur peripher.


    Ich wiederhole noch einmal: Es ist nicht Aufgabe des Codecs, bestimmte Begrenzungen vorzunehmen! Das ist Aufgabe des Cutters in Zusammenarbeit mit dem Schnittprogramm. Erreicht wird so etwas durch den Einsatz von Filtern bzw. durch Einstellungen im Schnittprogramm (was letzendlich u.a. auch den Einsatz bestimmter Filter regelt).


    Wenn ein Codec im Verhalten ohne Warnung vom Standardverhalten abweicht, dann ist diese "Eigenschaft" ein Fehler! Dein Versuch diesen Fehler als Vorteil zu verkaufen ist nett aber fruchtlos. Wenn ein Codec zufällig die Dummheit des Cutters ausbügelt, ist das kein Vorteil. Falsch bleibt falsch! Wirf bitte nicht zur Verwirrung anderer die Begriffe durcheinander. Ein Filter ist ein Filter >>(ComputerRGB ->StudioRGB Filter)<< das ist eine Eigenschaft des Programms, unabhängig vom Codec!


    Wenn Du soooo genervt bist, und soooo wenig Zeit hast, dann halte Dich doch einfach raus und bringe mit Abschweifungen und Halbwahrheiten nicht die Leute durcheinander. Bis jetzt hast Du weder einen Link auf die genauen Programmeinstellungen, noch auf die verwendeten Sourcen gegeben damit man Deine Ergebnisse nachvollziehen kann.


    Last but not least habe ich nie gebeten daß mir irgend jemand etwas beweisen soll. Ich will selbst nachvollziehen und beweisen.


    Viele Grüße
    Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Es scheint, hier gerät was aus den Fugen ... :(


    Unter Holgers Informationen befinden sich keine Halbwahrheiten, aber innerhalb dieses Threads anscheinend eine ganze Menge Missverständnisse.


    Wie schön wäre es doch da, wenn man sich bei einem ganz realen Bier gegenübersäße ...


    :rolleyes:

    Einmal editiert, zuletzt von Avalon ()

  • Womit sich der Kreis wieder schließt. Jetzt scheint zwar nicht mehr schön die Sonne, weil's finstere Nacht ist, allen Beteiligten wäre aber mehr geholfen, wenn Sie Codec Codec sein ließen und die Kamera zum Filmen verwenden täten. Daß ein Codec, wenn er ungefragt die Werte über 100% einfach abschneidet und so Helligkeitssprünge bei gerenderten Passagen erzeugt, von mir nicht geduldet würde, ist aber auch klar. Alle anderen Strichlein oder minimale Abweichungen, die da beim Testbild oder sonstwo zum Vorschein kommen, sind Poesie für den Laien. Daß das Testvideo standardisiert von einem Band kommen sollte ist nicht ganz so abwegig, schließlich kommt es im Normalfall ja auch vom Band. Ach, was soll's.
    Habe gerade einen ebenfalls ziemlich unfriedlichen Thread im Cow-Vegas-Forum gelesen. Ob das frühlingliche Revierkämpfe zur Absteckung des Territoriums sind? Irgendein atavistisches Verhaltensmuster muß es jedenfalls sein...
    Eher frustrierte Grüße

    2 Mal editiert, zuletzt von AlexB ()

  • Ich wollte nun wirklich niemanden frustrieren mit diesem Thema, wen's interessiert, der kann's ja selbst mal ausprobieren und wen nicht, der brauch ja nicht mal weiter gelesen zu haben.


    Mir scheint diese Differenzmethode dennoch sehr geeignet und nicht nur zur Beurteilung des DV-Codec, sondern bei richtigen Setup auch für eine objektivere und ggf. quantitative Analyse von MPEG Encodern. Da müssen dann sicherlich kleine Loop in der Differenz betrachtet werden, aber auch Standbilder mit sehr feinen Auflösungen (die kommen zumindest in meinen Videos hin und wieder vor). So könnte man die eher vorsichtig anzuwendende Meßgröße Q.Level mit direkt sichtbaren und über die VideoScopes meßbaren Größen ergänzen.


    Macht euch den Spaß und rendert mal das besagte EIA1956 Hier zu bekommen - in der Natur sind es zwar keinen Linien aber frisch wachsendes Gras mit funkelden Tautropen oder zarte Zweige mit sich langsam aus den Knospen schiebenden Blättchen mit feinsten Strukturen und die möchte ich hat auch nach all der Bearbeitung noch sehen.


    Frühlighafter

  • Guten Morgen Peter,


    Es ist nicht Aufgabe des Codecs, bestimmte Begrenzungen vorzunehmen
    Damit sind wir völlig einer Meinung!


    Wenn ein Codec im Verhalten ohne Warnung vom Standardverhalten abweicht, dann ist diese "Eigenschaft" ein Fehler
    Auch damit sind wir völlig einer Meinung.


    Da der Microsoft-Codec eine Beschneidung vornimmt (und zwar sowohl in Premiere als auch in Vegas) ist er meiner Meinung nach nicht zu gebrauchen. Da Canopus und Sofo diese Beschneidung nicht vornehemn sind sie gut. So einfach ist das doch oder?
    Nach wie vor steht das doch genauso im Artikel, oder?
    Damit wären wir also wieder bei Ich habe den Artikel sehr wohl gelesen oder?



    hs

  • @all:


    Na, dann regen wir uns doch einfach wieder ab! Vielleicht lönnen wir uns für den Anfang so einigen, daß wir zunächst einmal Sonderfälle, wie eben das Erstellen von sendefähigen Videos, außen vor lassen und nur den normalen Einsatzbereich testen. Man kann eine Testreihe ja beliebig erweitern


    Streng genommem müßte man ein HuffYUV-File von einer Studiokamera nehmen und dieses rendern, weil ja schon der Hardware-Codec im Camcorder die "Natur" stark verändert.
    Das ist jedoch nicht meine Ansinnen: Ich möchte einfach nur, daß jeder anhand seines eigenen Programms, einer Bedienungsanleitung und ein paar Clips selbst feststellen kann wie gut oder wie schlecht sein Codec ist(oder, wenn er dabei Fehler macht, feststellen kann wie gut oder wie schlecht er selber ist).


    Wie die Klicks beweisen ist ein allgemeines Interesse vorhanden. Auch wenn die meisten letztendlich nichts daran ändern können (oder wollen, denn wer kauft sich schon deswegen einen neuen Codec?) ist doch so etwas eine schöne Spielerei. Je einfacher die Bedingungen gehalten werden (ohne falsch zu sein) und je leichter man an die benötigten Programme und Datenfiles kommt, desto größer ist der Kreis derjenigen die nachher aus eigener Erfahrung mitdiskutieren können.


    Wollen wir doch einmal den Anfang versuchen und zunächst die Programme für den Test festlegen:


    -Zum rendern sollte jeder sein eigenes Programm nehmen weil ich ansonsten unüberwindliche Schwierigkeiten bezüglich der Kompatibilität mit den Codecs sehe.


    A) Zunächst brauchen wir ein frei verfügbares Bildbearbeitungprogramm. Ich würde PaintShop ab Version 7 vorschlagen, da dieses (für 30Tage) kostenlos und frei verfügbar ist und die Möglichkeit bietet, Differenzbilder zu erzeugen. -> Jasc Software


    B) Um mit verschieden Codecs arbeiten zu können ist u.U. noch das Programm "VCswap" nötig, mit dem man auf den gewünschten Codec "umschalten" kann. -> VCswap 1.5


    C) Wir brauchen auch den ein oder anderen Link ins Internet, von wo sich jeder ein paar gängige Codecs runterladen kann. -> Codecs


    D) Zuletzt brauchen wir noch ein paar eingängige Beispiele, 3-5 Clips in einer Länge von 3 Bildern, die man "umrendern" lassen kann.


    Man könnte natürlich (wie oben schon angedeutet) auch ein oder zwei Huff-Clips dazunehmen wenn jemand typische, unkomprimierte, rattenscharfe Aufnahmen von einer großen Studiokamera in 720*576, interlaced A, in HuffYUV bereitstellen könnte....
    Den Codec findet man hier -> HuffYUV


    So ausgerüstet könnte sich schon mal jeder dranmachen, sich und sein eigenes System zu überprüfen und sich an hübschen Differenzbilchen erfreuen, Wäre das nichts?


    Jetzt fehlen uns noch ein paar der o.g. Clips, noch ein paar Links für die neuesten Codecs und ein paar einfache Regieanweisungen, die auch Nichtstudierter verstehen kann....


    Viele Grüße
    Peter



    P.S. holger:
    Kann sein, daß ich da was falsch interpretiert habe - nobody is perferct. Ich werde mir das noch mal zu Gemüte führen....

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Peter, um mich direkt in Deine Vorschläge einzuklinken:


    Zu A)


    Gegen dieses Graphikproggi wäre nichts einzuwenden, ich finde es aber unglücklich, wenn dann die Benutzung auf 30 Tage beschränkt ist.
    Leider wüßte ich aber so auf Anhieb auch keines, das Differenzbilder erzeugt. Kann Gimp das? - Müsste ich mal prüfen, das wäre dann Freeware ohne Zeitbeschränkung.


    Ob es egal wäre, mit welchem Programm man die Differenzbilder erzeugt!? Das wäre schön, aber vermutlich kommt es dann auch zu unterschiedlichen Decodier- und/oder Codiervorgängen beim Erzeugen der Differenzbilder.


    Zu B) und C)


    Ich glaub, an diesem Punkt müssen wir aufpassen. Denn wenn dann in einem Programm ein bestimmter Codec nur für das Encoding, nicht aber auch für das Decoding benutzt wird, dann kann das die Renderergebnisse sehr verfälschen. Nur - woher weiß man, wie ein Programm das macht?
    Ist vielleicht besser, wenn sich jeder darauf beschränkt, den hauseigenen Codec zu testen und wir dann einfach die Ergebnisse untereinander austauschen.


    Zu D)


    Wenn Ihr wollt, kann ich gerne mal in meinen Unterlagen stöbern, welche Art von Bildern z.B. die EBU versucht, für ihre Tests heranzuziehen. Die könnte man dann ja eventuell selbst erstellen. Es ginge nur darum, zu wissen, welche Bildmuster und auch welche Art von Bildbewegungen man berücksichtigen sollte.
    Ich könnte zwar Studioaufnahmen besorgen, aber ein Studio, dass als HuffYUV aufzeichnet, das werden wir vermutlich nicht finden. Also hätte eine Studioaufzeichung mehrere Formatwandlungen hinter sich, bis wir es in einem brauchbaren Format vorliegen hätten. Aber Studioaufnahmen werden uns auch womöglich gar nicht weiterhelfen.
    Qualitativ hochwertige DV- oder DVCam-Aufnahmen, die mit einer professionellen Kamera mit sehr guter Optik gemacht wurden, wären für unsere Zwecke doch gewiss ausreichend, oder?


    Dann müsste man aber noch eine Methodik zum Rendern standardisieren.
    Generell wäre ein bestimmter Titel - wenn auch nicht optimal - ja gar nicht mal so schlecht. Aber Titelgeneratoren diverser Programme arbeiten u.U. auf völlig verschiedene Weise.
    Pixelshifting ist sicherlich ideal, aber ich glaube nicht, dass diese Eigenschaft (v.a. Pixelgenau) von jedem Schnittprogramm unterstützt wird.
    Vielleicht ein Effekt wie horizontales Spiegeln?