Beiträge von holger

    - nun verrat uns doch mal, wo Du gelandet bist.
    - Dein Profil sagt ja leider nicht viel aus.


    Ich dachte das wäre im VegasForum deutlich geworden: Zur Zeit arbeite ich vorrangig mit Vegas 4. Es kann fast alles, was ich möchte, ist aber auch nicht perfekt. Schnittprogramme sind meiner Erfahrung nach immer ein Kompromiss, Vegas ist zur Zeit der beste.


    - Wist Du Dir EditionDV 5.0 denn noch mal ansehen


    Ich schaue mir eigentlich jedes Schnittsystem an, allein aus Interesse.


    hs

    Hallo Monsier,


    ich habe auch nach einer neuen Software gesucht und eine Menge Kombinationen ausprobiert. U.a. habe ich natürlich auch EditionDV getestet und mich dagegen entschieden. Das heisst nicht, das du das auch machen sollst, ich wollte dir nur ein paar Gründe sagen:
    1. Unter WindowsXP sehr lange Latenz am DV-Ausgang, teilweise bis 1.5 Sekunden. Ein Trimmen war damit Qäulerei
    2. Die Stabilität liess doch sehr zu wünschen übrig. Abstürze im etwa 2h-Takt waren sehr nervig.
    3. Die Windows-Überstülpung. Für Edition musst du z.B. die Taskleiste auf Verschwinden stellen. Arbeitest Du mit mehreren Programmen (was bei mir aufgrund recht vielem sythetischen Materila oft vorkommt), ist das nervig.
    4. Der Codec. Anscheinend war es der Sony-Codec, der auf 16-235 limitiert. Um durchgängig gleiche Pegel zu haben, muss man eine DV500 mitkaufen, deren Hardware-Codec auf C-Cube-Basis mit nicht reichte.
    5. Die fehlende Szenentrennung im Capturemodul
    6. der unkorrekte Import von .dif-Files. Ich hatte damals eine DVNow, die ebenfalls dif-Files speicherte. Obwohl der Vorgänger FastStudioDV von derselben Firma kam wie meine DVNow, gab es mit dem Nachfolger EditionDV Kontrastfehler.
    7. Die zu lange Einarbeitungszeit. Ich mag intuitive Oberflächen und logische Workflows, mit EditionDV kam ich nicht zurecht. Das heisst nicht, dass man damit nicht arbeiten kann, ich hatte nur immer das Problem, dass es genau das tat, was ich nicht erwartete.


    Das soll nicht wieder einen Glaubenskrieg auslösen, ich wollte dir nur meine Erfahrungen erzählen.


    hs

    Hallo Avalon,


    das ist zwar nicht ganz die Antwort auf deine Frage, aber trotzdem:


    Grundsätzlich ist bei hochwertigen Effekten, die eine Skalierungsmöglichkeit besitzen, eine Art Tiefpass integriert. Dieser so genannte Anti-Aliasing-Filter setzt die Schärfe des entstehenden Videos z.B. während der Verkleinerung eines 2048x2048 großen Bildes immer auf maximal 720x576, um Spiegelfrequenzen zu vermeiden. Anscheinend ist diese Filterung bei Satish nicht vorgesehen, das ist mir bei einer anderen Anwendung auch schon aufgefallen.
    Ob das aber der Grund für eure Unschärfe ist, weiß ich nicht genau, aber vielleicht wäre es ein Erklärungsansatz.


    hs

    - Ja, wenn beim Filmen die 5+1 Kanäle aufgezeichnet werden,
    - dann macht das wirklich Sinn.


    Also bei Kinofilmen wird nicht wirklich am Set mit 5 oder 6 Mikrofonen aufgenommen, trotzdem klingt das doch im Kino schon nicht schlecht, oder?


    hs

    - Leider haben die in letzter Zeit auch schwer nachgelassen und
    - so habe ich mein videoaktiv Digital-Abo auch gekündigt.


    Was hälst Du denn von der "objektiv", die soll ja ganz gut geworden sein ...


    hs

    Kaffeekochen!!!


    Tja leider muss ich mal wieder verkünden, dass die Realität die Satire bereits eingeholt hat. Vegas ist im Gegensatz zu allen Videoprogrammen in der Lage, eine Midi-Signal auszugeben. Schon seit langem gibt es z.B. von der Firma EES Umsetzer von Midi auf Schaltspannungen (damit werden z.B. in Tonstudios Rotlichtsignale gesteuert). Da kann man natürlich auch ein normales Schütz mit ansteuern (was ich im in meinem ersten TonJob natürlich ausprobiert habe: Sobald nach dem Einschalten morgens der Mikroregler hochgezogen wurde, schaltete sich die Steckdose der Kaffemaschine ein). Für Vegas müsste man nur einen Zeitpunkt auf der Timeline aussuchen (dieser MTC-Wert löst dann das Signal aus) und schon geht z.B. 5min vor Ende des 2h-Epos die Kaffeemaschine an.


    Nichts für ungut


    hs

    Hallo Herr Schmidt,


    Und mich würde interessieren, wie der LTC (das heißt doch Longitudinal Time Code, oder?) aufgezeichnet wird. Auf einer Längsspur kann das doch nicht sein, denn ich kann gar keinen feststehenden Aufzeichnungskopf in den Laufwerken meiner Geräte erkennen. Oder kann diese Aufzeichnung auch durch rotierende Köpfe erfolgen?


    Eine Aufzeichnung von LTC oder einer analogen AudioCueSpur kann nur longitudinal erfolgen, muss also unabhängig von der vertikalen Videoaufzeichnung erfolgen. Bei "normalem" DV ist das auch nicht vorgesehen, einer der Kritikpunkte, die Profis an DV hatten. Sony hat daher bei DVCam zwei optionale Longitudinal-Spuren vorgesehen, die aber lange nicht jedes Gerät nutzt. Insofern ist das kein Wunder, wenn z.B. ihre Kamera keinen solchen Kopf besitzt. Das diese Spruren auch tatsächlich exisitieren, steht in den Sony DVCam-Unterlagen, ich habe ihnen die entsprechende Seite als EMail geschickt.


    Auch die Tatsache mit den DynamicTracking-Köpfen ist mir neu. Verfügen die kleinen Camcorder von Sony wie z. B. PC100 über solche Köpfe?


    Der Begriff "DynamikTracking" wird für mehrere Fähigkeiten benutzt. Im Konsumerbereich steht er eigentlich nur für die Möglichkeit, den Videokopf drehen zu können. Das ist für DVCam aufgrund der schrägeren Spurlage notwendig. Das kann in der Regel jedes Sony-Gerät und auch viele andere, also auch ihre Sony PC100. Nicht verwechseln darf man das aber mit der professionellen Auslegung von DynamicTracking. Hier steht das für die variable Anpassung an Bandgeschwindigkeiten von 50-200%. Bandmaschinen die in diesem Sinne "DynamicTracking" betreiben, erkennt man in der Regel an der Eigenschaft "Slomo-tauglich", das dürfte ihre PC100 nicht können...


    Die Eigenschaft der DVCam-Wiedergabe wird übrigens auch immer nur als "DVCAM-kompatibele"-Wiedergabe bezeichnet. Das tun Hersteller auch mit gutem Grund, denn da gibt es durchaus Unterschiede. So sind (neben der fehlenden Möglichkeit die CUE und LTC-Spur auslesen zu können) auch viele Geräte nicht in der Lage, bei der hohen Bandgeschwindigkeit den DV-Timecode auszugeben. So z.B. beim Panasonic DV2000. Er spielt zwar die Kassette ab, ansonsten war es das auch.


    hs

    Der Unterschied zwischen DV und DVCam ist vorrangig bei der Bandaufzeichnung zu sehen. Um eine höhere Datensicherheit zu gewährleisten, ist der Bandlauf schneller (Lesefehler beeinflussen also weniger Daten), außerdem gibt es zusätzliche Spuren für Cue und LTC, Anwendungen, die für den Profibereich wichtig sind. Das erklärt auch, warum nicht jedes DV-Laufwerk DVCam wiedergeben kann, denn dafür muss es über DynamicTracking-Köpfe und ausgelegte Motoren verfügen. Das über die Firewire-Schnittstelle ausgegebene Format ist allerdings identisch, eine der Hauptzielsetzungen des DVCam-Formats (im Gegensatz zu DVCPro) war gerade die Bearbeitungsmöglichkeit mit Konsumergeräten. Der einzige Unterschied: bei DVCam wird der Ton pro Frame neu synchronisiert, auch LockedAudio genannt. Soll wieder ein DVCam-Signal erzeugt werden, muss der Codec in der Lage sein, beides wieder zu verschachteln. Eigentlich können das mittlerweile fast alle, beim ausspielen auf "nur" DV dürfte aber sogar das egal sein. Der Sony-Text zu DVCam:


    During the development of the DVCAM format, Sony engineers saw the potential of applying the consumer DV format's superb picture quality and digital characteristics into the harsh broadcast and professional environment, but they always took into consideration the need for cross-compatibility with the consumer DV format, not just in playback capability, but also in utilizing all the benefits of DV. Thus, two targets had been set, the implementation of the i.LINK IEEE 1394 DV I/O digital information transfer capability, and bringing out the best of the format's Betacam SP level picture quality.


    hs

    Hau man,


    wie oft soll ich es denn noch sagen: Du redest von Grafik, also RGB-WERTEN. Das dein Schnittprogramm das so macht, habe ich schon tausendmal gesagt. Du misst quasi durch das Gerät hindurch, die Anpassung 255-0 auf 16-235 hin zum Video wird doch durch das extrahieren mit dem Scenaylzer (der dazu immer den MC-Codec benutzt, kannst du gern Andreas Winter persönlich fragen) wieder von 16-235 auf 0-255 gestreckt. Aber auch das habe ich doch im Canopus-unterschied genau beschrieben.
    Die Frage die du nach wie vor nicht beantwortet hast: Was macht dein Schnittprogramm mit einem DV-WERT auf DV-BAND der über 235 liegt? Und dass kann ich dir genau sagen: nachdem du ihn mit MSP und MS-Codec bearbeitet hast, kommt auf dem Band max 235 an, da kannst du dich auf den Kopp stellen.

    Die absichtliche Reduzierung des Luminazbereiches würde ich erst mal außen vor lassen. Wenn ich (mit MSP6.5) Vollfarben rendern lasse, bekomme ich nur bei 255er Werten eine Reduzierung auf 253 oder 254, sowohl beim MS- als auch beim MC-Codec. Schwarz (0,0,0) wird nicht verändert. Somit können wir bei diesen beiden Codecs eine unbeabsichtigte Beschneidung der Luminanz ausschließen.


    Da muss ich leider widerspechen und einen Fehler im Messaufbau vermuten. Wenn du in MSP (und das habe ich selber ausprobiert) eine Grafik oder Schrift mit 255,255,255 einfüge, so kommt auf dem DV-Band Wert 235, 128, 128 für Y, Cr, Cb an. Womit wir wieder beim eindeutigen Messverfahren mit Grafiken wären...


    hs

    aber wie bekomme ich das über die DVD auf den Schirm


    Wie gesagt, ist das auch bei einer DVD-Produktion wichtig. Ein Codec der von Anfang an abschneidet, bietet nicht die Möglichkeit eine leicht überbelichtete Szene mit Hilfe eines Filters wieder abzusenken. Das ist aber ein großer Unterschied, bei einem abschneiden bleibt die Zeichnung im Weiß nicht erhalten, bei einer Korrektur aber durchaus. Gerade Vegas ist dabei sehr stark, ist es doch das einzige Programm, was ein nachträgliches Knee im Broadcastlimiter erlaubt.
    Dieser Punkt erinnert mich ein wenig an die Audiotechnik. Auch hier gibt es viele Leute die sagen: Was interessiert mich 24bit/96kHz bei einer CD-Produktion? Spätestens wenn sie aber ein viel zu leises Signal aufholen müssen oder wenn sie ein Stück verlangsamen wollen kommt die bessere Auflösung zum tragen. Wird ein mit 96kHz aufgenommenes Stück mit 50% abgespielt (was bei Trailern oder anderen künstlerischen Veränderungen durchaus vorkommt) ist seine resultierende Auflösung nur noch 48kHz!
    hs

    Hallo Peter,


    ich hatte vor längerer Zeit kurz mal eine Anleitung zum selbsttesten von Schnittprogrammen online. Dafür hatte ich ein DV-File zum Download gestellt und in die Anleitung geschrieben, man müsse es mit dem Scenalyzer als erstes direkt auf DV-ausspielen (um die gleiche Basis zu haben). Danach sollte dann gerndert usw. werden. Ich habe das ganze schnell wieder gelassen, da jeder zweite versucht hat es anders zu machen (die Timeline von Premiere tut es doch auch, dummerweise war eine Matrox-Hardwarecodeckarte eingebaut). Als wichtigstes Kriterium wäre für mich daher die "nicht falschmachbarkeit" zu nennen. Bisher war das für mich das K.O. Kriterium, solltest Du das in den Griff bekommen, werde ich den Test gerne unterstützten. Z.B. kann ich einen Teil zu den Inhalten der Testbilder beisteuern, ich war gerade sowieso dabei für den Mainconcept-Codec Test eine kleine Test-Sequenz zu bauen.


    hs

    Guten Morgen Peter,


    Es ist nicht Aufgabe des Codecs, bestimmte Begrenzungen vorzunehmen
    Damit sind wir völlig einer Meinung!


    Wenn ein Codec im Verhalten ohne Warnung vom Standardverhalten abweicht, dann ist diese "Eigenschaft" ein Fehler
    Auch damit sind wir völlig einer Meinung.


    Da der Microsoft-Codec eine Beschneidung vornimmt (und zwar sowohl in Premiere als auch in Vegas) ist er meiner Meinung nach nicht zu gebrauchen. Da Canopus und Sofo diese Beschneidung nicht vornehemn sind sie gut. So einfach ist das doch oder?
    Nach wie vor steht das doch genauso im Artikel, oder?
    Damit wären wir also wieder bei Ich habe den Artikel sehr wohl gelesen oder?



    hs

    Zum Unterschied zwischen den beiden unterschiedlichen Kennungen: Die "Cdvc"-Kennung hat Mainconcept anscheinend als Kompatibilität zu Canopus-Systemen eingebaut, diese verwenden ebenfalls cdvc. Sinn ist es wahrscheinlich, Canopus-Files auch ohne Canopus-Playback-Codec öffnen zu können.

    hs

    > In diesem Thread hast Du nur einen Link auf den "Canopus-Unterschied"
    > gesetzt! Das hat jedoch mit mit obiger Thematik wenig zu tun.


    Dann hast du diesen Artikel nicht verstanden, denn genau um diese Problematik geht es. Es geht genau darum, dass einige Codecs den vollen Bereich verarbeiten (am Beispiel des Canopus-Codec) und die Konsequenzen daraus, wenn Schnittprogramme damit nicht umgehen können (Schriften und Grafiken mit anderem Kontrastumfang, passender MPEG-Coder usw.). Genauso um die Konsequenzen, wenn der Codec nur 16-235 verarbeitet (Helligkeitssprünge an Übergängen).


    > Da geht es nur um einen Fehler im Canopus-Codec


    Das ist kein Fehler!!! sondern eine Eigenschaft. Diese Eigenschaft hat der SoFo-Codec genauso, nur mit dem Unterschied, dass Vegas im Gegensatz zu Premiere eine Anpassung für Grafiken und Titel bietet (ComputerRGB ->StudioRGB Filter)


    Aber dein Posting zeigt genau das, weshalb ich genervt bin. Die Grundlagen nicht gelesen oder nicht verstanden, selber unkorrekte Schlüsse aufgrund von falschen Messaufbauten oder Verständnisfehlern gezogen, und als einzigen Kommentar "Das soll er mir erst mal beweisen!". Deshalb sagte ich: Es ist mir völlig egal, ob mir jemand glaubt oder nicht. Ich stelle meine Erkenntnisse zur Verfügung, wer sie gebrauchen kann, kann sie gerne benutzen. Wer mir nicht glaubt, auch gut. Ich werde aber nicht zu jedem einzelnen nach Hause fahren und ihm das auf seinem eigenen Schnittsystems vorführen. Dazu habe ich nicht die Zeit und auch nicht die Lust.


    hs

    Und nocheinmal zum Thema Fehler bei Tests:
    Man schaue sich doch einmal die Screenshots der Scopes an. Es geht darum, den Bereich OBERHALB von 100 und UNTERHALB von 0 einzugrenzen oder eben nicht. Was auf diesen Scopes zu sehen ist, ist eine unnötige Kontrastverschlechterung, die videotechnisch unsinnig ist. Es soll bei 100 abgeschnitten werden, nicht bei 93 oder wo das auch immer ist.


    hs

    Und um das ganze noch zu ergänzen:
    Der Unterschied zwischen NullFiltern und Pixelshift ist auch technisch zu erklären, da bei Nullfiltern nur einmal eine Bildanalyse des Codecs stattfindet und intelligente Codecs auch bei erneuter Anaylse zum selben Ergebnis kommen, faktisch also kaum bis nichts ändern. Bei Pixelshift wird die Bildanalyse logischerweise immer erzwungen.
    Der große Einwand beim Einsatz von Grafiken ist ihre Erstellung: Fast alle ziehen einfach nur die Grafik in die Timeline und rendern damit run. Das führt aber je nach Codec zu völlig unterschiedlichen DV-Signalen, wie ich bereits mehrfach, unter anderem auch nachlesbar im "Canopus-Unterschied", erklärt habe. Wer Grafiken zum testen benutzen möchte, sollte sie mit einem Codec, von dem er weiss, dass er den vollen DV-Range von 0-255 besitzt, codieren und auf DV-Band ausspielen. Dieses Band kann dann als Grundlage dienen, die Grafik selber gehört da nicht mehr hin.
    Die Bildbewertung selber sollte auf geeignetem Equipment erfolgen, ich habe Dutzende EMail bekommen, die bei den Codec-Test-Bildern auf Slashcam keinen Unterschied sehen konnten. Sie versuchten es auf einem TFT mit 6bit-Quantisierung...
    hs

    -Ich habe ja nichts gegen fundierte Aussagen, die mit nachvollziehbaren
    -Beispielen bewiesen werden. Einfach "dem Profi glauben" ist nicht mein Ding!
    -Der Profi soll mir bitteschön sagen wie er zu seinem Ergebnis kam und ich
    -werde dieses nachvollziehen (oder nicht)
    Den Testaufbau habe ich auf Slashcam im "Canopus-Unterschied" dokumentiert und mit dem Sofo-Codec nachvollziehen können. Sofo reagiert genauso wie Canopus und Cinestream (PC), Microsoft reagiert genauso wie Mainconcept (bis 2.1) und Quicktime (StandardDV, VS5). Das lässt sich auch innherhalb von Vegas mit den scopes nachvollziehen, auch das habe ich schon geschrieben. Übrigens gibt es zu diesem Thema ungefähr 1000Postings, sollte ich es jedem einzeln wieder von vorne erklären, würde ich zu nichts anderem mehr kommen. Glaubt es oder nicht.


    -Das kann ich leicht nachvollziehen - und sehs genauso! Profis vor - wo sind
    -die neuesten Testergebnisse??
    Ich bin daran, veröffentlicht wird das ganze aber erst wenn die Version 2.31 vom Mainconcept-Codec vergestellt ist. Dieser bietet nämlich die Möglichkeit, innerhalb des Codecs umzuschalten. Näheres wird dann auf Slashcam nachzulesen sein.


    Und: ja, in den Videoeinstellungen des Vegas-MPEG-Encoders lässt sich das Verhalten anpassen. Ich werde das aber zur gegebenen Zeit als Tutorial veröffentlichen und nicht jedem einzelnen posten. Zeit ist Geld und von beidem habe ich zu wenig.


    hs