@ Roland
Wenn du mal in den Thread schaust, geht es um analoge Signale. Diese dürften weder einen Header, noch irgend eine Art von DV-Komprimierung haben.
@ Peter
Es geht doch um folgendes: Ich will mein Videos auf einem TV sehen, um sie beurteilen zu können. In der Regel erfolgt diese Ausgabe über DV (zumindest unterstützen 95% aller Programme diese Art der Ausgabe), an die DV-Buchse wird dann eine Kamera oder ein Konverter angeschlossen. Wird jetzt ein Effekt in der Timeline benutzt, so muss A. der Effekt berechnet werden und B. das neu berechnete Signal wieder DV-komprimiert werden. Diese beiden Dinge passieren unabhängig voneinander und an verschiedenen Stellen. Sie beanspruchen aber zeitgleich Rechenleistung. Benutze ich eine OHCI-Lösung, so wird bei diesem Vorgang diese Rechenleistung etwa so aufgeteilt: 1GHz für DV-Codierung, 1.4GHz für die Effektberechnung. Die Konsequenz ist, dass bei zwei oder drei gleichzeitig angewandten Effekten die Rechenleistung für eine Echtzeitausgabe nicht mehr ausreicht. Sie würde aber ausreichen, wenn ich zusätzlich die 1Ghz der DV-komprimierung zur Verfügung hätte. Das unterstützt z.B. die DVStorm, indem sie die DV-Komprimierung (und nur diese) in einen eigenen Hardware-Codec auslagert. Dadurch spielt sie auf denselbem System mit der derselben Software 3-4 Effekte mehr in Echtzeit ab.
Übrigens: Wie du selbst richtig bemerkt, lässt sich rendern gut mit berechnen übersetzten. Wenn diese Berechnung in Echtzeit passiert, wiese ist dann ...dem Rendern für die Echtzeitausgabe ...? ein Widerspruch in sich selbst?
hs