Verteiltes Encoden ist halbes Encoden?

  • Hallo,


    mein Rechner ist grade mit seiner 22 Stunden (!) Rechenarbeit für mein DV zu DVD Material fertig.


    Ich habe dazu TMPG und "high quality" Einstellungen benutzt. (diese hier: http://dvd-hq.info/Compression.html + 2 Filter)


    Das Ergebnis überzeugt mich, diese lange Rechenzeit auf mich zu nehmen. Allerdings ist die Zeit ja nicht unwesentlich. Ich habe eine P4 1,8GHz mit 512MB RAM.


    Meine Frage ist:
    Gibt es Lösungen, Tools oder sowas, wo man übers Netzwerk mehrere Rechner mit einspannen kann? Ich habe noch einen 1,6 GHz Laptop, einen K6-3 450 MHz und nen 360 MHz Router (allerdings mit Linux).


    Eine Lösung wäre wohl, das Ausgangsmaterial zu teilen und dann einzeln auf den Rechnern (zumindest auf PC und Laptop, die anderen beiden sind wohl der Leistung wegen zu vernachlässigen) encoden zu lassen.
    Und die mpg-Streams hinterher im Authoring-Prog einfach hintereinander zu setzen.
    Wäre diese Lösung praktikabel? Würde es unterschiede zwischen den Teilen ergeben (gleiche Encoder Einstellungen vorausgesetzt)?
    Würde der Übergang zwischen den Teilen nahtlos sein?


    Gibt es sonst irgendwie Tools oder ähnliches die solch ein "verteiltes Encoden" ermöglichen?

  • Wäre diese Lösung praktikabel?
    NEIN


    Würde es unterschiede zwischen den Teilen ergeben (gleiche Encoder Einstellungen vorausgesetzt)?
    NEIN


    Würde der Übergang zwischen den Teilen nahtlos sein?
    NEIN

  • Naja,


    Du könnest vielleicht etwas überlappende Streams erzeugen und die dann mit der Merge-Funktion von TmpgEnc zusammenfügen. Das sollte gehen. Allerdings ist das bei DEN Unterschieden in der Taktfrequenz dann auch wenig praktikabel.
    Wirklich schneller wäre da schon ein flotterer Rechner mit SSE2.
    Ansonsten ist Linux ja gut geeignet, um die Aufgaben auf mehrere Rechner zu verteilen ( Cluster ). Das war aber, glaub' ich, nicht das, was Du gemeint hast, und die Rechner sollten auch hier wenigstens annähernd gleich takten.


    MfG E.Z.