Downskalierung Avisynth vs. NLE's

    • Offizieller Beitrag
    Zitat

    Original von goldwingfahrer
    ...haben vermutlich vergessen als Testbeispiel eine
    HDV to DVD konvertierung vorzunehmen.


    Sind die Ergebnisse denn im Vergleich zu den anderen Schnittprogrammen schlechter? (Der Vergleich mit einer AVS-Konvertierung gilt nicht :wink:).


    Viele Grüße
    Marcus

    Kalorien sind die kleinen Tierchen, die im Kleiderschrank die Hosen enger machen. .


    Der Propeller eines Flugzeuges ist nichts weiter, als ein überdimensionaler Ventilator, der den Piloten im Fluge kühlt.
    Der Beweis: Hört der Prop auf zu drehen, fängt der Pilot an zu schwitzen
    .
    :pilot:

  • Zitat

    (Der Vergleich mit einer AVS-Konvertierung gilt nicht ).


    Hoheit...das kann ich nicht gelten lassen. :D



    hier nun mal einen Vergleich zwischen einer Down-Konvertierung aus Premiere und das Selbe per AviSynth.


    wo....


    na hier

    • Offizieller Beitrag

    Ich wußte natürlich, dass genau dieser Thread zur Sprache kommt, den ich selbstverständlich auch kenne.
    Aber in der Zeitschrift wurden ja Schnittprogramme miteinander verglichen :wink:
    Das AVS hier bessere Ergebnisse bringt, ist das eine. Aber das bringt es auch gegenüber allen Schnittprogrammen.
    Nehmen wir jetzt also AVS, welches ja kein Schnittprogramm ist, raus und vergleichen dann, würd mich interessieren ob es tatsächlich die besseren Ergebnisse liefert.


    Wie gesagt, die AVS-Ergebnisse sind beeindruckend, aber dürften hier bei der Bewertung nicht einspielen, wenn es nur um Schnittprogramme geht oder?


    Viele Grüße
    Marcus

    Kalorien sind die kleinen Tierchen, die im Kleiderschrank die Hosen enger machen. .


    Der Propeller eines Flugzeuges ist nichts weiter, als ein überdimensionaler Ventilator, der den Piloten im Fluge kühlt.
    Der Beweis: Hört der Prop auf zu drehen, fängt der Pilot an zu schwitzen
    .
    :pilot:

  • Wir sollten in der Tat Schnittprogramme miteinander vergleichen.


    Die Unterschiede in dem andern Thread kommen dadurch zustande, daß das AVS-Bild beim Herunterrechnen eingeschärft wurde - man kann es deutlich an dem grünen Grasbüschel erkennen, das genau genommen unnatürlich wirkt. Es ist nicht anders als bei jedem Bildbearbeiter: das Herunterskalieren macht ein Bild IMMER weicher als vorher, erst wenn man anschl. einen Scharfzeichner (Kantenaufsteilung) drüberlegt erscheint es schärfer.


    Diesen Schärfefilter besitzen Schnittprogramme nicht - wohlgemerkt beim Exportieren !
    Beim Premiere-Export kann man zwar einen Weichzeichenfilter dazuschalten, jedoch keinen Schärfefilter. Warum das so ist hat sich mir noch nicht ganz erschlossen.
    Wie siehts bei den Ediussen und den Vegasianern aus?
    Sagt mal.
    Gruß Wiro

  • Haaalloooo, Freunde von den anderen Fraktionen,
    jetzt sagt halt, ob es bei Eueren NLEs beim EXPORT eine spezifische Einstellung gibt, mit der man bestimmen kann ob geschärft werden soll oder nicht. Sie müßte Scharfzeichnen ja/nein oder Antialiasing ja/nein heißen.


    Vielleicht wechsle ich dann ja das Lager....
    :feixen::feixen::feixen:
    Gruß Wiro

    • Offizieller Beitrag

    Moin,
    Du kannst in Edius die Projektsettings beliebig ändern, innerhalb der Norm PAL bzw. NTSC, nicht zwischen den Normen. Du änderst also von HD zu SD und schwupps ist es umskaliert. Danach erstellst Du eine neue leere Sequenz und legst auf diese Sequenz Deinen Schärfefilter und expotierst dann.
    Das wäre dann Software Only.
    Ich hab keine Zeit, daher habe ich nur kurz einen Vergleich zwischen Edius5 mit HDStorm und Edius mit mit NX gemacht. Die NX Variante war besser. NX mit Edius5 steht noch aus.
    Anton , Australischer Edius gibt auch eine externe Lösung fürs Downkonvertieren an.
    Ich habe mir ein etwas anspruchsvolleres Bild ausgesucht, habe aber nicht alle Methode durchexersiert. Keine Zeit. Vielleicht am WE.
    Gruß
    Ulrich

  • Zitat

    Original von WeiZen
    Keine Zeit. Vielleicht am WE.


    Danke Ulrich, das reicht mir schon.
    Lassen wir mal Virtual Dub, Avisynth und Konsorten ganz außen vor - also nur NLE.


    Dein Workaround-Weg ist nahezu identisch mit Premiere:
    Im HDV-Projekt neue Sequenz anlegen mit DV Wide, HDV-Sequenz reinziehen und schwupp ist es zu DV Wide runtergerechnet. Jetzt auf die DV-Seq den Schärfefilter legen und exportieren.


    Mir ging es in 1. Linie darum, ob in anderen NLEs im Exportmenue ein Schärfefilter vorgesehen ist. Scheint nicht der Fall zu sein.
    Brauch also das Lager nicht zu wechseln...
    :bgdev:
    Gruß Wiro

  • Zitat

    Brauch also das Lager nicht zu wechseln...


    Das hättest Du auch nie gemacht....zu fest schon auf Dein Programm verwurzelt :feixen:


    Zitat

    Mir ging es in 1. Linie darum, ob in anderen NLEs im Exportmenue ein Schärfefilter vorgesehen ist.


    Einen "Steuerbaren" will sagen,durch den User,regelbar,nein.
    "Export" geht hier in vielen Fällen aber nicht ab Edius sondern per Procoder.

  • Zitat

    Original von Wiro
    Mir ging es in 1. Linie darum, ob in anderen NLEs im Exportmenue ein Schärfefilter vorgesehen ist. Scheint nicht der Fall zu sein.
    Brauch also das Lager nicht zu wechseln...
    :bgdev:
    Gruß Wiro


    Aber klar geht das. In Vegas kann ich über ein Ausgabescript jeden beliebigen Filter über den Output legen. Mal ganz davon abgesehen, dass man ja auch im Projekt selbst jeden Filter oder Filterkombi auf den Output legen kann.

  • und wem es nicht drauf ankommt, seinen Urlaubsfilm noch im gleichen Jahr
    der Erstellung zu sehen, der nutzt das AVS plugin für Premiere.
    Der AE Nutzer skriptet halt dort.

    • Offizieller Beitrag

    Was ich mich allerdings hier schon frage ist:
    Wieso muss überhaupt irgendwas nachgeschärft werden???


    Das widerspricht doch zunächst mal einer jeden Logik, wenn ich als Quellmaterial ein wesentlich hochauflösenderes habe, als das Ziel es sein wird.
    Das müsste doch auf den ersten Gedanken so schon knackescharf sein.
    Warum ist es nicht so?


    Ja, ich habe natürlich eine Idee, warum das so sein könnte, weiß es aber nicht und es interessiert mich.


    Und ich muss zugeben, dass es mich etwas wundert, dass zwar danach gefragt wird, ob eine solche Nachschärfung, so es eine ist, auch in anderen Programmen möglich ist, aber keiner fragt, warum das überhaupt erforderlich ist.
    Da wird hochwertiges Quellmaterial genommen, verliert beim downkonvertieren und soll dann künstlich nachgeschärft werden :gruebel:.
    Klingt doch wirklich unlogisch oder? (zumindest auf den ersten Blick)
    Da würde ich eher wissen wollen, wie ich das hochwertige Material gar nicht erst kaputtmachen muss. :wink:



    Viele Grüße
    Marcus
    [SIZE=1](Haben wir hier schon wieder was zum abtrennen? :wink: )[/SIZE]

    Kalorien sind die kleinen Tierchen, die im Kleiderschrank die Hosen enger machen. .


    Der Propeller eines Flugzeuges ist nichts weiter, als ein überdimensionaler Ventilator, der den Piloten im Fluge kühlt.
    Der Beweis: Hört der Prop auf zu drehen, fängt der Pilot an zu schwitzen
    .
    :pilot:

  • Zitat

    Da würde ich eher wissen wollen, wie ich das hochwertige Material gar nicht erst kaputtmachen muss.


    brenne es auf eine Bluray, spiele es über Medienspeicher oder geh direkt von der Cam zum Anzeigegerät.( wenn dieses dann in der Zielauflösung darstellt)

    • Offizieller Beitrag

    Ich wusste, dass diese Antwort kommt :) :cheese:
    Aber es geht ja darum, aus dem HD-Material SD-Material zu generieren :wink:.

    Kalorien sind die kleinen Tierchen, die im Kleiderschrank die Hosen enger machen. .


    Der Propeller eines Flugzeuges ist nichts weiter, als ein überdimensionaler Ventilator, der den Piloten im Fluge kühlt.
    Der Beweis: Hört der Prop auf zu drehen, fängt der Pilot an zu schwitzen
    .
    :pilot:

  • es scheint halt so zu sein, dass jedes scaling, ob hoch oder runter, mit Verlusten behaftet ist. Den genauen Aspekt werden die Physiker nachreichen.

    • Offizieller Beitrag

    Weil wir damit den Skaler des Sich/Abspielgerätes testen.
    Wir sehen das downkonvertierte nicht mehr Nativ, wenn es keine Röhre ist. Der sichtbare Unterschied aus 2m zwischen Röhre (nativ und interlaced) und LCD(hochskaliert und progressiv) ist vorhanden. Wobei es beim letzteren ein Unterschied ist, ob die TVIX Dose skaliert oder der LCD.
    So sieht mein obiger Anhang, auf dem Büro Display(gleiches wie Zu Hause)aufgrund der GraKa anders aus.

    • Offizieller Beitrag
    Zitat

    Original von Jörg
    Den genauen Aspekt werden die Physiker nachreichen.


    Auch als Nichtphysiker hier mein Gendankenansatz:


    Wenn ein Bild hochskaliert werden soll, sagen wir auf doppelte Bildgröße, dann muss ich, bzw. die Software, aus einem Pixel vier Pixel erzeugen.
    Jedem ist klar, dass dies zu Verlusten führt, denn das kann ja nur auf der Basis von Berechnungen stattfinden, die tatsächliche Bildinformation ist ja nicht vorhanden.
    Je nach dem, wie gut diese Berechnungen sind und wie gut auch das Quellmaterial ist, kann man damit besser oder schlechtere Ergebnisse erzielen.


    Genauso stelle ich es mir beim runterksalieren vor:
    Zwar ist die Bildinformation in der Quelle vorhanden, aber sie nützt nur wenig, denn ich muss nun, wenn ich von einer Halbierung der Bildseiten ausgehe, aus vier vorhandenen Bildpunkten einen einzigen machen.
    Der besteht demnach aus dem Matsch, den alle vier zuvor beinhalteten.
    Es müsste also vom Programm bewertet werden können, welche Pixel erhalten werden müssen und welche entbehrlich sind.


    Keine Ahnung, ob das so stimmt oder ob es solche Algorithmen gibt.
    Interessiert mich schon.


    Viele Grüße
    Marcus

    Kalorien sind die kleinen Tierchen, die im Kleiderschrank die Hosen enger machen. .


    Der Propeller eines Flugzeuges ist nichts weiter, als ein überdimensionaler Ventilator, der den Piloten im Fluge kühlt.
    Der Beweis: Hört der Prop auf zu drehen, fängt der Pilot an zu schwitzen
    .
    :pilot:

  • Das ist hier ja ganz schön weg vom Thema ...


    Was mich etwas wundert - beim einfachen Downskalieren direkt per Schnittsoftware entstehen offensichtlich immer wieder auch Probleme in die ganz andere Richtung, sprich: Flimmern an Kanten, von dem ich bisher davon ausging, dass es gerade durch die hohe Schärfe zustande kommt. Sichtbar dementsprechend nur bei Halbbildsignalen, dargestellt auf guten, alten TV-Röhrenmonitoren. Durch nachträgliches Unschärfen war das lösbar, aber so nicht unbedingt gewollt.


    Eine nachträgliche Kantenaufschärfung müsste dieses Problem ja noch verstärken. Ich hab's allerdings auch nie genauer untersucht.


    Interessant finde ich den Ansatz per AVS ja schon, auch die Überlegung, wo denn nun der Schärfevorteil großteils herkommt und ob das nicht doch auch innerhalb der NLEs zumindest ähnlich reproduzierbar wäre.
    Wenn die erstaunlichen Vergleiche NLE gegen AVS darauf basieren, müsste entweder der Schärfeprozess in AVS unterbunden werden oder ein solcher in der NLE eingefügt werden. Sonst wäre es ja wieder Äpfel und Birnen. Entweder wird dann wirklich nur der Skalierungsprozess verglichen oder aber man vergleicht alle gegebenen Möglichkeiten, die dazu beitragen, das Bild nach der Skalierung möglichst "gut" oder "scharf" aussehen zu lassen.


    Marco

  • Zitat

    Eine nachträgliche Kantenaufschärfung müsste dieses Problem ja noch verstärken.


    genau so ist es. Wunderbar zu sehen bei Fahnen- und Segelmasten.

    • Offizieller Beitrag
    Zitat

    Original von Avalon
    Wenn die erstaunlichen Vergleiche NLE gegen AVS darauf basieren, müsste entweder der Schärfeprozess in AVS unterbunden werden oder ein solcher in der NLE eingefügt werden. Sonst wäre es ja wieder Äpfel und Birnen. Entweder wird dann wirklich nur der Skalierungsprozess verglichen oder aber man vergleicht alle gegebenen Möglichkeiten, die dazu beitragen, das Bild nach der Skalierung möglichst "gut" oder "scharf" aussehen zu lassen.


    Stimmt schon, aber muß man das?
    Unbestritten ist doch, das AVS besser schärfen kann als ein NLE.
    Letzlich kommt es ehr auf das Endergebnis an, auch wenn es ein Äpfel und Birnenvergleich ist. Somit wäre eine offene Archtektur der NLE's gegenüber AVS Filtern wünschenswert, oder deren Nachbau.
    Das leistungsmäßige Optimun der Filter selbst herauszufinden(für den eigenen PC) ist ja nicht gerade trivial. Für die breite Masse eigentlich nur machbar wenn die Community zu einem Scripr auch gleich die Filter mit einpackt und deren Bedingungen erläutert. Siege der kürzliche VHS Bildverbesserungsthread.


    Zitat

    Original von Jörg


    genau so ist es. Wunderbar zu sehen bei Fahnen- und Segelmasten.


    wobei das bei NLE's ehr zu beobachten ist, als bei AVS Filtern.

  • Auch hier wurde schon gerätselt.
    Muss aber ehrlich sagen,hab mich nie weiter drum gekümmert.X


    Zitat

    müsste entweder der Schärfeprozess in AVS unterbunden werden oder ein solcher in der NLE eingefügt werden.


    Das erstere wird ganz sicher nicht passieren.
    Das zweitere auch nicht.....eher als "Filter" z.Bsp.im Procoder,Rhozet CC oder in Squeeze.


    X warum nicht.....habe selten so gute Quali um da noch was verbessern zu müssen.
    In der Regel kann man ja ab der Timeline oder ab Procoder das Bild an den Röhren-TV und an den Plasma-TV leiten und da die je nach Quali benötigten Filtereinstellungen vornehmen.


    Das Vergleichen der Unterschiede,vorher und nachher z.Bsp. mit 2-maligem öffnen von VDub ist ja nur ein Notbehelf,muss ich hier eigentlich nicht erwähnen.