Dual Prozessor oder Hyperthreading in MSP7?

    • Offizieller Beitrag

    Moin Georg,
    ein Systemwiederherstellungspunkt ist das Image für kleine Leute, nein ehr nicht. TrueImage oder DriveImage ist das einzig wirklich sichere.
    Gerade als PC Idiot hat mir Drive Image, TrueImage gab es damals noch nicht, gute Dienste geleistet und viel Arbeit erspart.
    Gruß
    Ulrich

  • Georg noch was:
    An den Ton der hier vorherrscht solltest Du dich gewöhnen. Habe selbst zwar schon öfters darauf hingewiesen, dass Duelle mit Fremdwörtern eigentlich unnötig sind wie ein Kropf, aber manch "Pseudoakademiker" kanns halt nicht lassen. Heute lächle ich nur noch darüber, weil diejenigen eigentlich sonst ganz in Ordnung sind. Einen kleinen Knall hat von uns sowieso jeder, wenn man sich so ein ( teures ) Hobby raussucht :D


    Den Fehler den man als erfahrenerer Anwender immer wieder macht, ist halt der, dass man immer wieder zu viel voraussetzt. Wie ich lese hast Du dass hervorragend dargestellt.

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

    • Offizieller Beitrag

    Moin,
    @ All


    so kann man das auch nicht sehen. Der eine fühlt sich als Dummverkauft, wenn man zu detailliert ist, der andere wiederum, wenn man es nicht ist. Woher soll ein Poster wissen, was der andere weiß bzw. nicht weiß? Es kann doch keiner verlangen alles detailiert zu beschreiben? Wie lang werden dann die Antworten und das wesentlich geht dabei unter? Man hat ja schließlich auch noch was anderes zu tun.
    Und macht man es dennoch, kommt garantiert aus einer Ecke wieder eine andere Unmutsaüßerung. Auch das hatten wir hier schon.
    Nein rechtmachen kann man es nie allen.


    Fazit:
    Also lassen wir alles wie es ist. Wer etwas nicht versteht, soll nachfragen, dann folgt die Erklärung.


    Gruß
    Ulrich

  • @Ulrich:
    @All:


    Darum wäre mal wieder ein Treffen angesagt, bei dem man so richtig fachsimpeln könnte.


    Das geschriebene kann das gesprochene, erklärende Wort nicht ersetzen, auch wenn sich manche einen Duden neben den PC legen.


    Es fällt nämlich oft auf, dass ein Thread von ganz banaler Thematik in einen Monsterthread auswuchert, nur weil manche glauben, Ihre "Intelligenz" zur Schau stellen zu müssen, indem Sie Redewendungen und Fremdwörter einbauen, die kein normaler Mensch mehr versteht.


    Selbst bin ich bestimmt nicht ganz ungebildet, aber was in diesem Board schon abgelaufen ist, lässt einem manchmal an den Kopf fassen und nachdenklich werden, ob so mancher noch alle Tassen im Schrank hat. :feixen:

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

  • OK, vielen Dank für die Hilfe! Ich interpretiere das so, dass keiner von euch ein Doppelprozessorsystem hat und Hyperthreading eine Konfigurations- bzw. Patchfrage ist. ich werde wohl mal irgendwie gucken sowas mal auszuprobieren. danke nochmal!

  • Hallo Loddarius,


    Hyper-Threading ist ein Mehrprozessor-System, wenn es auch dem BIOS dieses nur vorgaukelt. Wenn Du mal im Gerätemanager unter Prozessoren nachschaust, dann siehst Du, dass dort zwei gleiche Prozessoren eingetragen sind, bei einem Prozessor nur einer.
    Beim Intel-Desktop-Control-Center, das aber nur auf bestimmten Intel-Boards läuft, kannst Du sagar die Auslastung der beiden Prozessoren in Prozent und grafisch dargestellt sehen. Aber nicht alle Programm unterstützen eben die Zwei-Prozessor-Technik. Wenn ja, dann ist ein beträchtlicher Leistungsschub feststellbar.


    Highfire

  • @Deepwater:


    Vor allem nicht alle Betriebssysteme unterstützen die Mehrprozessortechnik! Programm und Betriebssystem müssen das Hyperthreading unterstützen.


    .... und sooooo gewaltig sind 10 bis max. 20% nun auch wieder nicht .....


    Im Normalfall bringt ein "sanftes" Übertakten von 15-20% mehr, weil dieser Leistungsschub immer kommt - außer man hat beides in der Hinterhand. :huahua:


    Viele Grüße
    vom Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Hallo Peter,


    ich hab das mit dem Übertakten schon in deinem letzten Beitrag mit Interesse gelesen. Wie übertaktet man denn Prozessoren und wie stark kann man welche Prozessoren übertakten?

  • @Load r us:


    Z.B. mit dem FSB im Bios.


    Weiter möchte ich mich hier dazu nicht auslassen, da dieses wiederum eine Kunst für sich ist. Es gibt eigene Foren und Sites die sich mit dem Thema beschäftigen. Irgendwie spinnert, die Leute - fast so schlimm wie die Videoschnipseler! Wer interessiert ist, der googele nach Overclocker, Overclocking, Übertakten, etc.


    Von den Fundstellen wird man schier erschlagen und die Tips reichen aus, drei bis zwölf Prozessoren über den Jordan zu schicken! :bgdev:


    Viele übertaktete Grüße
    vom Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Also ich warne auch davor zu übertakten wenn man nicht genau weiss was man eigentlich macht. Im übrigen ist es nicht alleine die Taktfrequenz der CPU, die proportional eine höhere Systemperformance ausmacht. Unerklärliche Abstürze und sonstige "Ungereimtheiten" können einen zum Wahnsinn treiben. Das Märchen, dass die CPU-Hersteller nur unterschiedlich labeln und in jedem Prozessor ein Wolf im Schafspelz steckt.... Nun, wer´s glaubt.
    :shake:


    Thema Hyprertreading:


    Bei vielen Anwendungen bringt das gar nichts!


    Beispiel: Encoding zu Mpeg2. Wenn der Encoder in >Echtzeit komprimieren soll, wird der Prozessor gefordert. Hier die CPU-Leistung in zwei Teile aufteilen, was sollte das noch zusätzlich bringen? Habe ich selbst mit meinem 2.8 Ghz P4 getestet. Der CCE Basic wird nicht schneller, ob HT aktiviert oder deaktiviert.

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

    Einmal editiert, zuletzt von Callboy ()

  • Ernst:


    Trotz meiner (inzwischen zwei) um 14% übertakteten P4 HT Prozessoren scheinen die "unerklärlichen Abstürze" mich zu meiden! Vielleicht liegt´s auch einfach daran daß ich Deinen Rat berücksichtige und weiß was ich mache? Wenn ich recht überlege weiß ich das eigentlich immer - oder wenigstens meistens! :D


    Zu dem zweiten Teil Deiner Aussage verkneife ich mir jetzt eine Abhandlung über den Vorteil der parallelen Informationsverarbeitung. Die Wetterfrösche berechnen auch nur ein Wetter und sind froh über jeden zusätzlichen Prozessor. Vielleicht könnte man dem CCE-Encoder auf die Sprünge helfen wenn man den Programmierern erklärt daß jeder Prozessor sich sich um ein Halbbild kümmern möge?


    Mit parallelen Grüßen
    vom Peter



    P.S.
    An dem Problem, wie ich die Echtzeit schneller machen soll, arbeite ich noch! Beim Fußball habe ich´s schon geschafft: Da habe ich Dank Hyperthreading zwei Halbzeiten... :wink:

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Peter:


    Tja, da haben wir uns mal wieder falsch verstanden... :D


    Echtzeit:
    Ich schaffe nämlich tatsächlich DV Material - das sich natürlich auf der Platte befindet- in ca. 60-70% der Echtzeit zu Mpeg2 zu komprimieren mit dem CCE.
    ( Bei Live Aufnahmen - z.B. Fussball- müssten die also etwas schneller dem Ball hinterherlaufen, was manchmal nicht schaden würde. Das Spiel würde auch nicht so lange dauern ). :D



    HT:
    Ich meinte, das beträfe in der Regel Multitasking, lasse mich aber gerne eines besseren belehren.


    Übertakterei:


    Glück, Verstand oder von dem einem mehr als vom anderen? :huahua::feixen:

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

  • Ernst:


    Darüber haben wir schon mehrmals diskutiert und ich habe mich von den Canopus-Jüngern von folgender Definition überzeugen kassen:


    Echtzeit bedeutet, daß außer der Übertragung von einem Ort zum anderen keine weitere Zeit benötigt wird. Das heißt, daß Effekte mit dem Stream berechnet werden, quasi im Hindergrund. Daß die Berechnung dann schneller passieren muß als die Zeit, in der ich das Video ansehe ist logisch - oder? Das Video muß gleichzeitig berechnet und übertragen werden.


    Was Du meinst ist eine Verkürzung der Renderzeit. Natürlich ist durch massiv parallele Berechnung eine Verkürzung der Renderzeit möglich. Die Rechenprozesse müssen so geplant und verwaltet werden daß die CPUs nur an den Schnittstellen der gegenseitigen Beeinflussung der Rechenergebnisse synchronisiert werden. Im günstigsten Fall wäre für jedes Pixel ein eigener Prozessor vorhanden, wobei jeder möglichst auf eigenen Speicher zurückgreifen kann. Also wäre ein 414720er Cluster das Nonplusultra für den Videoschnitt. Fragt sich nur wer die Millionen von Abhängigkeiten der örtlichen und zeitlichen Nachbarprozesse programmieren soll. Der größte in Betrieb befindliche Cluster ist, glaube ich, z. Zt. bei knapp 10.000 Prozessoren. Soviel zur Verkürzung der Rechenzeit durch Mutliprozessorsysteme. HT ist auch ein Multiprozessorsystem (für Arme).


    Für das Multitasking ist das Betriebssystem, für die Aufteilung und Abstimmung der parallelen Rechenprozesse ist das Programm zuständig, wobei die Grenzen fließend sind.


    Bezüglich des Glücks kann ich nur sagen daß es mir in knapp 25 Jahren Übertakten (seit dem ersten Z80) ziemlich treu geblieben ist. Getreu dem alten Sinnspruch: Das Glück gehört dem Verständigen (oder so)! Sicher, der eine odere andere Prozessor ist dabei abgeraucht. Das waren fast alles AMDs und Cyrixe - sowieso alles Schrott ! :bgdev:


    Mit parallel übertakteten Grüßen
    vom Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Peter:


    Zitat

    Was Du meinst ist eine Verkürzung der Renderzeit. Natürlich ist durch massiv parallele Berechnung eine Verkürzung der Renderzeit möglich.


    Ahhh, siehst Du, wieder was dazugelernt. Habe mich also falsch ausgedrückt. :shake:


    Was mir noch nicht ganz einleuchtet ist die Tatsache, dass ein geteilter Prozessor schneller sein soll, als ein "ganzer".


    Ich dachte mir nämlich, für so Anwendungen wie Tabellenkalkulationen etc. wäre es besser die Multitaskingfähigkeit des OS auch Hardwaremässig -also durch HT- zu unterstützen, weil dort die ( einzelne ) CPU Leistung nicht eine derart grosse Rolle spielt, wie bei unseren typischen Videoanwendungen.


    ( Hatte mal ein Dualboard in den Fittichen gehabt. Damals meinte ich auch 1+1 gäbe 2, obwohl der CCE SP Multiprozessorsysteme angeblich unterstützt. Das Resultat war damals ernüchternd und entäuschte mich eher als es begeisterte. OS war W2k ).


    Heute bin ich soweit, dass ich mir sage ein ~3 GHz Power-PC ist mehr als ausreichend für mein Hobby ob nun mit oder ohne HT ( das mich bisher noch nicht vom Hocker gehauen hat ). :shake:


    Geteilte ...

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

  • Ernst:


    In diesem Fall gibt 1+1 maximal 1,2! Der Löwenateil der Rechenpower wird nämlich durch die Parallelisierung der Rechenprozesse, durch schlampige Programmierung durch geteilte Ressourcen etc. pp. verbraten.


    Nimm an, ein Prozessor berechnet den Status zweier Pixel zur Zeit X in einer bestimmten Zeit. Das heißt nun nicht daß zwei Prozessoren dieses in der halben Zeit können! Beide Pixel sind unter Umständen in den Ergebnissen voneinder abhängig und insgesamt wiederum vom Gesamtergenis (z.B. bei Iterationen). Somit muß zunächst einmal geklärt werden wo welche Rechenergebnisse zeitliche Abhängigkeiten bilden und wie die Rechenvorgänge von einer zur anderen Abhängigkeit auf mehrere Prozessoren verteilt können. Dann müssen die Ressourcen zugewiesen werden, der Systembus, der Speicher, der Copro, die Caches, die DMA, die Interrupts und was weiß ich noch alles.


    Zum Schluß muß alles wieder zusammengeführt und und einem Ergebnis verknüpft werden um den nächsten Abschnitt zu parallelisieren. Die Parallelverarbeitung ist bei P´Cs ein alter Hut. Denke mal an den Festplattencontroller, an die DMA, an die Grafikkarte.


    Wenn CCE nicht mindestens 18-20% schneller wird, ist es schlampig programmiert! Sie behaupten ja auch nicht daß HT effektiv oder optimal unterstützt wird! Im Prinzip wird HT schon unterstützt wenn ich einmal im Programm überprüfe ob HT vorhanden ist und ob man parallel rechnen könnte. :D


    Viele Grüße
    vom Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.

  • Peter:


    Zitat

    Im Prinzip wird HT schon unterstützt wenn ich einmal im Programm überprüfe ob HT vorhanden ist und ob man parallel rechnen könnte.


    Der war gut! :headbanger::D


    Das alles ist mir mittlerweile etwas zu hoch geworden.
    In den Zeiten als ich noch SPS, den Motorolla 68000 etc. etc. teilweise in Assembler programmierte, war es oft vonnöten -bei schnell laufenden Prozessen- genau die Taktzyklen pro Befehl zu wissen. Die CPU´s liefen auf Anschlag damals und man musste sich schon genau überlegen wieviel Zeit man durch Subroutinen etc. verbraten durfte.
    Heute nehmen die Programmierer irgend eine höhere Programmiersprache, compilieren und verbraten jede Menge Rechenpower, weil sie den Befehlsatz der ( neuen ) CPU´s noch nicht mal richtig kennen bzw. von der Programmiersprache nicht beherrscht wird. Wenn maschinennah programmiert würde wie damals, hätten heutige Programme eine irrwitzige Geschwindigkeit mit diesen CPU´s, Grafikprozessoren usw. usw..


    Die Folge heutiger "Programmierkunst" sind oft derart künstlich aufgeblasene Programme, dass es einem Angst wird, soetwas zu installieren. Gerade in unserem Bereich!


    Ich weiss, dass Du den Mpeg Video Wizzard von Womble nicht magst, aber bei dem habe ich das Gefühl, dass der gut programmiert wurde. Das ganze Ding ist nur ein paar MB gross und läuft absolut stabil, auch der eingebaute MPEG Encoder ist m. E. eine Wucht. ( Der MVW fiel mir jetzt nur so als Beispiel spontan ein ). Dem Herrn Chang von Womble traue ich auf jeden Fall zu HT optimal auszunutzen. Stehe in regem Mailkontakt mit dem und habe schon das Gefühl, dass der weiss was er programmiert.


    :feixen::D

    Grüsse vom
    Laird of John O´Groats
    Ernst :headbanger:
    Zu erkennen, dass man sich geirrt hat, ist ja nur das Eingeständnis, dass man heute schlauer ist als gestern.
    Johann Kaspar Lavater

    Einmal editiert, zuletzt von Callboy ()

  • Ernst:


    Da haben wir wohl aneinander vorbei geredet. Mit "nicht mögen" hat das nichts zu tun! Das Programm ist klein, schnell, handlich und leicht zu bedienen. Nur - ich brauche es einfach nicht! Meine Standardwerkzeuge sind MSP, MC-Mpeg Encoder, Movie Factory und diverse Freeware wie VirtualDub etc.


    Wenn ich einerseits die 74 Euro für das DV-Action Pro Bundle sehe, andererseits die knapp 105 Euro für das Womble-Produkt, kann ich es auch einem Anfänger nicht empfehlen weil es im Vergleich einfach zu teuer ist. Mit den 105 Euro ist es ja nicht getan. Alles was in dem o.g. Bundle kostenlos an Software enthalten ist, brauche ich trotzdem noch um ein Video zu bearbeiten und ein Band, eine SVCD oder eine DVD zu erstellen. Sicher, wer das Programm hat und es benutzen kann, mag damit zufrieden sein. Mir würde es allein auf keinen Fall reichen weil meine Ansprüche weit höher aufgehängt sind und zusätzlich zu MSP ist es einfach überflüssig.


    So sehr Du Dich Dich auch bemühst meine Ablehnung auf die emotionale Schiene zu drängen: Es stimmt nicht! Es ist ganz einfach der Drang zum Besseren für das ich obendrein noch weniger bezahlen muß!



    Zurück zur Parallelverarbeitung:
    Im PC-Bereich begann sie mit der Ablösung des Pollings durch die Interruptsteuerung. Also etwa in den frühen 80er Jahren, als CP/M durch MSDOS abgelöst wurde. Hyperthreading ist eigentlich ein ganz alter Hut, nur daß der Hut einen neuen Namen bekommen hat und sich heute aus Kostengründen mehrere Prozessoren (3 beim P4) auf einem Chip befinden.


    Die Entwicklung ist trotzdem erst am Anfang denn dies ist für die Zukunft die einzige Möglichkeit, weitere massive Leistungssteigerungen zu erzielen. Die Physik ist mit den heutigen Techniken schon fast an der Grenze! Man kann weder den Takt unendlich weiter erhöhen noch die Miniaturisierung unendlich weiter treiben. Beides stößt sehr bald an die Grenzen mit der Lichtgeschwindigkeit und der Wellenlänge der Laserwerkzeuge. Einzig die Parallelisierung der Prozesse, verbunden mit Techniken wie Fuzzy und dynamischen Schaltungen, ähnlich den Synapsen verspricht für die Zukunft ungeahnte Leistungssteigerungen und den endgültigen Schritt zur AI. Daß solche Techniken natürlich mit unnötigem Kram, Müll und Ineffizienz geschlagen sind ist klar.


    Man muß nur mal in einem beliebigen Videoforum nachlesen was sich kranke Gehirne so alles mit ihren dynamischen Schaltungen an den Synapsen einfallen lassen.
    Und das ist noch harmlos..... :bgdev:


    Mit dynamisch-synaptischen Grüßen
    vom Peter

    Ich wünsche mir die Gelassenheit, Dinge hinzunehmen, die ich nicht ändern kann, den Mut, Dinge zu ändern, die ich ändern kann und die Weisheit, das eine vom andern zu unterscheiden.