Beiträge von Empy

    Random Access: 14.0ms
    CPU Utilization: 11% (<-eigentlich zu viel, finde ich)
    Average Read: 62.1 MB/s


    Burst: 178.4 MB/s


    Samsung SP2504C (S-ATA II)@nForce4 S-ATA Controller

    Ich denke einfach mal, dass Shader und Texturen sich noch stark verbessern werden. Aber das gleiche denke ich von den Polygonzahlen. Aber ich denke, was der G80 an unberechneten Vertexen übrig lässt, schafft auch noch die CPU.


    Ich glaube jeder kennt meine Position. Als
    Silent-Reliability-HD Gaming-Preis/Leistungs-Freak kommen für mich nur möglichst stromsparende Preis-Leistungs-Geräte in Frage (siehe mein Vergleich).


    Trotzdem muss ich zugeben, dass ATi in der 3D-Berechnung vorne liegt und dass nVidia es vielleicht ein bischen zu weit treibt mit den Schadern. Da setzt scheinbar jeder Hersteller auf sein eigenes Pferd. Könnte spannend werden.

    Ich gehe auch davon aus, dass man davon ausgehen muss, was verfügbar ist. Ich würde "verfügbar" aber eingrenzen. Für mich sind CPUs bis sagen wir mal 300€ gerade noch im Rahmen, gerade weil die Spiele Grafikkartenlasting sind. Deshalb investiert man die Differenz zwischen 3500+ (184€@Alternate) und X2 3800+ (299€@Alternate) besser in eine bessere Grafikkarte (z.B. gute 7800GT statt normale 6800GT).


    Sicher haben DC-CPUs viele Vorteile:
    -selten: mehr Grafikdetails
    -extrem besseres Multitasking
    -bessere Leistung bei optimierten Programmen/Spielen
    -viel Cache


    aber auch Nachteile:
    -weil viele Spiele noch nicht optimiert: schwaches Preis-Leistungs-Verhältnis
    -weil der Takt eben nicht so hoch ist schwächer als SC-CPUs in nicht-optimierten Spielen
    -hoher Energieverbrauch
    -daraus resultierend: starke (=teure) oder laute Kühlung nötig


    Ich glaube z.B., dass ein 3500+ (2.2GHz) in einem nicht-optimierten Spiel mindestens so schnell ist, wie ein X2 3800+ (2.0GHz), wenn nicht schneller, außer man hat gerade irgendein Encoding oder eine Kompression am laufen, was sich bei vielen vermeiden lässt.

    Fehlte hier irgendwie, obwohl er gar nicht so uninteressant ist.


    Ich hab Version 2.20.045 benutzt


    Und schaffe immerhin:


    Lesen: 5633 MB/s


    Schreiben: 2145 MB/s


    Verzögerung: 44.9ns


    Wenn ich jetzt meine Rechner vergleiche:


    3500+ / nV nF4 Ultra / Corsair DDR400 CL2-2-2-5
    5633 MB/s


    Northwood 3.166 MHz / ATi 9100IGP / Corsair DDR412 CL3-4-4-8
    ca. 3300 MB/s <- was ist daran Schuld? Der RAM ist beides mal der gleiche (Dual Channel)... Ich denke mal der Chipsatz...

    Also:


    Der ATI-Chipsatz war schuld! Jetzt gehen die (vorgebenen) 2-2-2-5 1T ohne Probleme.


    Warhead: Wow! Wie haste den ersten so hoch bekommen? Der ist ja wohl total krank.

    OK, sind im Sammelthread.


    Nochmal zur Kühlleistung (ganz vergessen):


    CPU:
    (3500+ / Thermalright XP-120 + Papst @ 7V)
    Idle 30°C / Last 38°C (laut Everest, ohne CnQ)


    Graka:
    (7800GT 512MB / Zalman VF700Cu @ 5V)
    Idle 34°C / Last 52°C (laut Everest)


    Chipsatz:
    (nForce4 / ichbinleise-cooler nF4 @ N/B-Anschluss)
    Idle 34°C / Last 40°C (laut Everest)


    Also man merkt, dass der VF700 so langsam (im Silent Mode) an seine Grenzen kommt. Für eine 7800GTX sollte er mal mindestens mit 7V laufen.
    Ansonsten falls er passt: AC Silencer!!

    So... Neuer Rechner, (fast) alte Kühlung...


    3500+ mit Thermalright XP-120 + 120mm Papstlüfter @ 7V


    7800GT/512 mit Zalman VF700Cu @ 5V


    Tt Tsunami (ohne Window) mit 2 x 120mm Arctic-Coolinglüftern @ 5V


    Tagan PSU mit 120mm-Lüfter @ Auto

    Trotzdem bleibt die um einiges höhere Verlustleistung. Während nVidia dabei ist das Leistung/Verlustleistungs-Verhältnis zu erhöhen, steigert ATi den Verbrauch mit der X1000er-Serie enorm.


    Ich habe einfach mal die 2 besten Grafikkarten der geForce 6-, bzw. der X800er-Reihe mit ihren nachfolgern, also den besten Grafikkarten auf dem Markt verglichen und dann die Ergebnisse beider Vergleiche.


    GVertex/s ist ein theoretischer Annäherrungswert für die 3D-Leistung und ist das Produkt von Vertexshadern und GPU-Takt. Laut den Pages anscheinend das vierfache vom Dreiecksdurchsatz.


    6800 Ultra @ 77.3 W
    7800 GTX/512 @ 94.7 W (+22.5%)


    6800 Ultra:
    RAM: 35.2 GB/s
    Fillrate: 6.4 GTexel/s
    GVertex/s: 2.4


    7800 GTX/512:
    RAM: 54.4 GB/s (+54.5%)
    Fillrate: 13.2 GTexel/s (+106.3%)
    GVertex/s: 3.44 (+43.3%)


    X850 XT @ 71.6 W
    X1900 XTX @ 120.6 W (+68.4%)


    X850 XT PE (SM2.0):
    RAM: 37.7 GB/s
    Fillrate: 8.6 GTexel/s
    GVertex/s: 3.24


    X1900 XTX:
    RAM: 49.6 GB/s (+31.6%)
    Fillrate: 10.4 GTexel/s (+20.9%)
    GVertex/s: 5.2 (+60.5%)


    Fazit:


    nVidia:
    Durchschnitt ca. +68.0% Leistung / +22.5% Verbrauch
    ---3.02% Leistung/% Verbrauch


    ATi:
    Durchschnitt ca. +37.7% Leistung / +68.4% Verbrauch
    ---0.55% Leistung/% Verbrauch


    Wenn man jetzt ganz mathematisch-theoretisch ist, dann ist nVidia 5.49mal so gut wie ATi. Und was die geForce 6-Serie an Performance für Architektur gegeben hat, bekommt die geForce 7 mit Zinsen zurück. Man muss ja auch noch bedenken, dass ATi erst seit der X1000er-Serie SM3.0 hat, was die meisten aber nicht stören dürfte.


    Es sind zwar teilweise nur Annäherungswerte, aber ich denke, man kann dennoch deutlich erkennen, wer beim Stromsparen der bessere ist, einfach weil es so ein gravierender Unterschied ist.


    Links:
    Verbrauch 6800 Ultra / 7800 GTX 512 / X850 XT PE
    Verbrauch X1900 XTX
    Leistung X850 XT PE / 6800 Ultra
    Leistung 7800GTX / 1900 XTX

    *räusper*


    Könnten wir bitte beim Topic bleiben?


    Also Super PI 1M (hier gehts um Speed, nicht um Stabilität!)


    Super PI Screen (wie bei Yidaki und mir) und CPU-Z