(jemanden) fürchten
Beiträge von Empy
-
-
Random Access: 14.0ms
CPU Utilization: 11% (<-eigentlich zu viel, finde ich)
Average Read: 62.1 MB/sBurst: 178.4 MB/s
Samsung SP2504C (S-ATA II)@nForce4 S-ATA Controller
-
Ich denke einfach mal, dass Shader und Texturen sich noch stark verbessern werden. Aber das gleiche denke ich von den Polygonzahlen. Aber ich denke, was der G80 an unberechneten Vertexen übrig lässt, schafft auch noch die CPU.
Ich glaube jeder kennt meine Position. Als
Silent-Reliability-HD Gaming-Preis/Leistungs-Freak kommen für mich nur möglichst stromsparende Preis-Leistungs-Geräte in Frage (siehe mein Vergleich).Trotzdem muss ich zugeben, dass ATi in der 3D-Berechnung vorne liegt und dass nVidia es vielleicht ein bischen zu weit treibt mit den Schadern. Da setzt scheinbar jeder Hersteller auf sein eigenes Pferd. Könnte spannend werden.
-
Ich gehe auch davon aus, dass man davon ausgehen muss, was verfügbar ist. Ich würde "verfügbar" aber eingrenzen. Für mich sind CPUs bis sagen wir mal 300€ gerade noch im Rahmen, gerade weil die Spiele Grafikkartenlasting sind. Deshalb investiert man die Differenz zwischen 3500+ (184€@Alternate) und X2 3800+ (299€@Alternate) besser in eine bessere Grafikkarte (z.B. gute 7800GT statt normale 6800GT).
Sicher haben DC-CPUs viele Vorteile:
-selten: mehr Grafikdetails
-extrem besseres Multitasking
-bessere Leistung bei optimierten Programmen/Spielen
-viel Cacheaber auch Nachteile:
-weil viele Spiele noch nicht optimiert: schwaches Preis-Leistungs-Verhältnis
-weil der Takt eben nicht so hoch ist schwächer als SC-CPUs in nicht-optimierten Spielen
-hoher Energieverbrauch
-daraus resultierend: starke (=teure) oder laute Kühlung nötigIch glaube z.B., dass ein 3500+ (2.2GHz) in einem nicht-optimierten Spiel mindestens so schnell ist, wie ein X2 3800+ (2.0GHz), wenn nicht schneller, außer man hat gerade irgendein Encoding oder eine Kompression am laufen, was sich bei vielen vermeiden lässt.
-
Fehlte hier irgendwie, obwohl er gar nicht so uninteressant ist.
Ich hab Version 2.20.045 benutzt
Und schaffe immerhin:
Lesen: 5633 MB/s
Schreiben: 2145 MB/s
Verzögerung: 44.9ns
Wenn ich jetzt meine Rechner vergleiche:
3500+ / nV nF4 Ultra / Corsair DDR400 CL2-2-2-5
5633 MB/sNorthwood 3.166 MHz / ATi 9100IGP / Corsair DDR412 CL3-4-4-8
ca. 3300 MB/s <- was ist daran Schuld? Der RAM ist beides mal der gleiche (Dual Channel)... Ich denke mal der Chipsatz... -
-
kämpfen
-
OK, sind im Sammelthread.
Nochmal zur Kühlleistung (ganz vergessen):
CPU:
(3500+ / Thermalright XP-120 + Papst @ 7V)
Idle 30°C / Last 38°C (laut Everest, ohne CnQ)Graka:
(7800GT 512MB / Zalman VF700Cu @ 5V)
Idle 34°C / Last 52°C (laut Everest)Chipsatz:
(nForce4 / ichbinleise-cooler nF4 @ N/B-Anschluss)
Idle 34°C / Last 40°C (laut Everest)Also man merkt, dass der VF700 so langsam (im Silent Mode) an seine Grenzen kommt. Für eine 7800GTX sollte er mal mindestens mit 7V laufen.
Ansonsten falls er passt: AC Silencer!! -
-
So... Neuer Rechner, (fast) alte Kühlung...
3500+ mit Thermalright XP-120 + 120mm Papstlüfter @ 7V
7800GT/512 mit Zalman VF700Cu @ 5V
Tt Tsunami (ohne Window) mit 2 x 120mm Arctic-Coolinglüftern @ 5V
Tagan PSU mit 120mm-Lüfter @ Auto
-
Schnell
-
Trotzdem bleibt die um einiges höhere Verlustleistung. Während nVidia dabei ist das Leistung/Verlustleistungs-Verhältnis zu erhöhen, steigert ATi den Verbrauch mit der X1000er-Serie enorm.
Ich habe einfach mal die 2 besten Grafikkarten der geForce 6-, bzw. der X800er-Reihe mit ihren nachfolgern, also den besten Grafikkarten auf dem Markt verglichen und dann die Ergebnisse beider Vergleiche.
GVertex/s ist ein theoretischer Annäherrungswert für die 3D-Leistung und ist das Produkt von Vertexshadern und GPU-Takt. Laut den Pages anscheinend das vierfache vom Dreiecksdurchsatz.
6800 Ultra @ 77.3 W
7800 GTX/512 @ 94.7 W (+22.5%)6800 Ultra:
RAM: 35.2 GB/s
Fillrate: 6.4 GTexel/s
GVertex/s: 2.47800 GTX/512:
RAM: 54.4 GB/s (+54.5%)
Fillrate: 13.2 GTexel/s (+106.3%)
GVertex/s: 3.44 (+43.3%)X850 XT @ 71.6 W
X1900 XTX @ 120.6 W (+68.4%)X850 XT PE (SM2.0):
RAM: 37.7 GB/s
Fillrate: 8.6 GTexel/s
GVertex/s: 3.24X1900 XTX:
RAM: 49.6 GB/s (+31.6%)
Fillrate: 10.4 GTexel/s (+20.9%)
GVertex/s: 5.2 (+60.5%)Fazit:
nVidia:
Durchschnitt ca. +68.0% Leistung / +22.5% Verbrauch
---3.02% Leistung/% VerbrauchATi:
Durchschnitt ca. +37.7% Leistung / +68.4% Verbrauch
---0.55% Leistung/% VerbrauchWenn man jetzt ganz mathematisch-theoretisch ist, dann ist nVidia 5.49mal so gut wie ATi. Und was die geForce 6-Serie an Performance für Architektur gegeben hat, bekommt die geForce 7 mit Zinsen zurück. Man muss ja auch noch bedenken, dass ATi erst seit der X1000er-Serie SM3.0 hat, was die meisten aber nicht stören dürfte.
Es sind zwar teilweise nur Annäherungswerte, aber ich denke, man kann dennoch deutlich erkennen, wer beim Stromsparen der bessere ist, einfach weil es so ein gravierender Unterschied ist.
Links:
Verbrauch 6800 Ultra / 7800 GTX 512 / X850 XT PE
Verbrauch X1900 XTX
Leistung X850 XT PE / 6800 Ultra
Leistung 7800GTX / 1900 XTX -
nVidia hat den entscheidenden Vorteil, nicht so heiss bzw. laut zu werden
ich glaub das sind 30-40 W unterschied bei der Verlustleistung.Außerdem sind die Treiber besser (nicht so buggy)
-
Nö... momentan maximal 37°C bei Auslastung
idle 27°C
(Angaben PC Wizard)
-
-
Harry Potter
-
Mein neuer AMD 3500+ wird nach ca. 5mins + 40°C warm.
Standardtakt
XP-120 + Papst -
zu viele Gehäuselüfter
-
-
ankotzen