ATi oder Nvidia - R580 vs. G80

  • Kaum hat ATI den R520 Chip(X1800) rausgebracht kontert Nvidia mit der 512 MB Variante der Geforce 7800 GTX! Wiedereinmal ist Nvidia in Führung, bis ATI urplötzlich den R580 Chip(X1900) herausbringt! Ich habe mir jetzt das Zugfperd von ATI gekauft und bin absolut zufrieden damit, bis ich hörte das Nvidia im Spätsommer zur Windows Vista Einführung den G80 Chipsatzt herausbringt! Der soll mit neuen Taktrekorden und satten 32 Pixel Pipelines trumpfen können!
    Zur Cebit wird man bestimt mehr dazu erfahren...


    Ist es nicht pervers das ATI und Nvidia ständig neue Grakas herausbringen???? FIND ICH SCHON, aber was mich noch viel mehr interessiert ist die Frage wie IHR zu den einzelnen Partein steht!
    Ich persönlich würde dann lieber auf den R600 Chipsatzt von ATI warten als auf den G80! ATI hat nämlich mit AVIVO die eindeutig bessere Bildquallität als die Konkurenz! Zudem verlieren die Radeon Grafikkarten bei hohen Settings verglechsweise weniger Leistung als die Pendants von Nvidia!


    Was meint IHR dazu?

    Athlon 64 X2 3800+ @ 2.820 MHz :saint:
    Club 3D X1900 XTX @ 690/1.600 MHz
    Abit KN8 SLI
    2x Corsair ValueSelect 512 MB DDR 400 @ 230 MHz
    500W Xilence Power Netzteil


    Oblivioin ich komme!!! :)

    2 Mal editiert, zuletzt von Shinji ()

  • Ich denke auch, dass das ganze viel zu rasch erfolgt. Aber schlön, wenn man weiß, dass es auch so schnell gehen kann! Wenn genug Geld da ist ...


    Ich habe mir überlegt, eine 7800GT zu kaufen. Obwohl meine grafikkarte (X850XT @ X850XT PE) doch auch nicht leistungsstark ist.


    Ich glaube, dass die Generationsfolge noch nie so schnell war.


    Wahrscheinlich wird meine nächste Karte eine X1900XT :)


    Yidaki

  • nVidia hat den entscheidenden Vorteil, nicht so heiss bzw. laut zu werden
    ich glaub das sind 30-40 W unterschied bei der Verlustleistung.


    Außerdem sind die Treiber besser (nicht so buggy)

    C2D E4600 (XP120+Papst@1200rpm - 2.664 MHz - 1.12V)
    EVGA 8800GT/512MB (Chip: 540 MHz - Shader: 1350 MHz - RAM: 900 MHz)
    MDT 2x1GB DDR2-800 Timings: 5-5-5-15 2T (370 MHz - 1.86V)
    GigaByte P35-DS3R (P35 - FSB: 888 MHz)
    Idle (ca.): 110W - Load (Peak): 215W

  • Ich persönlich hatte sowohl von ATi als auch nV schon etliche Karten und jeder der Hersteller hat mehr oder minder große und kleine Schwächen. Technisch gesehen wird es immer wieder Graka-Modelle geben, in denen der eine Hersteller vor dem anderen liegt.


    Wenn man überlegt, wie die jüngste Diskussion um den R 520 gelaufen ist, hätte man auch meinen können, ATi macht gerade pleite. Auf ATi haben wir zu der Zeit alle kräftig eingedroschen, bis sie mit einem Produkt kamen, dass dann doch wieder alle überzeugt hat.


    Insofern ist diese Diskussion ziemlich fruchtlos. Gerade im Graka-Sektor besteht halt ein extremer Konkurrenzdruck, denn ein Werbeargument ist für die Hersteller immer, auf welcher Plattform neue Spiele entwickelt werden. Es ist klar, dass da jeder vorne sein möchte. Das erzwingt leider, dass im Jahresrhytmus neue Karten kommen.


    Die Hersteller interessiert die Veraltungsproblematik leider herzlich wenig, denn wenn man mal ehrlich ist, dann sind Karten schon veraltet, wenn sie gerade erst lieferbar sind, denn zu dem Zeitpunkt haben die Hersteller das neue GPU-Modell meistens schon im Beta-Stadium.


    Im Moment versuche ich mein Glück wieder mal mit nV, da man hier auf ein funktionierendes Multi-GPU-System zurückgreifen kann, während das bei ATi immer noch nicht ganz ausgegoren ist. Das schließt aber nicht aus, dass ich wieder mal auf ATi umsteige, wenn die zu der Zeit Lösungen anbieten, die mir besser gefallen. Für mich war das Argument für die 7800 GT ganz einfach, dass das Preis- / Leistungsverhältnis derzeit schwer zu toppen ist.


    Die beste Strategie ist meiner Ansicht nach ohnehin, alle 2 Jahre Komponenten der gehobenen Mittelklasse zu kaufen. Das tut finanziell nicht so weh und reicht trotzdem eine Weile. High-End ist in erster Linie teuer, denn die Mehrleistung merkt man doch oft nur in Benchmarks. :P


    Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro


    "Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
    "Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

  • @ empy
    die sache mit den treibern ist schon lange vergangenheit, das die bei ati verbuggt sind. das war vllt. zu den rage zeiten noch der fall, aber momentan ist ati meiner meinung nach sogar besser wie nvidia, da ati regelmäßig neue offizielle treiber bringt und nvidia fast nur beta treiber veröffentlicht.


    @topic
    ich bin gespannt was besser abschneidet, aber in erster linie zählt bei mir der preis, wenn eine graka ein paar prozent langsamer ist und dafür aber gleich um einiges billiger wirds die langsamere (vorasugesetzt sie sind beide ähnlich laut)

  • Trotzdem bleibt die um einiges höhere Verlustleistung. Während nVidia dabei ist das Leistung/Verlustleistungs-Verhältnis zu erhöhen, steigert ATi den Verbrauch mit der X1000er-Serie enorm.


    Ich habe einfach mal die 2 besten Grafikkarten der geForce 6-, bzw. der X800er-Reihe mit ihren nachfolgern, also den besten Grafikkarten auf dem Markt verglichen und dann die Ergebnisse beider Vergleiche.


    GVertex/s ist ein theoretischer Annäherrungswert für die 3D-Leistung und ist das Produkt von Vertexshadern und GPU-Takt. Laut den Pages anscheinend das vierfache vom Dreiecksdurchsatz.


    6800 Ultra @ 77.3 W
    7800 GTX/512 @ 94.7 W (+22.5%)


    6800 Ultra:
    RAM: 35.2 GB/s
    Fillrate: 6.4 GTexel/s
    GVertex/s: 2.4


    7800 GTX/512:
    RAM: 54.4 GB/s (+54.5%)
    Fillrate: 13.2 GTexel/s (+106.3%)
    GVertex/s: 3.44 (+43.3%)


    X850 XT @ 71.6 W
    X1900 XTX @ 120.6 W (+68.4%)


    X850 XT PE (SM2.0):
    RAM: 37.7 GB/s
    Fillrate: 8.6 GTexel/s
    GVertex/s: 3.24


    X1900 XTX:
    RAM: 49.6 GB/s (+31.6%)
    Fillrate: 10.4 GTexel/s (+20.9%)
    GVertex/s: 5.2 (+60.5%)


    Fazit:


    nVidia:
    Durchschnitt ca. +68.0% Leistung / +22.5% Verbrauch
    ---3.02% Leistung/% Verbrauch


    ATi:
    Durchschnitt ca. +37.7% Leistung / +68.4% Verbrauch
    ---0.55% Leistung/% Verbrauch


    Wenn man jetzt ganz mathematisch-theoretisch ist, dann ist nVidia 5.49mal so gut wie ATi. Und was die geForce 6-Serie an Performance für Architektur gegeben hat, bekommt die geForce 7 mit Zinsen zurück. Man muss ja auch noch bedenken, dass ATi erst seit der X1000er-Serie SM3.0 hat, was die meisten aber nicht stören dürfte.


    Es sind zwar teilweise nur Annäherungswerte, aber ich denke, man kann dennoch deutlich erkennen, wer beim Stromsparen der bessere ist, einfach weil es so ein gravierender Unterschied ist.


    Links:
    Verbrauch 6800 Ultra / 7800 GTX 512 / X850 XT PE
    Verbrauch X1900 XTX
    Leistung X850 XT PE / 6800 Ultra
    Leistung 7800GTX / 1900 XTX

    C2D E4600 (XP120+Papst@1200rpm - 2.664 MHz - 1.12V)
    EVGA 8800GT/512MB (Chip: 540 MHz - Shader: 1350 MHz - RAM: 900 MHz)
    MDT 2x1GB DDR2-800 Timings: 5-5-5-15 2T (370 MHz - 1.86V)
    GigaByte P35-DS3R (P35 - FSB: 888 MHz)
    Idle (ca.): 110W - Load (Peak): 215W

    2 Mal editiert, zuletzt von Empy ()

  • Mal abwarten, wollte eigentlich wieder ne nVidia kaufen. Da mir aber Leistung wichtiger als Name is wirds wohl oder übel eine X1900XTX werden. Die Entscheidung werde ich noch diese Woche hier dem Forum überlassen, bin unentschlossen ;D, bis am Samstag wird wohl schon so ziemlich feststehn wie weit der G71 hinter der X1900XTX liegen wird.

    My Systems Intel i5 - 2500K, 8GB Geil Corsa 1600 CL9, Mainboard: MSI P67A C45, Kühlung: Alpenföhn Brocken mit einem Gelid Extreme 120 Lüfter, Festplatte: Crucial C300 128GB SSD zweitplatte ist eine Western Ditigal Green 2 TB, Grafikkarte: derzeit Asus 560Ti Dircet CU, Gehäuse Thermaltake V9

  • Wenn sie wirklich so hoch liegen frag ich mich schon für was dann 90nm ^^ für die bissl Mehrleistung

    My Systems Intel i5 - 2500K, 8GB Geil Corsa 1600 CL9, Mainboard: MSI P67A C45, Kühlung: Alpenföhn Brocken mit einem Gelid Extreme 120 Lüfter, Festplatte: Crucial C300 128GB SSD zweitplatte ist eine Western Ditigal Green 2 TB, Grafikkarte: derzeit Asus 560Ti Dircet CU, Gehäuse Thermaltake V9

  • Zitat

    Original von monster23
    Mal abwarten, wollte eigentlich wieder ne nVidia kaufen. Da mir aber Leistung wichtiger als Name is wirds wohl oder übel eine X1900XTX werden. Die Entscheidung werde ich noch diese Woche hier dem Forum überlassen, bin unentschlossen ;D, bis am Samstag wird wohl schon so ziemlich feststehn wie weit der G71 hinter der X1900XTX liegen wird.


    Die 7900GTX soll nur 10% schneller sein als die 7800GTX/512.
    Aber genaueres wird sich auf bzw nach der Cebit herausstellen!

    Intel Core i7-950 || Asus P6T || Gainward GTX295 || 12 GB DDR3-1333 RAM || 4x 1 TB RAID 10 || Enermax Revolution85+ 920W || Antec Twelve Hundred


    Creative X-FI || Logitech G5 || Logitech G15 || DELL U3011 || DELL 2007FP || Teufel E 400


    Notebook: Asus V1S | Asus eeePC 1000H

  • Wart lieber dann doch noch 2 Wochen :)

    My Systems Intel i5 - 2500K, 8GB Geil Corsa 1600 CL9, Mainboard: MSI P67A C45, Kühlung: Alpenföhn Brocken mit einem Gelid Extreme 120 Lüfter, Festplatte: Crucial C300 128GB SSD zweitplatte ist eine Western Ditigal Green 2 TB, Grafikkarte: derzeit Asus 560Ti Dircet CU, Gehäuse Thermaltake V9

  • Ich habe gehört das die Geforce 7900 GTX mit 32 Pixelpipelines herauskommen soll. Das wären dann 16 Pixelpipelines mehr als bei der X1900 XTX! Dafür bietet der R580 Chip jedoch satte 48 Shadereinheiten die für komplexe Shaderoperationen zuständig sind...
    Noch ist offen wieviel der G80 Chip davon besitzen wird. Voraussichtlich jedoch werden die 24 Shadereinheiten wie bei der 7800 GTX erhalten bleiben!
    jetzt stellt sich nur die Frage was in Zukunft von den Spielen mehr profitiert... Pixelfüllrate oder Shaderleistung?

    Athlon 64 X2 3800+ @ 2.820 MHz :saint:
    Club 3D X1900 XTX @ 690/1.600 MHz
    Abit KN8 SLI
    2x Corsair ValueSelect 512 MB DDR 400 @ 230 MHz
    500W Xilence Power Netzteil


    Oblivioin ich komme!!! :)

    Einmal editiert, zuletzt von Shinji ()

  • Ich denke einfach mal, dass Shader und Texturen sich noch stark verbessern werden. Aber das gleiche denke ich von den Polygonzahlen. Aber ich denke, was der G80 an unberechneten Vertexen übrig lässt, schafft auch noch die CPU.


    Ich glaube jeder kennt meine Position. Als
    Silent-Reliability-HD Gaming-Preis/Leistungs-Freak kommen für mich nur möglichst stromsparende Preis-Leistungs-Geräte in Frage (siehe mein Vergleich).


    Trotzdem muss ich zugeben, dass ATi in der 3D-Berechnung vorne liegt und dass nVidia es vielleicht ein bischen zu weit treibt mit den Schadern. Da setzt scheinbar jeder Hersteller auf sein eigenes Pferd. Könnte spannend werden.

    C2D E4600 (XP120+Papst@1200rpm - 2.664 MHz - 1.12V)
    EVGA 8800GT/512MB (Chip: 540 MHz - Shader: 1350 MHz - RAM: 900 MHz)
    MDT 2x1GB DDR2-800 Timings: 5-5-5-15 2T (370 MHz - 1.86V)
    GigaByte P35-DS3R (P35 - FSB: 888 MHz)
    Idle (ca.): 110W - Load (Peak): 215W