GeForce 6600 und 6800 Serie bei uns im SLI-Test

    • Offizieller Beitrag

    Das Asus A8N-SLI Motherboard haben wir bereits vor einigen Tagen unter die Lupe genommen - nun testen wir auch das dazugehörige Equipment mit welchen man Motherboard und Framecounter bis aufs Letzte ausreitzen kann, denn Scalable Link Interface oder kurz SLI bedeutet Grafikperformance pur. Man schnappt sich zwei identische Grafikkarten, verbindet sie über eine Bridge und bekommt nahezu die doppelte Performance in Spielen, so Nvidia.


    Ganz nach dem Motto Vertrauen ist gut, Kontrolle ist besser mussten bei uns die GeForce 6800 Ultra, GeForce 6800 GT und GeForce 6600 GT im SLI-Verbund zeigen was in ihnen steckt und ob SLI überhaupt eine Investition wert ist. Weiteres zum Aufbau, der Inbetriebnahme und natürlich zur Performance erfahren Sie in unserem Artikel. Wir wünschen viel Spaß beim Lesen!




    Es geht noch schneller:
    GeForce 6600 und 6800 Serie im SLI-Test

  • seidt froh, dass es die technik gibt und dass sich etwas tut. blaubierhund meckert immer, dass er es nicht braucht und dass es in seinen augen unnötig ist. gut - er soll sich dann kein SLI kaufen. es muss ja nicht sein. der SLI-Betrieb zweier 6800 Ultras ist ja zur zeit überflüssig, da allein mit einer jedes spiel funkt. abe früher oder später wird man die leistung brauchen. wenn man mit einer grafikkarte nicht genug erreichen kann, da die architektur das ganze einschränkt, dann nimmt man eben zwei. aber die technik ist ja nicht ganz neu, die wurde ja von den Voodoo karten genutzt. ich erinnere mich noch, man konnte eine normale grafikkarte drinnen haben und dann noch zusätzlich 2 karten dazu, als grafikbeschleuniger.


    aber zurück zum thema. bzw zum stromverbrauch. klar, der stromverbrauch steigt - das ist fakt. aber bedenkt mal, jeder schreibt, dass der stromverbauch drastisch zunimmt. es ist ja nur eine weitere grafikkarte!? ok, angenommen (ich sag jetzt eine hausnummer) verbraucht die karte 200 Watt. wie viel verbraucht nochmal eine (stärkere) glühbirne? genau, um die 50-70 Watt. das ist jetzt so, als ob man das licht irgendwo einschaltet und die glühbirne eben brennt. aber der meiste Strom wird ja nicht vom computer selbst verbraucht. ein elektroherd verbraucht um die 10 Kilowatt, wenn man alle platten einschaltet. und das ist glaub ich eine ganz andere Relation. man muss immer alles relativ sehn.


    es ist klar, dass in einem server keine 6800 Ultra grafikkarten verbaut werden, dort wird die leistung ja nicht gebraucht. aber der server läuft ja tag für tag, was ein computer nicht unbedingt tut. aus diesem grund veraut man in server grafikkarten mit wenig verbrauch. aber bei einem desktop-pc braucht man gegebenfalls die leistung. wer aber seinen pc nicht (nur) für spiele verwendet, sondern auch fürs arbeiten und meinetwegen auch fürs surfen, der muss ja keine high-end grafikkarten á la SLI einbauen.


    ich habe auch einmal gelesen, dass jemand die spannung der RAM um 0,1 Volt herabgesenkt hat, oder CPU - das spielt jetzt keine rolle. die begründung war stromsparen. also bitte, ich finde das ehrlichgesagt witzlos, wie viel spart man sich da denn? 1 watt über 2 Jahre? gut, man könnte es auch damit begründen, dass die teile dann eine höhere lebenserwartung haben. aber wenn einmal der Hersteller angibt, dass die speicher mit 2,6 Volt betrieben wrden können, dann verwende ich auch 2,6 Volt. solange, solange ich die Speicher brauche, werden sie mit sicherheit durchhalten. spätestens nach 2-3 Jahren sind sie sowieso veraltet und das machen sie locker mit.


    auf was ich hinauswill ist: meckert nicht immer herum, wenn was neues da ist, (das möglicherweise mehr strom verbraucht), sondern seidt froh, dass schwung im computergeschäft ist. und wer sich die neue technik leisten kann, der soll sie eben kaufen, gegebenfalls kann er einen kredit aufnehmen, aber das kann er glaub ich selber entscheiden, wie er das macht, oder nicht?



    Yidaki

  • Zitat

    Original von Yidaki
    seidt froh, dass es die technik gibt und dass sich etwas tut. blaubierhund meckert immer, dass er es nicht braucht und dass es in seinen augen unnötig ist. gut - er soll sich dann kein SLI kaufen. es muss ja nicht sein. der SLI-Betrieb zweier 6800 Ultras ist ja zur zeit überflüssig, da allein mit einer jedes spiel funkt. abe früher oder später wird man die leistung brauchen. wenn man mit einer grafikkarte nicht genug erreichen kann, da die architektur das ganze einschränkt, dann nimmt man eben zwei. aber die technik ist ja nicht ganz neu, die wurde ja von den Voodoo karten genutzt. ich erinnere mich noch, man konnte eine normale grafikkarte drinnen haben und dann noch zusätzlich 2 karten dazu, als grafikbeschleuniger.


    keine sorge - SLI werde ich mir nicht zulegen. das heißt aber nicht, dass ich gegen diese entwicklung bin - sicherlich gibt es für SLI sinnvolle anwendungsgebiete wie etwa im CAD- oder Film-Rendering-Bereich. auch ist es in ordnung den markt für gelangweilte reiche kiddis zu versorgen. das problem dabei ist aber die halbherzige umsetzung. im profesionellen bereich wird sowas nicht akzeptiert wie es mit den spielen läuft. insbesondere dieser artikel hier zeigt doch, das SLI in vielen fällen fast nix bringt und manche ATI karte schneller ist als ein SLI-System. und dann noch spezielle treiberanpassung - so ein schwachsinn. das ist das was einem den spaß am pc echt versauen kann. wenn ich ne menge geld ausgebe dann hat das gefälligst auch zu funktionieren - in der praxis - und nicht nur in der theorie. abgesehen davon wäre es vielleicht sinnvoller die rescourcen eines unternehmens in wirklich nue entwicklungen zu investieren und nicht das alte noch ein bissl aufzupeppen (siehe intel und centrino)

    Zitat

    aber zurück zum thema. bzw zum stromverbrauch. klar, der stromverbrauch steigt - das ist fakt. aber bedenkt mal, jeder schreibt, dass der stromverbauch drastisch zunimmt. es ist ja nur eine weitere grafikkarte!? ok, angenommen (ich sag jetzt eine hausnummer) verbraucht die karte 200 Watt. wie viel verbraucht nochmal eine (stärkere) glühbirne? genau, um die 50-70 Watt. das ist jetzt so, als ob man das licht irgendwo einschaltet und die glühbirne eben brennt. aber der meiste Strom wird ja nicht vom computer selbst verbraucht. ein elektroherd verbraucht um die 10 Kilowatt, wenn man alle platten einschaltet. und das ist glaub ich eine ganz andere Relation. man muss immer alles relativ sehn.

    es gibt sogar glühbirnen die 150Watt verbraten - allerdings auch sparlampen die mit nur 30Watt verbrauch genauso hell sind (und sogar ein kühleres licht haben - was ich als angenehmer empfinde) - und die neuen LEDs machen ja auch schon was her.... auch ein elektroherd mag mehr verbrauchen, der läuft dann aber auch nicht den ganzen tag - und die 10kWatt beziehen sich auf den einsatz aller herdplatten und des ofens und das kommt doch eher selten vor. außerdem hat man pro haushalt ja nur ein herd - oft aber gleich mehrere pc´s.... das man mit weniger stromverbrauch ähnlich viel leistung bringen kann hat intel mit dem centrinokonzept recht eindrucksvoll vorgemacht - warum gibt es sowas für grafikkarten noch nicht wo die dinger inzwischen mehr strom verbraten als ne cpu??? für mich ist das ne fehlentwicklung...

    Zitat

    es ist klar, dass in einem server keine 6800 Ultra grafikkarten verbaut werden, dort wird die leistung ja nicht gebraucht. aber der server läuft ja tag für tag, was ein computer nicht unbedingt tut. aus diesem grund veraut man in server grafikkarten mit wenig verbrauch. aber bei einem desktop-pc braucht man gegebenfalls die leistung. wer aber seinen pc nicht (nur) für spiele verwendet, sondern auch fürs arbeiten und meinetwegen auch fürs surfen, der muss ja keine high-end grafikkarten á la SLI einbauen.

    das ist eine etwas eigenartige argumentation - keiner redet davon, dass es SLI nicht geben darf - ist stelle bloß den sinn der sache in frage - immerhin verleitet es die spieleentwickler, wie paladin bereits angemerkt hat, dazu rescourcendverschwendend zu programmieren. die vielen features der grafikchips werden oft gar nicht richtig ausgereizt und sorgen zudem oft auch noch für inkompatibilitäten...

    Zitat


    ich habe auch einmal gelesen, dass jemand die spannung der RAM um 0,1 Volt herabgesenkt hat, oder CPU - das spielt jetzt keine rolle. die begründung war stromsparen. also bitte, ich finde das ehrlichgesagt witzlos, wie viel spart man sich da denn? 1 watt über 2 Jahre? gut, man könnte es auch damit begründen, dass die teile dann eine höhere lebenserwartung haben. aber wenn einmal der Hersteller angibt, dass die speicher mit 2,6 Volt betrieben wrden können, dann verwende ich auch 2,6 Volt. solange, solange ich die Speicher brauche, werden sie mit sicherheit durchhalten. spätestens nach 2-3 Jahren sind sie sowieso veraltet und das machen sie locker mit.

    sicherlich ist sowas quatsch - aber ich rede ja davon, dass es mir lieber wäre wenn ne graka für den desktop mit 20-30 Watt auskommt...

    Zitat


    auf was ich hinauswill ist: meckert nicht immer herum, wenn was neues da ist, (das möglicherweise mehr strom verbraucht), sondern seidt froh, dass schwung im computergeschäft ist. und wer sich die neue technik leisten kann, der soll sie eben kaufen, gegebenfalls kann er einen kredit aufnehmen, aber das kann er glaub ich selber entscheiden, wie er das macht, oder nicht?

    ich denke man sollte alles in frage stellen - nur weil etwas neu ist, isses noch lange nicht gut. der schwung im computergeschäft resultiert wohl eher aus dem wettbewerb als aus neuen entwicklungen - die es ja ohne wettbewerb so nicht geben würde...

  • Zitat

    Original von Paladin


    Ich habe für meine Graka, das Board und die CPU im Herbst 900 €uronen abgedrückt! Sorry, Yidaki, ich kann mir das nicht einmal pro Jahr leisten, nur damit ein dämliches Spiel läuft! Ich weiß nicht, wie das mit Dir ist. :P


    in erster linie schrieb ich ja nicht von dir. und dass man bei solchen innovationen mal die Sinnfrage stellen darf ist ja klar, deswegen ist ja das forum da, um darüber zu diskutieren und die eigene meinung zu äußern. aber wenn da wer mit der stromrechnung ins haus fällt und es als einz der hauptargumente nimmt ... :rolleyes:


    sei beruhigt, ich kann auch nicht jährlich 900 € für einen PC ausgeben, diesen besitz ich schon seit über 2 Jahren. demnächst werde ich mir auch keinen neuen kaufen (können).


    wenn du ein nForce4 Board hättest, dann könntest du ja eventuell das problemchen mit den spielen lösen. eine 2. karte für den SLI-Betrieb wäre denk ich mal angebracht. und das kann auch ein argument dafür sein. also wenn du dir jetzt ein SLI fähiges board kaufst, aber erst später, wenn du merkst dass die leistung bei neuen spielen zurücklässt, dir eine 2 karte kaufst. die wird dann wieder reichen. klar, dass die grakas dann nach einer zeit veralten, aber du kannst du die hardware doch nicht für immer behalten ...


    dass hört sich jetzt so an, als ob ich strikt für SLI und den ganzen humbug (?) wäre, so ist es aber nicht. ich denke, gewisse dinge müssen von 2 seiten betrachtet werden, damit man dann letzen endes eine gute wahl treffen kann.



    Yidaki


    edit:


    Zitat

    Original von Blaubierhund


    ich denke man sollte alles in frage stellen - nur weil etwas neu ist, isses noch lange nicht gut. der schwung im computergeschäft resultiert wohl eher aus dem wettbewerb als aus neuen entwicklungen - die es ja ohne wettbewerb so nicht geben würde...


    du sagst es. aber wieso verlangst du dann, dass alles reibungslos läuft? ich mein, das ganze ist doch recht neu, da wird es noch ein paar kinderkrankheiten geben. die werden früher (oder später) sowieso behoben, bei den nForce2 chips gab es die in hülle und fülle.

  • hui, habt ihr Ausdauer! Sooo viel Text :)

    All die Ordnung in dem Chaos verwirrt mich...
    _____________________________
    Intel Q9550 + Noctua NH-C12P
    Gigabyte GA-EPP45 DS5
    4x2048MB 800 DDR2 SDRAM
    Samsung HD103UJ 1 TB
    Tagan Pipe Rock 600 Watt
    Gigabyte GTX670

  • Zitat

    Original von Paladin


    Leider interessiert das die Entwickler von Hardware und Spielen gar nicht. Das Problem ist doch, dass man für die Hersteller nur als Neukäufer interessant ist, nicht aber als User, der sein Zeug eine Weile behalten will (muss).


    da hast du völlig recht, das kritisiere ich auch nicht. aber nur weil eine neue generation vom grafikkarten herauskommt, heißt das noch lange nicht, dass deine nicht gut ist. hier mal ein beispiel von mir: ich habe mir meine 9700 Pro von Hercules damals noch für rund 200€ bei einer auktion gekauft. schon damals kündigte ATi die 9800 Pro an. aber das war mir ehrlichgesagt egal, denn ich wusste, dass meine erst vor kurzem gekaufte karte ihren dienst gut leisten würde. und was ist heute? vieles hat sich nicht geändert. seitdem war schon die 9800 XT drausen, die X800er Reihe und noch die X850er reihe. das heißt aber noch nicht, dass die karte schlecht ist. Doom³ und Half Life² funktionieren einwandfrei, wobei hl² bei einer auflösung von 1024x768 und allen details auf max und was weiß ich wie das heißt flüssig rennt. vielleicht sag ich einen blödsinn aber bei dem cs.Source stress test hab ich um die 60-70 fps (cih weiß es nciht mehr genau, auf alle fälle über 40, was ja schon flüssig ist.).


    das mit dem nForce 4 hab ich auch nur erwähnt, weil es bereits SATA-II unterstützt und sich eine anscahffung auszahlen würde. du hättest dan quasi 2x PCI-Express und SATA-II und naja der nForce4 ist glaub ich besser als der VIA (nein, ich möchte dein board nciht schlecht machen, versteh mich bitte nicht falsch, ich wäre froh, wenn ich deine config hätte!).


    aber es ist nicht besonders ratsam, immer die neueste technologie zu kaufen. damit meine ich, dass man ja nicht unbedingt eine X850 XT Platinum Edition kaufen sollte, eine X800 XL tut es genauso! man sollte immer einen guten mittelwert haben.



    Yidaki

  • wer sich mit der überlegung ein nforce4-board mit SLI zulegt, das man später ja ne zweite karte kaufen könnte weil die ja dann günstiger ist als heute und ne mit dem SLI-verbund vergleichbar schnelle aktuelle karte - vergisst dabei, dass er im vorfeld schon mehr geld investieren muss. dazu kommt, dass spätestens mit der zweiten karte dann ein neues netzteil hinzukommt. außerdem wird ein SLI immer mehr strom (und zwar ganz erheblich mehr) verbrauchen als ne einzelne karte (egal wie schnell die ist - 100 Watt ist ne grenze die nicht mehr weit von einzelnen karten überschritten wird) - hinzu kommt das netzteile auch einen eigenen stromverbrauch haben und der ist bei einem 500Watt gerät nun mal höher als bei einem 350Watt Netzteil - weil der wirkungsgrad mit zunehmender leistung nicht unbedingt zunimmt. unterm strich ist SLI daher weniger effizient.


    und was die kinderkrankheiten angeht. die jetztigen mängel von SLI sind keinesfalls nur kinderkrankheiten - das system funktioniert einfach noch nicht wie es soll und dafür soll dann noch mehr geld investiert werden?? nein danke. wenn ich schon einen haufen geld in aktuelle technik investieren, dann will ich auch was dafür geboten bekommen und das ist momentan eigentlich nur bei nichtssagenden benchmarks und sehr wenigen spieletiteln der fall -> siehe artikel. das ist das geld einfach nicht wert...

  • Zitat

    Original von Blaubierhund
    und was die kinderkrankheiten angeht. die jetztigen mängel von SLI sind keinesfalls nur kinderkrankheiten - das system funktioniert einfach noch nicht wie es soll und dafür soll dann noch mehr geld investiert werden?? nein danke. wenn ich schon einen haufen geld in aktuelle technik investieren, dann will ich auch was dafür geboten bekommen und das ist momentan eigentlich nur bei nichtssagenden benchmarks und sehr wenigen spieletiteln der fall -> siehe artikel. das ist das geld einfach nicht wert...


    Dem kann ich nur zustimmen, neue Technik hin oder her. Wer sich einen Benz kauft, der erwartet, dass das Teil auch reibungslos läuft. :P Naja, die Zeiten, in denen der User der Beta-Tester ist, haben wahrscheinlich erst richtig angefangen... ;(


    Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro


    "Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
    "Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

  • Es gab mal einen Chiphersteller für GPUs der lange Zeit unangefochten die Spitze des Highendsegments bildete.....Dieser Hersteller wurde übermütig, führte ein Dualgrafikkarten und Dualgrafikchipdesign ein. Ab dieser Zeit veränderte sich die Einstellung zu schnelleren Chips mit mehr Leistung, und man bürdete der neuen SLI Technik immer mehr und mehr auf, denn diese musste die Motivationslosigkeit der Entwickler mittragen.


    Sie tat es, lange Monate, ja nicht sogar Jahre sehr gut, doch dann brach die Stütze zusammen und mit ihr das gesamte Unternehmen, welches zum Zeitpunkt der Einführung noch so große Hoffnung in die verheißungsvolle Technik legte und ganz klar den Markt beherschte. Was bleibt war die Tatsache, dass solche Entwicklungen ein sich eher Contraproduktiv auf die Entwicklung auswirken.


    Die Rede ist von dem Unternehmen 3dfx.


    SLI ist und bleibt für mich ein großes Problem, denn während ATI immer weiter schnellere Chips Entwickeln muss, die als Einzelkern den SLI Lösungen von nV paroli bieten können, ist nV nicht länger dazu verpflichtet (und nV rut sich öfters gerne mal auf ihren Lorbeeren aus, wie mit der Geforce FX gesehen hat). Auf jedenfalls eine sehr gefährliche Entwicklung, wie man ja in der Geschichte schon gesehen hat.

    Battles are won by slaughter and maneuver. The greater the General, the more he contributes in maneuver, the less he demands in slaughter. - Winston Churchill


    "You don´t burn out from going too fast. You burn out from going too slow and getting bored."
    - The late Cliff Burton


    software is like sex, it's better when its free

    Einmal editiert, zuletzt von Softwarekiller ()

  • naja...das mit dem stromverbrauch, wie von Blaubierhund angesprochen, ist schon richtig, aber wenn ich soviel geld aufbringen kann um mir so ein system leisten zu können, kann ich mir die stromkosten auch leisten bzw. will ich es!!


    wenn ich über stromkosten beim comp. nachdenke und mir ernsthafte gedanken drüber mache dan wird ein SLI-System oder stromfressende komponenten nicht in den computer kommen!!


    fakt ist das SLI (oder bessergesagt die grafikkarten) (viel) stom brauchen, fakt ist aber auch das der der ein SLI-System hat das (hoffentlich ;) )weis und damit leben kann!!


    MFG


    N8

  • die anschaffungskosten hat man aber nur einmal - die stromrechnung kommt aber alle zwei monate... will meinen - auch wenn du dir das SLI-System irgendwann mal gönnst heißt das noch lange nicht, das du ewig hohe nebenkosten mal so eben aus der portokasse zahlen kannst... auch ein normalverdiener kann sich nach langem, langem sparen irgendwann einen porsche leisten - um da dann aber die laufenden kosten stemmen zu könnnen muss er anschließend in ne kleinere wohnung ziehen...

  • das sind im monat (in zwei monaten) ein paar euros...dreh einfach mal in deiner wohnung 3-4 birnen wo du net unbedingt brauchst oder wo du 2 hast raus und schau was du dir erspart hast!! so extrem fallen die paar watt( auch wenns 100-120) mehr oder so sind net so extrem ins gewicht weil, wie schon mal erwähnt, der rechner ja net immer läuft!! und die paar stunden kannst du dir schon leisten, weil wenns so ist dann müssten alle leute dien comp haben arm sein da früher in comp ja mit nem 90Watt NT ausgekommen ist und heutzutage ein bist du deppert-markt comp schon 350-400Watts hat!!


    also das müsste man austesten über 4 monate hinweg!! 1x ohne SLI und 1x mit SLI...viel unterschied wird net sein!!


    MFG

  • da hat mike völlig recht. das wird nicht das ausschlaggebende sein. es kommt ja auch drauf an, was du daheim machst, dass wird von monat zu monat verschieden sein, von jahreszeit zu jahreszeit. ach ja, und nochmal zu den 30 Watt glühbirnen. ich glaube kaum, dass eine davon reichen würde ... vielleicht beim nachtkästchen oder so aber doch nicht, um ein ganzes zimmer zu erhellen! :rolleyes:


    das mim porsche ist doch nicht wahr. da macht man sich ja vorher gedanken. das ist nicht so, wie du sagst. angenommen der porsche kostet 50.000 euro. glaube nicht, dass sich dann der sparer den porsche kauft, wenn er genau die gewünschte summe erreicht hat. außerdem kannst du auch nicht davon ausgehen, dass sich jeder einen porsche leisten will. das ist ja genauso wie mit meinetwegen SLI. wer es sich leisten kann bzw will, der kauft sich eben einen Porsche/SLI-System. aber wie ich das mitbekommen habe fährt nicht jeder einen Porsche und wohnt in einer wohnung ...



    Yidaki