Details der Nvidia GeForce 8800 (G80) enthüllt

  • Vor allem die 128 Unified Shader und die erhöhte Speicheranbindung hören sich verdammt attraktiv an. Bin mal auf die Architektur gespannt. Hört sich bisher auf jeden Fall super an

  • Es tönt schnell und gut aber was ich schade finde ist, dass die immer mehr strom fressen. Da bringt es doch nix mehr wenn amd/intel den stromverbrauch vom prozessor versuchen zu minimieren und dann die graka einfach mehr frisst. Vielleicht sollten ATI/nVidia sich auch mal über den stromverbauch gedanken machen. Ältere karten brauchen 30W, neue über 100 (ok, leisten auch mehr).

  • irgendwie wird der core takt wieder weniger, hat das mit der hitze zu tun?? und der graka ram übersteigt jetzt dann den von meinem pc schon bei weitem.. das wird doch noch lange nicht komplett ausgenutzt insofern geldverschwendung find ich ;)

  • Wie lang dauert es eigentlich normalerweise, bis die kleineren und günstigeren Karten mit dem neuen Chip auftauchen? Ich denke da an so etwas wie die 7600, nur auf Basis vom neuen G80 Chip.

  • Es hat bisher immer so um die 3Monate gedauert wenn ich mich recht erinnere

    |||AMD Phenom II X4 955 Black Edition|||ATI HD 5870 von Sapphire|||
    |||Gigabyte GA-MA790FXT-UD5P Mainboard|||OCZ DDR3 PC3-10666 Platinum CL7 2X 4GB kit|||
    |||Cooler Master HAF 932 BigTower|||Noctua NH-UB9 CPU Kühler|||
    |||Netzteil Enermax Modu82 625W|||

  • Mal gespannt ob die neue Generation wirklich soviel Strom frisst. Der Preis wäre auch interessant, liegt aber sicher um die 500 Euro also beinahe uninteressant. Zwar nicht wegen dem Preis alleine jedoch fragt man sich halt, wo kann man so eine Grafikkarte wirklich brauchen. Da kauf ich mir lieber eine GeForce 7 oder vielleicht eine X1900XT/XTX da bin ich schon besser dran da der Preis ja weit nicht so hoch ist.


    Klar wenn ich die Möglichkeit habe so eine Karte sehr günstig abzustauben würde oder werde ich mir so eine auch holen. Entäuschend ist auch dazu noch das Nvidia die G80 mit GDDR3 bringt und nicht so wie ATI mit GDDR4. Dies würde sicher einen größeren Geschwindigkeitsschub bringen, aber is halt Nvidia. Man will hier wohl zeigen dass man nicht so wie ATI agiert ^^


    Warten wir mal vorerst die ersten Benchmarks ab, vielleicht sind sie ja net wirklich berauschend. Wer weiß!

    My Systems Intel i5 - 2500K, 8GB Geil Corsa 1600 CL9, Mainboard: MSI P67A C45, Kühlung: Alpenföhn Brocken mit einem Gelid Extreme 120 Lüfter, Festplatte: Crucial C300 128GB SSD zweitplatte ist eine Western Ditigal Green 2 TB, Grafikkarte: derzeit Asus 560Ti Dircet CU, Gehäuse Thermaltake V9

  • Ich weiß nicht so recht ob ich das alles glauben soll oder kann. Ich werde abwarten und mich auf die neue Mid-Range Generation freuen. Die dürfte dank GDDR4 trotz des wahrscheinlich nur 128bittigen Speicherinterface eine sehr gute Alternative sein.

  • Naja, mir reicht ehrlich gesagt schon meine X1900XT. Mein PC läuft eigentlich jetzt ununterbrochen

    My Systems Intel i5 - 2500K, 8GB Geil Corsa 1600 CL9, Mainboard: MSI P67A C45, Kühlung: Alpenföhn Brocken mit einem Gelid Extreme 120 Lüfter, Festplatte: Crucial C300 128GB SSD zweitplatte ist eine Western Ditigal Green 2 TB, Grafikkarte: derzeit Asus 560Ti Dircet CU, Gehäuse Thermaltake V9

  • Zitat

    Original von Gast
    Die Meldung ist eine Ente. NVidia setzt bei der nächsten Generation noch dezidierte Shader und keine Unified Shader ein.


    stimmt garnicht.. es sind devinitiv unified shader...weiß es aus sicherer quelle

  • Zitat

    Original von monster23
    Naja, mir reicht ehrlich gesagt schon meine X1900XT.


    was? :huh: DIE reicht dir schon? :huh: du bist aber auch leicht zufireden zu stellen :P



    nene.. wird bestimmt wieder ein gigantisches stück mehrleistung hoff ich^^

    Der, der seine Freiheit für Sicherheit aufgibt, wird beides verlieren.


    i5 3570k @4100 | EVGA 980Ti @1240 | G7 & MX518 | Iiyama ProLite 26" | Wasserkühlung


    Dieser Beitrag wurde 138 mal editiert, zum letzten Mal von Woflgang Schäuble am 05.10.2046 17:16.

  • Zitat

    Original von Gast
    stimmt garnicht.. es sind devinitiv unified shader...weiß es aus sicherer quelle


    NVidia hat selbst wiederholt betont, dass sie (im Gegensatz zu ATI) noch keine Unified Shader einsetzen. D3D10 schreibt BTW auch keine Unified Shader vor, eine Simulation per Treiber reicht.

  • Also so wie ich das sehe ... werden diese GraKas die ersten sein, die Oblivion bei allein Details auf 1600x1200 darstellen können. Damit übertrumpfen sie auch momentanes Quad-SLI, und auch die Fähigkeit Antialiasing und HDRR gleichzeitig zu machen, ist vielversprechend. Ich kaufe mir demnächst nen neuen PC. Vielleicht ist eine von denen drin :) ... (Wohl 8800 GTS) Kommt aber drauf an, was die ersten Benchmarks zeigen.

  • Na ich glaube, wenn der G80 so ein heißes Teil wird, dann können wir ja auch sicherlich auf Ageias Physikbeschleuniger pfeifen oder auf kommende K.I.-Coprozessoren. Na ma sehen was noch wird. Aber ich freu mich auf jedenfall auf den R600!

    Asus Vento 3600, Asus A8R32-MVP Deluxe, Corsair 2GB DDR-RAM, AMD Athlon 64 X2 4400+, Asus Extreme AX1900XTX, Enermax Liberty 620 Watt, Seagate 200GB Sata II, 32" Samsung LCD-HDTV, Logitech Z-5400 THX, Logitech G15 Keyboard, Logitech G5 Laser Mouse