ATi arbeitet an 80 nm Version des R580: R580+


Erschienen: 29.03.2006, 14:00 Uhr, Quelle: The Inquirer, Autor: Patrick von Brunn

ATi hat mit der Vorstellung der Radeon X1900 XTX bewiesen, dass man mit Konkurrent Nvidia immer noch mithalten und die Stirn zeigen kann. Einzigst im Bereich der Kosten und der Leistungsaufnahme hat man immer noch deutlich das Nachsehen gegenüber den aktuellen GeForce-Generationen. Dieser Missgunst will ATi mit einer aufpolierten Version des R580-Chips künftig ein Ende bereiten.

Zu diesem Zweck arbeitet man aktuell am neuen R580+, welcher erstmals in 80 nm gefertigt werden soll. Durch den DIE-Shrink will man die GPUs kleiner, kühler und günstiger in der Produktion machen. Eventuell werden dadurch auch höhere Taktraten möglich sein, doch gibt es hierzu noch keine präzisen bzw. verlässlichen Informationen.

Der R580+ soll ab Mai als Sample verfügbar sein und ab dem dritten Quartal (zwischen Juni und August) in die Massenproduktion übergehen. Anders als Nvidia mit dem G80, scheint sich ATi mit dem Release des Next-Gen R600 deutlich mehr Zeit zu lassen. Auf Seiten der Features und Ausstattung soll der R580+ seinem 90 nm Pendant alias R580 entsprechen.

« Vorherige News Nächste News »
Weitere Meldungen

Kommentare (10)Zum Thread »

1) Yidaki (29.03.2006, 15:02 Uhr)
Ob das ganze um so viel kühler wird, weiß ich nicht.

Ich verstehe nicht, wieso es gut ist, dass die DIE immer kleiner werden. Da ist die Kontaktfläche mit dem Kühler doch immer kleiner. Wenn die DIE dann nur noch 20mm² ist das sicher kein Vorteil.



Yidaki
2) Vectrafan (29.03.2006, 15:18 Uhr)
ati hat irgendwie aus dem fudo desaster nichts gelernt und überlässt nvidia schon wieder den vortritt.
3) Babe (29.03.2006, 15:19 Uhr)
Zitat:
Original von Yidaki
Ob das ganze um so viel kühler wird, weiß ich nicht.

Ich verstehe nicht, wieso es gut ist, dass die DIE immer kleiner werden. Da ist die Kontaktfläche mit dem Kühler doch immer kleiner. Wenn die DIE dann nur noch 20mm² ist das sicher kein Vorteil.

Es geht dabei ja nicht nur um die rein äußerliche Kühlung, sondern, dass der Chip von sich aus schon deutlich kühler ist. Durch den DIE-Shrink wird die Leistungsaufnahme gesenkt, da die Transistoren mit 80 nm Gatebreite weniger Strom zum Arbeiten benötigen als bei beispielsweise 90 oder 110 nm, um es vereinfacht auszudrücken. Und so lange man auf gute Kontaktmedien mit hohen Wärmeleitwerten setzt, spielt die Größe der Kontaktfläche, ergo der DIE, eher eine Nebenrolle.
4) Yidaki (29.03.2006, 15:24 Uhr)
Das ist mir schon klar, Babe, aber man könnte die DIE doch vergrößern (mal abgesehen von der Fertigungstechnologie) und somit die Kontaktflächer erhöhen. Man müsste lediglich ein wenig Silizium dazuschmelzen Augenzwinkern


Yidaki
5) Babe (29.03.2006, 15:29 Uhr)
Zitat:
Original von Yidaki
Das ist mir schon klar, Babe, aber man könnte die DIE doch vergrößern (mal abgesehen von der Fertigungstechnologie) und somit die Kontaktflächer erhöhen. Man müsste lediglich ein wenig Silizium dazuschmelzen Augenzwinkern

Das Steht ziemlich stark im Widerspruch mit der Kostensenkung smile
6) Yidaki (29.03.2006, 15:36 Uhr)
Aber dann würde das ganze um einiges kühler laufen ...



Yidaki
7) Babe (29.03.2006, 15:46 Uhr)
Zitat:
Original von Yidaki
Aber dann würde das ganze um einiges kühler laufen ...

Es wäre eventuell zu überlegen eine Art Heatspreader anzuschaffen, aber die DIE künstlich mit Silizium zu vergrößern ist Schwachsinn, sonst nix smile
8) Yidaki (29.03.2006, 16:03 Uhr)
Von der DIE wird ja auch nicht alles benutzt, da ist sicher Material dabei, das nicht verwendet wird. Bei alten Athlon XPs ist da auch oft was abgebrochen und die CPU hat trotzdem einfwandfrei funktioniert.


Yidaki
9) Gast (29.03.2006, 17:18 Uhr)
Wird der G80 auch in 80nm produziert werden? Ich habe die Vorahnung, dass es in Zukunft immer mehr Refreshs und reduzierte High-End-Chips geben wird. Durch die Verteilung der Launchdaten in Halbjahresabständen (nVidia Juni/ATI Dezember) wird der jeweilige Konkurrent immer ein Refresh seines Chips zum Launch bringen - und die neue Mid-Ranges durch einen reduzierten High-End-Chip einzuheizen.

MfG DeFEW
10) Gast (30.03.2006, 15:29 Uhr)
Zitat:
Original von Yidaki
Von der DIE wird ja auch nicht alles benutzt, da ist sicher Material dabei, das nicht verwendet wird. Bei alten Athlon XPs ist da auch oft was abgebrochen und die CPU hat trotzdem einfwandfrei funktioniert.




Quark. Da die Abwärme ja in der Logik entsteht, bringt ein entsprechender "Siliziumrahmen" um die Logik herrum wenig bis gar nichts: Die Wärme muss immer nach oben oder unten von der Fläche abgegeben werden. Eine Ableitung zu den Seiten hin funktioniert nicht, da das DIE viel zu dünn und Silizium ein viel zu schlechter Wärmeleiter ist, als dass da groß Wärme geleitet werden könnte.
Kommentar abgeben 


Sicherheitsabfrage
Bitte übertragen Sie den Code in das Eingabefeld!