AGEIAs neue PhysX-Karten sind ab Anfang Mai erhältlich


Erschienen: 24.03.2006, 11:00 Uhr, Quelle: DailyTech, Autor: Christoph Buhtz

Wie das Online-Magazin DailyTech in Erfahrung bringen konnte, werden erste AGEIA PhysX Zusatzkarten, die eine Physics Processing Unit (PPU) besitzen, ab Anfang Mai verfügbar sein. Hersteller wie Asus oder BFG werden erste entsprechende Modelle anbieten können. AGEIA selbst betrachtet die Physikbeschleuniger-Karte als kleine Revolution.

"AGEIA is charting new territory by bringing dedicated physics hardware to market that delivers the real-time physics gameplay that gamers and developers alike have been clamoring for,” sagt Manju Hegde, CEO bei AGEIA. “With the PhysX accelerator board in these new PCs from Dell, Alienware and Falcon Northwest, gamers now have future-proof systems for a fast-growing library of great games that exploit their power."

Die PhysX werden mit 128 bis 256 MB GDDR3-Speicher ausgestattet sein und auf die PCI-Schnittstelle setzen. In Zunkunft sind PCI-Express basierende Karten geplant. Finanziell wird AGEIA circa 250 bis 300 US-Dollar für die Add-In Karte verlangen. Allerdings wird es AGEIA nicht einfach haben, da sich nun beispielsweise Nvidia mit Havok zusammengeschlossen hat, um eine GPU-basierte Effektphysik-Lösung zu entwickeln. Auch ATi schläft nicht und plant eine ähnliche Lösung wie Nvidia. Nichtsdestotrotz planen bereits schon viele Hersteller die Unterstützung der AGEIA PhysX Karte. Wer einmal einen Einblick bekommen möchte, was solch eine Lösung leisten kann, sollte sich zum Beispiel das Cell Factor Video anschauen.

« Vorherige News Nächste News »
Weitere Meldungen

Kommentare (13)Zum Thread »

1) patjaselm (24.03.2006, 11:07 Uhr)
himmel! baut doch die dinger so, dass sie passiv gekühlt werden können!

und über den preis müssen wir ja erst gar nicht diskutieren unglücklich ...
2) Babe (24.03.2006, 11:22 Uhr)
Zitat:
Original von patjaselm
himmel! baut doch die dinger so, dass sie passiv gekühlt werden können!

Ja da hätte man mit einem großen Passivkühler sicherlich etwas erreichen können. Mal sehen wie die Kühlung von BFG aussehen wird.
3) Gast (24.03.2006, 11:28 Uhr)
Der Preis ist doch ok. Bevor ich ne zweite nvidia kaufe um die dann die Physik rechnen zu lassen, fahre ich doch so immernoch billiger.
4) Mr. Smith (24.03.2006, 11:33 Uhr)
100 €, dann würd ichs mir überlgen. Und ja, passiv wäre schon nicht schlecht gewesen.
5) Thrawn (24.03.2006, 11:47 Uhr)
Für diesen Preis.....wird sich die Karte nicht halten können. Wieder ne Karte mehr, wieder Treiber mehr...Alles was nicht sonderlich zuträglich ist. Ne ExtraKarte nur für Physik hat in meinen Augen keine Zukunft
6) Babe (24.03.2006, 11:57 Uhr)
Zitat:
Original von Thrawn
Ne ExtraKarte nur für Physik hat in meinen Augen keine Zukunft

Würd ich so pauschal nicht sagen, immerhin sind Spiele mittlerweile viel mehr als nur ein netter Haufen Pixel, sondern bringen auch entsprechende Physik mit rein und sind daher sehr rechenintensiv. Ich denke das wird immer mehr kommen, ob man eine extra Karte dafür künftig benötigen wird bzw. ob sie sinnvoll ist, wird wohl auch die GPU-Entwicklung in Zukunft entscheiden.

Zum Preis: 250 bis 300 US-Dollar sind etwa 210 bis 250 Euro. Wenn es sich dabei um den UVP von Asus handelt, dürfte der Preis für den Endkunden noch deutlich darunter liegen - abwarten.
7) Mr. Smith (24.03.2006, 12:07 Uhr)
Ham mir gerade das CellFactor Video angeschaut. Wären schon nette Effekte möglich, aber der Preis ist einfach zu hoch.
8) Thrawn (24.03.2006, 12:14 Uhr)
@babe: Das solche Chips keine Zukunft haben, hab ich nicht gesagt. Denke serh wohl, daß in Zukunft sowas auf die Graka ausgelagert wird, oder auch in CPUs integriert wird. Aber eine extra Karte dafür ist in meinem Augen nicht das was wir in Zukunft haben werden bzw wollen.
9) da_masta_pst (24.03.2006, 12:57 Uhr)
Ich gebe Thrawn vollkommen recht.
Das die Physik immer aufwendiger wird und eine eigene recheneinheit benötigt wird ist logisch.
Allerdings finde ich die lösung einer extra karte, bzw. eines extra chips etwas albern.
Wenn das so weiter geht müssen wir bald für die Vertexshader, für die Pixelshader, fürs AntiAlaising ect. eigene Karten kaufen. Das ist doch schwachsinn.
Die integration in die Aktuellen GPUs oder zumindest auf die Aktuellen Grakas wäre meiner Meinung nach wehsentlich logischer und benutzerfreundlicher.
Durch die auslagerung auf andere Karten bzw. durch die trennung der Physik von GPU u. CPU ergeben sich so wie so ganz neue probs. für gamer.
Während heute jeder mit einer nicht janz so leistungsfähigen Graka einfach die Details runter schrauben kann wird das mit der Physik natürlich etwas problematisch.
Gerade wenn die die Physik Handlungs relevant ist wie z.B. in HL2.
Stellt euch mal vor in nem Multiplayergame kann einer die Physik berrechtnen und der andere nicht, wie soll das funktionieren?

Naja die Spielindustrie und die Hardwarehersteller werden sich da schon etwas funktionierendes ausdenken, nur ob es dan wirklich sinnvoll ist wird mann abwarten müssen.
10) BlaCkSheep (24.03.2006, 13:20 Uhr)
naja also das video find ich jetzt nicht so der bringer.
11) Gast (24.03.2006, 14:25 Uhr)
Naja, es beginnt wie damals die 3D Beschleunigerkarten álla 3dfx Voodoo und PowerVR als Zusatzkarte. Der nächste neue Nvidia-Chip wird dann schon diese Funktionen bieten und spätestens der übernächste Chip wird diese Funktionen besser beherrschen als die Add-On Karte womit diese überflüssig wird. Ich denke ehrlich gesagt nicht das ein Unternehmen wie "AGEIA" am Ende gegen die Kapitalmacht von ATI oder Nvidia bestehen kann....
12) Empy (24.03.2006, 19:48 Uhr)
Hmm...

Ich würde die Physikberechnung einfach als zweiten Thread auf die CPU legen... Dual-Core User würden sich freuen, aber nein, noch ein Stromfresser, ein zu kühlender Chip und ein Lüfter müssen rein und die DC-User haben in Games immer noch nichts bewegendes von der Besonderheit ihrer CPU, für die sie meistens viel Geld bezahlt haben.
13) Warhead (24.03.2006, 21:58 Uhr)
so schauts aus! wenn denn wenigstens alle games ohne probs auf beiden cpus laufen würden...aber nein, die meisten machen noch zicken, selbst diablo2 aus 2001 hat das besser gelöst... unglücklich
Kommentar abgeben 


Sicherheitsabfrage
Bitte übertragen Sie den Code in das Eingabefeld!