Nvidia kauft PhysX-Entwickler AGEIA


Erschienen: 05.02.2008, 12:00 Uhr, Quelle: Nvidia, Autor: Alexander Hille

Vor ein paar Wochen noch als Gerücht durchs Netz gegeistert und nun doch Realität! Nvidia übernimmt die PhysX-Schmiede AGEIA Technologies, Inc.
Das 2002 gegründete, kalifornische Unternehmen brachte im Jahre 2006 die sogenannten PPU (Physics Processing Unit) mit Namen PhysX auf den Markt, die sich allerdings bis heute nur sehr mäßiger Beliebtheit erfreuten. Problem daran war, dass diese Technik nicht nur einen zusätzlichen PCI-Slot verschlang, aktiv gekühlt und mit einem zusätzlichen Stromanschluss versehen wurde, sondern auch an der flächendeckender Unterstützung der Spieleentwickler mangelte es und nur vereinzelte Titel werden bis heute unterstützt. Anfänglich noch mit Preisen um die 300 Euro-Marke gehandelt, werden fast zwei Jahre nach deren Einführung immer noch mindestens 112 Euro für eine PhysX-Karte von den einzigen beiden Firmen, nämlich BFG und Asus, die die Karten exklusiv vertreiben, fällig.

Mit der Übernahme seitens Nvidia wird sich wohl in Zukunft einiges bei AGEIA verändern. So will man die Rechenleistung der hauseigenen GeForce-Chips ebenfalls für Physik-Berechnungen heranziehen. Bislang kann AGEIAs PhysX-Engine neben den eigenen PhysX-Chips nur die Hauptprozessoren für etwaige Berechnungen nutzen. Der größte Konkurrent namens Havok Physics, der seit einiger Zeit zu Intel gehört, kann für seine Berechnungen ebenfalls nur CPUs, und zwar nur die aus eigenem Hause, nutzen, nachdem Havok FX, welche die Grafikkarten von Nvidia und ATi ebenfalls unterstützte, kurz nach der Übernahme seitens Intel scheinbar still und heimlich begraben wurde. Aufgrund dessen hatte Ageia ihr Software Development Kit (SDK) schon kostenlos angeboten, um sich Marktanteile zu sichern, was aber kaum fruchtete. Mit Nvidia könnte allerdings nun der Schritt zur Massenmarkttauglichkeit gegeben sein.
Nvidia-Chef Jen-Hsun Huang möchte die Entwickler von Nvidia und PhysX vereinigen, um "GeForce-beschleunigtes PhysX" in einer möglichst breiten Anwendungspalette anzubieten. Das Nachsehen hat wie so oft Konkurrent AMD/ATi, da die konkurrierenden Physik-Beschleunigungsschnittstellen zueinander inkompatibel sind. Nvidia setzt hierbei auf ihre GeForce-zentrierte GPU-Computing-Schnittstelle "CUDA", die dann wohl auch PhysX nutzen wird.

Informationen über die finanziellen Details sind leider bislang nicht bekannt gegeben worde. Ebenso fehlen Informationen darüber, wie Käufer der PhysX-Karten in Zukunft behandelt werden, da eine Konzentration auf die CPU und GPU die Zusatzkarten wohl komplett überflüssig machen könnte.

« Vorherige News Nächste News »
Weitere Meldungen

Kommentare (12)Zum Thread »

1) BigWhoop (05.02.2008, 13:44 Uhr)
Das ist eine sehr große Sache. Allerdings muss ich immer noch sagen das eine extra karte (oder zumindest ein chip, siehe Notebooks) die bessere Lösung darstellt als eine von der Grafikkarte zusätzlich berrechnet physik engine. Denn selbst die highend modelle sind mit der berrechnung von heutigen Titeln wie Crysis voll ausgelastet. Hier wird die KI und Physik auch über den CPU abgewickelt und dies ist bei heutigen geschwindigkeiten das bessere übel. Vorstellen könnte man sich zwar die Berrechnung der Physik durch eine zweite Grafikkarte, dies wäre aber dann ein enormer Preisaufwand. Vorallem wenn wie bis jetzt in PhysX unterstützten Games so viele neue Effekte/Partikell freigeschaltet werden, das der CPU mehr zu tun hat als vorher.

Das HAvok FX eingestellt wurde ist auch interesant.
2) Gast (05.02.2008, 13:52 Uhr)
Ich hätte sie ja lieber bei AMD/ATI gesehen...
3) Warhead (05.02.2008, 15:16 Uhr)
das mit havok fx wäre nur ein logischer schritt...dass intel nun ihre prozis stärken will und nicht hausfremde grafikchips ist klar.

amd/ati hat ja auch interesse angemeldet letztes jahr an ageia, nur kann man sich dort derzeit wohl rein gar nichts leisten, schon gar nicht ne derartige firma. dazu hab en sie einfach zu viele probleme derzeit, nicht nur geldmäßig

und wie die zukunft genau aussehn wird wird man wieder abwarten müssen. durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß
4) Gast (05.02.2008, 16:19 Uhr)
Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...
5) BigWhoop (05.02.2008, 16:21 Uhr)
das ist viel zu viel Kram in einem Element smile Darauf kann noch laaaange gewartet werden. Ich bezweifel das es überhaupt praxis nah umgesetzt werden kann ausser halt auf office oder HTPC.
6) Paladin (05.02.2008, 17:26 Uhr)
Zitat:
Original von Warhead
durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß

Ja, so was wurde ja schon mal andiskutiert, als es letztes Jahr um Ageia bzw. den möglichen Verkauf ging. Damals hatte NV bereits was von 'intergrierten Lösungen' erzählt.
7) Slugger (05.02.2008, 19:01 Uhr)
Die Frage ist ja wie hoch ist der Rechenaufwand um die Kollisionen eines Teilchens zu berechnen im Verhältnis zur Berechnung seiner Grafischen darstellung.
Vielleicht wäre es ja möglich wenn man nvidias und Ageias know-how zusammenpackt eine PGPU zu entwickeln die "einfach" in jedem Streaming-Prozessor neben Shader und sonstigen Rechenschritten für jeden dargestellten Pixel auch einen Physikalgorithmus abspult.
8) Warhead (05.02.2008, 21:58 Uhr)
Zitat:
Original von Gast
Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...


nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...


auf jeden fall hoffe ich auf integrierte lösungen, quasi als zusatzchip an der stelle des g92 layouts wo früher ja mal der ramdac saß zu g80 zeiten. das hätte was Zunge raus

man kann nur hoffen dass daraus etwas produktives entsteht und der kunde etwas davon hat. die physikeffekte sind ja schon nett, nur fehlt eben noch die verbreitung in den anwendungen komplett...
9) Gast (05.02.2008, 23:04 Uhr)
Zitat:
Original von Warhead
Zitat:
Original von Gast
Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...


nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...


Unfug - was Du beschreibst nennt man Onboard-VGA und gibt es schon lange. Natürlich soll die integrierte GPU ordentlich Power haben, warum hat AMD denn sonst ATI gekauft?
10) Warhead (05.02.2008, 23:59 Uhr)
nunja dann solltest du dir folgendes überlegen: wo kommt der grafikram her? shared memory...ergo flaschenhals.

weiterhin soll amd fusion (jetzt ja swift) die leistung aktueller mid- bis high-range produkte haben (siehe dualcore phenom + 3800 gpu + 790er mch) die aussage jedoch bezieht sich auf derzeitige hardware, wobei die einführung der desktopprodukte nicht vor 2010 stattfinden wird. so wie man amd kennt und deren probleme auch in bezug auf die geldmengen wohl eher nicht gerade anfang 10 (notebooklösungen sollen ja schon im zweiten hj 09 kommen, was aber sicher auch noch das ein oder anderemal verschoben werden wird)...

aber nichts destotrotz ist bis dahin die heutige grafikhardware nur noch low-range...

amd hat nicht ati gekauft um highend-cpu und highend-gpu zu kombinieren, sondern eher vielmehr um in den bereichen mobile und integrierte lösungen mit geringem verbrauch zu punkten! das sieht man auch imho daran, dass man plant dualcore + gpu + mch auf einer platine zu vereinen. ein quadcore + highendgpu + mch + anständigen gddr würde imho jegliche größen sprengen und auch der stromverbrauch wäre nicht ganz ohne incl kühlung..
ganz davon abgesehen wäre eine aufrüstbarkeit gar nicht mehr gegeben und wegen ner neuen gpu müsste man gleich ne neue cpu + gpu + mch kaufen, von den kosten will ich da ja mal gar nix wissen Augen rollen

sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...
11) BigWhoop (06.02.2008, 00:11 Uhr)
Zitat:
Original von Warhead
sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...

nicht nur deine Logik siehe oben smile Dieses wäre einfach zu viel. Auch was wärme und fertigungstechnologien angeht. Es wäre ja dann wieder alles größer und wärmer und davon ist man gerade weg Augenzwinkern
12) Gast (06.02.2008, 12:37 Uhr)
Nvidia hat seine Unified-Shader-Architecture schon für Physik ausgelegt, da macht so ein Kauf doch Sinn. GPUs mit PhysX wird wohl noch dauern!
Kommentar abgeben 


Sicherheitsabfrage
Bitte übertragen Sie den Code in das Eingabefeld!