Nvidia kauft PhysX-Entwickler AGEIA

    • Offizieller Beitrag

    Das ist eine sehr große Sache. Allerdings muss ich immer noch sagen das eine extra karte (oder zumindest ein chip, siehe Notebooks) die bessere Lösung darstellt als eine von der Grafikkarte zusätzlich berrechnet physik engine. Denn selbst die highend modelle sind mit der berrechnung von heutigen Titeln wie Crysis voll ausgelastet. Hier wird die KI und Physik auch über den CPU abgewickelt und dies ist bei heutigen geschwindigkeiten das bessere übel. Vorstellen könnte man sich zwar die Berrechnung der Physik durch eine zweite Grafikkarte, dies wäre aber dann ein enormer Preisaufwand. Vorallem wenn wie bis jetzt in PhysX unterstützten Games so viele neue Effekte/Partikell freigeschaltet werden, das der CPU mehr zu tun hat als vorher.


    Das HAvok FX eingestellt wurde ist auch interesant.

  • das mit havok fx wäre nur ein logischer schritt...dass intel nun ihre prozis stärken will und nicht hausfremde grafikchips ist klar.


    amd/ati hat ja auch interesse angemeldet letztes jahr an ageia, nur kann man sich dort derzeit wohl rein gar nichts leisten, schon gar nicht ne derartige firma. dazu hab en sie einfach zu viele probleme derzeit, nicht nur geldmäßig


    und wie die zukunft genau aussehn wird wird man wieder abwarten müssen. durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß

  • Zitat

    Original von Warhead
    durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß


    Ja, so was wurde ja schon mal andiskutiert, als es letztes Jahr um Ageia bzw. den möglichen Verkauf ging. Damals hatte NV bereits was von 'intergrierten Lösungen' erzählt.


    Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro


    "Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
    "Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

  • Die Frage ist ja wie hoch ist der Rechenaufwand um die Kollisionen eines Teilchens zu berechnen im Verhältnis zur Berechnung seiner Grafischen darstellung.
    Vielleicht wäre es ja möglich wenn man nvidias und Ageias know-how zusammenpackt eine PGPU zu entwickeln die "einfach" in jedem Streaming-Prozessor neben Shader und sonstigen Rechenschritten für jeden dargestellten Pixel auch einen Physikalgorithmus abspult.

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

  • Zitat

    Original von Gast
    Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...


    nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...



    auf jeden fall hoffe ich auf integrierte lösungen, quasi als zusatzchip an der stelle des g92 layouts wo früher ja mal der ramdac saß zu g80 zeiten. das hätte was :P


    man kann nur hoffen dass daraus etwas produktives entsteht und der kunde etwas davon hat. die physikeffekte sind ja schon nett, nur fehlt eben noch die verbreitung in den anwendungen komplett...

  • Zitat

    Original von Warhead


    nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...


    Unfug - was Du beschreibst nennt man Onboard-VGA und gibt es schon lange. Natürlich soll die integrierte GPU ordentlich Power haben, warum hat AMD denn sonst ATI gekauft?

  • nunja dann solltest du dir folgendes überlegen: wo kommt der grafikram her? shared memory...ergo flaschenhals.


    weiterhin soll amd fusion (jetzt ja swift) die leistung aktueller mid- bis high-range produkte haben (siehe dualcore phenom + 3800 gpu + 790er mch) die aussage jedoch bezieht sich auf derzeitige hardware, wobei die einführung der desktopprodukte nicht vor 2010 stattfinden wird. so wie man amd kennt und deren probleme auch in bezug auf die geldmengen wohl eher nicht gerade anfang 10 (notebooklösungen sollen ja schon im zweiten hj 09 kommen, was aber sicher auch noch das ein oder anderemal verschoben werden wird)...


    aber nichts destotrotz ist bis dahin die heutige grafikhardware nur noch low-range...


    amd hat nicht ati gekauft um highend-cpu und highend-gpu zu kombinieren, sondern eher vielmehr um in den bereichen mobile und integrierte lösungen mit geringem verbrauch zu punkten! das sieht man auch imho daran, dass man plant dualcore + gpu + mch auf einer platine zu vereinen. ein quadcore + highendgpu + mch + anständigen gddr würde imho jegliche größen sprengen und auch der stromverbrauch wäre nicht ganz ohne incl kühlung..
    ganz davon abgesehen wäre eine aufrüstbarkeit gar nicht mehr gegeben und wegen ner neuen gpu müsste man gleich ne neue cpu + gpu + mch kaufen, von den kosten will ich da ja mal gar nix wissen :rolleyes:


    sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...

    • Offizieller Beitrag
    Zitat

    Original von Warhead
    sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...


    nicht nur deine Logik siehe oben :) Dieses wäre einfach zu viel. Auch was wärme und fertigungstechnologien angeht. Es wäre ja dann wieder alles größer und wärmer und davon ist man gerade weg ;)