Willkommen, Gast!

Wenn dies Ihr erster Besuch in unserem Forum ist, sollten Sie sich zuerst unsere Forum-Netiquette durchlesen. Bevor Sie nun Beiträge schreiben, empfehlen wir Ihnen eine kostenlose Registrierung, da Sie durch Ihren eigenen Account deutlich mehr Features und Komfort im Forum genießen können. Wenn Sie ein bestimmtes Thema suchen, können Sie unsere Suchfunktion benutzen. Falls Sie sich bereits angemeldet haben, können Sie Ihren Account (im Menü links unter Mein Profil aufrufbar) verwalten.


Neue Beiträge, der letzten 24 Stunden
.


Es ist jetzt 19:41 Uhr.

Hardware-Mag - Forum » Veröffentlichungen » Newsmeldungen » Nvidia kauft PhysX-Entwickler AGEIA
Letzter Beitrag | Erster ungelesener Beitrag Druckvorschau | An Freund senden | Thema zu Favoriten hinzufügen
Neues Thema erstellen Antwort erstellen
Nvidia kauft PhysX-Entwickler AGEIA
Autor
Beitrag « Vorheriges Thema | Nächstes Thema »
Hardware-Mag
Redakteur


images/avatars/avatar-23.jpg

Dabei seit: 16.12.2005
Beiträge: 6.776

Nvidia kauft PhysX-Entwickler AGEIA Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Die gesamte Meldung finden Sie unter folgendem Link:

http://www.hardware-mag.de/news/2008/feb...twickler_ageia/

05.02.2008 12:00 E-Mail an Hardware-Mag senden Homepage von Hardware-Mag Beiträge von Hardware-Mag suchen
BigWhoop BigWhoop ist männlich
Redakteur


images/avatars/avatar-278.gif

Dabei seit: 02.03.2007
Beiträge: 7.167
Herkunft: Bielefeld

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Das ist eine sehr große Sache. Allerdings muss ich immer noch sagen das eine extra karte (oder zumindest ein chip, siehe Notebooks) die bessere Lösung darstellt als eine von der Grafikkarte zusätzlich berrechnet physik engine. Denn selbst die highend modelle sind mit der berrechnung von heutigen Titeln wie Crysis voll ausgelastet. Hier wird die KI und Physik auch über den CPU abgewickelt und dies ist bei heutigen geschwindigkeiten das bessere übel. Vorstellen könnte man sich zwar die Berrechnung der Physik durch eine zweite Grafikkarte, dies wäre aber dann ein enormer Preisaufwand. Vorallem wenn wie bis jetzt in PhysX unterstützten Games so viele neue Effekte/Partikell freigeschaltet werden, das der CPU mehr zu tun hat als vorher.

Das HAvok FX eingestellt wurde ist auch interesant.



__________________
2.00000000 + 2.000000000 = 3.999998456


05.02.2008 13:44 E-Mail an BigWhoop senden Homepage von BigWhoop Beiträge von BigWhoop suchen Fügen Sie BigWhoop in Ihre Kontaktliste ein
Gast
unregistriert
Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Ich hätte sie ja lieber bei AMD/ATI gesehen...

05.02.2008 13:52
Warhead Warhead ist männlich
Moderator


images/avatars/avatar-150.jpg

Dabei seit: 24.12.2005
Beiträge: 2.946
Herkunft: tiefstes Sachsen

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

das mit havok fx wäre nur ein logischer schritt...dass intel nun ihre prozis stärken will und nicht hausfremde grafikchips ist klar.

amd/ati hat ja auch interesse angemeldet letztes jahr an ageia, nur kann man sich dort derzeit wohl rein gar nichts leisten, schon gar nicht ne derartige firma. dazu hab en sie einfach zu viele probleme derzeit, nicht nur geldmäßig

und wie die zukunft genau aussehn wird wird man wieder abwarten müssen. durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß



__________________

05.02.2008 15:16 E-Mail an Warhead senden Homepage von Warhead Beiträge von Warhead suchen
Gast
unregistriert
Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...

05.02.2008 16:19
BigWhoop BigWhoop ist männlich
Redakteur


images/avatars/avatar-278.gif

Dabei seit: 02.03.2007
Beiträge: 7.167
Herkunft: Bielefeld

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

das ist viel zu viel Kram in einem Element smile Darauf kann noch laaaange gewartet werden. Ich bezweifel das es überhaupt praxis nah umgesetzt werden kann ausser halt auf office oder HTPC.



__________________
2.00000000 + 2.000000000 = 3.999998456


05.02.2008 16:21 E-Mail an BigWhoop senden Homepage von BigWhoop Beiträge von BigWhoop suchen Fügen Sie BigWhoop in Ihre Kontaktliste ein
Paladin
Hardware-Gott


images/avatars/avatar-50.jpg

Dabei seit: 24.12.2005
Beiträge: 2.183
Herkunft: BW

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Zitat:
Original von Warhead
durchaus denkbar wären auch gpus mit zusätzlichem physx chip auf der platine...wer weiß

Ja, so was wurde ja schon mal andiskutiert, als es letztes Jahr um Ageia bzw. den möglichen Verkauf ging. Damals hatte NV bereits was von 'intergrierten Lösungen' erzählt.



__________________

Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro

"Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
"Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

05.02.2008 17:26 E-Mail an Paladin senden Homepage von Paladin Beiträge von Paladin suchen
Slugger Slugger ist männlich
High-End-User


images/avatars/avatar-257.jpg

Dabei seit: 29.11.2006
Beiträge: 766

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Die Frage ist ja wie hoch ist der Rechenaufwand um die Kollisionen eines Teilchens zu berechnen im Verhältnis zur Berechnung seiner Grafischen darstellung.
Vielleicht wäre es ja möglich wenn man nvidias und Ageias know-how zusammenpackt eine PGPU zu entwickeln die "einfach" in jedem Streaming-Prozessor neben Shader und sonstigen Rechenschritten für jeden dargestellten Pixel auch einen Physikalgorithmus abspult.



__________________
Meine Erstsystem:
Intel X58||Core I7-950||Geforce 470GTX||OCZ DDR3-1600 3x6GB||
Creative SB-Z||OCZ Vertex3 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

Zweitsystem:
Intel DP35DP||Core2Duo E6750||Geforce 8800GTS||OCZ DDR2-800Mhz 2x2GB
05.02.2008 19:01 E-Mail an Slugger senden Beiträge von Slugger suchen
Warhead Warhead ist männlich
Moderator


images/avatars/avatar-150.jpg

Dabei seit: 24.12.2005
Beiträge: 2.946
Herkunft: tiefstes Sachsen

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Zitat:
Original von Gast
Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...


nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...


auf jeden fall hoffe ich auf integrierte lösungen, quasi als zusatzchip an der stelle des g92 layouts wo früher ja mal der ramdac saß zu g80 zeiten. das hätte was Zunge raus

man kann nur hoffen dass daraus etwas produktives entsteht und der kunde etwas davon hat. die physikeffekte sind ja schon nett, nur fehlt eben noch die verbreitung in den anwendungen komplett...



__________________

05.02.2008 21:58 E-Mail an Warhead senden Homepage von Warhead Beiträge von Warhead suchen
Gast
unregistriert
Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Zitat:
Original von Warhead
Zitat:
Original von Gast
Genial wäre aber ein Triple-Core-Phenom + GPU-Core (das ist ja geplant) plus Physik-Core gewesen. Aus der Traum...


nunja dieser grafikchip + cpu ist ja schon nur eine officelösung die nicht zum spielen taugen wird, zumindest nicht für die neusten grafikkracher, von daher ist das nun nicht so tragisch...


Unfug - was Du beschreibst nennt man Onboard-VGA und gibt es schon lange. Natürlich soll die integrierte GPU ordentlich Power haben, warum hat AMD denn sonst ATI gekauft?


05.02.2008 23:04
Warhead Warhead ist männlich
Moderator


images/avatars/avatar-150.jpg

Dabei seit: 24.12.2005
Beiträge: 2.946
Herkunft: tiefstes Sachsen

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

nunja dann solltest du dir folgendes überlegen: wo kommt der grafikram her? shared memory...ergo flaschenhals.

weiterhin soll amd fusion (jetzt ja swift) die leistung aktueller mid- bis high-range produkte haben (siehe dualcore phenom + 3800 gpu + 790er mch) die aussage jedoch bezieht sich auf derzeitige hardware, wobei die einführung der desktopprodukte nicht vor 2010 stattfinden wird. so wie man amd kennt und deren probleme auch in bezug auf die geldmengen wohl eher nicht gerade anfang 10 (notebooklösungen sollen ja schon im zweiten hj 09 kommen, was aber sicher auch noch das ein oder anderemal verschoben werden wird)...

aber nichts destotrotz ist bis dahin die heutige grafikhardware nur noch low-range...

amd hat nicht ati gekauft um highend-cpu und highend-gpu zu kombinieren, sondern eher vielmehr um in den bereichen mobile und integrierte lösungen mit geringem verbrauch zu punkten! das sieht man auch imho daran, dass man plant dualcore + gpu + mch auf einer platine zu vereinen. ein quadcore + highendgpu + mch + anständigen gddr würde imho jegliche größen sprengen und auch der stromverbrauch wäre nicht ganz ohne incl kühlung..
ganz davon abgesehen wäre eine aufrüstbarkeit gar nicht mehr gegeben und wegen ner neuen gpu müsste man gleich ne neue cpu + gpu + mch kaufen, von den kosten will ich da ja mal gar nix wissen Augen rollen

sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...



__________________

05.02.2008 23:59 E-Mail an Warhead senden Homepage von Warhead Beiträge von Warhead suchen
BigWhoop BigWhoop ist männlich
Redakteur


images/avatars/avatar-278.gif

Dabei seit: 02.03.2007
Beiträge: 7.167
Herkunft: Bielefeld

Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Zitat:
Original von Warhead
sorry aber mehr als lowrange wirds nicht werden, das verbietet imho die logik...

nicht nur deine Logik siehe oben smile Dieses wäre einfach zu viel. Auch was wärme und fertigungstechnologien angeht. Es wäre ja dann wieder alles größer und wärmer und davon ist man gerade weg Augenzwinkern



__________________
2.00000000 + 2.000000000 = 3.999998456


06.02.2008 00:11 E-Mail an BigWhoop senden Homepage von BigWhoop Beiträge von BigWhoop suchen Fügen Sie BigWhoop in Ihre Kontaktliste ein
Gast
unregistriert
Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden

Nvidia hat seine Unified-Shader-Architecture schon für Physik ausgelegt, da macht so ein Kauf doch Sinn. GPUs mit PhysX wird wohl noch dauern!

06.02.2008 12:37
Baumstruktur | Brettstruktur
Gehe zu:
Neues Thema erstellen Antwort erstellen
Hardware-Mag - Forum » Veröffentlichungen » Newsmeldungen » Nvidia kauft PhysX-Entwickler AGEIA



Forensoftware: Burning Board 2.3.6, entwickelt von WoltLab GmbH