böhmi
AdministratorSpießer
|
ich find die lösung mit der eigenen karte auf jeden fall besser als die lösung von nvidia, wo die GPU mitrechnen soll! meine GPU-leistung brauch ich für AA und AF, und sicher net für physik! da ists ja noch sinnvoller wie bisher die CPU rechnen zu lassen. die ist bei mir bei spielen sicher seltener ausgelastet als die GPU aber die sinnvollste lösung war noch nie ausschlaggebend, sondern die am besten von der industrie unterstützte. also werden wir uns alle bald wieder neue grafikkarten kaufen und unsere CPUs werden statt 70% auslastung endlich nur mehr 60% am ersten core und 1% am zweiten core haben.... mfg, böhmi
|
Hornet331
See you Space Cowboy
|
ihmo is die lösung von ati da besser. bei ati kann eine karte dezitiert die aufgabe zur berechnung übernehmen. und das beste ist man braucht keine 2 gleiche karten, sprich wer jetzt ne x1900 karte hat und sich dann später ne x28xxx (oder was auch immer ) kauft kann die x1900 drin lassen und die berechnet dann die physik.
|
Ex0duS
Banned
|
abzocke, imho
man könnte die units genauso auf grafikkarten verbauen oder as fisch said-> die gpu darauf zu optimieren und dass direkt die gpu macen zu lassen
daher -> reine abzocke hm also die grafikkarten neuester generation pfeifen bei manchen games aus dem letzten loch, und jetzt willst ihnen auch noch die physik berechnung umhängen ? tolle idee dann brauch ich mir ja nur ne X2800 oder wwi kaufen um die selbe "grafikleistung" wie mit meiner X800 XL zu haben ? Aber naja erstmal sollten die entwickler beginnen vorhandene hardware auch wirklich auszunützen, und dann sollten sie darüber nachdenken solche karten zu verwenden. Denn wenn ich mir so anschau wie entwickler mit der zur verfügung stehenden power so umgehen kommt mir das grausen :/ 2. Core bei 1% auslastung ... kein Clipping, kein ..... grausam.
|
AnthaxBeta
Little Overclocker
|
ich sag nur einfach eine riesen Abzocke!! Vll ändert sich das Ganze in 1-2 Jahren, aber zurzeit ist es wida mal ein Versuch dem Kunden mehr Geld aus der Tasche zu ziehen! Physik Karten sind zurzeit eine Fehlinvestition, da es noch keinen Standard gibt! Ich werde auf jeden Fall warten. Mein Tipp: zurzeit abwarten und vll 50-100 € mehr für eine bessere GPU ausgeben!
|
Hornet331
See you Space Cowboy
|
http://personal.inet.fi/atk/kjh2348fs/ageia_physx.htmlnette seite die alle informationen über den ageia ppu gesammelt hat. welches game mich eigendlich sehr beindruckt hat is cellfactor, wenn das game wirklich so ne interakive umgebung hat könnte u.u. in meinem zukünftigen rechner ne PPU landen (das dauert aber eh noch a weilchen bis conroe da is. )
|
Darksteel
My Fast thinks ...
|
Wieder eine Karte mit Lüfter mehr im Häusl, bald hamma so viele belüftete Zusatzkarten das der Rechner im Zimmer anfängt umadumzufliegen. Ich seh schon Starsky einen Thread aufmachen, in dem er einen passenden Zalmann Lüfter für die Physikkarte fordert, incl. Poll & Ergebnisübermittlung an Zalmann. Meine (momentane) Meinung: [x] Geldverschwendung. schönen Abend noch Darksteel
|
Hornet331
See you Space Cowboy
|
naja, dann gibts bestimmt sowas wie den ati/nvsilncer für die physx karte. oder andere hersteller bringen passiv modele raus.
|
GrandAdmiralThrawn
XP Nazi
|
Ich würd das ganze ziemlich geil finden, wenn's einen Standard geben würde. Da schließe ich mich denen an, die nach DirectX schreien, das ist auf der Stelle nötig. Ohne gemeinsame API, die dann von jeder Physikengine und jedem Physikbeschleuniger genutzt werden kann, wird das in einem riesigen Chaos münden. DirectPhysics eben, oder so. Ansonsten gefällt mir die Idee ziemlich gut, denn die CPUs stellen sehr wohl schon ein Limit dar in so manchen Spielen. Ob daran jetzt die Physik oder die KI eher schuld sind, müßte man halt noch abklären; Am besten durch Benchmarks der PhysX Karten! Dual Core / SMP zu nutzen ist der andere Approach, wenigstens einer, der sich mit vielen verschiedenen Physikengines realisieren ließe.
Bearbeitet von GrandAdmiralThrawn am 29.03.2006, 12:02
|
Viper780
Er ist tot, Jim!
|
richtung DC bzw HT solltens dochshcon lange gehen und nur wenns des können, könnens die physik wo anders rechnen.
ob man so eine standardisierung microsoft in die hand geben sollte oder was ähnliches wie OpenGL schafft ist glaubensfrage, das was her gehört aber jedem klar!
|
ill
...
|
Ich find die Idee mit den PhysX - Karten ja schon sehr genial, aber wie GrandAdmiralThrawn auch gesagt hat, ohne einen Standard hat das meiner Meinung nach recht wenig Sinn...
Würde mir derzeit keine zulegen, ich werd das geschehen erst mal beobachten, vielleicht wirds ja noch was mit den Karten
|
GrandAdmiralThrawn
XP Nazi
|
Wie ich zum ersten Mal von den Dingern gehört habe, war ich ja eigentlich hellauf begeistert, aber mangels Standardisierung (ob offen oder DirectX ist mir recht wurscht, solangs gscheit funktioniert) werd ichs wohl sicher nicht kaufen. Der Wunschtraum wär ja: Karte kaufen, und alle modernen Spiele beschleunigt bekommen!
|
JC
AdministratorDisruptor
|
Der Wunschtraum wäre eine Karte, die dann alles beschleunigt. Wenn schon unbedingt eine eigene Karte sein muss, könnte man das modular aufziehen und auch den Initia-Chip und andere, eventuell in der Zukunft auftauchende solcher Chips auf die Karte geben. Bandbreitenprobleme sind bei so einer geringen Menge ja ausgeschlossen. Da ja viele große Titel PhysX unterstützen werden, gilt es derzeit als gesichert, dass Physikbeschleunigung auch in Zukunft eine große Rolle spielen dürfte. Stellt sich eben nur die Frage nach dem Standard. Bis MS mit DX in die Bresche springen kann, vergehen Jahre, denn für DX10 gibt's definitiv keine Pläne. Dass man derzeit gezwungen ist, die PhysX API (ehem. NovodeX Physikengine) zu benutzen, ist wohl etwas ungünstig. Von dem Lösungsansatz von Havok bzw. dem nVidia/ATI-Ansatz halte ich nicht viel. Das Grundprinzip von Havok ist mangelhaft und limiert physikalische Berechnungen nicht auf aktuelle Physikberechnungen, sondern nur auf ein paar Darstellungs-Effekte. *Wirkliche* Berechnungen haben ja Performanceeinbußen zur Folge - wohl kaum das Gelbe vom Ei. Und nachdem ATI ja einen Schritt weitergehen und einmal mehr eine proprietäre API erschaffen will, sehe ich das auch als Sackgasse an.
|
Hornet331
See you Space Cowboy
|
der weg von ati is ja nicht nur für physik interessant, sonderen die wollen ja erlauben ihre hardware direkt anzusprechen ohne das ein api dazwischen liegt (wie zb directx) bzw. ein API schaffen das flexibler ist als directx. Fürs flooden is das sicher genial.
|
Master99
verträumter realist
|
physikkarten ja... so aber nicht!
prinzipiell wird IMHO sowieso nix an spezialisierten prozessoren vorbeiführen in zukunft (die meisten sollten es schon mitbekommen haben, dass sich die prozessoren nicht unbegrenzt schneller machen lassen können)
aber, a standard gehört her!
nit das des so "endet" wie EAX... das is IMHO a schöner vergleich wo halt ein hersteller dann im vorteil is, weil kein offenes system.
und bitte nit unbedingt in dx... irgendwann sollten spieler doch mal die möglichkeit haben was anderes wie windows verwenden zu können!
edit: @ hornet: a gpu direkt ohne api ansprechen? des wär assembler oder? *gg*
|
PR1
...
|
hm.. normalerweise kauf ich ja jeden blödsinn, aber Dieses Ding lässt mich kalt
weil es is definitiv zu teuer hab keinen weiteren PCI oder PCIe Slot frei
da wart ich mal ab wie ATI da löst, da ich schon x1900Crossfire hab..
am Besten wärs wenn der Physik Chip auf dem Mobo oder eben auf der Graka wär anstatt externer Lösungen
aber das treibt den Preis der Teile wieder extrem hoch
naja, abwarten ob sich das durchsetzt....als Zusatzkarte glaub ich nicht..
|