tombman
the only truth...
|
Bearbeitet von tombman am 06.09.2003, 04:47
|
Dreamforcer
New world Order
|
Mal lesen 3dcenter artikel sind meist wirklich gut geschrieben und sehr informativ
|
clarence
Banned
|
jup, was 3Dcenter sagt das stimmt.
|
total_eclipse
Banned
|
tja, netter artikel, aber erst mal auf deto 50 warten, bevor man irgendwelche spekulationen über die verbesserte shaderleistung machen kann. alles in allem kommt imho ati besser weg bei dem vergleich, allein wegen der besseren grundleistung. und dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release? da hättens sicher mehr leute gekauft.
der artikel is wirklich schwierig zu verstehn, aber ich hoff ich habs so halbwegs kapiert
|
Oculus
void
|
täusch ich mich, oder ist die cinefx-engine einfach ein pendant zur ati's fragment shader technik? hab den artikel nur überblicksmäßig durchgelesen, aber soweit ich das verstanden hab, macht diese engine nix anderes, als das programmieren der shader zu erleichtern. sprich, man programmiert keine einzelnen passes mehr sondern beliebige shader, die dann automatisch von der engine bestmöglich auf wenige passes optimiert werden
|
-fenix-
OC Addicted
|
und dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release? es is nix ungenützt verbaut der chip braucht einfach eine sehr spezielle optimierung um schnell zu sein diese optimierung is jedoch unkonventionell und grundsätzlich nicht so im DX9 gedacht - sprich: nicht vorhanden ergo muss der deto 50.xx die shader etc. selbst so umformen das die graka sie gut "verdauen" kann das is aber bei weitem umständlicher als einfach nur treiber zu optimieren und daher ein extrem langer und aufwändiger prozess jenachdem wie gut das möglich ist wird der chip mit dem deto dann zulegen in dem bereich momentan verarbeitet der chip die daten halt noch ziemlich ineffektiv
Bearbeitet von -fenix- am 31.08.2003, 21:51
|
tombman
the only truth...
|
http://www.gamersdepot.com/hardware...desktop/001.htmNoch was, was die ownage von ATI im shader 2.0 Bereich belegt... Sehr interessant ist auch der ATI Kommentar, wonach nvidia eine sehr spezielle Programmiertechnik braucht um halbwegs Leistung im shader-Bereich zu liefern. ATI hingegen kann des ohne großartige Optimierungen, sprich "native" und mit fetten 8 pipelines. Dh, laut ATI hat heutzutage kein developer (von carmack mal abgesehen (eh nur wegen Doom III)) die Zeit und des Geld alles für nvidia extra neu zu schreiben, nur damit die Karte Leistung liefert... und carmack gibt das ja auch zu, indem er einen eigenen path schreiben MUSS für die nv3x Reihe... Fazit für mich: die ATI Philosophie ist viel besser, vorallem der Spruch "With more and more DirectX 9 games coming onto the market, the battle will be all about who can run shaders faster and more efficiently. And our shader performance is hugely better." ownt mich total... eigentlich des ganze comment von ATI
|
-fenix-
OC Addicted
|
die frage ist nur wie nvidia den deto 50 hinkriegt
wenn sie es schaffen das der treiber nahezu alle shader architekturgerecht umformt könnte das einen leistungsschub von 50% und mehr bringen
damit hätten sie ati zwar nicht überholt aber zumindest aufgeholt
|
Oculus
void
|
wenn per treiber aber das ganze architekturgerecht "umgeformt" wird, müsste ja wieder ein nicht zu vernachlässigender mehraufwand entstehen und damit die nvidia karten mit den ati mitziehen könnten, müsste ihre performance bei den speziellen shadern so derartig überlegen sein, damits über den mehraufwand wieder auf gleich kommen was ich mir net vorstellen kann
|
-fenix-
OC Addicted
|
theoretisch kannst du die shaderleistung fast verdoppeln bei guter ausnützung vom NV35 also in der praxis sind diese 50% sicher nicht zu weit hergeholt jenachdem wie gut das ganze funzt auch nur weniger (mehr wirds eher nicht sein)
und der mehraufwand is praktisch null weil ein shader, der 1000000000 mal abläuft ja nur einmal modifiziert werden muss also ich denke dann eher an etwas längere ladezeiten oder sowas
die praxisshaderleistung von ati is fast so hoch wie das theoretische maximum von nvidia, dafür ist nvidia deutlich effizienter und erreicht diese maximum leichter und öfter für einen sieg gegenüber ati wird nicht reichen aber annähern werden sie sich schon
wie gesagt, abwarten
Bearbeitet von -fenix- am 06.09.2003, 13:43
|
mat
AdministratorLegends never die
|
.. es beim NV35 und R350 mit gleichwertigen Konkurrenten zu tun haben, solange beide mit dem ihrer Architektur angemessenen Shadercode laufen können Codepaths lassen sich heutzutage nicht mehr vermeiden.. OpenGL is deshalb auch in Extensions aufgebaut. Ich würd sagen das ATI sowie nVidia gleich Schuld daran sind das es zu einem höheren Entwicklungsaufwand kommt. Ist aber ganz normal würd ich sagen. Intel (MMX 1+2, SSE 1+2) und AMD (3D Now, etc.) lassen sich auch nicht davon abhalten ungenormte architektur zu entwickeln  Nicht zu vergessen ist ebenfalls das Shader nur Shader sind und keine ganze 3D Engine. So wichtig sind Shader momentan noch nicht.. sie sind sie noch sehr stark längenlimitiert (ab einer bestimmten Anzahl an Instruktionen gehts steil bergab mit der Performance.. kA wo die Grenze momentan liegt - ich kann mich an 24 ops für Pixel Shader erinnern) und können daher nur für einige bestimmte Features verwendet werden, die als "Zuckerl" gelten. Die wichtigsten Standbeine für eine 3D Engine sind noch immer die selben wie vor 5 Jahren, als es erst Softwareshader gab. Wenn der Grundsatz nicht passt dann läuft ein Spiel auf jeder Grafikkarte langsam.. egal wieviele MTOs und MAOs sie draufhat. mat
|
-fenix-
OC Addicted
|
So wichtig sind Shader momentan noch nicht.. aber wie es aussieht bald schon carmack beschwert sich schon über das schlechte abschneiden der FX bei doom3 durch langsamen shadercode und von valve hat man auch schon gehört das es bei HL2 deswegen probs gibt TR:AoD is auch auf der FX ziemlich langsam
|
mat
AdministratorLegends never die
|
"von valve hat man auch schon gehört das es bei HL2 deswegen probs gibt"
link bitte
|
-fenix-
OC Addicted
|
http://www.3dgpu.com/modules/news/a...php?storyid=315is aber nix wirklich offizielles aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)
|
tombman
the only truth...
|
http://www.3dgpu.com/modules/news/a...php?storyid=315
is aber nix wirklich offizielles
aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)  (hab ich auch gelesen damals des comment  ) *headbanging with fenix*
|