"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Shaderleistung ATI vs NVIDIA professionell analysiert UPDATE 6.9.!

tombman 31.08.2003 - 21:14 3406 33
Posts

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
http://www.3dcenter.de/artikel/cinefx/

Is ned ganz leicht zu lesen (nix für Vollnoobs), aber die Grundaussagen kommen gut rüber :)
Bearbeitet von tombman am 06.09.2003, 04:47

Dreamforcer

New world Order
Avatar
Registered: Nov 2002
Location: Tirol
Posts: 8995
Mal lesen 3dcenter artikel sind meist wirklich gut geschrieben und sehr informativ

clarence

Banned
Registered: Jun 2003
Location: *hihi*
Posts: 403
jup, was 3Dcenter sagt das stimmt.

total_eclipse

Banned
Registered: Aug 2002
Location:
Posts: 1151
tja, netter artikel, aber erst mal auf deto 50 warten, bevor man irgendwelche spekulationen über die verbesserte shaderleistung machen kann.
alles in allem kommt imho ati besser weg bei dem vergleich, allein wegen der besseren grundleistung. und dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release? da hättens sicher mehr leute gekauft.

der artikel is wirklich schwierig zu verstehn, aber ich hoff ich habs so halbwegs kapiert

Oculus

void
Avatar
Registered: Jun 2001
Location: schlafzimmer
Posts: 856
täusch ich mich, oder ist die cinefx-engine einfach ein pendant zur ati's fragment shader technik?
hab den artikel nur überblicksmäßig durchgelesen, aber soweit ich das verstanden hab, macht diese engine nix anderes, als das programmieren der shader zu erleichtern. sprich, man programmiert keine einzelnen passes mehr sondern beliebige shader, die dann automatisch von der engine bestmöglich auf wenige passes optimiert werden

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von total_eclipse
und dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release?

es is nix ungenützt verbaut

der chip braucht einfach eine sehr spezielle optimierung um schnell zu sein

diese optimierung is jedoch unkonventionell und grundsätzlich nicht so im DX9 gedacht - sprich: nicht vorhanden

ergo muss der deto 50.xx die shader etc. selbst so umformen das die graka sie gut "verdauen" kann
das is aber bei weitem umständlicher als einfach nur treiber zu optimieren und daher ein extrem langer und aufwändiger prozess
jenachdem wie gut das möglich ist wird der chip mit dem deto dann zulegen in dem bereich
momentan verarbeitet der chip die daten halt noch ziemlich ineffektiv
Bearbeitet von -fenix- am 31.08.2003, 21:51

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
http://www.gamersdepot.com/hardware...desktop/001.htm

Noch was, was die ownage von ATI im shader 2.0 Bereich belegt...

Sehr interessant ist auch der ATI Kommentar, wonach nvidia eine sehr spezielle Programmiertechnik braucht um halbwegs Leistung im shader-Bereich zu liefern. ATI hingegen kann des ohne großartige Optimierungen, sprich "native" und mit fetten 8 pipelines. Dh, laut ATI hat heutzutage kein developer (von carmack mal abgesehen (eh nur wegen Doom III)) die Zeit und des Geld alles für nvidia extra neu zu schreiben, nur damit die Karte Leistung liefert... und carmack gibt das ja auch zu, indem er einen eigenen path schreiben MUSS für die nv3x Reihe...

Fazit für mich: die ATI Philosophie ist viel besser, vorallem der Spruch "With more and more DirectX 9 games coming onto the market, the battle will be all about who can run shaders faster and more efficiently. And our shader performance is hugely better." ownt mich total... eigentlich des ganze comment von ATI ;)

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
die frage ist nur wie nvidia den deto 50 hinkriegt

wenn sie es schaffen das der treiber nahezu alle shader architekturgerecht umformt könnte das einen leistungsschub von 50% und mehr bringen

damit hätten sie ati zwar nicht überholt aber zumindest aufgeholt

Oculus

void
Avatar
Registered: Jun 2001
Location: schlafzimmer
Posts: 856
wenn per treiber aber das ganze architekturgerecht "umgeformt" wird, müsste ja wieder ein nicht zu vernachlässigender mehraufwand entstehen
und damit die nvidia karten mit den ati mitziehen könnten, müsste ihre performance bei den speziellen shadern so derartig überlegen sein, damits über den mehraufwand wieder auf gleich kommen
was ich mir net vorstellen kann

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
theoretisch kannst du die shaderleistung fast verdoppeln bei guter ausnützung vom NV35
also in der praxis sind diese 50% sicher nicht zu weit hergeholt
jenachdem wie gut das ganze funzt auch nur weniger (mehr wirds eher nicht sein)

und der mehraufwand is praktisch null weil ein shader, der 1000000000 mal abläuft ja nur einmal modifiziert werden muss
also ich denke dann eher an etwas längere ladezeiten oder sowas

die praxisshaderleistung von ati is fast so hoch wie das theoretische maximum von nvidia, dafür ist nvidia deutlich effizienter und erreicht diese maximum leichter und öfter
für einen sieg gegenüber ati wird nicht reichen aber annähern werden sie sich schon

wie gesagt, abwarten
Bearbeitet von -fenix- am 06.09.2003, 13:43

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25416
Zitat
.. es beim NV35 und R350 mit gleichwertigen Konkurrenten zu tun haben, solange beide mit dem ihrer Architektur angemessenen Shadercode laufen können

Codepaths lassen sich heutzutage nicht mehr vermeiden.. OpenGL is deshalb auch in Extensions aufgebaut. Ich würd sagen das ATI sowie nVidia gleich Schuld daran sind das es zu einem höheren Entwicklungsaufwand kommt. Ist aber ganz normal würd ich sagen. Intel (MMX 1+2, SSE 1+2) und AMD (3D Now, etc.) lassen sich auch nicht davon abhalten ungenormte architektur zu entwickeln :)

Nicht zu vergessen ist ebenfalls das Shader nur Shader sind und keine ganze 3D Engine. So wichtig sind Shader momentan noch nicht.. sie sind sie noch sehr stark längenlimitiert (ab einer bestimmten Anzahl an Instruktionen gehts steil bergab mit der Performance.. kA wo die Grenze momentan liegt - ich kann mich an 24 ops für Pixel Shader erinnern) und können daher nur für einige bestimmte Features verwendet werden, die als "Zuckerl" gelten.

Die wichtigsten Standbeine für eine 3D Engine sind noch immer die selben wie vor 5 Jahren, als es erst Softwareshader gab. Wenn der Grundsatz nicht passt dann läuft ein Spiel auf jeder Grafikkarte langsam.. egal wieviele MTOs und MAOs sie draufhat.

mat

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von mat
So wichtig sind Shader momentan noch nicht..

aber wie es aussieht bald schon

carmack beschwert sich schon über das schlechte abschneiden der FX bei doom3 durch langsamen shadercode und von valve hat man auch schon gehört das es bei HL2 deswegen probs gibt
TR:AoD is auch auf der FX ziemlich langsam

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25416
"von valve hat man auch schon gehört das es bei HL2 deswegen probs gibt"

link bitte

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
http://www.3dgpu.com/modules/news/a...php?storyid=315

is aber nix wirklich offizielles

aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia
wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Zitat von -fenix-
http://www.3dgpu.com/modules/news/a...php?storyid=315

is aber nix wirklich offizielles

aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia
wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)

:D

(hab ich auch gelesen damals des comment ;))

*headbanging with fenix* :p
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz