URL: https://www.overclockers.at/grafikkarten/shaderleistung_ati_vs_nvidia_professionell_analysi_91041/page_1 - zur Vollversion wechseln!
http://www.3dcenter.de/artikel/cinefx/
Is ned ganz leicht zu lesen (nix für Vollnoobs), aber die Grundaussagen kommen gut rüber
Mal lesen 3dcenter artikel sind meist wirklich gut geschrieben und sehr informativ
jup, was 3Dcenter sagt das stimmt.
tja, netter artikel, aber erst mal auf deto 50 warten, bevor man irgendwelche spekulationen über die verbesserte shaderleistung machen kann.
alles in allem kommt imho ati besser weg bei dem vergleich, allein wegen der besseren grundleistung. und dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release? da hättens sicher mehr leute gekauft.
der artikel is wirklich schwierig zu verstehn, aber ich hoff ich habs so halbwegs kapiert
täusch ich mich, oder ist die cinefx-engine einfach ein pendant zur ati's fragment shader technik?
hab den artikel nur überblicksmäßig durchgelesen, aber soweit ich das verstanden hab, macht diese engine nix anderes, als das programmieren der shader zu erleichtern. sprich, man programmiert keine einzelnen passes mehr sondern beliebige shader, die dann automatisch von der engine bestmöglich auf wenige passes optimiert werden
Zitat von total_eclipseund dass nvidia irgendwelche technologien zwar verbaut, aber nicht beim release der chips bereits aktiviert hat kapier ich nicht - warum erst mitm 50er detonator? warum nicht gleich beim release?
http://www.gamersdepot.com/hardware...desktop/001.htm
Noch was, was die ownage von ATI im shader 2.0 Bereich belegt...
Sehr interessant ist auch der ATI Kommentar, wonach nvidia eine sehr spezielle Programmiertechnik braucht um halbwegs Leistung im shader-Bereich zu liefern. ATI hingegen kann des ohne großartige Optimierungen, sprich "native" und mit fetten 8 pipelines. Dh, laut ATI hat heutzutage kein developer (von carmack mal abgesehen (eh nur wegen Doom III)) die Zeit und des Geld alles für nvidia extra neu zu schreiben, nur damit die Karte Leistung liefert... und carmack gibt das ja auch zu, indem er einen eigenen path schreiben MUSS für die nv3x Reihe...
Fazit für mich: die ATI Philosophie ist viel besser, vorallem der Spruch "With more and more DirectX 9 games coming onto the market, the battle will be all about who can run shaders faster and more efficiently. And our shader performance is hugely better." ownt mich total... eigentlich des ganze comment von ATI
die frage ist nur wie nvidia den deto 50 hinkriegt
wenn sie es schaffen das der treiber nahezu alle shader architekturgerecht umformt könnte das einen leistungsschub von 50% und mehr bringen
damit hätten sie ati zwar nicht überholt aber zumindest aufgeholt
wenn per treiber aber das ganze architekturgerecht "umgeformt" wird, müsste ja wieder ein nicht zu vernachlässigender mehraufwand entstehen
und damit die nvidia karten mit den ati mitziehen könnten, müsste ihre performance bei den speziellen shadern so derartig überlegen sein, damits über den mehraufwand wieder auf gleich kommen
was ich mir net vorstellen kann
theoretisch kannst du die shaderleistung fast verdoppeln bei guter ausnützung vom NV35
also in der praxis sind diese 50% sicher nicht zu weit hergeholt
jenachdem wie gut das ganze funzt auch nur weniger (mehr wirds eher nicht sein)
und der mehraufwand is praktisch null weil ein shader, der 1000000000 mal abläuft ja nur einmal modifiziert werden muss
also ich denke dann eher an etwas längere ladezeiten oder sowas
die praxisshaderleistung von ati is fast so hoch wie das theoretische maximum von nvidia, dafür ist nvidia deutlich effizienter und erreicht diese maximum leichter und öfter
für einen sieg gegenüber ati wird nicht reichen aber annähern werden sie sich schon
wie gesagt, abwarten
Zitat.. es beim NV35 und R350 mit gleichwertigen Konkurrenten zu tun haben, solange beide mit dem ihrer Architektur angemessenen Shadercode laufen können
Zitat von matSo wichtig sind Shader momentan noch nicht..
"von valve hat man auch schon gehört das es bei HL2 deswegen probs gibt"
link bitte
http://www.3dgpu.com/modules/news/a...php?storyid=315
is aber nix wirklich offizielles
aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia
wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)
Zitat von -fenix-http://www.3dgpu.com/modules/news/a...php?storyid=315
is aber nix wirklich offizielles
aber dann bleibt noch das problem mit dem fehlenden centroid sampling bei nvidia
wenn valve support dafür einbaut dürfe ati bei FSAA nochmal einen deutlichen speed vorteil haben weil bei nvidia entweder die 4er-texturen nochmal geteilt werden müssen (= allgemein schlechtere performance) oder das ganze per shader gelöst (da würde nvidia dann überhaupt die arschkarte ziehen)
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025