Ronnie
-
|
würd auch peinlich sagen, wenn sie im voraus so groß geprollt haben
|
x3
† 18.03.2006
|
jop! aber ich muss sagen, sie haben dafür ati vl noch zu mehr leistung angestrebt, und vl hat sich ati wirklich nach den 14000 gerichtet, und vl noch einiges rausholen können! also vl hat sich nvidia selber ein ei gelegt! aber das sind nur spekulationen
|
MacChilla
Addicted
|
Oder ganz einfach versucht man hier eine Tomate zu einer Orange zu machen. Denn wenn es mich nicht recht täusch, dann sind die Verarbeitungen der PS bei beiden Grakas zu 10000000% verschieden. Wenn man da dann versucht eine NVidia - Karte als ATI - Karte zu simulieren, dann kann das doch nciht gut ausgehen. Wie würde das wohl aussehen, wenn se eine ATI als NVidia - Karte laufen lassen - 3Frames bei Doom2? Was kommt dann, ein Linux Gnome ist auf Windows viel langsamer als auf Linux - ROFL.
Berichtigts mich, wenn ich mich irre, aber ich halte es (bis jetzt) für einen Stumpfsinn, eine NV als ATI laufen zu lassen. Wie gesagt, probierts mal das umgekehrte!
|
Goldlocke
(c) Dirty Donny
|
@MAcchilla: berechtigter Einwand. Aber genau diese Frage wird auf driverheaven.net im forum diskutiert. Dort antworten leute, die mehr Ahnung haben als wir.
|
salsa
So spät wie gestern.
|
wenn sie im voraus so groß geprollt haben Deswegen peinlich. Schlecht ist sie sicha ned  10k stock is eh Wahnsinn!
|
.dcp
notamodbuthot
|
@macchilla, klar hinkt der vergleich, allerdings lassen sich trotzdem vermutungen anstellen. die r9800xt erreicht mit voll aktivierten shader ~40 fps, die nv40 60 fps mit abgespecktem shader und ~48 fps mit dem adaptierten r300 interface. also leistung is so oder so da, aber die erwartungen vieler hams ned getroffen, so oder so wird die karte weniger frames mit vollem shadereinsatz erreichen, auch wenns eine nvidia schnittstelle verwenden und mal überschlagen ~15 frames mehr als das topmodell der LETZTEN generation is nicht wirklich ein kaufgrund (für die meisten  ) klar werdens durch treiber noch was rauskitzeln aber ich persönlich denke, dass uns ati etwas mehr überraschen wird
|
Cobase
VereinsmitgliedMr. RAM
|
Oder ganz einfach versucht man hier eine Tomate zu einer Orange zu machen. Denn wenn es mich nicht recht täusch, dann sind die Verarbeitungen der PS bei beiden Grakas zu 10000000% verschieden. Wenn man da dann versucht eine NVidia - Karte als ATI - Karte zu simulieren, dann kann das doch nciht gut ausgehen. Wie würde das wohl aussehen, wenn se eine ATI als NVidia - Karte laufen lassen - 3Frames bei Doom2? Was kommt dann, ein Linux Gnome ist auf Windows viel langsamer als auf Linux - ROFL. Aus dem Thread: It is NOT a case of forcing the 6800 to run the "ATi optimized path", it's just a case of forcing the 6800 to run the "dx9 path" rather than the "dx8&9 mixed-mode path". Und weiter: ...forcing the XT to run as an FX increased performance (it was using lower shaders).
|
Viper780
ElderEr ist tot, Jim!
|
wart ma mal final treiber ab di ehaben immer 10% mehr leistung bei den sahdern kann noch weit mehr drinnen sein, ausadem san die shader zu verscheiden das mas gegenseitig emulieren lässt, imho gehören die hand optimiert und vergessts ned die nvidia sahder arbeiten weit genauer und schöner.
ausadem weis keiner wie schnell ATI sein wird, auch die müssen jetzt bei den shadern nachsetzen, rohpower is jo eh seit einer generation genug für alles da.
was mich wundert is das keiner ausfürlich AA und AF getestet hat vorallem mit verschiedenen .
|
Zaphod
Tortenfreund
|
http://www.golem.de/0404/30985.htmlSeit Nvidia in Genf im April 2004 der europäischen Presse seine GeForce-6800-Grafikchips vorstellte und sich rühmte, damit als erster Hersteller Shader-3.0-Effekte darstellen zu können, gibt es Diskussionen um die im Rahmen der Veranstaltung gezeigten Far-Cry-Screenshots. Diese sollten zeigen, welche optischen Vorteile Shader-3.0-Effekte etwa dank Virtual Displacement Mapping gegenüber Shader-2.0-Effekten bringen; allerdings wurden gar keine Shader-2.0-Effekte gezeigt, sondern qualitativ deutlich schlechtere Shader-1.1-Effekte.
|
Gladiac
Peng peng
|
Bearbeitet von Gladiac am 27.04.2004, 18:19
|
Diesel
Notebook Fanatic
|
Als ob das nicht egal sein würde... Und wenn für den ein oder anderen 15fps !!!!!! mehr nicht kein Kaufgrund sind, 15 fps entscheiden bei den meisten wohl über Ruckeln oder nicht Ruckeln  Die Zeiten wo eine Graka auf den Markt kommt und gleich mal den fps Wert verdoppelt sind vorbei! Sind 30% Steigerung eh schon ein Wahnsinn...
|
Viper780
ElderEr ist tot, Jim!
|
Als ob das nicht egal sein würde... Und wenn für den ein oder anderen 15fps !!!!!! mehr nicht kein Kaufgrund sind, 15 fps entscheiden bei den meisten wohl über Ruckeln oder nicht Ruckeln Die Zeiten wo eine Graka auf den Markt kommt und gleich mal den fps Wert verdoppelt sind vorbei! Sind 30% Steigerung eh schon ein Wahnsinn... 30% is hart an der grenze dast irgend was wahrnimmst. so wie du denken nur leute die sich an fps zahlen aufgeilen und ned wissen wos ihr geld hinhauen solln. waun nur 30% leistungsseigerung is wü i sicher ned mehr als 100€ investieren.
|
Gladiac
Peng peng
|
Als ob das nicht egal sein würde... Und wenn für den ein oder anderen 15fps !!!!!! mehr nicht kein Kaufgrund sind, 15 fps entscheiden bei den meisten wohl über Ruckeln oder nicht Ruckeln Die Zeiten wo eine Graka auf den Markt kommt und gleich mal den fps Wert verdoppelt sind vorbei! Sind 30% Steigerung eh schon ein Wahnsinn... darum glaub ich persönlich auch ned den r420 benches die daweil im netz sind weil alle eine leistungsverdopplung zeigen ..
|
Diesel
Notebook Fanatic
|
30% is hart an der grenze dast irgend was wahrnimmst.
so wie du denken nur leute die sich an fps zahlen aufgeilen und ned wissen wos ihr geld hinhauen solln.
waun nur 30% leistungsseigerung is wü i sicher ned mehr als 100€ investieren. Ich glaub da hast du was falsch verstanden.  15fps sind bei aktuellen Titeln wie ut2k4 oder Farcry imho sehr viel. Ich brauch keine Massen an fps da ich ein ut2k4 Zocker bin und da werden Online die fps sowieso auf 85 begrenzt
|
maXX
16 bit herz
|
Und wieder das typische große jammern nach den ersten realen benchmarks... Ich steh noch immer zu meiner meinung: warum soll ein grafikkarten-hersteller eine über-karte herausbringen, wenn es genug leute gibt die sich mit ein paar prozent leistungssteigerung zufrieden geben?  btw: zu den ps 3.0 screenshots von farcry. da gibts ne seite im netz wo behauptet wird das waren nur screenshots auf maximalen details, sonst nix. Irgendwie doch eine eine ziemliche verarschung (falls es stimmt  )
|