SKYNET
Götter-Vater
|
|
stevke
in the bin
|
auf tombs benches ***** ich, kleiner ATI fanboy.  Und du bist ein riesiger NV Fanboy, bist glaub ich nicht der Richtige der jemanden Fanboy nennen darf.
|
Goldlocke
(c) Dirty Donny
|
OK, zurück zum Review selber. Man muss das schon relativieren:1.) Die Demolevels inkl. aller Treiber wurden von NVidia zur Verfügung gestellt. 2.) Anandtech bencht mit einer imaginären GraKa (=GF6800 Ultra Extreme). Wenn man also den langen Balken dieser fiktiven Karte weglöscht, dann siehts nicht mehr so imposant aus. 2a.) Die Demolevels inkl. aller Treiber wurden von NVidia zur Verfügung gestellt. 3.) Vielleicht sind Euch NV-Fanboys auch die ATI Produktbezeichnungen fremd: X800 XT PE = 520/560MHz ... das entspricht allen derzeit gelisteten X800 XT Karten X800 XT = 500/500MHz ... die Karte wirds erst viel später zu kaufen geben. Wie die dann von 3rd Party Herstellern heißen soll is mir ein Rätsel. ??? Wenn man jetzt also die derzeitigen verfügbaren High-End Karten 6800Ultra und X800 XT PE vergleicht... 3a.) Die Demolevels inkl. aller Treiber wurden von NVidia zur Verfügung gestellt. 4.) Der tatsächliche Sprung bei NV von SM2 auf SM3 beeindruckt mich nicht. In den Fällen wo 6800 bei SM3 vorn ist, war sie auch schon mit SM2 Pfad vorne. 4a.) Die Demolevels inkl. aller Treiber wurden von NVidia zur Verfügung gestellt. 5.) Offensichtlich wird die Beleuchtung nun anders gerechnet, was zu merkbar dunklerem Spotlicht führt. 6.) Wir wissen alle, dass sich NVidia leider zu sehr aufs Marketing anstatt auf Technik konzentriert. 6a.)Achja, hab ich schon erwähnt, dass die Demolevels inkl. aller Treiber wurden von NVidia zur Verfügung gestellt wurden? Und nicht bspw. von Crytek!!!Noch was: Ich habe grad eine X800 laufen - eine 6800 GT is aber auch schon auf dem Weg!
Bearbeitet von Goldlocke am 02.07.2004, 21:38
|
stevke
in the bin
|
Bei 5. hast du vergessen das alles von NV zur Verfügung gestellt wurde.
|
Goldlocke
(c) Dirty Donny
|
Ich darf vielleicht auch Anands final thoughts zitieren: We didn't see much improvement from the new SM3.0 path in our benchmarks either. Of course, it just so happened that we chose a level that didn't really benefit from the new features the first time we recorded a demo. And, with the mangoriver benchmark, we were looking for a level to benchmark that didn't follow the style of benchmarks that NVIDIA provided us with in order to add perspective.
Even some of the benchmarks with which NVIDIA supplied us showed that the new rendering path in FarCry isn't a magic bullet that increases performance across the board through the entire game.
|
Goldlocke
(c) Dirty Donny
|
Bei 5. hast du vergessen das alles von NV zur Verfügung gestellt wurde.  das war der Test, ob ihr eh aufmerksam lest!  Und du hast ihn ..... BESTANDEN!
|
daisho
VereinsmitgliedSHODAN
|
Das sich jetzt NV und ATI-Fanboys/girls um beide Karten streiten kann eh nur bedeuten, dass beide großartige Fabrikate sind  Dann muss ich mal Goldlocke zustimmen, Tests, Benchmarks, etc werden so gut wie IMMER von einer Partei beeinflusst, egal auf welche Weise. Richtig objektive Tests gibts einfach ned  Allerdings zählt das für alle und nicht nur für eine Marke  Ich finde NVidia setzt auf beides. Wenn sie nicht so sehr auf Technik setzen würden, wäre die jetzige Generation sicherlich nicht technisch vorraus  Marketing gehört einfach zu jeder Firma. Eine Firma die nicht auf Marketing setzt ist tod. Zu den Cheating-Vorfällen kann ich nur sagen: Vergesst 3DMarkXXXX oder sonstige populäre Methoden, da diese genauso beeinflusst werden und zwar nicht nur von einer Partei. Für mich persönlich sind solche Argumente weder Kaufentscheidungshilfen noch Nicht-Kaufentscheidungshilfen  Die eigenen Spiele sind der beste Beweis für eine gute Grafikkarte. So, dass war nur meine Meinung und weder Flame, Kritik oder sonst etwas negatives  Ich persönlich werde mir eine 6800U Extreme von Gainward kaufen und hoffe dass diese bald verfügbar ist  Kaufgrund war einerseits die bessere Hardware ( ich sage jetzt nicht effektivere ) am Papier, andererseits die Fähigkeit richtiges Dualview zu nutzen ( geht bei ATI-Karten nicht ) und nebenbei ein von Haus aus übertakteter Core/Ram-Clock
|
Erklärbär
Banned
|
Also ich muss sagen selbst wenn ich mir einer der neuen karten leisten könnte wüsst ich nicht welche ich mir nehm. Ich kauf die Karte sicher nicht weil sie bei EINEM Game vorne sind. Gesamtperformance, das heißt ausgeglichene Leistung und nicht toll bei Far Cry und bei UT 2004 o.Ä. mies, zählt für mich.
Ich würd mich persönlich nicht als Fan Boy bezeichnen, hatte Fx5900 und 9800 pro. In CS hatte ich wie ichs gespielt hab (LAN) bei der nv Karte, selbst wenn ich mitten in 5 Smokes gestanden bin 100fps, was bei ATI jetzt nicht der Fall is, insgesamt kam mir die Fx bis auf die Lautstärke bei UT2004 besser vor, bei Far Cry is allerdings die 9800pro vorne. Also ich würds mal ein Unentschieden nennen.
Ich muss gesehen ich spiel eigentlich keine Game (auper Max Payne 1) ohne FSAA/AF, dafür hab ich lieber eine etwas höhere Auflösung bzw. mehr Details, die angeblichen Kanten seh ich bei schnellen Shootern ohnehin nicht und das von einigen so hoch gelobte super tolle Bild von ATI gegenüber NV is mir auch kaum bis garnicht aufgefallen, einzig und allein weil ich bei Shootern die ich meistens spiel nicht drauf achte ob hier und da das Bild besser is oder weniger Kanten zu sehen sind weil ich mich drauf konzentrier die Gegner zu töten ..
IMHO sind bei der GraKa Generation nur noch bessere Treiber abzuwarten um endgültig sagen zu können welche einen besseren Gesamteindruck hinterlässt.
d.Z. seh ich ein leichtes + für NV dank der GT die einfach ein gutes PL Verhältnis bietet (auch wenns d.Z. noch recht teuer is)
|
Ronnie
-
|
nur du kannst das problem mit radeon + cs nicht verallgemeinern, ich zb. hab nie enbrüche bei den fps in cs, ich hab auch keine außergewöhnlichen einstellungen vorgenommen um dies zu verhindern o.ä.
|
EG
thinking with portals
|
also DIESER thread gibt mir zu denken...
ich wollt mir eigendlich die X800XT zulegn...hm aba jetzt bin ich garnimma so sicher ob die 6800 ned billiger UND besser wär!? O.o
|
|1nk
Big d00d
|
"Der Far Cry-Patch 1.2 mit Unterstützung für grafisch weiter entwickelte Shader Model 3.0. Zwar gibt es derzeit keine neuen Effekte, sondern Crytek hat das Shader Model 3.0 von DirectX 9.0c vorerst nur zum Performance-Tuning eingesetzt." zitiert von http://www.gamestar.deDa die 6800er die einzigste mit der shader 3 funktion ist, wird sie hier klar vorne sein!!! aber wegen einem spiel gleich als kaufgrund zu deklarieren, naja... wenn man sich einfach nur mal die größe und lautstärke der 6800er anguckt, und dann im vergleich die fps zur x800 anschaut, pff, kack auf nvidia... alles nur hochgezüchtet und mit einem riesenkühlkörper+turbine versehen, dass die karte auch ja nicht im gehäuse schmilzt  meine meinung: ati hat ganz klar im ganzen gesehen die bessere karte (nicht auf die paar fps bezogen, natürlich) greez
|
daisho
VereinsmitgliedSHODAN
|
Hast du schon beide Karten im Rechner gehabt und so die Lautstärke testen können? Wenn nicht, dann stfu  Edit: Die MP3's im Internet mit Vergleiche kannst vergessen!
|
|1nk
Big d00d
|
ne, du?
ich arbeite in einer edv-firma und hatte beide karten schon am laufen! fazit: radeon unhörbar - geforce turbine!!! das sind halt eben tatsachen und nicht irgendwelche mp3 ausm netz!
wenn du ein silent system hast, dann ist es schon ein unterschied ob die graka 1 oder 5-6 sone rausschreit!!!
grüzi
|
daisho
VereinsmitgliedSHODAN
|
Also meine 9800XT war auch nicht gerade unhörbar und das wird sich von 9800 auf X800 nicht wesentlich geändert haben. Ist klar dass ein Silent-Sys-User mehr auf die leisere Karte sehen wird, aber sooo extrem wie du es beschreibst ist der Unterschied garantiert nicht  Dass die NVidia-Karten lauter sind, da stimme ich dir zu. Hat wahrscheinlich mit dem un-innovativen und für mich persönlich auch hässlichem Design der Kühler zu tun
|
|1nk
Big d00d
|
mit unhörbar meine ich natürlich nicht lautlos, aber in einem pc wo die platte sich auch noch dreht  hört man die karte nicht raus! bei der geforce pfeift es halt schon mehr im gehäuse  gruß
|