R350 mit DDR I Speicher?
JC 04.02.2003 - 09:47 6347 24
baker
nerd.
|
mhm naja solang ddrI noch reserven hat warum auf ddrII umsteigen und deswegen mehr zahlen ?
|
Metatron1
Addicted
|
mhm naja solang ddrI noch reserven hat warum auf ddrII umsteigen und deswegen mehr zahlen ? Ich würde sogar noch glauben das sich die R350 gut OC läßt. Mit Standard Kühlung. Ich würde mal schätzen 420/420 sollten drin sein Bin aber sehr gespannt wieviel dann die 9700/Pro Kosten wird 9700 = 250€?? 9700Pro=350€?? 9900Pro=450€?? Gruß Meta
|
tombman
the only truth...
|
@tombman Als sicher kann man leider nichts annehmen, da hast du recht.
Andererseits stelle ich mir die Frage: Wofür mehrere TMUs? Imho ist das lediglich Verschwendung. Mehr Pixel-Pipes würden viel mehr Sinn machen, wenn man von komplexen Shading-Programmen ausgeht - und davon wird es in Zukunft genug geben. Je flexibler die Pipeline ist, desto höher ist die Shader Performance. Des weiteren ist nicht zu vergessen, dass eine 8x1-Anordnung besser ist als zB eine 4x2. Angenommen, es gibt lediglich eine Textur, so ist 8x1 doppelt so schnell wie 4x2 (logisch, da die zweite TMU nicht verwendet wird). Sind es zwei Texturen, so sind beide Architekturen gleich schnell. Wenn jetzt allerdings 3 Texturen angewandt werden, so ist 8x1 ein Drittel schneller als 4x2. Somit liegt es auf der Hand, den verfügbaren Platz mit mehreren Pipelines auszustatten und bandbreitenschonende Technologien zu implementieren. Die 8x2, die du ansprichst, würden wohl selbst mit einem 256-Bit-Bus ziemlich an die Grenzen der Bandbreite stoßen, vor allem bei 32-Bit Texturen. Mehr TMUs verlangen ausserdem auch größere Caches, ansonsten wäre selbst der 256-Bit-Bus überfordert. Imho ist eine 16x1-Architektur in zukünftigen VPUs wahrscheinlicher.
Dass immer mehr Pipes anstatt TMUs verwendet werden liegt wohl auch daran, dass der Fertigungsprozess einfach weiter fortgeschritten ist. Allerdings sind auch heute noch TMUs einfacher zu implementieren, da sie relativ wenig Platz brauchen, verglichen mit einer Pipeline.
Fakt ist doch, dass Pixel und Vertex Shader immer mehr der Texturing Features übernehmen. Folglich werden weniger TMUs benötigt. Ich erwarte zumindest mit der R350 keine 2 TMUs. Es hätte mehr Sinn 2 TMUs zu implementieren, wenn auch 2 Shader Operations in einem Cycle durchgeführt werden können. Andernfalls würden 2 TMUs zu einer unausgewogenen Karte führen - und das wäre wohl kaum im Sinne des Erfinders. Für die Zukunft werden tmus sicher immer weniger relevant sein, aber solange 95% der games immer noch aus einer basemap und einer lightmap bestehen bringt eine x2 Architektur sehr viel. Weil die gffx 16 tex durchläßt is sie im multitexture benchmark viel schneller als die r300. Das hat ATI wahrscheinlich erkannt und haut deswegen die r350 raus. Ich hoff echt, die x2 news is keine typische inquirer Ente, dennn wenn eine 9900 pro auf 500/900 rennt --> OMG, was für eine gffx Vernichtung
|
baker
nerd.
|
ich finds nur schade da ich mich voll auf ne neue nvidie karte gefreut hab tja jez muss ich wahrscheinlich doch ati kaufen
|
JC
AdministratorDisruptor
|
|
tombman
the only truth...
|
|
.dcp
notamodbuthot
|
Imho wird nVidia die Treiber noch ordentlich optimieren und dann die GeForce FX 5800 Ultra gegen die R350 ins Rennen schicken die frage ist nur ob man bereit ist für die geforce fx 5800 ultra (wenn sie denn schneller sein sollte, maybe wieder nur ein papiersieg) ein heidengeld auszugeben, wenn die r350 für (IMHO) 2/3 des preises zu haben sein wird.
|
baker
nerd.
|
|
JC
AdministratorDisruptor
|
jo, und wenn alles so rennt wie i ma des denk, bin i auf da cebit und mach den größten Raub der Geschichte, da is oceans eleven ein Dreck dagegen -> got 20 gffx und 20 r350 in Samsonite Koffer und WEGRENN?? Hehe, nach der zweiten GeForce FX ist Schluss, dann kannst nur noch ein paar R350 dazwischen stecken die frage ist nur ob man bereit ist für die geforce fx 5800 ultra (wenn sie denn schneller sein sollte, maybe wieder nur ein papiersieg) ein heidengeld auszugeben, wenn die r350 für (IMHO) 2/3 des preises zu haben sein wird. Fakt ist, dass es keinen Gewinner gibt, egal ob Radeon oder GeForce. Warum können das nur so wenige verarbeiten? Es muss nicht immer ein Wettkampf sein, wo der andere um den Bruchteil einer Sekunde gewinnt. Beide Karten haben ihre Vor- und Nachteile, an beiden Karten gefällt mir etwas besser als am Antagonisten. NVidia geht eben einen eigenen Weg und optimiert die Karte für Shading-Operationen, weil man da offensichtlich die Zukunft sieht. ad Kosten) NVidia hat die Design-Kosten bereits gezahlt, somit reduzieren sich die Design-Kosten für die NV30-Derivate um einen nicht unbeträchtlichen Betrag, was sich letzten Endes auch auf die Preise der angebotenen Grafikkarten auswirken wird.
|
vega
Big d00d
|
|