R600 - Riesig
BolZor 09.02.2007 - 18:53 4910 61
MadHatter
Big d00d
|
Die X2800XTX2 ist Blödsinn, das wird so nie passieren. Die Speicherbandbreite wäre wesentlich geringer (128GB/s vs. 281GB/s), die Pixelfüllrate wäre bei der X2800XTX2 auch nur minimal größer (110MP/s vs. 96MP/s). Außerdem stehen dann 1024MB gegen 2x512 (effektiv also auch nur 512) gegenüber.
Blödsinn.
Die Specs der anderen Karten könnten (!) aber durchaus stimmen.
|
Nubo
Addicted
|
Die X2800XTX2 ist Blödsinn, das wird so nie passieren. Die Speicherbandbreite wäre wesentlich geringer (128GB/s vs. 281GB/s), die Pixelfüllrate wäre bei der X2800XTX2 auch nur minimal größer (110MP/s vs. 96MP/s). Außerdem stehen dann 1024MB gegen 2x512 (effektiv also auch nur 512) gegenüber.
Blödsinn.
Die Specs der anderen Karten könnten (!) aber durchaus stimmen. Und der Verbrauch dürfte deutlich über der X2800XTX liegen.
|
FlipK
Big d00d
|
Verstehe die Aufregung nicht so ganz!
|
MadHatter
Big d00d
|
|
Nubo
Addicted
|
Wozu braucht man denn Quad-Crossfire?
Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen.
|
t3mp
I Love Gasoline
|
Quad-Crossfire wird wohl eher für den Einsatz als Streaming-Coprozessoren Sinn machen. So eine Technik nur für einen verschwindenden Anteil dankbarer Spieleidioten zu entwickeln macht keinen Sinn.
|
Dreamforcer
New world Order
|
Wozu braucht man denn Quad-Crossfire?
Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen. sowas wird bei beiden firmen wohl erst mit der nächsten generation passieren sprich in etwa einem jahr. eventuell etwas länger bei ati da ja die r600 archtektur laut früheren architekturen min 18 monate halten muss, natürlich mit refresh chips
|
Ex0duS
Banned
|
Wozu braucht man denn Quad-Crossfire?
Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen. 1. sind kleine gamer wie wir nicht die einzigen die gute grakas brauchen 2. ich kann mich noch gut an die threads über die ersten vermutungen bezüglich 8800er erinnern ... von wieviel W war da noch schnell die rede und wieviel verbraucht sie jetzt wirklich manchmal komm ich mir hier vor wie bei "technik bild" oder sowas
|
FlipK
Big d00d
|
Finde das von ATI irgendwie ein wenig seltsam! Sie haben NVIDIAs Quad SLI immer belächelt das so etwas keinen Sinn mache und das sie nicht vorhaben auf Quad Crossfire umzusteigen. Es sei denn es würde einen ordentlichen Leistungsschub mit sich bringen! Najo mal abwarten was die Canadia da vorhaben!
|
t3mp
I Love Gasoline
|
Ja, genauso wie man behauptet DX9 sei völlig unsinnig, bis man es dann selbst endlich auf dem Markt hat.
|
MadHatter
Big d00d
|
Erinnert mich an das SM3.0 und davor an das SM1.4
|
FlipK
Big d00d
|
Schön langsam leuchtet mit auch ein warum ein 2kw Nt raus kam! Wie es in dem Bericht steht "even more than 1000W" Ein 1kw Galaxy was zur zeit das stärkste unter den getesteten Nts ist, wird wohl hierfür zu schwach sein!
|
cdoo
Bloody Newbie
|
merkt ihr auch das langsam jeden Tag neue News über den R600 Chip kommen? ... jetzt kanns nimma lang dauern gg die Graka wird eh erst interessant, wenn AMD mit dem Chipsatz auffährt wo man(n) die onboard grafik (mobo) für vista verwendet und bei den Spielen die PCIE Graka extra aktiviert. jedoch bleiben mir irgendwie die Infos über die neuen AMD Prozzis bzw. Chipsätze aus/verborgen.. will im juni umsteigen.. also amd
|
Alucard
Big d00d
|
So, finale Specs sind heraussen => R600Und wie hart ist das? => Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) - belegt aber zwei Slots.
|
MadHatter
Big d00d
|
So, finale Specs sind heraussen => Was ist daran "final"? Wusste man doch schon lange vorher... Und die Geschichte mit der "Kompressorkühlung" ist doch wohl nur ein Scherz, oder? Unmöglich, eine KoKü auf so kleinem Raum unterzubringen...
|