"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

R600 - Riesig

BolZor 09.02.2007 - 18:53 4910 61
Posts

MadHatter

Big d00d
Avatar
Registered: Oct 2004
Location: Bregenz
Posts: 160
Die X2800XTX2 ist Blödsinn, das wird so nie passieren.
Die Speicherbandbreite wäre wesentlich geringer (128GB/s vs. 281GB/s), die Pixelfüllrate wäre bei der X2800XTX2 auch nur minimal größer (110MP/s vs. 96MP/s).
Außerdem stehen dann 1024MB gegen 2x512 (effektiv also auch nur 512) gegenüber.

Blödsinn.

Die Specs der anderen Karten könnten (!) aber durchaus stimmen.

Nubo

Addicted
Registered: Sep 2006
Location: Hamburg
Posts: 593
Zitat von MadHatter
Die X2800XTX2 ist Blödsinn, das wird so nie passieren.
Die Speicherbandbreite wäre wesentlich geringer (128GB/s vs. 281GB/s), die Pixelfüllrate wäre bei der X2800XTX2 auch nur minimal größer (110MP/s vs. 96MP/s).
Außerdem stehen dann 1024MB gegen 2x512 (effektiv also auch nur 512) gegenüber.

Blödsinn.

Die Specs der anderen Karten könnten (!) aber durchaus stimmen.

Und der Verbrauch dürfte deutlich über der X2800XTX liegen.

FlipK

Big d00d
Avatar
Registered: May 2004
Location: Mistelbach
Posts: 193
Verstehe die Aufregung nicht so ganz!

MadHatter

Big d00d
Avatar
Registered: Oct 2004
Location: Bregenz
Posts: 160
Das höchstwahrscheinlich auch.

Die Jungs vom Inquirer labern schon von Quad-Crossfire :-)

http://www.theinq.com/default.aspx?article=37484

Nubo

Addicted
Registered: Sep 2006
Location: Hamburg
Posts: 593
Wozu braucht man denn Quad-Crossfire?

Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen.

t3mp

I Love Gasoline
Avatar
Registered: Mar 2003
Location: upstairs
Posts: 6285
Quad-Crossfire wird wohl eher für den Einsatz als Streaming-Coprozessoren Sinn machen. So eine Technik nur für einen verschwindenden Anteil dankbarer Spieleidioten zu entwickeln macht keinen Sinn. ;)

Dreamforcer

New world Order
Avatar
Registered: Nov 2002
Location: Tirol
Posts: 9040
Zitat von Nubo
Wozu braucht man denn Quad-Crossfire?

Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen.

sowas wird bei beiden firmen wohl erst mit der nächsten generation passieren sprich in etwa einem jahr. eventuell etwas länger bei ati da ja die r600 archtektur laut früheren architekturen min 18 monate halten muss, natürlich mit refresh chips

Ex0duS

Banned
Avatar
Registered: Mar 2001
Location: not near not far
Posts: 2982
Zitat von Nubo
Wozu braucht man denn Quad-Crossfire?

Ati sollte lieber mal versuchen Highend Grakas herzustellen die unter 150 Watt verbrauchen, als so unnützen Grafikverbindungen auf den Markt zu bringen.
1. sind kleine gamer wie wir nicht die einzigen die gute grakas brauchen ;)
2. ich kann mich noch gut an die threads über die ersten vermutungen bezüglich 8800er erinnern ... von wieviel W war da noch schnell die rede und wieviel verbraucht sie jetzt wirklich :D
manchmal komm ich mir hier vor wie bei "technik bild" oder sowas :D

FlipK

Big d00d
Avatar
Registered: May 2004
Location: Mistelbach
Posts: 193
Finde das von ATI irgendwie ein wenig seltsam! Sie haben NVIDIAs Quad SLI immer belächelt das so etwas keinen Sinn mache und das sie nicht vorhaben auf Quad Crossfire umzusteigen. Es sei denn es würde einen ordentlichen Leistungsschub mit sich bringen!
Najo mal abwarten was die Canadia da vorhaben! :eek:

t3mp

I Love Gasoline
Avatar
Registered: Mar 2003
Location: upstairs
Posts: 6285
Ja, genauso wie man behauptet DX9 sei völlig unsinnig, bis man es dann selbst endlich auf dem Markt hat. :)

MadHatter

Big d00d
Avatar
Registered: Oct 2004
Location: Bregenz
Posts: 160
Erinnert mich an das SM3.0 und davor an das SM1.4 :D

FlipK

Big d00d
Avatar
Registered: May 2004
Location: Mistelbach
Posts: 193
Schön langsam leuchtet mit auch ein warum ein 2kw Nt raus kam!
Wie es in dem Bericht steht "even more than 1000W" :eek:
Ein 1kw Galaxy was zur zeit das stärkste unter den getesteten Nts ist, wird wohl hierfür zu schwach sein! :(

cdoo

Bloody Newbie
Registered: Apr 2005
Location: stp
Posts: 47
merkt ihr auch das langsam jeden Tag neue News über den R600 Chip kommen? ... jetzt kanns nimma lang dauern gg

die Graka wird eh erst interessant, wenn AMD mit dem Chipsatz auffährt wo man(n) die onboard grafik (mobo) für vista verwendet und bei den Spielen die PCIE Graka extra aktiviert.

jedoch bleiben mir irgendwie die Infos über die neuen AMD Prozzis bzw. Chipsätze aus/verborgen..

will im juni umsteigen.. also amd :fresserettich:

Alucard

Big d00d
Avatar
Registered: Nov 2003
Location: Doskira
Posts: 333
So, finale Specs sind heraussen =>

R600

Und wie hart ist das? => Bei der Retail Variante wird durch eine Kompressorkühlung die Länge wesentlich verkürzt, auf 9 Zoll (24,13 Zentimeter) - belegt aber zwei Slots.
:eek:

MadHatter

Big d00d
Avatar
Registered: Oct 2004
Location: Bregenz
Posts: 160
Zitat von Alucard
So, finale Specs sind heraussen =>

Was ist daran "final"? Wusste man doch schon lange vorher...

Und die Geschichte mit der "Kompressorkühlung" ist doch wohl nur ein Scherz, oder?
Unmöglich, eine KoKü auf so kleinem Raum unterzubringen...
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz