"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

RV770 kommt am 18. Juni

JC 15.05.2008 - 13:15 45755 260
Posts

tinker

SQUEAK
Avatar
Registered: Nov 2005
Location: NÖ
Posts: 5222
Finale Spezifikationen

Zeigt das selbe Bild wie schon nordichardware, nur scheinen es nun tatsächlich 480 und nicht 800 Streamprozessoren zu sein.
Ob sie wirklich final sind wird sich zeigen...

//Ok, nochmal genau geschaut und gesehn das es ein etwas anderes Bild als nordichardware zeigt. Der Chiptakt der 4870 wird hier mit 850 MHz angegeben.
Bearbeitet von tinker am 19.05.2008, 23:30

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Und wieder nen 256 bit Interface :( Da kriegt man echt zu viel

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Die 256Bit sind nicht das Problem.
Nvidia wird auch nicht viel mehr Speicherbandbreite haben, einfach weil ATI den Takt extrem in die Höhe getrieben hat, bin schon gespannt wer dieses Mal den Kampf bei 2560x1600 gewinnt.

Es ist nur schade das die 4850 doch deutlich schlechter ist, hätte gehofft das der Abstand so wie zwischen 3850 und 3870 bleibt, aber da wird es mehr Abstand geben.

Die 512bit von Nvidia wird man auch extrem teuer bezahlen dürfen, da ist die Lösung von ATI besser und für den Kunden besser.
512bit wird so und so die höchste runde Busbreite bleiben, mehr wird ihnen keiner bezahlen, kommer vorher noch optische Verbindungen auf der Karte.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Ich mein ok, die theorethische Leistung, die die Karte mit 1008 Gflops hat, wird mit Sicherheit nicht schlecht sein, aber wieso zum Teufel verbauen sie nicht einfach GDDR5 + 512 bit und haben noch mehr Leistung. Ob ich dann jetzt 350$ oder 450$ für die Karte zahle, was sich dann auch in Leistung umschlägt, wäre es mir bei einer High end Karte doch definitiv wert. Und das ohne irgend nen Dual-gpu Gedöns, welches sie sich schenken können. Und das die 384 bit der 8800 GTX in Verbindung der hohen Taktraten einer 9800 GTX das Nonplus Ultra währen kann man ja auch nicht abstreiten, oder(als Beispiel gesehen). Man muss sich nur mal die 3D Mark 06 Werte von 2 2900 XT ansehen wenn die Taktraten mit Wasserkühlern + Voltmod oder gar Stickstoffkühlung in die Höhe getrieben werden, was für eine Leistung die Karten dann noch haben

Naja ist halt meine Meinung. Ist sicher auch ein Grund, warum die Hardware nur noch schleppend stärker wird, wenn sie derzeit nicht auch das Stärkste verbauen

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Weil mit 512bit nicht mehr 4GHz RAM-Takt möglich sind.

Mit 512Bit hätte man wenn man Glück hat 25-30% mehr Speicherbandbreite, das ganze würde dann je nach Auslastung um 5-10% die Gesamtleistung unter hohen Auflösungen steigern. Hohe Auflösung, wahrscheinlich, 1920x1200 und darüber.

512bit Speicherbadnbreite ergeben eine Preissteigerung bei der Platine, beim Packaging und beim Chip selber.
Die Kosten würde die Karte wahrscheinlich auf das Kostenniveau der GTX280 bringen.
Aber die 4870 kann auch mit mehr Speicherbandbreite nicht mit der GTX280 konkurieren.

Ausschlagggebend ist bei der neuen Unified Shader Architektur vor allem die Anzahl und die Effizienz der einzelnen Shadereinheiten, die Bandbreite hilft dann den Abfall bei hohen Auflösungen, AA und AF-Einstellungen entgegen zuwirken.
Bei der 4870 sind nur um die Hälfte mehr Shadereinheiten verfügbar und sie takten ein wenig schneller, das hebt sie auf das Niveau der 3870 X2.
Hätten sie mehr Shadereinheiten verbaut wäre sie wirklich schneller und nicht mehr Bandbreite.

Nvidia hat hingegen die Anzahl beinahe verdoppelt und daher kommt auch der wahrscheinlich sehr gute Leistungsanstieg. Der Vorsprung kommt nicht durch die Speicherbandbreite, Nvidia will nur noch nicht auf GDDR5 steigen und das wird auch das grösste Problem für ATI, weil sie stark abhängig sind von der Verfügbarkeit von genau diesem Speicher.

Warum die Entwicklung stagniert:
Intel ist im Moment Technologieführer in den Strukturbreiten und haben als einzige den Leckstrom und die Taktraten voll im Griff.
Nvidia und ATI sind von TSMC abhängig, die fertigen zwar fast alles mittlerweile, haben aber noch kein Interesse ihre Prozesse deutlich zu verbessern, weil alles läuft und das grosse Geschäft abseits des PC-Markts läuft super und die Technologie dafür reicht locker.
IBM kann auch noch 45nm, aber sie stellen keine Auftragsfertigung her und hat genug eigene Produkte die sie herstellen müssen.

Also die Enticklung bei den Graka hängt zum grössten Teil von der Effizienz der Shadereinheiten und der Technologie von TSMC ab.

Okay, lange Erklärung, aber ist etwas ausgeartet.
Bearbeitet von Castlestabler am 20.05.2008, 00:10

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Finde es so aber gut erklärt. An der 9800 GX2 merkt man aber auch wie sehr die 256 bit/512 Mb Ram bei hohen Auflösungen+ AA/AF limitieren können->Mit einer 8800 GTX ist es noch spielbar->Eine 9800 GX2 liefert gar keine Bilder mehr. Hardwaretechdemo Crysis lieferte bei mir genau das selbe Bild(9800 GX2): Bis 1680*1050 mit 4*AA war die Karte sehr schnell. Bei 8*AA bekam ich noch ganze 3 Bilder/s. Ob ich Crysis jetzt gut finde oder nicht, ändert ja nichts an der Situation. Und 1680*1050 und 1920*1200 wird ja mittlerweile Standard und die Spiele werden auch nicht anspruchsloser

Gehe jetzt aber schlafen ;)

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
@TSMC und Prozess

du vergisst das tsmc,umc,chartred u.a. ein recht großes klientel haben, sie produzieren nicht alleine nur für ati oder Nv.
Der prozess ist jedoch so generisch angelegt, dass er eine große anzahl von kunden befridigt. Sprich es ist ein kompromiss aus leistung/verbrauch/ausbeute und preis. Ergo müssen sich Ati/NV an den prozess von ihreren jeweiligen fab-partnern anpassen.

Intel hingegen hat den vorteil das es den prozess so hintrimmen kann, wie es ihn braucht für die jeweilige architektur, und das ist derzeit maximale leistung mit gutem verbrauch. Wobei ma nicht der illusion erliegen darf, dass wenn intel, nun sagen wir nv chips in seinen fabs produzieren würde, diese auch in solcher qualität erzeugen würde wie es cpus produziert.

Das ist der preis den man zahlen muss wenn man fabless ist, ironisch das jerry sanders ("Only real men have fabs") das mal gesagt hat. :P

Und imho wird es weiterhin keiner schaffen intel bei der prozess technologie zu überholen, weil sie den vorteil haben genau in die richtung zu gehen die sie brauchen und dabei nicht auf andere rücksicht nehmen zu müssen, wie es z.b. beim SOI-Konsortzium (IBM/AMD etc.) der fall ist.

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49959
Zitat von Darkside_86
Und wieder nen 256 bit Interface :( Da kriegt man echt zu viel

warum ist jeder auf einen breiten Bus aus?

Bei PATA -> SATA hat sich jeder gefreut das der Bus schmaler abe rhöher getaktet wurde.

über 512 _gleiche_ Leitungen (nicht nur gleichlang sondern auch mit gleich vielen Biegungen und sehr identischem Feld) auf einem PCB unterzubringen ist einfach nicht so leicht möglich. Schon alleine das ätzen eines PCB ist eine Herausforderung da manche Stellen tiefer, andere breiter geätzt werden.

512bit Interface ist schlicht weg nicht zu zahlen und ein Breitesinterface brauch tauch mehr Storm (vorallem idle) als ein kleineres, doppelt so hoch getaktetes.

Ich verstehe auch obenstehenden vergleich nicht, der sagt nur das die Bandbreite zu gering werden könnte, aber was genau Limitiert sagt es nicht aus. Ob man Speicherbandbreite mit mehr Breite oder mehr Takt erzielt ist aber egal

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
ist alles nur eine kosten frage, ich glaub wenn die gt280 (oder wie auch immer das absolute highend modell von NV heißt) wirklich 512bit hat, war es eher eine frage der verfügbarkeit von ddr5, ich glaub persöhnlich, dass sich ati die ersten shippings von ddr5 frühzeitig gesichert hat (vielleicht sogar schon mit dem kauf von ddr4) und nv leer ausgegangen ist.

Deshalb der schritt zum 512er interface, um die eine höhere bandbreite zu erreichen.

Denn wie viper schon gesagt hat ist es egal ob ma die module höher taktet oder die breite des interfaces erhöht, wobei eine verbreiterung des interfaces höhere anforderung stellt als eine erhöhung des takts (aber auch hier muss das boardlayout mitspielen. ;) )

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49959
Natürlich ist das Boardlayout bei 4GHz schon ganz schön gefragt und bei höherem Takt spielen Latenzen eine wichtige Rolle, aber das mit hohem Takt hat man schön langsam im Griff, vorallem PCB Design und Shielding gegenüber Crosstalk.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Ich bin ja nicht JEDER :D

Ich stell mir das ganze nur so vor: (als Beispiel mit Eisenbahnen und Schienen) Wenn jetzt 512 Schienen statt 256 vorhanden sind und die Eisenbahnen nur noch mit 300 kmh fahren würden kommt man trotzdem auf mehr "Durchsatz" als wenn die 256 Eisenbahnen mit 400 kmh fahren könnten(256*400=102400 Durchsatz gegen 512*300=153600)

Vllt ist in meiner Denkweise auch ein Fehler, aber genau deswegen würde ich mich über ein 512 bit Interface + hohen Takt mehr freuen, als über ein 256 bit mit noch höherem Takt

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
deine annahme stimmt schon, nur breit + schnell spielts nicht aus wirtschaftlichen gründen.

Es gibt entweder breit + moderat schnell oder "schmal" + schnell, egal in welcher situation, das endergebniss ist das gleiche.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Ändern können wir es ja eh nicht ;) Vllt "klappt" es ja bei der nächsten Grafikkarten. Wäre mal nicht schlecht, wenn ATI wieder die Performance-krone mit ner Single High endkarte bekommt, bei der es nicht an der CF-Optimierung hapert

mr.nice.

Moderator
differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6455
AMD hat ja angeblich Exklusivverträge mit Samsung, deswegen kriegen sie GDDR4 und 5 als erstes und nVidia gurkt immer noch mit GDDR3 herum, angeblich auch beim GT280. Das könnte für nVidia zu einem wirklichen Problem werden, ich kann mir nicht vorstellen dass sie ganz freiwillig an ein 512-Bit Interface GDDR3 schnallen.

Das ist auch der Grund warum es AMD gelungen ist im Performance-Segment gut Fuß zu fassen, sie haben durch die hohe Taktfrequenz des Speichers Einsparungsmöglichkeiten die nVidia nicht hat und dadurch können sie eine agressivere Preispolitik bei sehr guter Leistung fahren.

Ich vermute ja nach wie vor, dass der RV770XT eine Dualcore-GPU ist mit je 240 Shadereinheiten, die mit einem internen Crossbar verbunden sind.

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Aber warum sollte ATI extra eine neue Core entwickeln, die nur 240Shadereineiten hat.

Hätte die neue Karte 640 Einheiten könnte man darüber spekulieren, aber so ist einfach die Erhöhunge der Shadereinhieten wohl realistischer, vor allem da das UFD so und so auf parallelen Einheiten aufbaut die an einem Bus hängen und damit theoretisch beliebig viele Einheiten hinzugefügt werden können.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz