"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIAs GT200 bekommt einen neuen Namen

JC 16.05.2008 - 07:17 10148 40
Posts

Robert83

Here to stay
Registered: Aug 2003
Location: Overclocking Hil..
Posts: 1955
THX

edit: wobei das eh a blosse Behauptung ist...
Und den Rest von dem Chinesengekraxel kann man sowieso nicht lesen ;)
Zum Launch und zu den ersten Reviews ists ja nicht mehr weit.

NeseN

Nobody f*ks with DeJesus!
Avatar
Registered: Feb 2003
Location: Fl3d3rMau5LanI)
Posts: 4212
Zitat von Starsky
steht das 260 bzw. 280 für die verlustleistung in watt? :D ;)

:cordless: :D

lol 9xxx serie schon wieder passe? warum wurdert micht das bloss nicht? die bezeichnung hat so lange gehalten, wie die 9er serie im vergleich zur 8ter wirklich neu war. 90%+ marketing blabla :(

tinker

SQUEAK
Avatar
Registered: Nov 2005
Location: NÖ
Posts: 5219
Zitat
GeForce GTX 280

* 512-Bit
* 1GB GDDR3
* 240 Stream Processors
* PhysX Ready
* CUDA Technology
* PureVideo HD technology
* Full MS DirectX 10 Support
* Open GL 2.1, SLI, PCIe 2.0 Support
* 2nd gen. Unified architecture delivers 50% more gaming performance over 1st gen. through 240 shader processors

GeForce GTX 260

* 448-Bit
* 896MB GDDR3
* 192 Stream Processors
* PhysX Ready
* CUDA Technology
* PureVideo HD technology
* Full MS DirectX 10 Support
* Open GL 2.1, SLI, PCIe 2.0 Support

Source

Die Daten tauchen auf verschiedenen Seiten auf, ob wirklich was dran ist wird sich zeigen.

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Die Daten dürften wohl stimmen, viel interessanter ist mittlerweile die Frequenz der einzelnen Teile, weil beim Speicher werden sie wohl im starken Wettkampf mit ATI stehen.

t3mp

I Love Gasoline
Avatar
Registered: Mar 2003
Location: upstairs
Posts: 6278
Viel wichtiger ist, ob ein Chip mit der Speichertransferrate überhaupt was anfangen kann.

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
http://www.pczilla.net/en/post/13.html

angebliche erste pics (auch wens winzig sind).

Imho sind die sogar legit, das teil hat 16 memory modules, bis jetzt hat keine NV karte 16 stück (G80 GTX/Ultra 12 | G92 GTX 8) + das board hat platz für 32 module (2gb version im kommen?)

Ahja und laut der seite soll die GT280 auch die letzte singel die solution sein. ;)
Bearbeitet von Hornet331 am 20.05.2008, 20:27

t3mp

I Love Gasoline
Avatar
Registered: Mar 2003
Location: upstairs
Posts: 6278
Lustig wirds dann, wenn der G92-Chip vielleicht gleich ein weiteres Mal recycled wird in der GT2x0 Serie. Das wäre dann die "dritte" "Generation" mit gleichem Chip. Der neue Chip ist ja in der Herstellung viel zu teuer um auch nur irgendwie in die Nähe von €300,- zu kommen, da braucht Nvidia noch was günstigeres. Und das Design hat sich ja prinzipiell nicht geändert, nach wie vor kein DX10.1.

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49921
na warten wir bis sie wirklich da ist.

Singlecore versteh ich bei so einem breiten Bus nicht ganz. Da 2cores mit je 256Bit das selbe ergeben (Bandbreiten addieren sich ja, Speichergröße nicht) und wesentlich einfacher zu bewerkstelligen sind, vorallem wenn das Board so riesig ist

tinker

SQUEAK
Avatar
Registered: Nov 2005
Location: NÖ
Posts: 5219
Zitat von t3mp
Lustig wirds dann, wenn der G92-Chip vielleicht gleich ein weiteres Mal recycled wird in der GT2x0 Serie. Das wäre dann die "dritte" "Generation" mit gleichem Chip. Der neue Chip ist ja in der Herstellung viel zu teuer um auch nur irgendwie in die Nähe von €300,- zu kommen, da braucht Nvidia noch was günstigeres. Und das Design hat sich ja prinzipiell nicht geändert, nach wie vor kein DX10.1.
Desshlab bin ich schon sehr gespannt. Denn zu Release stehen sich die HD48xx Serie, mit einem guten Preis/Leistungs-Verhältnis und die GT200, mit massig Performance, aber nem gesalzenen Preis, gegenüber.

Hinzu kommt: Wer hat bei irgendwelchen Spielen Performance-Probleme mit ner GTS G92? (Crysis und vielleicht ne Hand voll anderer Spiele mal ausgenommen)
Und auch viele der zukünftigen Spiele schaun nicht danach aus als würden sie viel anspruchsvoller im bereich Grafik sein.

Von daher kann irgendwie nur die HD48xx Serie das Rennen machen. Ausreichend Power bei gutem Preis und Stromverbrauch.

Natürlich werden die GT200-Chips wieder ihre Abnehmer finden, aber mir kommt es vor als wären sie diesmal eher "unnötig".
Bearbeitet von tinker am 21.05.2008, 12:59

Robert83

Here to stay
Registered: Aug 2003
Location: Overclocking Hil..
Posts: 1955
Der G92 ist an sich ein sehr guter Chip, der nur unter seiner Speicheranbindung leidet.
Siehe 8800GTS(G92) gegen Ultra(G80): besonders in höheren Auflösungen mit AA hat die GTS keine Chance. Hier wirkt sich das limitierende Speicherinterface auch.
So auch bei der 9800GX2, die gleich zwei G92 Chips beherrbergt und leider auch hier wirkt sich das Speicherinterface nachteilig aus, obwohl die Chiprohleistung ausgezeichnet ist und eine Ultra weit in den Schatten stellt.
Deshalb wird die neue Generation wohl voll auf verbesserte Leitung bei hohen Auflösungen und Anti-Aliasing abzielen, was ihr wegen des 512bit Speicherinterfaces voraussichtlich auch ganz gut gelingenen sollte.

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
Zitat von Viper780
na warten wir bis sie wirklich da ist.

Singlecore versteh ich bei so einem breiten Bus nicht ganz. Da 2cores mit je 256Bit das selbe ergeben (Bandbreiten addieren sich ja, Speichergröße nicht) und wesentlich einfacher zu bewerkstelligen sind, vorallem wenn das Board so riesig ist

selbes problem, wie bei der angeblichen "dual core" R700, zeig mir ein interface das 2 cores miteinander verbindent im +100gb/s bereich. ;)

ich wette wir sehn, wenn nv vernüftigen zugriff auf gddr5 hat die GT2x0 mit 256bit interface. ;)

hachigatsu

king of the bongo
Registered: Nov 2007
Location: Salzburg
Posts: 5703
@ Robert83

Is e klar.. jetzt müssens die grakas für hohe auflösungen optimieren.. es gibt ja doch immer mehr leute mit 24" und mehr...
Und wer will schon auf 24" mit 800x600 oder so zocken? *G*

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49921
Zitat von Hornet331
selbes problem, wie bei der angeblichen "dual core" R700, zeig mir ein interface das 2 cores miteinander verbindent im +100gb/s bereich. ;)

ich wette wir sehn, wenn nv vernüftigen zugriff auf gddr5 hat die GT2x0 mit 256bit interface. ;)

Hm.. das mit dem Interface seh ich garnicht so gravierend, ich glaube das man zwischen 2 cores auch mit 30-40MB/s auskommen sollte. Soviel wird da nicht übertragen.

Und wenn, es ist egal was man da baut, die Wege können recht kurz gemacht werden wenn man die Chips auf je einer Seite baut (in Zeiten von Heatpipes kein Problem mehr) und man braucht ja keinen standardisierten Bus. Reicht wenn man da was proprietäres schafft.

Hornet331

See you Space Cowboy
Avatar
Registered: Sep 2003
Location: Austria/Korneubu..
Posts: 7680
ein gpu ist kein cpu. ;)

cpus sind derzeit noch recht "wenig multithreaded" (4cores max) und kommen deshalb mit wenig bandbreite aus, aber selbst bei nur 4 cores siehts einen gewaltigen unterscheid zw. barcelona und clovertown und die haben gerade mal 25,6gb/s vs 41,6gb/s

GPUs sind "extreme multithreaded" (96 cores +) und die brauchen einfach massig bandbreite.

Wenns so einfach wär hätten wir schon längst mcm gpus da die weitaus ökonomischer einzu setzen sind als große single dies.

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Die 30-40MB/s sind ja wohl nicht wirklich überlegt von dir oder meinst du das wirklich ernst.
Ein einziger Frame bei 1920x1200 in 32bit hat schon ~10Mbyte, also wartest du eine viertel Sekunde damit wieder ein Abgleich stattfindet oder wie, wenn sich die gesamte Szene ändert.
Mit ein bischen AA und AF kommst dann locker mal auf eine gute Sekunde Abgleichzeit.

Wenn du diese Karte haben willst, dann lässt sich das sicherlich und zwar auch günstig realisieren, aber ich will sie nicht haben.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz