"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIAs GT300 ist ein Rechenmonster

JC 01.10.2009 - 09:48 49507 187
Posts

deleted060824


Registered: Aug 2024
Location:
Posts: 0
Weniger hätte auch keiner von dir erwartet. :)

Crysis Warhead auf 2560x1600 mit 8x(+) AA und 60FPS+ wär schon was.

Welche Monitorgrösse hast du derzeit?

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Hmm, 46" LCD TV und 'ne Leinwand mit 'nem HighEnd Beamer (Bildgröße variabel ;D) :D

deleted060824


Registered: Aug 2024
Location:
Posts: 0
Nice.

Ich spiel auch fast nur mehr via Beamer (nicht High End, ein Panasonic AE3000)

Welchen hast du?

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
JVC HD750 :)

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1941
Zitat von mr.nice.
Übrigens gibt es erste Benchmarks:
http://www.hardwarecanucks.com/foru...microscope.html

Allerdings wissen sie selbst nicht, ob es sich dabei um eine GF100 mit 512 oder doch nur 448 Rechenkernen handelt, bzw. ob die Taktraten final waren.
so hab den artikel jetzt auch mal gelesen. aber folgende fragen drängen sich mir auf:
1) wenn gf100 eigentlich layoutmässig 4xGPUs in einem "die" sind, wirds dann praktisch nicht auch zu "µ-ruckler" kommen (kann) (noch dazu kommt ja, dass dann 1/2/3 blöcke innerhalb einer GPU auch noch deaktiviert werden können, konkurrieren dann nicht eine GPU @full mit einer anderen GPU wo nur die hälfte arbeitet?).
vor allem wenn ich öfters im artikel lese, dass alles "dynamisch" wird und je nach loadbalanceing die resourcen (L1/L2, polymorphengine, rops) verteilt werden, oder wenn die TMUs eben "asynchron" zum coreclock arbeiten. wer synchronisiert das alles
2) wie schaut das treiberseitig aus? muss da nvidia immer eigene "fermi" profile für jedes spiel/engine ablegen, damit die engines in fermiverträgliche parallelisierbare "brocken" zerteilt werden können oder sieht das directx11 schon vor? ich erinnere mich ja da dunkel an intel/amd früher, wo es ja dauerte, bis die parallelisierten pipelines in den CPUs auch ordentlich gefüttert werden konnten (vorhersagbarkeit von nächsten datenblöcken)...
3) ich les da im artikel, dass anscheinend gt200 und gf100 als sli zusammengespannt werden könnten, zB für 3d vision/surround oder hab ich das falschverstanden?

mr.nice.

Moderator
differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6529
So wie ich das verstanden habe lässt sich GT200 und GF100 miteinander betreiben, allerdings nur zur PhysX Berechnung. Eine einzelne GF100 kann zwei Bildschirme ansteuern, für Triplescreen-3D Surround braucht es zwei GF100.

Bezüglich Loadbalancing und Microrucklern innerhalb einer GPU würde ich mir keine Sorgen machen, denn wenn es so wäre müsste das Problem seit Einführung der Unified Shader oder sogar noch länger bestehen. Außerdem wären die Latenzen innerhalb des Chips vermutlich für das menschliche Auge nicht wahrnehmbar.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3701
Das Problem müßte dann schon seit den ersten Grafikchips mit mehr als einer Rendering Pipeline bestehen (GeForce 2 oder so), seit damals werden Grafikchips so richtig parallel. Mikroruckler wirst dadurch aber nie sehen, da die Shader ja parallel irgendwelche Pixel und Geometriedreiecke abarbeiten, und bislang sieht es so aus, als ob da Synchronisation eher kein Problem wäre.

Bei SLI oder CF müssen hingegen komplette fertige Framebuffer kombiniert werden, das ist schon eine andere Ebene...

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1941
aha, danke für die info, bin leider wirklich noob auf dem gebiet muss ich zugeben.
ich hatte nur den eindruck, dass bisher nur vertex/pixelshader parallel gemacht wurden, aber fermi macht ja jetzt einiges mehr parallel (tmu asynchron zum coretakt, rops werden zugeteilt je nach bedarf, ebenso die ganze rasterizer,tesselation einheit...)
aber ich werd mir zur sicherheit den artikel nochmal heut abend durchlesen ;)

.dcp

notamodbuthot
Avatar
Registered: Jul 2002
Location: new
Posts: 8881
allein für die rocketsled demo würd ich mir die karte kaufen :D

ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann.

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Zitat von .dcp
allein für die rocketsled demo würd ich mir die karte kaufen :D

ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann.
Ditech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM Deppenaufschlag :bash:

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1941
Zitat von tombman
Ditech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM Deppenaufschlag :bash:

jep, das kannst laut schreiben: alternate,ditech,peluga machens derzeit alle gleich bei der hd58x0 serie...und die anderen shops (nre,krob) die da nicht mitmachen, können kaum bis gar nicht liefern...

t3mp

I Love Gasoline
Avatar
Registered: Mar 2003
Location: upstairs
Posts: 6285
Angebot und Nachfrage...

deleted060824


Registered: Aug 2024
Location:
Posts: 0
Zitat von tombman
JVC HD750 :)

Sehr nettes Gerät!!

Perfekt für total abgedunkelte HC-Räume.
Gehobene Mittelklasse würd ich sagen.
High End ist zb. ein Runco Q-750i. ;)

Ist für meine Zwecke allerdings zu lichtschwach. Ich spiele auch unter Tags mit nur leichter Verdunkelung.

Und nun back to topic.

Nach 2x ATI (1950XT und 4870) wird meine nächste Karte wohl wieder eine Nvidia -> ATIs CCC kann gewaltig nerven.
Die kleinere der Fermi Karte wirds wohl werden; wegen dem sicher besseren P/L Verhältnis.
Zuerst will ich aber Benchmarks sehen.

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14645
Zitat von Bender
Nach 2x ATI (1950XT und 4870) wird meine nächste Karte wohl wieder eine Nvidia -> ATIs CCC kann gewaltig nerven.
signed, ich mag es auch nicht.

Turrican

Legend
Amiga500-Fan
Avatar
Registered: Jul 2002
Location: Austria,Stmk.
Posts: 23260
ack. ich nutze daher immer 3rd party tools. das ccc benutze ich nur für crossfire. (beim ocen)
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz