deleted060824
|
Weniger hätte auch keiner von dir erwartet. Crysis Warhead auf 2560x1600 mit 8x(+) AA und 60FPS+ wär schon was. Welche Monitorgrösse hast du derzeit?
|
tombman
the only truth...
|
Hmm, 46" LCD TV und 'ne Leinwand mit 'nem HighEnd Beamer (Bildgröße variabel ;D)
|
deleted060824
|
Nice.
Ich spiel auch fast nur mehr via Beamer (nicht High End, ein Panasonic AE3000)
Welchen hast du?
|
tombman
the only truth...
|
JVC HD750
|
MaxMax
Here to stay
|
Übrigens gibt es erste Benchmarks: http://www.hardwarecanucks.com/foru...microscope.html
Allerdings wissen sie selbst nicht, ob es sich dabei um eine GF100 mit 512 oder doch nur 448 Rechenkernen handelt, bzw. ob die Taktraten final waren. so hab den artikel jetzt auch mal gelesen. aber folgende fragen drängen sich mir auf: 1) wenn gf100 eigentlich layoutmässig 4xGPUs in einem "die" sind, wirds dann praktisch nicht auch zu "µ-ruckler" kommen (kann) (noch dazu kommt ja, dass dann 1/2/3 blöcke innerhalb einer GPU auch noch deaktiviert werden können, konkurrieren dann nicht eine GPU @full mit einer anderen GPU wo nur die hälfte arbeitet?). vor allem wenn ich öfters im artikel lese, dass alles "dynamisch" wird und je nach loadbalanceing die resourcen (L1/L2, polymorphengine, rops) verteilt werden, oder wenn die TMUs eben "asynchron" zum coreclock arbeiten. wer synchronisiert das alles 2) wie schaut das treiberseitig aus? muss da nvidia immer eigene "fermi" profile für jedes spiel/engine ablegen, damit die engines in fermiverträgliche parallelisierbare "brocken" zerteilt werden können oder sieht das directx11 schon vor? ich erinnere mich ja da dunkel an intel/amd früher, wo es ja dauerte, bis die parallelisierten pipelines in den CPUs auch ordentlich gefüttert werden konnten (vorhersagbarkeit von nächsten datenblöcken)... 3) ich les da im artikel, dass anscheinend gt200 und gf100 als sli zusammengespannt werden könnten, zB für 3d vision/surround oder hab ich das falschverstanden?
|
mr.nice.
Moderatordifferential image maker
|
So wie ich das verstanden habe lässt sich GT200 und GF100 miteinander betreiben, allerdings nur zur PhysX Berechnung. Eine einzelne GF100 kann zwei Bildschirme ansteuern, für Triplescreen-3D Surround braucht es zwei GF100.
Bezüglich Loadbalancing und Microrucklern innerhalb einer GPU würde ich mir keine Sorgen machen, denn wenn es so wäre müsste das Problem seit Einführung der Unified Shader oder sogar noch länger bestehen. Außerdem wären die Latenzen innerhalb des Chips vermutlich für das menschliche Auge nicht wahrnehmbar.
|
GrandAdmiralThrawn
XP Nazi
|
Das Problem müßte dann schon seit den ersten Grafikchips mit mehr als einer Rendering Pipeline bestehen (GeForce 2 oder so), seit damals werden Grafikchips so richtig parallel. Mikroruckler wirst dadurch aber nie sehen, da die Shader ja parallel irgendwelche Pixel und Geometriedreiecke abarbeiten, und bislang sieht es so aus, als ob da Synchronisation eher kein Problem wäre.
Bei SLI oder CF müssen hingegen komplette fertige Framebuffer kombiniert werden, das ist schon eine andere Ebene...
|
MaxMax
Here to stay
|
aha, danke für die info, bin leider wirklich noob auf dem gebiet muss ich zugeben. ich hatte nur den eindruck, dass bisher nur vertex/pixelshader parallel gemacht wurden, aber fermi macht ja jetzt einiges mehr parallel (tmu asynchron zum coretakt, rops werden zugeteilt je nach bedarf, ebenso die ganze rasterizer,tesselation einheit...) aber ich werd mir zur sicherheit den artikel nochmal heut abend durchlesen
|
.dcp
notamodbuthot
|
allein für die rocketsled demo würd ich mir die karte kaufen ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann.
|
tombman
the only truth...
|
allein für die rocketsled demo würd ich mir die karte kaufen
ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann. Ditech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM Deppenaufschlag
|
MaxMax
Here to stay
|
Ditech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM Deppenaufschlag jep, das kannst laut schreiben: alternate,ditech,peluga machens derzeit alle gleich bei der hd58x0 serie...und die anderen shops (nre,krob) die da nicht mitmachen, können kaum bis gar nicht liefern...
|
t3mp
I Love Gasoline
|
Angebot und Nachfrage...
|
deleted060824
|
JVC HD750 Sehr nettes Gerät!! Perfekt für total abgedunkelte HC-Räume. Gehobene Mittelklasse würd ich sagen. High End ist zb. ein Runco Q-750i. Ist für meine Zwecke allerdings zu lichtschwach. Ich spiele auch unter Tags mit nur leichter Verdunkelung. Und nun back to topic. Nach 2x ATI (1950XT und 4870) wird meine nächste Karte wohl wieder eine Nvidia -> ATIs CCC kann gewaltig nerven. Die kleinere der Fermi Karte wirds wohl werden; wegen dem sicher besseren P/L Verhältnis. Zuerst will ich aber Benchmarks sehen.
|
Starsky
Erdbeeren für ALLE!
|
Nach 2x ATI (1950XT und 4870) wird meine nächste Karte wohl wieder eine Nvidia -> ATIs CCC kann gewaltig nerven. signed, ich mag es auch nicht.
|
Turrican
LegendAmiga500-Fan
|
ack. ich nutze daher immer 3rd party tools. das ccc benutze ich nur für crossfire. (beim ocen)
|