URL: https://www.overclockers.at/grafikkarten/nvidias_gt300_ist_ein_rechenmonster_210731/page_12 - zur Vollversion wechseln!
Hmm, 46" LCD TV und 'ne Leinwand mit 'nem HighEnd Beamer (Bildgröße variabel ;D)
Nice.
Ich spiel auch fast nur mehr via Beamer (nicht High End, ein Panasonic AE3000)
Welchen hast du?
JVC HD750
so hab den artikel jetzt auch mal gelesen. aber folgende fragen drängen sich mir auf:Zitat von mr.nice.Übrigens gibt es erste Benchmarks:
http://www.hardwarecanucks.com/foru...microscope.html
Allerdings wissen sie selbst nicht, ob es sich dabei um eine GF100 mit 512 oder doch nur 448 Rechenkernen handelt, bzw. ob die Taktraten final waren.
So wie ich das verstanden habe lässt sich GT200 und GF100 miteinander betreiben, allerdings nur zur PhysX Berechnung. Eine einzelne GF100 kann zwei Bildschirme ansteuern, für Triplescreen-3D Surround braucht es zwei GF100.
Bezüglich Loadbalancing und Microrucklern innerhalb einer GPU würde ich mir keine Sorgen machen, denn wenn es so wäre müsste das Problem seit Einführung der Unified Shader oder sogar noch länger bestehen. Außerdem wären die Latenzen innerhalb des Chips vermutlich für das menschliche Auge nicht wahrnehmbar.
Das Problem müßte dann schon seit den ersten Grafikchips mit mehr als einer Rendering Pipeline bestehen (GeForce 2 oder so), seit damals werden Grafikchips so richtig parallel. Mikroruckler wirst dadurch aber nie sehen, da die Shader ja parallel irgendwelche Pixel und Geometriedreiecke abarbeiten, und bislang sieht es so aus, als ob da Synchronisation eher kein Problem wäre.
Bei SLI oder CF müssen hingegen komplette fertige Framebuffer kombiniert werden, das ist schon eine andere Ebene...
aha, danke für die info, bin leider wirklich noob auf dem gebiet muss ich zugeben.
ich hatte nur den eindruck, dass bisher nur vertex/pixelshader parallel gemacht wurden, aber fermi macht ja jetzt einiges mehr parallel (tmu asynchron zum coretakt, rops werden zugeteilt je nach bedarf, ebenso die ganze rasterizer,tesselation einheit...)
aber ich werd mir zur sicherheit den artikel nochmal heut abend durchlesen
allein für die rocketsled demo würd ich mir die karte kaufen
ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann.
Ditech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM DeppenaufschlagZitat von .dcpallein für die rocketsled demo würd ich mir die karte kaufen
ne, im ernst. wenn die performance wirklich weit über der 5870 liegt und die 380 im 500€ bereicht liegt, wirds wohl gekauft. leider heißts wohl noch lange warten, wenn im märz erst launch ist, wirds wohl ende april, bis man sie wirklich kaufen kann.
Zitat von tombmanDitech und co. werden die sicher schon im März haben- inkl. 100€ MINIMUM Deppenaufschlag
Angebot und Nachfrage...
Zitat von tombmanJVC HD750
signed, ich mag es auch nicht.Zitat von BenderNach 2x ATI (1950XT und 4870) wird meine nächste Karte wohl wieder eine Nvidia -> ATIs CCC kann gewaltig nerven.
ack. ich nutze daher immer 3rd party tools. das ccc benutze ich nur für crossfire. (beim ocen)
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025