URL: https://www.overclockers.at/grafikkarten/nvidias_gt300_ist_ein_rechenmonster_210731/page_2 - zur Vollversion wechseln!
Wird wohl wieder ähnlich werden, wie bei 4870 zu GTX280.
Von den Daten her dürfte es sich ausgehen, aber erst mal schauen.
Interessanter wird wohl wie viele Feature Nvidia einabut und ob sie von Anfang an funktionieren.
So wie die GPU aussieht kann sie jetzt eindgültig viel mehr als nur Bilder berechnen und damit ist DX11 zwar ein nettes Feature, aber man kann noch viel mehr herausholen, das wohl bei ATI nicht funktioniert.
Zitat von MaxMaxmhm, das ganze nennt sich jetzt aber paperlaunch oder? und noch eine frage: hat amd/ati auch L1 und L2 cache aufm cypress?
Zitat von MaxMaxmhm, das ganze nennt sich jetzt aber paperlaunch oder? und noch eine frage: hat amd/ati auch L1 und L2 cache aufm cypress?
Caches gibts auf GPUs schon länger, erstmals hat nVidia davon beim Release der GeForce 7 geredet (da wurde angeblich auch was am Caching verbessert). Nur scheinbar ist jetzt erstmals ein mehrstufiger Cache und Unified Cache im Spiel.
Habe nach den ganzen Flashvideos und PDFs von nVidia.com übrigens auch den Eindruck gewonnen, als wären Spiele absolut nicht mehr der Fokus hier, sondern wissenschaftliche HPC Applikationen in Rechenzentren.
@Locutus: Das geht ja eh jetzt auch schon..
ja definitiv, aber da dürft einfach mehr geld liegen als bei den gamern
Spiele verlangen im Moment auch nicht mehr nach High-End Hardware imho, in irgendeine Richtung müssen sie sich ja entwickeln. Schade eigentlich.
Ich glaub die Grafik is so ziemlich der letzte Punkt, wo Entwickler heutzutage ansetzen sollten...Zitat von daishoSchade eigentlich.
warum schade..genau dort kann man am meisten rausholen. ist doch gut wenn gamer ihre hardware länger als ein jahr für alle spiele verwenden können..
omg 3 Milliarden Transistoren
ich hab mir zwar geraderst eine 4890 gehohlt aber ich fange jetzt schonmal sparen an
obwohl es noch keien benches gibt
Schon die 5870 lässt sich mit aktuellen Spielen ohne 8xAA kaum in die Knie zwingen, davon ausgehend, dass die GTX 380 zumindest ebenbürtig sein wird und der Tatsache, dass die nächste Konsolengeneration paar Jahre auf sich warten lassen wird, PC exklusive Titel tendenziell noch weniger werden und eher auf's Mainstreamsegment abzielen, ist es kaum verwunderlich, dass sie mit ihren Highendkarten Neuland erschließen müssen.
Es würde mich wundern, wenn nächstes Jahr mehr als eine handvoll Titel auf dem Markt sind, mit denen sich die GTX 380 voll ausreizen lässt.
Der native C++ Compiler für eine cGPU mit 512 Kernen und geschätzten ~1,5 Ghz kombiniert mit sehr hoher Double Precision Performance dürfte aber so manches Programmiererherz höher schlagen lassen. Eine Idee die mir in den Sinn käme wäre z.B. ein open source High Frequency Trading Tool
von den zahlen bleibt nur noch zu sagen "quiet impressive".
nvidia macht das einzig richtige und stürzt sich auf den HPC markt. Um irgend nen grindigen Konsolenport in 1920x1200 mit 4x AA gut aussehen zu lassn reicht auch meine 8800gts 640 (wenn er ned grad von affen portiert wurde, die zu sehr mit dem werfen von bananen beschaeftigt sind *hust rockstar hust*)
die CUDA Plattform ist zum numbern crunchen ziemlich awesome. extrem fein zum programmiern und der speed ist sowieso irre
NVIDIAs CEO Huang zeigt die erste Fermi-Grafikkarte auf der Eröffnungs-Keynote der GPU Technology Conference in San Jose, California.
Quelle: bit-tech.net
nur ein stromanschluss
irgendwo stand, dass da noch einer ist... irgendwoZitat von Niconur ein stromanschluss
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025