NVIDIAs GT300 ist ein Rechenmonster - Seite 2

Seite 2 von 13 - Forum: Grafikkarten auf overclockers.at

URL: https://www.overclockers.at/grafikkarten/nvidias_gt300_ist_ein_rechenmonster_210731/page_2 - zur Vollversion wechseln!


pari schrieb am 01.10.2009 um 12:55


Castlestabler schrieb am 01.10.2009 um 12:57

Wird wohl wieder ähnlich werden, wie bei 4870 zu GTX280.
Von den Daten her dürfte es sich ausgehen, aber erst mal schauen.

Interessanter wird wohl wie viele Feature Nvidia einabut und ob sie von Anfang an funktionieren.
So wie die GPU aussieht kann sie jetzt eindgültig viel mehr als nur Bilder berechnen und damit ist DX11 zwar ein nettes Feature, aber man kann noch viel mehr herausholen, das wohl bei ATI nicht funktioniert.


quad-prozzi-fan schrieb am 01.10.2009 um 13:01

Zitat von MaxMax
mhm, das ganze nennt sich jetzt aber paperlaunch oder? und noch eine frage: hat amd/ati auch L1 und L2 cache aufm cypress?

das war noch gar kein launch, war nur eine informationsveranstaltung, bis zum release wirds noch bissi dauern


schrieb am 01.10.2009 um 13:03

Zitat von MaxMax
mhm, das ganze nennt sich jetzt aber paperlaunch oder? und noch eine frage: hat amd/ati auch L1 und L2 cache aufm cypress?

..bestenfalls ein Pre-Paperlaunch. Der offizielle Paperlauch kommt (angeblich lt. Fudzilla)) am 29.11. Mit den geleakten Daten sollen potentielle ATI Käufer verunsichert werden.

Das übliche Spielchen also..

Spannend werden die nächsten Wochen und Monate bestimmt.


GrandAdmiralThrawn schrieb am 01.10.2009 um 15:32

Caches gibts auf GPUs schon länger, erstmals hat nVidia davon beim Release der GeForce 7 geredet (da wurde angeblich auch was am Caching verbessert). Nur scheinbar ist jetzt erstmals ein mehrstufiger Cache und Unified Cache im Spiel.

Habe nach den ganzen Flashvideos und PDFs von nVidia.com übrigens auch den Eindruck gewonnen, als wären Spiele absolut nicht mehr der Fokus hier, sondern wissenschaftliche HPC Applikationen in Rechenzentren.

@Locutus: Das geht ja eh jetzt auch schon..


Dreamforcer schrieb am 01.10.2009 um 15:40

ja definitiv, aber da dürft einfach mehr geld liegen als bei den gamern :D


daisho schrieb am 01.10.2009 um 15:58

Spiele verlangen im Moment auch nicht mehr nach High-End Hardware imho, in irgendeine Richtung müssen sie sich ja entwickeln. Schade eigentlich.


tinker schrieb am 01.10.2009 um 16:05

Zitat von daisho
Schade eigentlich.
Ich glaub die Grafik is so ziemlich der letzte Punkt, wo Entwickler heutzutage ansetzen sollten...


Nico schrieb am 01.10.2009 um 16:08

warum schade..genau dort kann man am meisten rausholen. ist doch gut wenn gamer ihre hardware länger als ein jahr für alle spiele verwenden können..


Mucilago schrieb am 01.10.2009 um 16:41

:eek: omg 3 Milliarden Transistoren
ich hab mir zwar geraderst eine 4890 gehohlt aber ich fange jetzt schonmal sparen an :D
obwohl es noch keien benches gibt
:rolleyes:


mr.nice. schrieb am 01.10.2009 um 17:56

Schon die 5870 lässt sich mit aktuellen Spielen ohne 8xAA kaum in die Knie zwingen, davon ausgehend, dass die GTX 380 zumindest ebenbürtig sein wird und der Tatsache, dass die nächste Konsolengeneration paar Jahre auf sich warten lassen wird, PC exklusive Titel tendenziell noch weniger werden und eher auf's Mainstreamsegment abzielen, ist es kaum verwunderlich, dass sie mit ihren Highendkarten Neuland erschließen müssen.

Es würde mich wundern, wenn nächstes Jahr mehr als eine handvoll Titel auf dem Markt sind, mit denen sich die GTX 380 voll ausreizen lässt.

Der native C++ Compiler für eine cGPU mit 512 Kernen und geschätzten ~1,5 Ghz kombiniert mit sehr hoher Double Precision Performance dürfte aber so manches Programmiererherz höher schlagen lassen. Eine Idee die mir in den Sinn käme wäre z.B. ein open source High Frequency Trading Tool :D


semteX schrieb am 01.10.2009 um 18:22

von den zahlen bleibt nur noch zu sagen "quiet impressive".

nvidia macht das einzig richtige und stürzt sich auf den HPC markt. Um irgend nen grindigen Konsolenport in 1920x1200 mit 4x AA gut aussehen zu lassn reicht auch meine 8800gts 640 (wenn er ned grad von affen portiert wurde, die zu sehr mit dem werfen von bananen beschaeftigt sind *hust rockstar hust*)

die CUDA Plattform ist zum numbern crunchen ziemlich awesome. extrem fein zum programmiern und der speed ist sowieso irre


mat schrieb am 02.10.2009 um 00:18

NVIDIAs CEO Huang zeigt die erste Fermi-Grafikkarte auf der Eröffnungs-Keynote der GPU Technology Conference in San Jose, California.

nvidia_fermi_pictured_01_146480.jpg

nvidia_fermi_pictured_02_146481.jpg

Quelle: bit-tech.net


Nico schrieb am 02.10.2009 um 00:21

nur ein stromanschluss :eek:


semteX schrieb am 02.10.2009 um 00:42

Zitat von Nico
nur ein stromanschluss :eek:
irgendwo stand, dass da noch einer ist... irgendwo




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025