COLOSSUS
AdministratorGNUltra
|
Ja, eh. Deswegen habe ich die auch explizit aus meiner Beobachtung ausgenommen
|
Darkside_86
linux addicted
|
|
creative2k
eigentlich mag ich nimmer
|
Ich bezweifle ja dass ATI/AMD was gegen Fermi ausrichten kann, mit oder ohne refresh ... aber ich lass mich gern überraschen.
|
HUJILU
Parkplatzrunner
|
Tja schwer gegen ein Produkt anzukämpfen, welches bisher nur auf dem Papier besteht und man noch keine Realworld Benchmarks sehen durfte/konnte.
|
Darkside_86
linux addicted
|
Ach ich denke sowieso, das sie nur das OC-potenzial der Karte ausnutzen werden und die Karte evtl mit 1000/1300@stock ausliefern. Aber dann ist die Karte ja schon richtig zügig. Und wenn der Fermi wirklich "nur" doppelt so schnell wird wie ne 285er, dann dürfte die 5890 ja schon ziemlich nah kommen. Und den Rest regeln, sie einfach über den Preis Halt alles Spekulation meinerseits
|
MaxMax
Here to stay
|
ich denk, fermi wird auch tatsächlich schnell sein, weil a) 4 triangles/clock anstelle eines wie bei gtx 285/hd5870 b) zwar 20% weniger texture mapping units im fermi als bei gtx285/5870, dafür aber arbeiten die nun @shadertakt (~2,2fache des core clocks wie bisher bei der gtx285) als wie bisher nur mit coreclock. was halt ein bisserl komisch wirkt für mich: bei dem nvidia water tesselation demo hört man die stimme sagen dass die fps von >300 auf 140 fallen bei aktivierter tesselation. das macht aber ati besser, ich glaub im unigine benchmark sinds "nur" -30% framedrop bei aktivierter tesselation, aber gut, das sind zwei verschiedene demos...also mal überraschen lassen. was halt noch kaufentscheidend sein wird: preis (für die gtx 380 werden ja ~500euro gemunkelt) dagegen sind die 380.- für eine hd5870 jetzt grad noch okey... fermi 380 kommt wahrscheinlich mit 1,5GB speicher (wo bleiben eigenltich die 2GB hd5870?) 32xCSAA vs. 8xSSGA 3d vision/surround (angeblich erst ab SLI-Fermis mgl) vs. eyefinity (single hd5870 ausreichend?) physx vs ??? edit: die quelle für meine vermutungen: http://www.pcgameshardware.de/aid,7...afikkarte/Test/edit2: was vl. auch noch ein nettes pro nvidia gimmick sein könnte: virenscanner mittels CUDA: http://www.pcgameshardware.de/aid,6...icherheit/News/http://forums.legitreviews.com/about24586.html
Bearbeitet von MaxMax am 19.01.2010, 22:23
|
stevke
in the bin
|
PhysX vs. OpenCL bzw. DirectCompute Was auch sinnvoller ist, siehe diesen Vergleich ( http://www.computerbase.de/news/sof...eich_dark_void/) Toll, man braucht eine eigene Karte (260er aufwärts!) um die Physik darzustellen, die noch dazu nicht mal wirklich aussergewöhnlich ist. Ich denke mal das sie schon schneller wird (>25%) nur um einen deutlicher höheren Preis, mit höherem Stromverbrauch und das alles ein halbes Jahr später.
|
Castlestabler
Here to stay
|
Interessant werden beide Karten erst, wenn TSMC endlich in 40nm auch große DIE´s produzieren kann. Die Verfügbarkeit ist einfach ein Graus und daraus kann man ja leider auf die Ausbeute schließen. Aber mal schauen wann Fermi kommt, wenn dann kann man wohl frühestens 1Monat nach erscheinen der Fermi mit mehr GPU´s rechnen, aber ist wahrscheinlich auch noch zu früh.
|
deleted060824
|
Auf jeden Fall wird es endlich wieder mal spannend.
Der Fermi dürfte 25-30% schneller sein als die 5000er Serie. Andererseits hat ATI noch einiges an Taktreserven.
Aber solange es keine echten Benchmarks gibt und vor allem genügend fehlerfreie Chips produziert werden, heißt es warten. Vor April rechne ich nicht mit einer breiten Verfügbarkeit.
|
tombman
the only truth...
|
Fermi ist von der Architektur her ein kleiner Meilenstein. So heilige Grale wie multiple Rasterizer einzuführen kommt schon geil (jo, Cypress hat auch 2, aber die saugen im Vergleich zu Fermis 4) Dazu in Tesla ECC, C fähig etc... Die Polimorph Engine war übrigens hauptsächlich für die Verzögerung verantwortlich. Fermi ist ein Tesselations- und damit Polygonmonster Sorgen machen sich einige bei uns nur wegen der reinen Arithmetikleistung, da wird man gegen ATI wohl keine Chance haben- was aber nicht so tragisch ist, da ATI immr schon massiv Leistung hatte, diese aber nur sehr schlecht "auf die Straße" bekam. (siehe jetzige Cypress Arch.: praktisch alles verdoppelt und trotzdem nur +50% gegenüber der Vorgängergeneration- naja, mit 28nm und Global Foundries wird ATi eh eine neue Architektur (R900) einführen) Fermi ist wahnsinnig flexibel und effizient. Eigentlich sinds 4 Gpus in einer
Bearbeitet von tombman am 20.01.2010, 06:15
|
Viper780
ModeratorEr ist tot, Jim!
|
C fähig ist aber nix was eine architektur können muss sondern es mus snur a kompiler geschrieben werden. ich finde es keien Leistung den rasterizer von der konkurenz einfach zu verdoppeln ECC hattens vorher auch und ist bitter nötig, aber dafür müssen sie in double precission endlich flotter werden. Es ist halt wieder das klassische zw. den 2en. AMD hat massig von allen vorallem schön kurze Pipelines um flexibel sein zu können (aber geringerer Takt) dafür bündelt man aber die einheiten um Overhead zu sparen (mit der CPU kann mans ein wenig mit HT vergleichen) und somit ist es schwer alles perfekt auszunutzen (vorallem bei Spielen - Furmark schaffts ja ganz gut). Dafür geht nvidia den anderen weg, mehr Takt, dafür lange Pipelines - man wird unflexibler, dafür kann man jede einzelne Pipe getrennt ansprechen, was mehr Transistoren kostet, aber eben auch wieder die in den langen Piplines geopferte Flexibilität zurück bringt. wieviele GPUs man hat kannst anhand der shaders bei nvidia abzählen und bei AMD anhand der Quads. Natürlich ist der "Fermi" eine art Meilenstein da es seit dem G80 wieder die erste Neuproduktion ist Wirkliche Leistung erwart ich mir aber erst von der nächsten Generation
|
tombman
the only truth...
|
Laß es dir von den 3dc Gurus erklären. Punkto C-Fähigkeit, Rasterizer und double precision ist Fermi stark überlegen...
Bearbeitet von tombman am 20.01.2010, 23:18
|
mr.nice.
Moderatordifferential image maker
|
|
mat
AdministratorLegends never die
|
Laß es dir von den 3dc Gurus erklären. Punkto C-Fähigkeit, Rasterizer und double precision ist Fermi stark überlegen... Ja, was man so hört ist die Double Precision-Performance für eine Grafikkarte gewaltig. Das versaut sich ATI wegen ihren 5D-Shadern, die mit Doubles alles andere als effizient sind. Im Gegenzug brauchen sie halt weit weniger Transistoren. Nun ja, alles hat seine Vor- und Nachteile. Double Precision-Performance (= 64 bit floats) sind für 3D-Grafik übrigens nicht relevante. Dafür ein Muss für GPGPU-Berechnungen im wissenschaftlichen Bereich. Und jetzt wo OpenCL 1.0 über Extensions endlich doubles verwenden kann, steht dem auch nichts mehr im Weg. Bezüglich C-Leistung ... so wie es aussieht, wird die GF100 durch ihre Architektur um einiges komplexeren Kernel-Code verkraften (Branching inklusive). Das ermöglicht dann hoffentlich endlich die Parallelisierung von schlechter parallelisierbaren Berechnungen. Der Artikel von hardwarechanucks.com ist mir ein wenig zu optimistisch geschrieben. Schön, dass es nach den vielen Spekulationen ein paar Zahlen gibt, aber so rosig sieht es meiner Meinung nach für NVIDIA nicht aus. Im Endeffekt wird es wieder darauf rauskommen, zu welchem Preis wieviel Performance durchschnittlich in Spielen erreicht werden kann.
|
tombman
the only truth...
|
Zur Leistung traue ich mich bis jetzt nur zu sagen, daß Fermi schon mal sicher nicht langsamer als Cypress wird- und viel mehr muß ich nicht wissen, da SLI Crossfire immer noch überlegen ist, auch bzgl MR. Kenne wen, dem ich vertraue, der 3x GTX285 hatte und dann 3x HD5870, und die HD5870s verkaufte, weil die Mikroruckler so böse waren, daß sich selbst 60fps zäh anfühlten! (und nein, der ist kein noob und weiß was er einstellt). Mein Upgrade wird also mit höchster Wahrscheinlichkeit so aussehen: 2x GTX295 -> 2x GTX380 (Fermi) Und falls ich "pimpen" will: 3x GTX380
|