charmin
Super Moderatorhurr gurr fenster
|
Das erinnert mich sehr stark an die damalige 5800 gforce. Ich bin zwar NV Fanboy, aber vor 1-2 Redesigns/Updates wirds nicht zu gebrauchen sein, leider. Ich habe mir, ehrlich gesagt, mehr erwartet.
|
GrandAdmiralThrawn
XP Nazi
|
rofl, ich packs immer noch ned? Was wollts...
Einen Chip, der überall schneller ist als eine 5970, und mit 150 Watt TDP läuft auf TSMCs 40nm?! rofl..
|
Starsky
Erdbeeren für ALLE!
|
vielleicht sehe ich das auch falsch, aber gf100 müßte man wohl eher mit intels larrabee vergleichen anstatt mit ati cypress. und larrabee wurde ja bekanntlich auf eis gelegt, vermutlich auch wegen problemen mit leistungsahfnahme und abwärme.
|
GrandAdmiralThrawn
XP Nazi
|
Für mich sieht es so aus, als hätte nVidia folgende drei Optionen mit beschriebenem Ausgang gehabt:
1.) Einen Chip bauen, der lahmer ist als der von ATi, dafür aber weniger frisst. => Regen sich alle auf, weil "Wieso baut nVidia keinen schnelleren Chip ololololo FAIL?"
2.) Einen Chip bauen, der ca. gleich schnell ist wie der von ATi und ca. gleich viel frisst. => Schert keinen, weil "Das hat ATi auch schon können, interessiert mi ned, FAIL!"
3.) Einen Chip bauen, der schneller ist als der von ATi, und mehr frisst (Was ca. das ist, was nVidia gemacht hat?). => "Könnts ned machen, die armen Blumen und Bäume, seits deppat??? FAIL!!"
Jo.. öhm...
Was also soll man in der Situation machen? Auf ~32nm warten bis im Herbst und derweil das komplette Feld räumen, Investoren und Marktanteile komplett verlieren.. geht auch ned...
Und 4.) Wir bauen einen Wunderchip, der superschnell, superbillig, supersparsam ist..... gehört halt momentan wohl eher ins Märchenbuch, als sonstwohin...
Und was Larrabee wirklich gewesen wäre (oder noch sein wird), das kann halt keiner sinnvoll abschätzen..
|
mat
AdministratorLegends never die
|
5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind.
|
GrandAdmiralThrawn
XP Nazi
|
Nette Idee. Nun wurde die GPU Entwicklung in den letzten 10 Jahren so weit als möglich konsolidiert, um die Entwicklung heutiger GPUs überhaupt noch wirtschaftlich zu ermöglichen.
Jetzt wird halt eine modulare Architektur entwickelt über mehrere Jahre, die dann entsprechend angepaßt wird, um alle Marktsegmente (wovon nun GPGPU auch langsam eines wird) abzudecken.
Die getrennte Entwicklung von ZWEI Top-End Lösungen, wovon eine für einen noch etwas ungewissen Markt gedacht ist, würde unfaßbare Kosten verursachen, und alte "Synergieeffekte" hinfällig machen.
Ich glaube sogar, daß sowas den Untergang bedeuten könnte, wenn man sich die aktuelle Lage anschaut.
|
Viper780
ModeratorEr ist tot, Jim!
|
5.) Zwei Chips bauen - einer der für 3D-Spiele optimiert ist und alltagstaugliche Eigenschaften mit sich bringt, und einer der den GPGPU-Markt bedient und 10x so viele double-Operationen schafft, die in Spielen vollkommen unnötig sind. imho the way to go. auch wen beide Chips sehr ähnlich ausfallen können - bis jetzt waren die synergie effekte sowieso nur in der Entwicklung vorhanden und das bleibt dann bestehen @GAT problem am aktuellen Design ist 1. ganz klar die Lautstärke (und Wasserkühlung ist halt nur für die wenigsten eine Option). Wenn ich die Benches der GTX470 her nehm die Preislich schon gehoben aber noch OK ist, dann seh ich das Problem das die Karte in vielen Fällen (vorallem alles _nicht_ DX11 und Tesselation) auf dem Niveau einer GTX280 (der im Juni 2 Jahre alt wird!) liegt oder wenn überhaupt auf der der Konkurrenz von AMD mit einer HD5870 die bis dahin alles richtig gemacht hat und seit einem halben Jahr (schwer aber doch) verfügbar ist. Ich weiß zB nicht wie schnell die Karte unter DirectCompute bzw OpenCL ist aber wenn ich mir die leistung meiner HD4870 512MB unter rc5 anschaue dann bin ich damit auf der selben Höhe wie eine GTX295. Bleibt also nur die gute Leistung einer GTX480 bei den neuesten spielen und alles auf max gedreht, wo aber die Frames auch unter 60fps bleiben und somit unspielbar ist (und laut den aktuellen Tests AMD durch das schönere AF besser aussieht). Klar es ist wieder was neues - aber es wurde zu sehr von Spielen weg entwickelt und für mich praktisch (noch?) nicht einsetzbar
|
MaxMax
Here to stay
|
Bezüglich hd5870 GPGPU leistung: eine hd5970 war doppelt so schnell wie 4xGT200 (also non-fermi) Tesla GPUs beim passwortknacken: http://www.golem.de/1003/73862.htmlwenn man davon ausgeht, dass ein fermi chip = 2xGT200 in der CUDA leistung ersetzt, dann sind 4x Fermis ca. genauso schnell wie eine HD5970. was sicher die "schlechtere" leistung der fermi in non-DX11 spielen ausmacht, ist, dass die fermi weniger TMU`s hat als die GTX280er und diese wieder nur mit coretakt und nicht wie geplant mit shadertakt arbeiten, dadurch hat die Hd5870 den vorteil, dass da 80 TMU`s mit >850MHz rangehen. also theoretisch muss ATI die tesselation einheit flexibler machen im refresh chip und die taktraten weiter hochschrauben und sie können gut paroli bieten denk ich.... @viper780: wo hast du gelesen, dass die hd5870 das schönere AF haben soll? ich lese immer nur, dass die GTX480 noch immer das beste AF von allen hat...wobei aber ATI seit der hd5xxx serie etwas aufgeholt hat im beim AF (winkelabhängigkeit ist nicht mehr so arg, aber dafür sieht man noch immer diese MIPMAP linien vor sich herschieben...) lg
Bearbeitet von MaxMax am 31.03.2010, 12:53
|
Dreamforcer
New world Order
|
|
daisho
SHODAN
|
Ehrlich gesagt finde ich beide schlimm. Hören sich beide wie Jets an, die GTX halt mit eingeschaltetem Nachbrenner Da muss auf jeden Fall was anderes drauf, wie soll man das aushalten ohne Kopfhörer?
|
Dreamforcer
New world Order
|
das mit dem zusätzlcihen lüfter klingt recht "praktikabel" ohne lang einen anderen Kühler montieren zu müssen
|
Starsky
Erdbeeren für ALLE!
|
also die gpu meiner gtx 285 (mit vmod) wird lt. evga precision auch knappe 90°C warm, der lüfter ist dann auch sehr deutlich wahrnehmbar. von daher schockt mich das nicht so.
|
Gladiac
Peng peng
|
also vom gefühl her war meine 295er auch ned leiser -> wayne -> fps
|
Gladiac
Peng peng
|
Gerade gelesen das XFX nvidia aus der produktion gekicked hat ATI only Premier NVIDIA partner doesn't have Fermi in its launch schedule.
Several sources are confirming that XFX will not be releasing their own GTX 480 or 470 graphics card, at least initially. Some sites have speculated this is due to the way NVIDIA bundles the GTX 480 or margins on the cards. XFX was an NVIDIA premier partner but recently began selling cards from NVIDIA's only rival, AMD. We already broke the news of the XFX 5970 Black Edition.
XFX are expected to continue selling other cards.
Bearbeitet von Gladiac am 31.03.2010, 22:47
|
Starsky
Erdbeeren für ALLE!
|
nv wollte so oder so weniger partner, genauso wie sich bfg nun vom europäischen markt wieder zurückzieht. schade darum.
|