"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

GTX 470 Benchmarks aufgetaucht!

mat 04.03.2010 - 11:42 11616 44
Posts

thafred

Bloody Newbie
Avatar
Registered: Nov 2009
Location: vienna
Posts: 21
Zitat von Starsky
Zitat von chap
Also das Bild on der GTX480 hätt ruhig etwas hochauflösender sein können :o :D

Ich kanns mir auch nicht vorstellen (Nvidia hat die schnelle Tesselation verglichen zu Ati so angepriesen, wenn die dann nur 2 frames mehr schafft im Heaven Bench ist das sehr peinlich!) man sollte halt wirklich auf echte verkaufsversion benches warten, aber so funktioniert das Internet halt nicht.
Finde das super das da mal irgendetwas kommt, auch wenns ernüchternd ist, Nvidia müsste eigendlich ein oder zwei "geleakte" benches veröffentlichen wo die karten deutlich besser abschneiden, vorrausgesetzt das sie das auch tun ;)

Es ist leider auch möglich, das da nur versucht wird eine "Apple"-mäßige werbekampagne zu machen die über möglichst viel Hype und Geheimhaltung viel Aufmerksamkeit erregt. Viral marketing at its worst.

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14593
Zitat von mat
Jop, habs gespielt und es wir im Tagebuch-Video drinnen sein. Verdammt schwer zu spielen :p, aber technisch (Grafik/Physik) nicht wirklich erwähnenswert. Keine Ahnung warum aus dem Techdemo/Minispiel so ein Hehl gemacht wird ...
ich weiß nicht mehr wo ich das gelesen habe, war's computerbase oder pcgh, aber bei der livedemo waren angeblich auch ruckler wahrnehmbar - deswegen meine frage.
Zitat von thafred
Ich kanns mir auch nicht vorstellen (Nvidia hat die schnelle Tesselation verglichen zu Ati so angepriesen, wenn die dann nur 2 frames mehr schafft im Heaven Bench ist das sehr peinlich!) man sollte halt wirklich auf echte verkaufsversion benches warten, aber so funktioniert das Internet halt nicht.
Finde das super das da mal irgendetwas kommt, auch wenns ernüchternd ist, Nvidia müsste eigendlich ein oder zwei "geleakte" benches veröffentlichen wo die karten deutlich besser abschneiden, vorrausgesetzt das sie das auch tun ;)

Es ist leider auch möglich, das da nur versucht wird eine "Apple"-mäßige werbekampagne zu machen die über möglichst viel Hype und Geheimhaltung viel Aufmerksamkeit erregt. Viral marketing at its worst.
true.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25440
Zitat von Starsky
ich weiß nicht mehr wo ich das gelesen habe, war's computerbase oder pcgh, aber bei der livedemo waren angeblich auch ruckler wahrnehmbar - deswegen meine frage.
Ja, das stimmt, auch wenn es kein ständiges Ruckeln war. Hie und da gabs ein Stocken ... vielleicht von einer (zu genau) kalkulierten Physik-Berechnung. Denke nicht, dass es ein grafisch Bottleneck war. Im Demo-Setup war allerdings "nur" eine GTX 470 drinnen.

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14593
bzgl. des heise-artikels muß ich sagen, daß mir der shadertakt der gtx 470 etwas gering vorkommt - aber könnte andererseits wieder passen, beim g80 war der shadertakt auch nicht viel höher.
fakt ist: die kohle für eine neue karte hätte ich, sollten aber erste echte reviews auf fail deuten, spare ich mir die marie. bis auf crysis/warhead habe ich mit der gtx285 nach wie vor genügend 3d-leistung mit 1680x1050. da würde sich ein neuer monitor mit zumindest fullhd eher anbieten. dx11 wäre sicher nice to have, aber ich habe auch bei dx10 nicht wirklich gravierende unterschiede wahrgenommen - gerade bei einem stressigen 3d-shooter fällt mir ein schönerer hintergrund sicher nicht auf.

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Solange die Grafikkarte in DX11 schneller ist reicht das ja als Verkaufsargument.

Wenn die Grafikkarte nicht so schnell ist wie versprochen, aber immer noch schneller als die Konkurrenz dann dürfte das dieses Mal mehr sein als ein 3-4 monatiger Vorsprung.

Weil was kann ATI tun:
Strukturbreiten bleiben gleich zu mindestens mal für das nächste Jahr auf alle Fälle und lauter letzter News sogar länger.
Sie können einen größeren Chip entwerfen und auf den Markt werfen, damit haben sie genau das gleiche Problem wie Nvidia, der Chip ist riesig und damit auch der Verkaufspreis und es fehlt das wirkliche Verkaufsargument, weil 20% mehr Leistung und dafür auch 20% teurer wird wohl nur wenige zum umsteigen bewegen.

Es wird wahrscheinlich mit der Zeit einen 4890 ähnliche Karte auftauchen die von der besseren Produktion profitiert, ist aber kein technischer Meilenstein.

DX11 ist gerade eingeführt worden und nun schnell DX12 einzuführen um ein Verkaufsargument zu haben ist extrem unwahrscheinlich.

Die Architektur als solche können sie auch nicht ändern, weil die Unified Shader Einheiten müssen ja erhalten bleiben, also hilft jede Verbesserung nur marginal.

Schlussendlich sehen wir vielleicht Raytracing kommen, weil sich das alte nicht sonderlich gut verkauft und es wohl mehr Optimierungspotenzial beim Chip gibt.


Mal schauen was kommt. TSMC wird uns wohl leider keine Freude machen und deutlich schnellere GPU´s ermöglichen und Global Foundaries hat auch noch nicht in Kürze 32nm versprochen.
Wäre wohl wirklich mal Zeit Unified Shader wieder sterben zu lassen um die Ausgeburten an Chips auch wieder begraben zu können.

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14593
Zitat von Castlestabler
Solange die Grafikkarte in DX11 schneller ist reicht das ja als Verkaufsargument.

Wenn die Grafikkarte nicht so schnell ist wie versprochen, aber immer noch schneller als die Konkurrenz dann dürfte das dieses Mal mehr sein als ein 3-4 monatiger Vorsprung.
ist das der fall? bis jetzt hat es nicht den anschein.

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3701
Zitat von Castlestabler
[...] Wäre wohl wirklich mal Zeit Unified Shader wieder sterben zu lassen um die Ausgeburten an Chips auch wieder begraben zu können.

Wenn ich das Mal so fragen darf: Welchen Vorteil hätten wir durch eine Rückkehr zu dedizierten Shadern (Vertex/Pixel), außer daß es die Flexibilität einschränken und die Anpassungsfähigkeit des Chips an unterschiedliche Lasten reduzieren würde?

Ohne Unified Shader kannst wahrscheinlich auch GPGPU in den Müll werfen, und mußt deine Programme wieder in umständlichem Shader-Code schreiben?

Mal abgesehen davon, daß DX10/11 Shader wohl nicht Mal funktionieren, wenn die Shaderunits nicht flexibel genug sind.. Bin aber kein Coder, würde das aber dennoch als Vermutung in den Raum stellen..
Bearbeitet von GrandAdmiralThrawn am 05.03.2010, 08:34

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Ich habe nicht gesagt, dass man zum alten zurück kehrt, sondern es muss etwas neues kommen.

Im Moment sieht es mal so aus, als würde Raytracing früher oder später kommen müssen um andere GPU´s zu ermöglichen.
Nachdem auch CPU´s das ganze berechnen können, dürfte es mit GPGPU´s kein Problem geben.
Den einzigen Unterschied den ich sehe ist das vorhanden sein von mehr Flexibilität.
Ich muss mich noch immer auf die Schnittstelle konzentrieren, aber die Schnittstelle gibt nicht die technische Realisierung vor.

Problem ist einfach, dass ich im Moment keinen grossen Unterschied zwischen ATI und Nvidia habe. Okay, die Verwaltung der Shader Einheiten wird anderes durchgeführt und deshalb muss der Programmcode unterschiedlich sein, aber mehr als 50% des Chips ist bei ATI und Nvidia gleich.

Dadurch steht man vor dem jetzigen Problem, der Takt ist bei TSMC über die Jahre annähernd gleich geblieben, also kann ich nur über die Anzahl der Unified Shader arbeiten. Jede Karte ist mehr oder minder soviel schneller wie sie mehr Einheiten verbaut hat.

Deshalb wachsen die DIE´s seit etlichen Jahren unaufhörlich, jedoch wird es immer schwieriger kleiner Strukturen zu produzieren, also entweder es reicht die ungefähre Leistung einer 5870 für 1-2 Jahre aus oder man muss sich wieder mal Gedanken um grundlegendere Sachen machen.

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14593
btw, der link zum artikel von vr-zone funktioniert nicht mehr.

aber eben dort findet sich jetzt folgendes:

Zitat
The "A Card" is seemingly the lower variant, or the GTX 470, or its pre-final branding GTX 360.

quelle: vrzone

SaxoVtsMike

R.I.P. Karl
Avatar
Registered: Sep 2006
Location: ö
Posts: 8086
Zitat von mat
All das spricht für eine enttäuschende Performance. Umso mehr Marketing sein muss, desto schlechter das dahinterstehende Produkt. Würden die Karten alles 0wnen, dann würden sie einfach vernichtende Benchmarks posten, die jeden vernünftigen Enthusiasten davor bewahren jetzt noch zu ATI zu greifen....

So sehe ich das auch.
Siehe 8800gt, die hat P/L technisch richtig geowned, da sind sooo schnell benches heraussen gewesen und _fast_ jede reviewende Homepage/forum hatte mindestens ein exemplar um es testen zu können.

Hansmaulwurf

u wot m8?
Avatar
Registered: Apr 2005
Location: VBG
Posts: 5639
Wenn die Leistungsaufnahme stimmt, dann wars das wieder für mich :-/
Da hat ATI seit Jahren den Trumpf in der Hand imho

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14593
Zitat von Hansmaulwurf
Wenn die Leistungsaufnahme stimmt, dann wars das wieder für mich :-/
Da hat ATI seit Jahren den Trumpf in der Hand imho
aber auch nur imho, man erinnere sich an den r600 (hd 2900) oder die powerplay-peinlichkeiten mit den hd 4850/70.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Durfte mir die Rocket demo bei Zotac auf der Cebit ja auch live anschauen und hab mit dem freundlichen Mitarbeiter auch etwas quatschen können. Die Demo war zumindest nicht so ruckelig, wie es im Inet den Anschein hatte. Umgehauen hat mich die Grafik allerdings nicht und das wireframe model war nur an manchen Stellen komplex(beispielsweise an den Öltanks). Der Vorteil von PhysX gegenüber der ATI stirbt für mich aufgrund der Unterstützung an Games. Und wirklich merken tut man davon im Spielgeschehen auch nix. Laut kam mir die Karte auch nicht vor. Allerdings war die Umgebungslautstärke ja auch nicht gerade leise, obwohl wir schon ca um 10 Uhr am Zotac stand waren

Wurde immer nur drauf verwiesen, das ich bis zum 26.03. warten soll um Benchmarks von der Karte sehen zu können

Meine Meinung nach aktuellem Stand: Viel Wind um Nichts. Und das Ganze erinnert mich stark an das 2900er Debakel von ATI. Naja warten wirs ab

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3701
@Castlestabler: Raytracen kannst eh auf einer jetzigen GPU auch, eben weil die Unified Shader so flexibel sind. Wennst eine spezialisierte Raytracing Hardware willst, dann is das wahrscheinlich wieder eine Sackgasse, weil du mußt ja einen sanften Schwenk von Rasterisierung auf Raytracing bieten können für den Endverbraucher (sofern dieser Schwenk überhaupt kommt für Spieleengines). Und dann kannst nicht hergehen und einfach Unified Shader UND dedizierte Raytracinghardware verbauen...

Und weiters glaube ich sehr wohl, daß die Schnittstelle zu großen Teilen die technische Realisierung vorgibt. Sonst hätte wohl Mal jemand Shadercores gebaut, die effizienter bei geringerer Transistorenanzahl sind, wenn es so einfach möglich wäre.

Flexibilität kostet eben Komplexität..

Castlestabler

Here to stay
Registered: Aug 2002
Location: Wien
Posts: 3776
Das ein Teil von der Schnittstelle vorgegeben werden muss ist eh klar.
Aber wenn dann sogar von der Schnittstelle definiert wird, wie die logische Aufteilung der Recheneinheiten aussieht, dann ist einfach kaum mehr Spielraum vorhanden.

Worum es mir eigentlich geht:
Wenn man das ganze System beibehält, dann kann ich einen 50% schnellere GPU nur erreichen in dem ich ungefähr 50% mehr Unified Shader verbaue.
Ist zwar schön und gut, aber woher nehme ich den Platz dafür.
Nvidia ist jetzt eindeutig am Maximum angelangt und ATI will eigentlich lieber kleiner anstatt größer werden.

Entweder wir leben mit Grafikeinheiten wie bei den Konsolen, aber ich glaube nicht das ATI und Nvidia damit überleben oder wir leben mit ständig steigenden Grafikkarten Preisen, was auch unwahrscheinlich ist, weil es keiner bezahlen wird.
Wo liegt also der realistische Weg.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz