thafred
Bloody Newbie
|
Also das Bild on der GTX480 hätt ruhig etwas hochauflösender sein können
Ich kanns mir auch nicht vorstellen (Nvidia hat die schnelle Tesselation verglichen zu Ati so angepriesen, wenn die dann nur 2 frames mehr schafft im Heaven Bench ist das sehr peinlich!) man sollte halt wirklich auf echte verkaufsversion benches warten, aber so funktioniert das Internet halt nicht. Finde das super das da mal irgendetwas kommt, auch wenns ernüchternd ist, Nvidia müsste eigendlich ein oder zwei "geleakte" benches veröffentlichen wo die karten deutlich besser abschneiden, vorrausgesetzt das sie das auch tun Es ist leider auch möglich, das da nur versucht wird eine "Apple"-mäßige werbekampagne zu machen die über möglichst viel Hype und Geheimhaltung viel Aufmerksamkeit erregt. Viral marketing at its worst.
|
Starsky
Erbeeren für alle!
|
Jop, habs gespielt und es wir im Tagebuch-Video drinnen sein. Verdammt schwer zu spielen , aber technisch (Grafik/Physik) nicht wirklich erwähnenswert. Keine Ahnung warum aus dem Techdemo/Minispiel so ein Hehl gemacht wird ... ich weiß nicht mehr wo ich das gelesen habe, war's computerbase oder pcgh, aber bei der livedemo waren angeblich auch ruckler wahrnehmbar - deswegen meine frage. Ich kanns mir auch nicht vorstellen (Nvidia hat die schnelle Tesselation verglichen zu Ati so angepriesen, wenn die dann nur 2 frames mehr schafft im Heaven Bench ist das sehr peinlich!) man sollte halt wirklich auf echte verkaufsversion benches warten, aber so funktioniert das Internet halt nicht. Finde das super das da mal irgendetwas kommt, auch wenns ernüchternd ist, Nvidia müsste eigendlich ein oder zwei "geleakte" benches veröffentlichen wo die karten deutlich besser abschneiden, vorrausgesetzt das sie das auch tun
Es ist leider auch möglich, das da nur versucht wird eine "Apple"-mäßige werbekampagne zu machen die über möglichst viel Hype und Geheimhaltung viel Aufmerksamkeit erregt. Viral marketing at its worst. true.
|
mat
AdministratorLegends never die
|
ich weiß nicht mehr wo ich das gelesen habe, war's computerbase oder pcgh, aber bei der livedemo waren angeblich auch ruckler wahrnehmbar - deswegen meine frage. Ja, das stimmt, auch wenn es kein ständiges Ruckeln war. Hie und da gabs ein Stocken ... vielleicht von einer (zu genau) kalkulierten Physik-Berechnung. Denke nicht, dass es ein grafisch Bottleneck war. Im Demo-Setup war allerdings "nur" eine GTX 470 drinnen.
|
Starsky
Erbeeren für alle!
|
bzgl. des heise-artikels muß ich sagen, daß mir der shadertakt der gtx 470 etwas gering vorkommt - aber könnte andererseits wieder passen, beim g80 war der shadertakt auch nicht viel höher. fakt ist: die kohle für eine neue karte hätte ich, sollten aber erste echte reviews auf fail deuten, spare ich mir die marie. bis auf crysis/warhead habe ich mit der gtx285 nach wie vor genügend 3d-leistung mit 1680x1050. da würde sich ein neuer monitor mit zumindest fullhd eher anbieten. dx11 wäre sicher nice to have, aber ich habe auch bei dx10 nicht wirklich gravierende unterschiede wahrgenommen - gerade bei einem stressigen 3d-shooter fällt mir ein schönerer hintergrund sicher nicht auf.
|
Castlestabler
Here to stay
|
Solange die Grafikkarte in DX11 schneller ist reicht das ja als Verkaufsargument.
Wenn die Grafikkarte nicht so schnell ist wie versprochen, aber immer noch schneller als die Konkurrenz dann dürfte das dieses Mal mehr sein als ein 3-4 monatiger Vorsprung.
Weil was kann ATI tun: Strukturbreiten bleiben gleich zu mindestens mal für das nächste Jahr auf alle Fälle und lauter letzter News sogar länger. Sie können einen größeren Chip entwerfen und auf den Markt werfen, damit haben sie genau das gleiche Problem wie Nvidia, der Chip ist riesig und damit auch der Verkaufspreis und es fehlt das wirkliche Verkaufsargument, weil 20% mehr Leistung und dafür auch 20% teurer wird wohl nur wenige zum umsteigen bewegen.
Es wird wahrscheinlich mit der Zeit einen 4890 ähnliche Karte auftauchen die von der besseren Produktion profitiert, ist aber kein technischer Meilenstein.
DX11 ist gerade eingeführt worden und nun schnell DX12 einzuführen um ein Verkaufsargument zu haben ist extrem unwahrscheinlich.
Die Architektur als solche können sie auch nicht ändern, weil die Unified Shader Einheiten müssen ja erhalten bleiben, also hilft jede Verbesserung nur marginal.
Schlussendlich sehen wir vielleicht Raytracing kommen, weil sich das alte nicht sonderlich gut verkauft und es wohl mehr Optimierungspotenzial beim Chip gibt.
Mal schauen was kommt. TSMC wird uns wohl leider keine Freude machen und deutlich schnellere GPU´s ermöglichen und Global Foundaries hat auch noch nicht in Kürze 32nm versprochen. Wäre wohl wirklich mal Zeit Unified Shader wieder sterben zu lassen um die Ausgeburten an Chips auch wieder begraben zu können.
|
Starsky
Erbeeren für alle!
|
Solange die Grafikkarte in DX11 schneller ist reicht das ja als Verkaufsargument.
Wenn die Grafikkarte nicht so schnell ist wie versprochen, aber immer noch schneller als die Konkurrenz dann dürfte das dieses Mal mehr sein als ein 3-4 monatiger Vorsprung. ist das der fall? bis jetzt hat es nicht den anschein.
|
GrandAdmiralThrawn
XP Nazi
|
[...] Wäre wohl wirklich mal Zeit Unified Shader wieder sterben zu lassen um die Ausgeburten an Chips auch wieder begraben zu können. Wenn ich das Mal so fragen darf: Welchen Vorteil hätten wir durch eine Rückkehr zu dedizierten Shadern (Vertex/Pixel), außer daß es die Flexibilität einschränken und die Anpassungsfähigkeit des Chips an unterschiedliche Lasten reduzieren würde? Ohne Unified Shader kannst wahrscheinlich auch GPGPU in den Müll werfen, und mußt deine Programme wieder in umständlichem Shader-Code schreiben? Mal abgesehen davon, daß DX10/11 Shader wohl nicht Mal funktionieren, wenn die Shaderunits nicht flexibel genug sind.. Bin aber kein Coder, würde das aber dennoch als Vermutung in den Raum stellen..
Bearbeitet von GrandAdmiralThrawn am 05.03.2010, 08:34
|
Castlestabler
Here to stay
|
Ich habe nicht gesagt, dass man zum alten zurück kehrt, sondern es muss etwas neues kommen.
Im Moment sieht es mal so aus, als würde Raytracing früher oder später kommen müssen um andere GPU´s zu ermöglichen. Nachdem auch CPU´s das ganze berechnen können, dürfte es mit GPGPU´s kein Problem geben. Den einzigen Unterschied den ich sehe ist das vorhanden sein von mehr Flexibilität. Ich muss mich noch immer auf die Schnittstelle konzentrieren, aber die Schnittstelle gibt nicht die technische Realisierung vor.
Problem ist einfach, dass ich im Moment keinen grossen Unterschied zwischen ATI und Nvidia habe. Okay, die Verwaltung der Shader Einheiten wird anderes durchgeführt und deshalb muss der Programmcode unterschiedlich sein, aber mehr als 50% des Chips ist bei ATI und Nvidia gleich.
Dadurch steht man vor dem jetzigen Problem, der Takt ist bei TSMC über die Jahre annähernd gleich geblieben, also kann ich nur über die Anzahl der Unified Shader arbeiten. Jede Karte ist mehr oder minder soviel schneller wie sie mehr Einheiten verbaut hat.
Deshalb wachsen die DIE´s seit etlichen Jahren unaufhörlich, jedoch wird es immer schwieriger kleiner Strukturen zu produzieren, also entweder es reicht die ungefähre Leistung einer 5870 für 1-2 Jahre aus oder man muss sich wieder mal Gedanken um grundlegendere Sachen machen.
|
Starsky
Erbeeren für alle!
|
btw, der link zum artikel von vr-zone funktioniert nicht mehr. aber eben dort findet sich jetzt folgendes: The "A Card" is seemingly the lower variant, or the GTX 470, or its pre-final branding GTX 360. quelle: vrzone
|
SaxoVtsMike
R.I.P. Karl
|
All das spricht für eine enttäuschende Performance. Umso mehr Marketing sein muss, desto schlechter das dahinterstehende Produkt. Würden die Karten alles 0wnen, dann würden sie einfach vernichtende Benchmarks posten, die jeden vernünftigen Enthusiasten davor bewahren jetzt noch zu ATI zu greifen.... So sehe ich das auch. Siehe 8800gt, die hat P/L technisch richtig geowned, da sind sooo schnell benches heraussen gewesen und _fast_ jede reviewende Homepage/forum hatte mindestens ein exemplar um es testen zu können.
|
Hansmaulwurf
u wot m8?
|
Wenn die Leistungsaufnahme stimmt, dann wars das wieder für mich :-/ Da hat ATI seit Jahren den Trumpf in der Hand imho
|
Starsky
Erbeeren für alle!
|
Wenn die Leistungsaufnahme stimmt, dann wars das wieder für mich :-/ Da hat ATI seit Jahren den Trumpf in der Hand imho aber auch nur imho, man erinnere sich an den r600 (hd 2900) oder die powerplay-peinlichkeiten mit den hd 4850/70.
|
Darkside_86
linux addicted
|
Durfte mir die Rocket demo bei Zotac auf der Cebit ja auch live anschauen und hab mit dem freundlichen Mitarbeiter auch etwas quatschen können. Die Demo war zumindest nicht so ruckelig, wie es im Inet den Anschein hatte. Umgehauen hat mich die Grafik allerdings nicht und das wireframe model war nur an manchen Stellen komplex(beispielsweise an den Öltanks). Der Vorteil von PhysX gegenüber der ATI stirbt für mich aufgrund der Unterstützung an Games. Und wirklich merken tut man davon im Spielgeschehen auch nix. Laut kam mir die Karte auch nicht vor. Allerdings war die Umgebungslautstärke ja auch nicht gerade leise, obwohl wir schon ca um 10 Uhr am Zotac stand waren
Wurde immer nur drauf verwiesen, das ich bis zum 26.03. warten soll um Benchmarks von der Karte sehen zu können
Meine Meinung nach aktuellem Stand: Viel Wind um Nichts. Und das Ganze erinnert mich stark an das 2900er Debakel von ATI. Naja warten wirs ab
|
GrandAdmiralThrawn
XP Nazi
|
@Castlestabler: Raytracen kannst eh auf einer jetzigen GPU auch, eben weil die Unified Shader so flexibel sind. Wennst eine spezialisierte Raytracing Hardware willst, dann is das wahrscheinlich wieder eine Sackgasse, weil du mußt ja einen sanften Schwenk von Rasterisierung auf Raytracing bieten können für den Endverbraucher (sofern dieser Schwenk überhaupt kommt für Spieleengines). Und dann kannst nicht hergehen und einfach Unified Shader UND dedizierte Raytracinghardware verbauen...
Und weiters glaube ich sehr wohl, daß die Schnittstelle zu großen Teilen die technische Realisierung vorgibt. Sonst hätte wohl Mal jemand Shadercores gebaut, die effizienter bei geringerer Transistorenanzahl sind, wenn es so einfach möglich wäre.
Flexibilität kostet eben Komplexität..
|
Castlestabler
Here to stay
|
Das ein Teil von der Schnittstelle vorgegeben werden muss ist eh klar. Aber wenn dann sogar von der Schnittstelle definiert wird, wie die logische Aufteilung der Recheneinheiten aussieht, dann ist einfach kaum mehr Spielraum vorhanden.
Worum es mir eigentlich geht: Wenn man das ganze System beibehält, dann kann ich einen 50% schnellere GPU nur erreichen in dem ich ungefähr 50% mehr Unified Shader verbaue. Ist zwar schön und gut, aber woher nehme ich den Platz dafür. Nvidia ist jetzt eindeutig am Maximum angelangt und ATI will eigentlich lieber kleiner anstatt größer werden.
Entweder wir leben mit Grafikeinheiten wie bei den Konsolen, aber ich glaube nicht das ATI und Nvidia damit überleben oder wir leben mit ständig steigenden Grafikkarten Preisen, was auch unwahrscheinlich ist, weil es keiner bezahlen wird. Wo liegt also der realistische Weg.
|