"We are back" « oc.at

DX9.1 + GF FX = +60% PS2.0 Performance?

Cobase 17.10.2003 - 22:26 2425 30
Posts

Domo-Kun

im Weihnachtsstress
Avatar
Registered: Jun 2003
Location: Vienna
Posts: 1066
Zitat von Goldlocke
UND! NVidia liegt in der PS2.0 Leistung ja oft bis zu 100% hinter ATI. Also habens da viel aufzuholen. IMO kein Grund seine ATI zu verkaufen. ;)

Nein,aber seine nVidia (GF FX?) zu behalten,..und ich denk schon das es eine Steigerung von ca. 60% geben kann/wird.

JC

Vereinsmitglied
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9066
Seit die FX-Architektur auf dem Markt ist, hat es laufend Fortschritte in der Technologie gegeben. Weil die FX-Karten Optimierungen unbedingt erforderlich machen und nVidia die Performance stetig erhöhen konnte, scheint es zumindest nicht unmöglich, eine derartige Leistung durch besser gemanagten Code zu erlangen. Einfach mal abwarten :)

LTD

frecher fratz
Avatar
Registered: Feb 2001
Location: is where it is
Posts: 6334
seh ich net so - wegen der sturheit von nvidia müssen extra x tausend zeilen code angepasst werden zudem erlangt nvidia durch cheats in detonator treibern erhebliche perfomance boosts auf kosten der bildqualität

was nvidia abzieht is ne frechheit auf kosten der allgemeinheit, das gegenteil von lobpreisungen für die leistungssteigerung wär angebracht.

T3XT4

Beißer
Registered: Jan 2003
Location: .
Posts: 3794
jup, is auch meine meinung leadtodeath...

und das marketing-blabla von 60%steigerung... argg..

und wenn ich dann schon hör: "omg, ich verkauf sofort meine ati-grak..."

naja... sskm...

Cya

Mr. Zet

Vereinsmitglied
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12067
Zitat von LeadToDeath
seh ich net so - wegen der sturheit von nvidia müssen extra x tausend zeilen code angepasst werden zudem erlangt nvidia durch cheats in detonator treibern erhebliche perfomance boosts auf kosten der bildqualität

was nvidia abzieht is ne frechheit auf kosten der allgemeinheit, das gegenteil von lobpreisungen für die leistungssteigerung wär angebracht.
wtf?
benchmark-cheats lassen wir jetzt mal außen vor, um die geht es hier nicht!

OK, wieso schadet nVidias "Sturheit" der Allgemeinheit?

Seh ich nicht so. Heutige Computerhardware ist in vielen Bereichen (oder sogar allen?) der Software um Jahre voraus. Es wird höchste Zeit, dass endlich Software (Treiber in dem Fall) geschrieben wird, die die Möglichkeiten der Hardware auch wirklich ausnutzt, und nicht einfach auf einer bestimmten Hardware "auch läuft".

Dieses "alles muss mit allem kompatibel sein"-Getue der letzten Jahre, hat uns imho nur Nachteile beschert, es rennt zwar fast alles, aber wie ist die Frage. welche Hardware läuft heutzutage denn wirklich so, wie sie könnte, man nenne mir auch nur ein bsp...

LTD

frecher fratz
Avatar
Registered: Feb 2001
Location: is where it is
Posts: 6334
wenn du so denkst hast du den sinn von directx nit ganz verstanden

das stück software is dazu entworfen worden um einen allgemeinstandard zu haben, der die funktionen vorgibt welche dann von den grafikkartenherstellern genutzt werden können und nit umgekehrt.

was hat directx für an sinn wenn ati sagt sie machen das jetzt so, nvidia sagt wir machens überhaupt gla um 180° anders und dann kommt no 3dlabs und meint sie scheißen ganz drauf, codieren lieba extra direxty...

sieh dir mal an was dabei rauskommt - hl2 braucht nen eigenen treiberpfad, doom3 läuft auf nvidia hardware 30x schneller weils speziell dafür gecoded wurde, directx 9 wird nvidia nen schub geben weil ati nicht die kohle / beziehungen hatte...

versteh mi nit falsch aber nvidia is wieder dabei die macht zu übernehmen auf welchen wegen is denen eh egal, hauptsache der user zahlt schön brav für ihre gf fx 5200 die langsamer is als ne tnt 2 pro

JC

Vereinsmitglied
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9066
@LeadToDeath
Imho bleibt DirectX durchaus noch ein Allgmein-Standard. Um es vereinfacht auszudrücken: nVidia hat einen Fehler gemacht und die eigene Architektur nicht optimal ausgenutzt. Wenn sie den jetzt korrigieren, was ist daran falsch? Die Endkunden werden jedenfalls dankbar sein.

Und bitte, lasst endlich die Optimierungen aus dem Spiel. Bei Prozessoren stellt's ja auch kein Problem dar und die Abhängigkeit der FX von optimiertem Code war von Anfang an kein Geheimnis :rolleyes:

Wozuwakü

...
Avatar
Registered: Apr 2003
Location: pole position
Posts: 917
Dieser Technologiewettbewerb kommt in jedem Fall dem user zu Gute solange er nicht unbedingt die Rolle des beta Testers haben will;)

Domo-Kun

im Weihnachtsstress
Avatar
Registered: Jun 2003
Location: Vienna
Posts: 1066
@Lead: Du nennst das Frechheit was nVidia macht?
Was is dann mit ATI? 9700Pro 9800Pro und jetzt 9800XT
Der Leistungsunterschied is zwar da aber echt sehr gering,IMHO auch ne Frechheit,aber da regt sich keiner auf "nur" weils das FSAA und AF besser aussieht,..auch wenns Otto-Normalerverbraucher beim zocken in schnellen Games NICHT sieht.

Aber um das geht es nicht.

Soll die Änderung des Codes auch auswirkungen auf die 5800er Fx haben?Oder nur auf die 5900er und 5950er?

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3739
Da die NV30 Architektur im Prinzip der NV35/38 fast aufs Haar gleicht, dürfte sich die Optimierung auch auf die GeForceFX 5800 auswirken, so denke ich. Hast leicht eine "Föhn-FX"? ;)

Und nVidia hat eigentlich (bis auf das Verbleiben bei einem 4-Renderpipe System) keinen Fehler gemacht, sondern einfach nur auf FP16 und FP32 Shaderlogik gesetzt. Wer konnte denn ahnen, daß sich 24-Bit Code als Standard durchsetzen würde? War doch bei CPU's auch nie so, da gab es nur reine 2er Potenzschritte, 8-Bit, 16-Bit, 32-Bit, 64-Bit... Die alte Leier, Microsoft hat eben dieses Mal auf ATi gesetzt, weil sie schneller da waren. Das waren imho einfach nur Pech und schlechtes Timing, sonst nichts.

Was ist jetzt gegen einen Nachschub einzuwenden, der diesen Fehler von DX9 aus korrigiert? Das wird den Speed der bestehenden ATi Karten ja wohl kaum beeinträchtigen.

JC

Vereinsmitglied
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9066
@GAT
Hmm, 24-Bit wird IMO kein Standard werden, sondern stellt in meinen Augen nur einen Zwischenschritt dar, der einen ausgewogenen Kompromiß zwischen Leistung und Qualität eingeht. Mit zukünftigen und leistungsfähigeren Chips wird der 32-Bit Approach nicht mehr lange auf sich warten lassen und sich schließlich als Standard etablieren.

Ansonsten gibt's nur Zustimmung von mir :)

GrandAdmiralThrawn

XP Nazi
Avatar
Registered: Aug 2000
Location: BRUCK!
Posts: 3739
Normalerweise würde ich dir da Recht geben. Aber jetzt hat ATi schon eine sehr starke Marktposition, und viele Shader 2.0 Games setzen daher auf den FP24 Modus in DX9.

Ich schätze, bis FP16 und auch FP24 Shader wieder verschwinden, wird's wohl noch etwa 2 Jahre dauern, es sei denn die Programmierer sind schneller, und die Portierbarkeit des 24-Bit Codes ist einfacher als ich mir das so vorstelle.

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
die meldung is, so wie sie dasteht, blödsinn

es wird schlicht und ergreifend kein DX9.1 geben da im DX9 schon alle shader bis hin zu den 3.0ern definiert sind

höchstens ein überarbeiteter compiler (2.a)
dieser wird aber auch nicht viel mehr bringen als die 50er detos

60% peak kann durchaus auftreten
aber im durchschnitt sicher nicht über 15-20% zusätzliche leistung

asgaard

@midgard
Avatar
Registered: Sep 2000
Location: Bruck/Leitha
Posts: 3299
http://www.gamestar.de/news/software/14157/

ich hoffe das beste für nvidia weil ich geforce fan bin :)

RoNin

Here to stay
Avatar
Registered: Sep 2003
Location: CH, Au SG
Posts: 1113
ATI + NVidia, next Round FIGHT !
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz