DX9.1 + GF FX = +60% PS2.0 Performance? - Seite 2

Seite 2 von 3 - Forum: Grafikkarten auf overclockers.at

URL: https://www.overclockers.at/grafikkarten/dx9_1_gf_fx_60_ps2_0_performance_95990/page_2 - zur Vollversion wechseln!


Domo-Kun schrieb am 19.10.2003 um 09:06

Zitat von Goldlocke
UND! NVidia liegt in der PS2.0 Leistung ja oft bis zu 100% hinter ATI. Also habens da viel aufzuholen. IMO kein Grund seine ATI zu verkaufen. ;)

Nein,aber seine nVidia (GF FX?) zu behalten,..und ich denk schon das es eine Steigerung von ca. 60% geben kann/wird.


JC schrieb am 19.10.2003 um 13:26

Seit die FX-Architektur auf dem Markt ist, hat es laufend Fortschritte in der Technologie gegeben. Weil die FX-Karten Optimierungen unbedingt erforderlich machen und nVidia die Performance stetig erhöhen konnte, scheint es zumindest nicht unmöglich, eine derartige Leistung durch besser gemanagten Code zu erlangen. Einfach mal abwarten :)


LTD schrieb am 19.10.2003 um 13:53

seh ich net so - wegen der sturheit von nvidia müssen extra x tausend zeilen code angepasst werden zudem erlangt nvidia durch cheats in detonator treibern erhebliche perfomance boosts auf kosten der bildqualität

was nvidia abzieht is ne frechheit auf kosten der allgemeinheit, das gegenteil von lobpreisungen für die leistungssteigerung wär angebracht.


T3XT4 schrieb am 19.10.2003 um 13:58

jup, is auch meine meinung leadtodeath...

und das marketing-blabla von 60%steigerung... argg..

und wenn ich dann schon hör: "omg, ich verkauf sofort meine ati-grak..."

naja... sskm...

Cya


Mr. Zet schrieb am 19.10.2003 um 14:06

Zitat von LeadToDeath
seh ich net so - wegen der sturheit von nvidia müssen extra x tausend zeilen code angepasst werden zudem erlangt nvidia durch cheats in detonator treibern erhebliche perfomance boosts auf kosten der bildqualität

was nvidia abzieht is ne frechheit auf kosten der allgemeinheit, das gegenteil von lobpreisungen für die leistungssteigerung wär angebracht.
wtf?
benchmark-cheats lassen wir jetzt mal außen vor, um die geht es hier nicht!

OK, wieso schadet nVidias "Sturheit" der Allgemeinheit?

Seh ich nicht so. Heutige Computerhardware ist in vielen Bereichen (oder sogar allen?) der Software um Jahre voraus. Es wird höchste Zeit, dass endlich Software (Treiber in dem Fall) geschrieben wird, die die Möglichkeiten der Hardware auch wirklich ausnutzt, und nicht einfach auf einer bestimmten Hardware "auch läuft".

Dieses "alles muss mit allem kompatibel sein"-Getue der letzten Jahre, hat uns imho nur Nachteile beschert, es rennt zwar fast alles, aber wie ist die Frage. welche Hardware läuft heutzutage denn wirklich so, wie sie könnte, man nenne mir auch nur ein bsp...


LTD schrieb am 19.10.2003 um 14:16

wenn du so denkst hast du den sinn von directx nit ganz verstanden

das stück software is dazu entworfen worden um einen allgemeinstandard zu haben, der die funktionen vorgibt welche dann von den grafikkartenherstellern genutzt werden können und nit umgekehrt.

was hat directx für an sinn wenn ati sagt sie machen das jetzt so, nvidia sagt wir machens überhaupt gla um 180° anders und dann kommt no 3dlabs und meint sie scheißen ganz drauf, codieren lieba extra direxty...

sieh dir mal an was dabei rauskommt - hl2 braucht nen eigenen treiberpfad, doom3 läuft auf nvidia hardware 30x schneller weils speziell dafür gecoded wurde, directx 9 wird nvidia nen schub geben weil ati nicht die kohle / beziehungen hatte...

versteh mi nit falsch aber nvidia is wieder dabei die macht zu übernehmen auf welchen wegen is denen eh egal, hauptsache der user zahlt schön brav für ihre gf fx 5200 die langsamer is als ne tnt 2 pro


JC schrieb am 19.10.2003 um 14:57

@LeadToDeath
Imho bleibt DirectX durchaus noch ein Allgmein-Standard. Um es vereinfacht auszudrücken: nVidia hat einen Fehler gemacht und die eigene Architektur nicht optimal ausgenutzt. Wenn sie den jetzt korrigieren, was ist daran falsch? Die Endkunden werden jedenfalls dankbar sein.

Und bitte, lasst endlich die Optimierungen aus dem Spiel. Bei Prozessoren stellt's ja auch kein Problem dar und die Abhängigkeit der FX von optimiertem Code war von Anfang an kein Geheimnis :rolleyes:


Wozuwakü schrieb am 19.10.2003 um 18:51

Dieser Technologiewettbewerb kommt in jedem Fall dem user zu Gute solange er nicht unbedingt die Rolle des beta Testers haben will;)


Domo-Kun schrieb am 19.10.2003 um 21:34

@Lead: Du nennst das Frechheit was nVidia macht?
Was is dann mit ATI? 9700Pro 9800Pro und jetzt 9800XT
Der Leistungsunterschied is zwar da aber echt sehr gering,IMHO auch ne Frechheit,aber da regt sich keiner auf "nur" weils das FSAA und AF besser aussieht,..auch wenns Otto-Normalerverbraucher beim zocken in schnellen Games NICHT sieht.

Aber um das geht es nicht.

Soll die Änderung des Codes auch auswirkungen auf die 5800er Fx haben?Oder nur auf die 5900er und 5950er?


GrandAdmiralThrawn schrieb am 20.10.2003 um 09:29

Da die NV30 Architektur im Prinzip der NV35/38 fast aufs Haar gleicht, dürfte sich die Optimierung auch auf die GeForceFX 5800 auswirken, so denke ich. Hast leicht eine "Föhn-FX"? ;)

Und nVidia hat eigentlich (bis auf das Verbleiben bei einem 4-Renderpipe System) keinen Fehler gemacht, sondern einfach nur auf FP16 und FP32 Shaderlogik gesetzt. Wer konnte denn ahnen, daß sich 24-Bit Code als Standard durchsetzen würde? War doch bei CPU's auch nie so, da gab es nur reine 2er Potenzschritte, 8-Bit, 16-Bit, 32-Bit, 64-Bit... Die alte Leier, Microsoft hat eben dieses Mal auf ATi gesetzt, weil sie schneller da waren. Das waren imho einfach nur Pech und schlechtes Timing, sonst nichts.

Was ist jetzt gegen einen Nachschub einzuwenden, der diesen Fehler von DX9 aus korrigiert? Das wird den Speed der bestehenden ATi Karten ja wohl kaum beeinträchtigen.


JC schrieb am 20.10.2003 um 09:57

@GAT
Hmm, 24-Bit wird IMO kein Standard werden, sondern stellt in meinen Augen nur einen Zwischenschritt dar, der einen ausgewogenen Kompromiß zwischen Leistung und Qualität eingeht. Mit zukünftigen und leistungsfähigeren Chips wird der 32-Bit Approach nicht mehr lange auf sich warten lassen und sich schließlich als Standard etablieren.

Ansonsten gibt's nur Zustimmung von mir :)


GrandAdmiralThrawn schrieb am 20.10.2003 um 10:04

Normalerweise würde ich dir da Recht geben. Aber jetzt hat ATi schon eine sehr starke Marktposition, und viele Shader 2.0 Games setzen daher auf den FP24 Modus in DX9.

Ich schätze, bis FP16 und auch FP24 Shader wieder verschwinden, wird's wohl noch etwa 2 Jahre dauern, es sei denn die Programmierer sind schneller, und die Portierbarkeit des 24-Bit Codes ist einfacher als ich mir das so vorstelle.


-fenix- schrieb am 20.10.2003 um 14:24

die meldung is, so wie sie dasteht, blödsinn

es wird schlicht und ergreifend kein DX9.1 geben da im DX9 schon alle shader bis hin zu den 3.0ern definiert sind

höchstens ein überarbeiteter compiler (2.a)
dieser wird aber auch nicht viel mehr bringen als die 50er detos

60% peak kann durchaus auftreten
aber im durchschnitt sicher nicht über 15-20% zusätzliche leistung


asgaard schrieb am 22.10.2003 um 00:14

http://www.gamestar.de/news/software/14157/

ich hoffe das beste für nvidia weil ich geforce fan bin :)


RoNin schrieb am 23.10.2003 um 12:48

ATI + NVidia, next Round FIGHT !




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025