"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

PixelShader 2.0 + GF FX = nix gut (so wies aussieht)

Cobase 18.06.2003 - 10:12 519 12
Posts

Cobase

Mr. RAM
Avatar
Registered: Jun 2001
Location: Linz
Posts: 17900
http://www.3dvelocity.com/reviews/5900u/5900u_16.htm

Jaja, so kanns gehen, wenn die "Treiberoptimierungen" (wie hier im Shadermark) nicht greifen. :bash:

XXL

insomnia
Avatar
Registered: Feb 2001
Location: /dev/null
Posts: 15703
aber beim pixelshader wars schon immer so ...
benchmarks sind imho eh crap
ich mein schau da die neuen spiele an die werden alle auf gängie karten optimiert und dann rendern dies im spiel so wies für eine gffx oder radeon am besten ist

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
und das obwohl sie nur 16bit genauigkeit haben und die von ati 24...
32 wär dann sicher nochmal a stuck langsamer, 24 könnens ja ned, NV3x

echt enttäuschend in dem bereich - für leute, die sich oft eine neue kaufen is das wurscht weils eh noch lang nix praxisnahes mit 2.0er shadern gibt aber für die, die sich alle paar jahre eine kaufen kann das früher oder später zum verhängniss werden
Bearbeitet von -fenix- am 18.06.2003, 10:47

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von XXL
benchmarks sind imho eh crap

nur wenn man die ergebnisse nicht deuten kann ;)

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
fenix, die gffx kann auch 32 bit shader, ned nur 16bit...

Des Problem ist, daß ati NUR 24 fährt, nvidia 16 oder 32, aber auf keinen Fall 24 --> und genau deshalb wirst die beuden Karten nie 1:1 benchmarken können .....

Dh, laßt nvidia und ati doch optimieren was sie wollen, solange sie ALLE games die am Markt sind berücksichtigen isses eh egal ;)

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von tombman
fenix, die gffx kann auch 32 bit shader, ned nur 16bit...

hab eh geschrieben das sie dann nochmal langsamer werden würde (wenn verwendet) - k, hab mich bissl ungeschickt ausgedrückt

die zwischenstufe 24 hat nvidia eben nicht, die aber eine sehr gute preis/leistung darstellen würde
Bearbeitet von -fenix- am 18.06.2003, 11:31

Roman

CandyMan
Avatar
Registered: Jun 2000
Location: Im schönen Kär..
Posts: 3859
:o :o

35fps gegen 210!!!!!!!!!!!!!! HOLY SHIT!!!!!!!!!!

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von tombman
Des Problem ist, daß ati NUR 24 fährt, nvidia 16 oder 32, aber auf keinen Fall 24 --> und genau deshalb wirst die beuden Karten nie 1:1 benchmarken können .....

mir is gerade eine idee gekommen:

einmal mit 16, dann mit 32, beide zusammenzählen und durch 2 dividieren
dann hast "durchschnittliche 24" :D

XXL

insomnia
Avatar
Registered: Feb 2001
Location: /dev/null
Posts: 15703
Zitat von -fenix-
nur wenn man die ergebnisse nicht deuten kann ;)

hm?
damals wie die gf2 rasukommen san hats auch immer gheissen blabla die san so schnell bei die benches
ich ahtte damals eine gf2 und 2 voodoo2 im sli und bei spielen die glide konnten waren die v2s um einiges schneller als die gf2 im opengl modus
genauso is da
3dfx karten ham bei benches immer schlecht abgeschnitten weils einfach darauf angewiesen waren das ein spiel glide hat ..

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
Zitat von XXL
damals wie die gf2 rasukommen san hats auch immer gheissen blabla die san so schnell bei die benches
ich ahtte damals eine gf2 und 2 voodoo2 im sli und bei spielen die glide konnten waren die v2s um einiges schneller als die gf2 im opengl modus

und welche sollen das sein?
glide-optimierte spiele laufen normalerweise %uel gesehn auf einer 3dfx karte besser als wenn beide karten die selbe API(zB opengl) nutzen weil glide ein für spiele zurückgestuztes opengl is
ergo lassen sich einige berechnungen effektiver ausführen wodurch sich zB bei CPU lastigen spielen á la UT, wo die graka sowieso kaum limitiert, ein leichter vorteil erkennen lässt

aber sobald die graka ans limit stoßt (zB durch hohe auflösung, hohe farbtiefe (was sich beides bei einer v2 nicht machen lässt), komplexe szenen mit viel poligonleistung usw.) kanns noch so viel glide optimiert sein das nützt dann alles nix mehr

XXL

insomnia
Avatar
Registered: Feb 2001
Location: /dev/null
Posts: 15703
naja 1024x768 war damals is maximale bei den meisten spielen und da haben die v2s mehr können
zwar net in 32 bit aber naja
aber heutzutage werden bei vielen spielen für jede graka eigene opengl-apis verwendet
und wenn die so optimiert sind wie die treiber von nv für den futuremark dann is halt so das die gffx in dem spiel genauso schnell is wie a r9800 trotz den benchmark werten
deswegen san benchmarks imho crap weils nix anderes als theoretische werte machen die mit der praxis nichts gleich haben ...

deleted060824


Registered: Aug 2024
Location:
Posts: 0
Zitat von XXL
hm?
damals wie die gf2 rasukommen san hats auch immer gheissen blabla die san so schnell bei die benches
ich ahtte damals eine gf2 und 2 voodoo2 im sli und bei spielen die glide konnten waren die v2s um einiges schneller als die gf2 im opengl modus
genauso is da
3dfx karten ham bei benches immer schlecht abgeschnitten weils einfach darauf angewiesen waren das ein spiel glide hat ..

v2 sli war zu gf2 zeiten eigentlich nurmehr bei ut schneller ...und das auch nur minimal....hatte die selbe kombination

Raptor3000

The Mojo's snappin'necks
Avatar
Registered: Mar 2002
Location: Wien
Posts: 817
und was ist damit?
http://www.3dvelocity.com/reviews/5900u/5900u_4.htm

oda ist zwischen PS 2.0 und 2.0+ ein großer unterschied?
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz