URL: https://www.overclockers.at/number-crunching/3dmark05_mit_6800le_und_6600gt_126238/page_2 - zur Vollversion wechseln!
liegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten.Zitatbeim 03er und 05er gehts aber grösstenteils um gut implementierte shader und da die leistung dafür eh meist in den händen der anwendungsprogrammierer liegt kannst die neuen benchmarks imma mehr total schmeissen udn nur konkrete spiele anschauen!
Zitat von Indigotut mir leid, aber das is purer stuss den ihr beide da verzapfts
des is ungefähr so wie wenn man sagen würde ein Athlon64 oder pentiu4 emuliert den x86 befehlssatz nur mehr in software...
zuerst mal über ein thema informieren, dann denken, dann schreiben, und ned alles nachplappern was in e-media steht
Zitat von Dimitri*lol* scnr
Wo hast denn das her?
[x] Vote 4 owner of the month
Zitat von InvestigatorNoch so etwas sehr qualifiziertes.
Also Leute .. klärt mich auf!
Warum sind die neueren Karten in den alten 3D Marks dann teilweise schlechter als die alten Karten?
Ich warte ..
Investigator
Ok .. also .. um das nochmal klarzustellen:
Mir ging es nur darum kurz aufzuzeigen, daß (imho) jede
Grafikkarte auf eine bestimmte DirectX Version optimiert ist.
Denn mich verwunderte etwas, daß der normale NV20 mit 64MB dem NV36LE mit 128MB im 2000er und 2001er SE - nur halt nicht im 2003er überlegen ist (In der gleichen Testmaschine natürlich).
Und wie gesagt .. ich bin immer gerne bereit etwas dazuzulernen und kann nur nochmal um Quellen bitten die mir die ganze Geschichte noch transparenter machen.
Habe halt nur versucht das ganze komplexe Dingen in einfache Worte zu fassen.
Und es ist halt schwierig den passenden Pendant einer DX8er Karte zu einer 9er Karte zu finden.
Investigator
die "überlegenheit" spielt sich im einstelligen prozentbereich ab, was noch unter messtoleranz fällt in den meisten fällen!
logischerweise is jede karte auf ihre speziellen features optimiert was aber nichts mit der kompatibilität (IN HARDWARE) zu älteren programmversionen zu tun hat.
es gibt keine quellen, weder zu deiner theorie noch zu meinen aussagen. aber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch...
Du verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen.
Es ist nicht unlogisch daß eine GFX Karte A bedingt durch Ihre Architektur B und Treiber C in einem Test D geringfügig schlechter abschneidet als eine GFX Karte U mit Architektur V im Test D.
(die anderen Komponenten sind idealisiert zu denken)
Software (hier D) hat ein bestimmtes Profil welches nunmal auf eine bestimmte Kombination aus Architektur und Treiber(uA) am ehesten anspricht.
Die GFX-Karten-HW implementiert ja nicht DirectX. Im Gerät selbst sind MAC, Shifter, ALU/AGU, etc. Die DirectX implementation ist dann nur im Treiber der die einzelnen Hardwareresourcen in der von DirectX spezifizierten weise auslotet.
Zitat von Indigoaber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch...
Zitat von SYSMATRIXDu verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen.
Zitat von VerkaufHallo
Habe nun meine 6800LE bekommen! Hatte noch keine Zeit mein neues System A64 3.000 zusammenzubauen...drum hab ich die Karte gleich in mein XP2.500+ System gesteckt...und erreiche damit folgende Werte mit Forceware 61.77
3dmark2001SE 13862
3dmark03 6362
Zitat von InvestigatorIst ja richtig .. wie gesagt .. habs nur versucht irgendwie einfach darzustellen .. ist scheinbar daneben gegangen![]()
Naja .. genau das wollte ich ja eigentlich sagen .. bei meinen Tests kam z.B. folgendes raus:
Gladiac 920 - 64MB <- GeForce3
3DMark 2000 - 5439
3DMark 2001 SE - 8998
3DMark 2003 - 1214
FX5700LE - 128MB
3DMark 2000 - 4826
3DMark 2001 SE - 7875
3DMark 2003 - 1773
Und das hat mich halt etwas stutzig gemacht.
Und mit den Quellen meinte ich halt irgendwelche Links die ja auch ruhig das widerlegen können was ich geschrieben hab.![]()
Suche halt noch stichhaltiges Material zu diesem Thema.
So Long
Investigator, der immer noch dankbar wäre für Links
@SYSMATRIX
Ist schon klar .. im SpecViewPerf schaut die Sache ja auch schon wieder ganz anders aus.
Hat mich halt nur verwundert, daß diese alse auch die Ti4400 sich noch so wacker schlagen.
Ti4400 - 128MB
3DMark 2000 - 7693
3DMark 2001 SE - 13140
3DMark 2003 - 1864
Vom 2001er 3DMark kommt die bis auf ein paar Punkterln der 6800LE von VERKAUF schon recht nah.
Das das alles synthetische Benchmarks sind ist mir schon klar.
Das getweakt, getunded und "gecheatet" wird soll auch so sein.
Finde es halt nur beeindruckend, daß die,
(hm wie nenne ich das jetzt)
"3DMark 2001SE - DirectX 8.1 - Performance" Ergebnisse
so nah beineinander liegen
Investigator
[edith]
- sorry geistig onaniert und dabei blödsinn fabriziert -
Zitat von matliegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten.
1.) die hardware wird genormt
2.) eine übergreifende high level shadersprache wird als standard gewählt, die spezifisch für jede gpu kompiliert
3.) spiele sind nicht mehr shaderbound O_o
man kann das ziemlich gut mit der entwicklung der cpus vergleichen, deshalb sag ich mal:
1.) wird niemals sein
3.) der trend zeigt die ablösung der fixed-function pipeline => es werden nur mehr shader für lighting usw. benutzt
__________
2.) das wahrscheinlichste: eine cg ähnliche sprache (nicht von nvidia), die speziell für eine bestimmte gpu shader instructions optimiert.
es könnte natürlich auch so sein, dass die gpu wieder von etwas abgelöst wird, sowie es bei der cpu war. kA was, aber in den gute alten dos zeiten, das königreich des 13h modus, konnte man sich auch keine "pixel shader" vorstellen.
Um zum eigentlichen Thema zurückzukehren...
Also ich kann bei meiner 6800LE maximal 12 Pipes erriechen dafür alle 6 Verdex Shader...also habe ich die Tests mal mit 12/6 durchlaufen lassen und...
3dmark03:8505
3dmark05:3029
Alles noch mit nicht übertaktetem System und nicht übertakteten Grafikkarte...
Um noch etwas zu eurer DirektX Diskussion beizutragen:
3dmark01
XP2.500 6800LE: 13862
A64 3.000+ 6800LE: 17242
3dmark03:
XP2.500 6800LE:6362
A64 3.000 6800LE: 6821
Also sieht man eindeutig, 01 hängst stark vom Prozessor ab, 03 nicht mehr wirklich! Die unteren Werte sind alle mit 8/4!
Ich hoffe jetzt wird wieder über Werte und Fakten gesprochen...
Habe mir heute auch eine AOpen 6800LE geholt
gehen ebenfalls "nur" 12/6 Pipelines mit 16/6 geht auch noch ganz akzeptabel, man hat halt ein leichtes schneien. also im extremfall könnte ich damit leben falls die leistung nicht ausreicht.
habs mal auf die schnelle auf 345/855 gestellt die karte und auf folgendem system gebencht:
xp2700 @ 166mhz fsb
Asus a7n8x-e deluxe
1GB Corsair
AOpen 6800LE
3dmark03 -> 9007pkt
still testing...
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025