mat
AdministratorLegends never die
|
beim 03er und 05er gehts aber grösstenteils um gut implementierte shader und da die leistung dafür eh meist in den händen der anwendungsprogrammierer liegt kannst die neuen benchmarks imma mehr total schmeissen udn nur konkrete spiele anschauen! liegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten. 1.) die hardware wird genormt 2.) eine übergreifende high level shadersprache wird als standard gewählt, die spezifisch für jede gpu kompiliert 3.) spiele sind nicht mehr shaderbound O_o man kann das ziemlich gut mit der entwicklung der cpus vergleichen, deshalb sag ich mal: 1.) wird niemals sein 3.) der trend zeigt die ablösung der fixed-function pipeline => es werden nur mehr shader für lighting usw. benutzt __________ 2.) das wahrscheinlichste: eine cg ähnliche sprache (nicht von nvidia ![;)](/images/smilies/wink.gif) ), die speziell für eine bestimmte gpu shader instructions optimiert. es könnte natürlich auch so sein, dass die gpu wieder von etwas abgelöst wird, sowie es bei der cpu war. kA was, aber in den gute alten dos zeiten, das königreich des 13h modus, konnte man sich auch keine "pixel shader" vorstellen.
|
Investigator
Little Overclocker
|
tut mir leid, aber das is purer stuss den ihr beide da verzapfts ![:bash:](/images/smilies/bash.gif)
des is ungefähr so wie wenn man sagen würde ein Athlon64 oder pentiu4 emuliert den x86 befehlssatz nur mehr in software...
zuerst mal über ein thema informieren, dann denken, dann schreiben, und ned alles nachplappern was in e-media steht ![;)](/images/smilies/wink.gif) Ok .. mein Freund .. ich höre. Erzähl doch mal bitte ... *lausch* Na? Und bitte .. sag nie wieder ich würde e-media lesen, ja? Bitte dann konkret meine Aussage wiederlegen und nicht so einen Standardsatz daherplaudern, ja? Danke und bitte kläre mich auf! Investigator
|
Investigator
Little Overclocker
|
*lol* scnr Wo hast denn das her?
[x] Vote 4 owner of the month Noch so etwas sehr qualifiziertes. Also Leute .. klärt mich auf! Warum sind die neueren Karten in den alten 3D Marks dann teilweise schlechter als die alten Karten? Ich warte .. Investigator
|
Indigo
raub_UrhG_vergewaltiger
|
Noch so etwas sehr qualifiziertes. Also Leute .. klärt mich auf!
Warum sind die neueren Karten in den alten 3D Marks dann teilweise schlechter als die alten Karten?
Ich warte ..
Investigator der einzige der sich qualifiziert bist hier du... sind sie langsamer in älteren benchmarks? wohl eher doch nicht, oder? 13,5k 3dmarks auf an 2500+ san dann doch eher die regel als die ausnahme, oder irre ich mich??? sorry 4 e-media aber die behautung die du aufstellst is einfach nur haltlos. ich glaube mein vergleich mit p4/a64 und der x86 architektur sollte erläutern warum das nur blödsinn sein kann...
|
Investigator
Little Overclocker
|
Ok .. also .. um das nochmal klarzustellen:
Mir ging es nur darum kurz aufzuzeigen, daß (imho) jede Grafikkarte auf eine bestimmte DirectX Version optimiert ist.
Denn mich verwunderte etwas, daß der normale NV20 mit 64MB dem NV36LE mit 128MB im 2000er und 2001er SE - nur halt nicht im 2003er überlegen ist (In der gleichen Testmaschine natürlich).
Und wie gesagt .. ich bin immer gerne bereit etwas dazuzulernen und kann nur nochmal um Quellen bitten die mir die ganze Geschichte noch transparenter machen.
Habe halt nur versucht das ganze komplexe Dingen in einfache Worte zu fassen.
Und es ist halt schwierig den passenden Pendant einer DX8er Karte zu einer 9er Karte zu finden.
Investigator
|
Indigo
raub_UrhG_vergewaltiger
|
die "überlegenheit" spielt sich im einstelligen prozentbereich ab, was noch unter messtoleranz fällt in den meisten fällen! logischerweise is jede karte auf ihre speziellen features optimiert was aber nichts mit der kompatibilität (IN HARDWARE) zu älteren programmversionen zu tun hat. es gibt keine quellen, weder zu deiner theorie noch zu meinen aussagen. aber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch...
|
SYSMATRIX
Legend Legend
|
Du verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen.
Es ist nicht unlogisch daß eine GFX Karte A bedingt durch Ihre Architektur B und Treiber C in einem Test D geringfügig schlechter abschneidet als eine GFX Karte U mit Architektur V im Test D. (die anderen Komponenten sind idealisiert zu denken)
Software (hier D) hat ein bestimmtes Profil welches nunmal auf eine bestimmte Kombination aus Architektur und Treiber(uA) am ehesten anspricht.
Die GFX-Karten-HW implementiert ja nicht DirectX. Im Gerät selbst sind MAC, Shifter, ALU/AGU, etc. Die DirectX implementation ist dann nur im Treiber der die einzelnen Hardwareresourcen in der von DirectX spezifizierten weise auslotet.
|
Investigator
Little Overclocker
|
aber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch... Ist ja richtig .. wie gesagt .. habs nur versucht irgendwie einfach darzustellen .. ist scheinbar daneben gegangen Du verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen. Naja .. genau das wollte ich ja eigentlich sagen .. bei meinen Tests kam z.B. folgendes raus: Gladiac 920 - 64MB <- GeForce3 3DMark 2000 - 5439 3DMark 2001 SE - 8998 3DMark 2003 - 1214 FX5700LE - 128MB 3DMark 2000 - 4826 3DMark 2001 SE - 7875 3DMark 2003 - 1773 Und das hat mich halt etwas stutzig gemacht. Und mit den Quellen meinte ich halt irgendwelche Links die ja auch ruhig das widerlegen können was ich geschrieben hab. Suche halt noch stichhaltiges Material zu diesem Thema. ![;)](/images/smilies/wink.gif) So Long Investigator, der immer noch dankbar wäre für Links
|
Investigator
Little Overclocker
|
Hallo
Habe nun meine 6800LE bekommen! Hatte noch keine Zeit mein neues System A64 3.000 zusammenzubauen...drum hab ich die Karte gleich in mein XP2.500+ System gesteckt...und erreiche damit folgende Werte mit Forceware 61.77
3dmark2001SE 13862 3dmark03 6362 Um da mal zum Thread zurückzukommen als Vergleich eine normale 6800er, wäre nett wenn Du Deine LE Ergebnisse auf dem Athlon64 hier posten könntest .. interessiert mich sehr: (ebenfalls ohne irgendwelche Tweaks) 3DMark 2001 SE - 19129 3DMark 2003 - 8625 Sys: W2K SP4 Athlon64 3.200+ 2x512 DDR Samsung PC3200 CL3 MSI K8N Neo Platinum In der Hoffnung nun doch noch etwas vernünftiges zum Thema beitragen zu können ![;)](/images/smilies/wink.gif) Investigator
|
SYSMATRIX
Legend Legend
|
|
Investigator
Little Overclocker
|
@SYSMATRIX Ist schon klar .. im SpecViewPerf schaut die Sache ja auch schon wieder ganz anders aus. Hat mich halt nur verwundert, daß diese alse auch die Ti4400 sich noch so wacker schlagen. Ti4400 - 128MB 3DMark 2000 - 7693 3DMark 2001 SE - 13140 3DMark 2003 - 1864 Vom 2001er 3DMark kommt die bis auf ein paar Punkterln der 6800LE von VERKAUF schon recht nah. Das das alles synthetische Benchmarks sind ist mir schon klar. Das getweakt, getunded und "gecheatet" wird soll auch so sein. Finde es halt nur beeindruckend, daß die, (hm wie nenne ich das jetzt) "3DMark 2001SE - DirectX 8.1 - Performance" Ergebnisse so nah beineinander liegen ![:)](/images/smilies/smile.gif) Investigator
|
Indigo
raub_UrhG_vergewaltiger
|
[edith] - sorry geistig onaniert und dabei blödsinn fabriziert ![;)](/images/smilies/wink.gif) -
|
Viper780
ElderEr ist tot, Jim!
|
liegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten. 1.) die hardware wird genormt 2.) eine übergreifende high level shadersprache wird als standard gewählt, die spezifisch für jede gpu kompiliert 3.) spiele sind nicht mehr shaderbound O_o
man kann das ziemlich gut mit der entwicklung der cpus vergleichen, deshalb sag ich mal: 1.) wird niemals sein 3.) der trend zeigt die ablösung der fixed-function pipeline => es werden nur mehr shader für lighting usw. benutzt __________ 2.) das wahrscheinlichste: eine cg ähnliche sprache (nicht von nvidia ), die speziell für eine bestimmte gpu shader instructions optimiert.
es könnte natürlich auch so sein, dass die gpu wieder von etwas abgelöst wird, sowie es bei der cpu war. kA was, aber in den gute alten dos zeiten, das königreich des 13h modus, konnte man sich auch keine "pixel shader" vorstellen. da bin ich voll deienr meinung nur so wie es jetzt aufgebaut is kann ma sich nur für eine der 2 richtungen entscheiden udn muss abwägen wei weit ma ältere grafikakrten (mit sahdern!) daran teil haben lässt
|
Verkauf
Addicted
|
Um zum eigentlichen Thema zurückzukehren...
Also ich kann bei meiner 6800LE maximal 12 Pipes erriechen dafür alle 6 Verdex Shader...also habe ich die Tests mal mit 12/6 durchlaufen lassen und...
3dmark03:8505 3dmark05:3029
Alles noch mit nicht übertaktetem System und nicht übertakteten Grafikkarte...
Um noch etwas zu eurer DirektX Diskussion beizutragen:
3dmark01 XP2.500 6800LE: 13862 A64 3.000+ 6800LE: 17242
3dmark03: XP2.500 6800LE:6362 A64 3.000 6800LE: 6821
Also sieht man eindeutig, 01 hängst stark vom Prozessor ab, 03 nicht mehr wirklich! Die unteren Werte sind alle mit 8/4!
Ich hoffe jetzt wird wieder über Werte und Fakten gesprochen...
|
aNtraXx
trailer park king
|
Habe mir heute auch eine AOpen 6800LE geholt
gehen ebenfalls "nur" 12/6 Pipelines mit 16/6 geht auch noch ganz akzeptabel, man hat halt ein leichtes schneien. also im extremfall könnte ich damit leben falls die leistung nicht ausreicht.
habs mal auf die schnelle auf 345/855 gestellt die karte und auf folgendem system gebencht:
xp2700 @ 166mhz fsb Asus a7n8x-e deluxe 1GB Corsair AOpen 6800LE
3dmark03 -> 9007pkt
still testing...
|