"We are back" « oc.at

3dmark05 mit 6800LE und 6600GT

Verkauf 04.10.2004 - 13:35 11375 60
Posts

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25532
Zitat
beim 03er und 05er gehts aber grösstenteils um gut implementierte shader und da die leistung dafür eh meist in den händen der anwendungsprogrammierer liegt kannst die neuen benchmarks imma mehr total schmeissen udn nur konkrete spiele anschauen!
liegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten.
1.) die hardware wird genormt
2.) eine übergreifende high level shadersprache wird als standard gewählt, die spezifisch für jede gpu kompiliert
3.) spiele sind nicht mehr shaderbound O_o

man kann das ziemlich gut mit der entwicklung der cpus vergleichen, deshalb sag ich mal:
1.) wird niemals sein
3.) der trend zeigt die ablösung der fixed-function pipeline => es werden nur mehr shader für lighting usw. benutzt
__________
2.) das wahrscheinlichste: eine cg ähnliche sprache (nicht von nvidia ;)), die speziell für eine bestimmte gpu shader instructions optimiert.

es könnte natürlich auch so sein, dass die gpu wieder von etwas abgelöst wird, sowie es bei der cpu war. kA was, aber in den gute alten dos zeiten, das königreich des 13h modus, konnte man sich auch keine "pixel shader" vorstellen.

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
Zitat von Indigo
tut mir leid, aber das is purer stuss den ihr beide da verzapfts :bash:

des is ungefähr so wie wenn man sagen würde ein Athlon64 oder pentiu4 emuliert den x86 befehlssatz nur mehr in software...

zuerst mal über ein thema informieren, dann denken, dann schreiben, und ned alles nachplappern was in e-media steht ;)

Ok .. mein Freund .. ich höre.
Erzähl doch mal bitte ... *lausch* Na?

Und bitte .. sag nie wieder ich würde e-media lesen, ja?

Bitte dann konkret meine Aussage wiederlegen und nicht so einen
Standardsatz daherplaudern, ja?

Danke und bitte kläre mich auf!
Investigator

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
Zitat von Dimitri
*lol* scnr
Wo hast denn das her?

[x] Vote 4 owner of the month

Noch so etwas sehr qualifiziertes.
Also Leute .. klärt mich auf!

Warum sind die neueren Karten in den alten 3D Marks dann teilweise schlechter als die alten Karten?

Ich warte ..

Investigator

Indigo

raub_UrhG_vergewaltiger
Avatar
Registered: Mar 2001
Location: gigritzpotschn
Posts: 6694
Zitat von Investigator
Noch so etwas sehr qualifiziertes.
Also Leute .. klärt mich auf!

Warum sind die neueren Karten in den alten 3D Marks dann teilweise schlechter als die alten Karten?

Ich warte ..

Investigator

der einzige der sich qualifiziert bist hier du...

sind sie langsamer in älteren benchmarks? wohl eher doch nicht, oder? 13,5k 3dmarks auf an 2500+ san dann doch eher die regel als die ausnahme, oder irre ich mich???

sorry 4 e-media aber die behautung die du aufstellst is einfach nur haltlos.

ich glaube mein vergleich mit p4/a64 und der x86 architektur sollte erläutern warum das nur blödsinn sein kann...

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
Ok .. also .. um das nochmal klarzustellen:

Mir ging es nur darum kurz aufzuzeigen, daß (imho) jede
Grafikkarte auf eine bestimmte DirectX Version optimiert ist.

Denn mich verwunderte etwas, daß der normale NV20 mit 64MB dem NV36LE mit 128MB im 2000er und 2001er SE - nur halt nicht im 2003er überlegen ist (In der gleichen Testmaschine natürlich).

Und wie gesagt .. ich bin immer gerne bereit etwas dazuzulernen und kann nur nochmal um Quellen bitten die mir die ganze Geschichte noch transparenter machen.

Habe halt nur versucht das ganze komplexe Dingen in einfache Worte zu fassen.

Und es ist halt schwierig den passenden Pendant einer DX8er Karte zu einer 9er Karte zu finden.

Investigator

Indigo

raub_UrhG_vergewaltiger
Avatar
Registered: Mar 2001
Location: gigritzpotschn
Posts: 6694
die "überlegenheit" spielt sich im einstelligen prozentbereich ab, was noch unter messtoleranz fällt in den meisten fällen!
logischerweise is jede karte auf ihre speziellen features optimiert was aber nichts mit der kompatibilität (IN HARDWARE) zu älteren programmversionen zu tun hat.
es gibt keine quellen, weder zu deiner theorie noch zu meinen aussagen. aber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch...

SYSMATRIX

Legend
Legend
Registered: May 2000
Location: ~
Posts: 5020
Du verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen.

Es ist nicht unlogisch daß eine GFX Karte A bedingt durch Ihre Architektur B und Treiber C in einem Test D geringfügig schlechter abschneidet als eine GFX Karte U mit Architektur V im Test D.
(die anderen Komponenten sind idealisiert zu denken)

Software (hier D) hat ein bestimmtes Profil welches nunmal auf eine bestimmte Kombination aus Architektur und Treiber(uA) am ehesten anspricht.

Die GFX-Karten-HW implementiert ja nicht DirectX. Im Gerät selbst sind MAC, Shifter, ALU/AGU, etc. Die DirectX implementation ist dann nur im Treiber der die einzelnen Hardwareresourcen in der von DirectX spezifizierten weise auslotet.

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
Zitat von Indigo
aber das mit der software-emulation von älterem directx auf aktueller hardware is einfach blödsinn und vollkommen unlogisch...

Ist ja richtig .. wie gesagt .. habs nur versucht irgendwie einfach darzustellen .. ist scheinbar daneben gegangen :D

Zitat von SYSMATRIX
Du verstehst nicht, daß die einzelnen 3DMark Versionen genau die Paradigmenwechsel (sowie das Zusammenspiel von SW-Entwicklung und Hardware-Entwicklung und vize versa) der GFX-Programmierung der letzten Zeit sehr schön aufzeigen.

Naja .. genau das wollte ich ja eigentlich sagen .. bei meinen Tests kam z.B. folgendes raus:

Gladiac 920 - 64MB <- GeForce3
3DMark 2000 - 5439
3DMark 2001 SE - 8998
3DMark 2003 - 1214

FX5700LE - 128MB
3DMark 2000 - 4826
3DMark 2001 SE - 7875
3DMark 2003 - 1773

Und das hat mich halt etwas stutzig gemacht.

Und mit den Quellen meinte ich halt irgendwelche Links die ja auch ruhig das widerlegen können was ich geschrieben hab. ;)

Suche halt noch stichhaltiges Material zu diesem Thema. ;)

So Long
Investigator, der immer noch dankbar wäre für Links :)

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
Zitat von Verkauf
Hallo

Habe nun meine 6800LE bekommen! Hatte noch keine Zeit mein neues System A64 3.000 zusammenzubauen...drum hab ich die Karte gleich in mein XP2.500+ System gesteckt...und erreiche damit folgende Werte mit Forceware 61.77

3dmark2001SE 13862
3dmark03 6362

Um da mal zum Thread zurückzukommen als Vergleich eine normale 6800er, wäre nett wenn Du Deine LE Ergebnisse auf dem Athlon64 hier posten könntest .. interessiert mich sehr:
(ebenfalls ohne irgendwelche Tweaks)

3DMark 2001 SE - 19129
3DMark 2003 - 8625

Sys:
W2K SP4
Athlon64 3.200+
2x512 DDR Samsung PC3200 CL3
MSI K8N Neo Platinum

In der Hoffnung nun doch noch etwas vernünftiges zum Thema beitragen zu können ;)
Investigator

SYSMATRIX

Legend
Legend
Registered: May 2000
Location: ~
Posts: 5020
Zitat von Investigator
Ist ja richtig .. wie gesagt .. habs nur versucht irgendwie einfach darzustellen .. ist scheinbar daneben gegangen :D



Naja .. genau das wollte ich ja eigentlich sagen .. bei meinen Tests kam z.B. folgendes raus:

Gladiac 920 - 64MB <- GeForce3
3DMark 2000 - 5439
3DMark 2001 SE - 8998
3DMark 2003 - 1214

FX5700LE - 128MB
3DMark 2000 - 4826
3DMark 2001 SE - 7875
3DMark 2003 - 1773

Und das hat mich halt etwas stutzig gemacht.

Und mit den Quellen meinte ich halt irgendwelche Links die ja auch ruhig das widerlegen können was ich geschrieben hab. ;)

Suche halt noch stichhaltiges Material zu diesem Thema. ;)

So Long
Investigator, der immer noch dankbar wäre für Links :)

3DMarks sind nur _bedingt_ geeinigt um sinvolle Aussagen über dieses Thema treffen zu können. Meßtechnik und Meßprinzipien sind nicht primäre gewesen in der Entwicklung von 3DMark - das ist ja nichts anderes als Bauernfängerei.

Investigator

Little Overclocker
Registered: Apr 2004
Location: Flataustria
Posts: 127
@SYSMATRIX

Ist schon klar .. im SpecViewPerf schaut die Sache ja auch schon wieder ganz anders aus.

Hat mich halt nur verwundert, daß diese alse auch die Ti4400 sich noch so wacker schlagen.

Ti4400 - 128MB
3DMark 2000 - 7693
3DMark 2001 SE - 13140
3DMark 2003 - 1864

Vom 2001er 3DMark kommt die bis auf ein paar Punkterln der 6800LE von VERKAUF schon recht nah.

Das das alles synthetische Benchmarks sind ist mir schon klar.
Das getweakt, getunded und "gecheatet" wird soll auch so sein.
Finde es halt nur beeindruckend, daß die,
(hm wie nenne ich das jetzt)

"3DMark 2001SE - DirectX 8.1 - Performance" Ergebnisse

so nah beineinander liegen :)

Investigator

Indigo

raub_UrhG_vergewaltiger
Avatar
Registered: Mar 2001
Location: gigritzpotschn
Posts: 6694
[edith]

- sorry geistig onaniert und dabei blödsinn fabriziert ;) -

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50409
Zitat von mat
liegt eher in den händen der gpu erzeuger (konkret: ati, nvidia) dies zu ändern. es muss verhindert werden, dass shader schreiben so extrem stark von der hardware abhängt.. da für gibt es 3 möglichkeiten.
1.) die hardware wird genormt
2.) eine übergreifende high level shadersprache wird als standard gewählt, die spezifisch für jede gpu kompiliert
3.) spiele sind nicht mehr shaderbound O_o

man kann das ziemlich gut mit der entwicklung der cpus vergleichen, deshalb sag ich mal:
1.) wird niemals sein
3.) der trend zeigt die ablösung der fixed-function pipeline => es werden nur mehr shader für lighting usw. benutzt
__________
2.) das wahrscheinlichste: eine cg ähnliche sprache (nicht von nvidia ;)), die speziell für eine bestimmte gpu shader instructions optimiert.

es könnte natürlich auch so sein, dass die gpu wieder von etwas abgelöst wird, sowie es bei der cpu war. kA was, aber in den gute alten dos zeiten, das königreich des 13h modus, konnte man sich auch keine "pixel shader" vorstellen.

da bin ich voll deienr meinung nur so wie es jetzt aufgebaut is kann ma sich nur für eine der 2 richtungen entscheiden udn muss abwägen wei weit ma ältere grafikakrten (mit sahdern!) daran teil haben lässt ;)

Verkauf

Addicted
Avatar
Registered: Apr 2003
Location: Wien
Posts: 437
Um zum eigentlichen Thema zurückzukehren...

Also ich kann bei meiner 6800LE maximal 12 Pipes erriechen dafür alle 6 Verdex Shader...also habe ich die Tests mal mit 12/6 durchlaufen lassen und...

3dmark03:8505
3dmark05:3029

Alles noch mit nicht übertaktetem System und nicht übertakteten Grafikkarte...

Um noch etwas zu eurer DirektX Diskussion beizutragen:

3dmark01
XP2.500 6800LE: 13862
A64 3.000+ 6800LE: 17242

3dmark03:
XP2.500 6800LE:6362
A64 3.000 6800LE: 6821

Also sieht man eindeutig, 01 hängst stark vom Prozessor ab, 03 nicht mehr wirklich! Die unteren Werte sind alle mit 8/4!

Ich hoffe jetzt wird wieder über Werte und Fakten gesprochen...

aNtraXx

trailer park king
Avatar
Registered: Apr 2002
Location: Linz
Posts: 6907
Habe mir heute auch eine AOpen 6800LE geholt

gehen ebenfalls "nur" 12/6 Pipelines mit 16/6 geht auch noch ganz akzeptabel, man hat halt ein leichtes schneien. also im extremfall könnte ich damit leben falls die leistung nicht ausreicht.

habs mal auf die schnelle auf 345/855 gestellt die karte und auf folgendem system gebencht:

xp2700 @ 166mhz fsb
Asus a7n8x-e deluxe
1GB Corsair
AOpen 6800LE

3dmark03 -> 9007pkt

still testing...
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz