Turtle
Big d00d
|
was haltet ihr von der hier? http://geizhals.at/a355516.htmlkostet genau gleich viel wie die geforce 285gtx nur das es halt eine ati 4870x2 ist und laut benchmark ja eigentlich besser sein sollte?!
|
Hansmaulwurf
u wot m8?
|
Ja, nur die wird wegen X2 (also zweikernen) lauter sein, und mehr Strom verbrauchen. Sollte laut Reviews auch Recht heiß werden. Und der Vorteil dieser Karten spielt sich halt erst bei größeren Auflösungen, so richtig aus.
|
Starsky
Erbeeren für alle!
|
was haltet ihr von der hier? http://geizhals.at/a355516.html
kostet genau gleich viel wie die geforce 285gtx nur das es halt eine ati 4870x2 ist und laut benchmark ja eigentlich besser sein sollte?! ...wenn crossfire funktioniert und dich die mikroruckler nicht zur verzweiflung treiben.
|
xtrm
social assassin
|
Was hats eigentlich mit den "mikrorucklern" auf sich? Ist das jetzt der neue trend bug der aktuellen grafikkartengeneration oder wie? Habs hier öfters gelesen in letzter zeit.
|
Turtle
Big d00d
|
Bearbeitet von Turtle am 07.02.2009, 21:05
|
Starsky
Erbeeren für alle!
|
kauf dir eine 285er und werde glücklich!
|
xtrm
social assassin
|
Also betrifft das quasi alle karten mit entweder doppeltem kern oder zusammengeschaltete karten (SLI, crossfire)? War das schon immer so, oder tauchte das erst jetzt auf? Weil karten mit mehr kernen und SLI gibts ja auch schon eine ganze weile und nicht erst seit der geforce 9 und den radeon gegenparts. Damals gabs aber keinerlei aufschreie wegen sowas.
|
Starsky
Erbeeren für alle!
|
nv hat die microruckler mittlerweile ganz gut unter kontrolle gebracht.
|
hachigatsu
king of the bongo
|
so ganz nebenbei hab ich bei meiner hd4870x2 noch nichts von mikrorucklern gemerkt
und auf sowas achte ich eigentlich sehr genau
|
Hansmaulwurf
u wot m8?
|
so ganz nebenbei hab ich bei meiner hd4870x2 noch nichts von mikrorucklern gemerkt
und auf sowas achte ich eigentlich sehr genau Die sind auch ne Spur weniger anfällig dafür, als 2 Einzelkarten Besonders wenn du über ~30-40 FPS bleibst edit sagt: Kommt auch drauf an, ob man sie überhaupt sieht. Soll Leute geben, denen sie nicht auffallen, zumindest wenn man sie nicht draufstößt.
|
Castlestabler
Here to stay
|
Also betrifft das quasi alle karten mit entweder doppeltem kern oder zusammengeschaltete karten (SLI, crossfire)? War das schon immer so, oder tauchte das erst jetzt auf? Weil karten mit mehr kernen und SLI gibts ja auch schon eine ganze weile und nicht erst seit der geforce 9 und den radeon gegenparts. Damals gabs aber keinerlei aufschreie wegen sowas. Die Mikroruckler gibt es schon Seit Anbeginn von SLI und Crossfire, nur war am Anfang wichtig mal zwei Karten verbauen zu können und praktisch sind die fps nie so weit gefallen, das es jemandem aufgefallen wäre. Heutzutage wo es einfach native Auflösung von 1920x1200 und höher gibt, fallen solche Kleinigkeiten schneller auf, weil der Leistungsbedarf höher ist. Vor ein paar Jahren war 1280x1024 das höchste der Gefühl in Spielen und nur wenige Spiele hatten wirklich viele Auflösungen zur Verfügung. Und wirklich bekannt ist das Problem erst seit 3Jahren ungefähr, weil da die ersten Leute Software geschrieben haben, die die Zeiten von einzelnen Frames misst und speichert. Es hat zirka ein Jahr gedauert bis die Öffentlichkeit draufgekommen ist, warum dieses seltsame Verhalten auftritt. Mittlerweile werden die Mikroruckler immer geringer, aber die Leute haben auch gelernt, das sie nicht weniger als 40-50fps bei SLI und Crossfire haben dürfen.
|
xtrm
social assassin
|
Very interesting, vielen dank. Ich werds sowieso nie sehen, karten mit 2 chips oder überhaupt zwei karten sind mir deutlich zu teuer und fressen auch noch enorm viel strom, aber ich hätte wohl eh keine freude damit. Ich kann schon nicht ohne vsync spielen, ohne dass ich mich extrem gestört fühle =). Was mich allerdings interessiert: wie siehts bei den voodoo 5 und 6 ( ) karten aus?
|
Viper780
ModeratorEr ist tot, Jim!
|
auch da wars vorhanden, aber die haben ja eh hohe fps geschafft da sie selten über 1024x768 eingesetzt wurden (obwohl die ja unterschiedliche Linien gerechnet haben und somit viel es nicht auf)
|
Turrican
LegendAmiga500-Fan
|
|
hachigatsu
king of the bongo
|
Die sind auch ne Spur weniger anfällig dafür, als 2 Einzelkarten Besonders wenn du über ~30-40 FPS bleibst
edit sagt: Kommt auch drauf an, ob man sie überhaupt sieht. Soll Leute geben, denen sie nicht auffallen, zumindest wenn man sie nicht draufstößt. Also mit meiner 4870x2 beweg ich mir wirklich zwischen allen FPS... z.b.: crysis.. bei manchen stellen bin ich auf 200fps.. bei anderen bei bis zu 30 und sogar 25... auch wenns nur kurz is.. Aber mir wären da wie gesagt noch keine microruckler aufgefallen. Ich achte auf sowas.. mich machts ja schon narisch wenn bei einem Animationsfilm (dvd) etwas nicht zu 100% flüssig läuft *G* Klar gibts gelegentlich ruckler, aber die hatte ich an den selben stellen bei crysis auch mit singlecore grakas.. von daher is das eher gamebedingt. Interessant wäre ob bei einer 2x hd4870x2 kombinatin microruckler auffälliger wären oder überhaupt zu sehen wären... ohne microruckler gezockt (zumindest noch nicht aufgefallen) Fear 2 Demo GTA IV Crysis Crysis Wardhead Crysis Wars Burnout Paradise meiner meinung nach ist die 4870x2 wirklich ne topp karte. Klar frisst sie viel saft und macht genug lärm. Aber wenn man performance will muss man damit leben *G* die gtx295 ist auf jeden fall schneller glaub ich. Hab mich wegen Crossfire(x) trotzdem für die hd4870x2 entschieden. Da kann ich jeder zeit mti einer 4870 oder einer weitern 4870x2 erweitern ohne mir gedanken übers board machen zu müssen. Nur ans Netzteil muss ich denken *G* ok zurück zu MR Maybe ist es etwas treiberabhängig... Vl konnte ati die MR der 4870x2 mit neueren treibern ausrotten... Wenn man über hd4870x2 MR im internet liest haben die meist ewig alte treiber...
|