URL: https://www.overclockers.at/grafikkarten/hd4870_x2_previewed_197408/page_3 - zur Vollversion wechseln!
hehe, als ich mich letztes jahr über den extremen hardwarehunger von crysis nach der langen entwicklungszeit aufgeregt habe, wurde ich im gamesforum noch dezent geflamed...Zitat von daisho@Dimitri: Sieh es ein, Crysis ist ein sch.... Spiel, die Programmierer haben es vermasselt. Warum sonst sollten die (V)HQ-Settings auf JEDEM System einfach fast unspielbar sein? Das kann nicht ganz der Sinn sein, insofern würde ich Crysis mal rauslassen und die Games hernehmen die man die meiste Zeit über zockt (falls es mal nicht Crysis sein sollte) anstatt auf EINEM Spiel aufzubauen ...

soweit ich jetzt alle reviews durch hab ist die HD4870 nichts weiter als ein neuer aufguss der alten X2, mit all den selben mänglen wie bisher. MR sollen etwas besser sein (liegt ihmo aber daran, dass das der RV770 im allgemeinen performanter ist und so fast immer über die 40er fps marke drüber kommt.) aber wenn der treiber kein CF profil hat -> same problem as ever....
ich bleib bei meiner zukünftigen karte etweder bei singel 4870 1gb oder 280gtx 1gb...
Zitat von DimitriCFx soll für hohe Auflösungen gut sein? Mit 512mb Speicher pro GPU? Damit bist relativ bald am Ende, sogar wennst ohne AA+AF unterwegs bist! ATI schlampt einfach bei ihrer Treiberprogrammierung, das ist alles - Sieh dir doch mal die Changelogs der letzten Versionen an ... (außerdem wird nur noch Vista 32-bit optimiert und XP sowie 64-bit vernachlässigt)

)techtree.com im Interview mit AMD. Angesprochen wird alles von der Entwicklung von der HD3800- zur HD4800-Serie, Crossfire-Skalierung, PCI-E Busgeschwindigkeit, Fusion uvm.
ZitatTT: One thing that we noticed with CrossFire: the drivers there haven't been very efficient. Two cards don't exactly add up anywhere close to the theoretical 200 per cent performance leap that we should be looking at. We haven't been able to go beyond 30 per cent; that's really on the lower side.
R: A couple of things here. Games, when you play them at resolutions that are not entirely GPU-bound, then you won't see more than 35-40 per cent. When you make the game completely GPU-bound, say you're running at a resolution higher than 1600 x 1200, you'll start to see the scaling.
ZitatTT: In CrossFire, most of the motherboards, almost 95 per cent of them, support 8X mode instead of 16X each (PCI-E bus speed). Is 8X good enough?
R: If I answer this from a forward looking viewpoint -- yes more bandwidth is always good, but from an existing games stand point, it is good enough, that's what we find
TT: Good enough even for the 4-series?
R: Yes, because our drivers and the games, at least the last generation games, they've been optimized to avoid traffic between GPUs. But my prediction is that moving forward it will be important that there's more bandwidth between GPUs. So if you want to use this configuration for a long time, then you'll have to go for 16X.
Zitat von DimitriIch sage nichts gegen die Leistung der Hardware, die ist absolut genial! Aber ich habe keine Lust erst auf den nächsten Calalyst oder einen Spiele-Patch warten zu müssen sobald ein neues Game rauskommt! Bei NV installierst du und zockst meist Störungsfrei, fertig! (liegt vermutlich an der besseren Zusammenarbeit mit den Entwicklern)
http://www.golem.de/0807/61054-6.html
430W für eine Grafikkarte + System. Mehr als 120W mehr als mit einer GTX280. Das ist einfach nur mehr komplett gaga. 
430w ?????? sauber 
also das mit dem stromverbrauch könnte ruhig etaws verbessert werden +lol+
EDIT - wegen sinnlosigkeit gekürzt *G*
430W für das komplette System unter Load kommt hin. Die Karte selbst hat weniger, auch wenn es nicht viel weniger als 300W ist.Zitat von Cobase430W für eine Grafikkarte. Das ist einfach nur mehr komplett gaga.
Naja 430 Watt schrecken mich jetzt nicht so wahnsinnig, ist ja das ganze System und nicht die Grafikkarte allein. Mit PCI-E 3.0 wird's dann lustig, wenn wir 300+ Watt Grafikkarten aufgetischt bekommen. Aber die Leistung der 4870 X2 ist schon einmal sehr gut und hat nVidia schön die Hose ausgezogen. Normalerweise war ja nVidia der Akteur und AMD (ATI) musste reagieren, jetzt haben sie den Spieß umgedreht und das taugt nVidia gar nicht, denke ich.
Ich hoffe nur AMD rafft sich bald auf und bringt die Multichip-Karten mit einem shared Framebuffer.
Zitat von mat430W für das komplette System unter Load kommt hin. Die Karte selbst hat weniger, auch wenn es nicht viel weniger als 300W ist.
hachigatsu, dein Post ist eine Frechheit für unser aller Augen. Den Sinn von +lol+ und dem gesamten anderen Schmutz kannst du dir beim nächsten Post bei einer Auszeit genauer überlegen.
das testsystem von golem ist ja auch nicht ohne, mit der x2 verbraucht der rechner dennoch nicht doppelt so viel als wie mit einer 4870.
edit: der verwendete qx9770 hat ja schon alleine eine tdp von 136w. 
Ja, in diesem Forum ist das ein Grund. *lol*Zitat von hachigatsu@ Mat.. Wenn das für dich ein grund is auszeit zu geben.. bitte tu dir nix an... Ach muss es schön sein forummod zu sein *lol*

Zitat von mr.nice.Ich hoffe nur AMD rafft sich bald auf und bringt die Multichip-Karten mit einem shared Framebuffer.

Diamond 4870x2: Futuremark Vantage - X8037
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026