"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

Spezifikationen der GeForce 9800 GTX enthüllt

JC 26.02.2008 - 13:21 16322 84
Posts

Robert83

Here to stay
Registered: Aug 2003
Location: Overclocking Hil..
Posts: 1955
Wie rechnest du ;) ?
2x4Ghz=8Ghz und 4x3Ghz=12Ghz ->Differenz 4Ghz
Nein, so darfst nicht rechnen...
Mal schaun, was dann rauskommt, aber mit 3Ghz bencht halt üblicherweise keiner ernsthaft.

Yidaki

Little Overclocker
Avatar
Registered: Mar 2005
Location: 1030
Posts: 68
Ja, genau so. Der 3DMark unterstütz ja Mehrkern-CPUs und _nur_ die CPU Punktzahl ist nicht das entscheidende Kreiterium.

Aber ein Quad @ 3Ghz gibt ca. doppelt so viel Punkte wie ein Dual-Core @ 3Ghz. So viel ist klar.

Die CPU war ja nicht übertaktet, genausowenig wie die Grafikkarte. Von daher verstehe ich die einwende nicht, dass eh keiner mit einem 3Ghz Quad bencht. Sollte nur veranschaulicht werden, wie gut die Grafikkarte in einem "normalen" System rennt, das unübertaktet ist.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
So ists bei der 3870 X2 aber auch. Wenn du nur auf nen Quad mit 3 Ghz setzt, wirst du kaum über 12-13k hinauskommen. Da limitiert er einfach. Um die Karte bei 3D Mark 06 auch ohne Overclocking stark zu machen müsstest du ne hohe Auflösung fahren, und 8*AA/16*AF reinhauen.
Beim default wert kommt man nicht drum herum die CPU auf 4 Ghz+ laufen zu lassen

Trotzdem finde ich die "Mini-erhöhungen" bei Nvidia momentan echt lachhaft. Sollte es ATI mit dem 8.3 schaffen die 3870X2 nicht nur bei den 3D Marks gut aussehen zu lassen sondern auch bei ALLEN Spielen, wird sich die neue Nvidia-karte, zumindest bei Leuten die sich über die Leistung vorher schonmal schlau gemacht haben, nicht gut verkaufen

Für SLI mit 2 9800 GTX ist der NV-Chipsatz derzeit noch zu schlecht, und als einzelne Karte verliert sie gegen ATIs CF-Gespann

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14520
Zitat von NeseN
sollte sie eigentlich schon. lt. diesem beitrag sollte sie es können.
eben, darum kommt mir das ja irgendwie spanisch vor.

dem screen zufolge kann sie es wiederum nicht?!
Zitat von JC


stellt sich die frage, ob die karte vom screen tatsächlich eine 9800 gtx oder eine geflashte gts 512 war.

Yidaki

Little Overclocker
Avatar
Registered: Mar 2005
Location: 1030
Posts: 68
Zitat von Darkside_86
Zitat von JC

Sind wir uns einig, dass man mit einem Quad @ 3Ghz mehr punkte hat als mit einem Dual-Core @ 4Ghz?

BooTes

Octocat!
Avatar
Registered: Sep 2002
Location: St. Egyden
Posts: 1595
Man sollte vielleicht bedenken das nicht jeder von 8x auf 9x umsteigt, sondern etliche noch eine 7x Karte im Rechner haben, so wie ich. Von daher lohnt sich ein Umstieg allemal, außerdem sollte man die kleinere Fertigung (Stichwort Temperatur) nicht außer Acht lassen. Nix mit Bauernfängerei ihr Experten.

Außerdem versteh ich sowieso nicht wie man sich darüber aufregen kann das die aktuelle Karte noch schnell genug ist und man kein Geld für eine neue GraKa ausgeben muss, ist doch eh toll.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Ja sind wir - Mir gings aber um den default wert bei 3D Mark 06 und wie man den nur vergleichen kann, wenn die CPU nicht übertaktet ist

btw: Schau mal in meine Sig und schaue auf den 3D Mark 06 score der 3870 X2 mit nem Quad @4 Ghz im Rücken-> Da schauen die berechneten 18600k der 9800 GTX nicht gut aus(Wenn die Karte nicht übertaktet gewesen wäre, wären es ca 19500 gewesen) und das unter Vista

Sind aber eh alles reine Spekulationen

Yidaki

Little Overclocker
Avatar
Registered: Mar 2005
Location: 1030
Posts: 68
Temperatur? Die Karte verbrät mehr als der Vorgänger :lol:

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Bauernfängerei ist das wenn sie die Karte wieder für 400-500 Euro in den Laden stellen, und ne GTS G92 um die 250 zu haben ist

Yidaki

Little Overclocker
Avatar
Registered: Mar 2005
Location: 1030
Posts: 68
Wird aber sicher der Fall sein ;)

NeseN

Nobody f*ks with DeJesus!
Avatar
Registered: Feb 2003
Location: Fl3d3rMau5LanI)
Posts: 4183
@Starsky
ich hoffe mal, das das nicht stimmt, was auf dem screenshot zu sehen ist. vielleicht zeigt diese GPU-Z version noch was falsch an. wenn dem nicht so ist und die karte unterstützt wirklich kein DX10.1 wäre das echt schwach von NV, weil angeblich kann bereits eine HD2400 DX10.1. damit wird man zwar nicht wirklich zocken können, aber support wäre vorhanden.

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
http://www.alternate.at/html/produc...owTechData=true Hmmm? seit wann kann ne 2400 DX 10.1? Oder hab ich was verpasst (denke mal du hast dich verschrieben) :D

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14520
Zitat von Darkside_86
Bauernfängerei ist das wenn sie die Karte wieder für 400-500 Euro in den Laden stellen, und ne GTS G92 um die 250 zu haben ist
glaube nicht, dass die gtx so teuer wird - die 9800 gx2 soll fudzilla zufolge für angepeilte ~400€ den besitzer wechseln.
(solltest du ja als fudzilla-mitarbeiter ja eh wissen. :p)

/edit: fudzilla

Darkside_86

linux addicted
Avatar
Registered: Apr 2007
Location: Bocholt
Posts: 4077
Ich hatte da noch nicht die richtigen Informationen

Aber dank dir, wird veröffentlicht :D

Edit: Wie können meine Kollegen nur son Schwachsinn schreiben :D Denke mal eher ca 500 Euro bei Release

Wie gesagt alles reine Spekulation

Viper780

Moderator
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49729
nein die HD2400 kann "nur" DX10 da sie SM 4.0 hat.

die billigste KArte mit SM4.1 und somit DX10.1 ist eine HD3450 welche ab 33€ zum haben ist http://geizhals.at/a309181.html
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz