JC
AdministratorDisruptor
|
Eine äußerst zuverlässige Quelle hat angeblich die G70-Spezifikationen - so lautet der Codename von nVidias kommendem High-End Grafikchip für Desktop-PCs - bestätigt. Geplant sind zur Zeit offenbar vier Modelle, von denen zum Launch-Datum am 22. Juni allerdings nur die 7800 GTX, die 7800 GT und die 7800 vorgestellt werden wird. Einige Zeit später dürfte dann eine Karte mit schnelleren Taktfrequenzen als 7800 Ultra nachfolgen. Die mit dem 110-nm-Fertigungsprozess hergestellte 7800 GTX wird mit 430 MHz getaktet sein. Ausgestattet wird die Karte dann je nach Modell mit bis zu 512 MB Speicher, der mit 1,4 GHz betrieben wird. 24 Pixel-Pipelines (6 Quads) runden das Paket dann ab. SLI wird erst ab dem GTX-Modell möglich sein. Mehr Informationen dazu finden sich bei PureOverclock. Somit hat nVdidia also noch keinen 90nm-Chip zur Verfügung, obwohl möglicherweise die 7800 Ultra bereits mit dem kleineren Fertigungsprozess produziert werden wird. Dazu passt auch, dass nVidias CFO Marv Burkett in einer 15minütigen Päsentation bei der J.P. Morgan Technology Conference durchsickern ließ, dass der RSX noch nicht einmal sein Tape-Out hinter sich hat. Alle Demos auf der E³ wurden entweder auf SLI-Systemen oder auf einem in Kürze einzuführenden High-End Produkt gezeigt, welches dem RSX in Punkto Fähigkeiten stark ähnelt.
|
TOM
Super ModeratorOldschool OC.at'ler
|
SLI wird erst ab dem GTX-Modell möglich sein hier möchte ich nur ein simples "rofl" beifügen (ich wusste schon wieso ich bei meinem sys upgrade auf S939 kein SLI mobo kaufte...)
|
mr.nice.
Moderatordifferential image maker
|
Bin schon gespannt wie die 7800er performt, wenn sie sich Leistungsmäßig zwischen 6800 GT und Ultra bewegt und um die 300.- kostet, könnte das die neue Preis/Leistungs-Karte werden. Wenn sich dann noch die Pipes freischalten lassen sollten wie bei der 6800 LE *Daumen drück*.
|
andL64
VOIDS UR WARRANTY 4 FREE
|
also das sind 5mhz mehr als die 6800Ultra von daher beeindruckt mich des sehr wenig da muss scho viel verändert worden sein wenn die 430mhz jetzt um einiges mehr können sollen als die 425 der 6800ultra, aber mal abwarten....
und was hats mit den 24 pipes auf sich sind die jetzt auch verändert worden weil irgendwann gabs ja gerüchte die 24 sollten so stark wie 30 bei alten karten sein.....
seEn
|
Hornet331
See you Space Cowboy
|
und was hats mit den 24 pipes auf sich sind die jetzt auch verändert worden weil irgendwann gabs ja gerüchte die 24 sollten so stark wie 30 bei alten karten sein.....
seEn dasa war beim r520 ned beim G70, der r520 soll gerüchten zu folge 24 "extrem" pipelines haben... aber naja is alles nur gerücht.
|
MrBurns
Back from Banland
|
also das sind 5mhz mehr als die 6800Ultra von daher beeindruckt mich des sehr wenig da muss scho viel verändert worden sein wenn die 430mhz jetzt um einiges mehr können sollen als die 425 der 6800ultra, aber mal abwarten....
und was hats mit den 24 pipes auf sich sind die jetzt auch verändert worden weil irgendwann gabs ja gerüchte die 24 sollten so stark wie 30 bei alten karten sein.....
seEn bei der 5800er war die taktfrequenz mit 500mhz ja viel höher als bei allen nachfolgemodellen, trotzdem ist die 6800 ultra um einiges schneller. mhz ist eben nicht alles... edit:Power supply demands have stayed the same as far as I can tell, with a single GTX warranting 400 watts and 24 amps on the +12v rail and two GTX’s in SLI needing a 500 watt PSU and 34 amps on the +12v rail. It’s not yet clear if 512MB cards will actually be ready for launch. There is currently no word on pricing either. ich frag mich langsam, ob sli wirklich so toll ist wie ich am anfang geglaubt habe...
Bearbeitet von MrBurns am 28.05.2005, 20:57
|
andL64
VOIDS UR WARRANTY 4 FREE
|
stromspecs sind fürs system mit karte ausgelgt! die karte alleine saugt niemals 24ampere vom 12er rail..... das wären satte 288Watt ( nur die karte ) P= UxI (Leistung in Watt = Spannung in Volt x Strom in Ampere) seEn
|
Whistler
Alias Revo./Tscheckoff
|
*lol*. Die werden sicher mal das 3DFX Konzept von nem externen Netzteil pro Karte einführen, wie bei den 3DFX 6000 Karten *hrhr*. Ich mein: Was soll denn das, dass man schon mindestens n´ 600W Netzteil braucht (wenn nicht mehr), um 2 Grafikkarten und de Dual-Core CPU z.B. mit ein paar Platten zu betreiben ? Wo solln das hinführen ? Im SLI sich solche Karten zuzulegen ist sowieso voll und ganz krankhaft. Hab ich eh schon auch im 4x SLI-Mobo-Thread gesagt: Wer braucht schon die neuen Karten im SLI ? Die werden wahrscheinich erst mit neuesten Spielen in nem Jahr oder länger an Ihre Grenzen kommen *g*. mfg /Edit/ Und noch dazu: Wer kann sichs leisten ?
|
Viper780
ModeratorEr ist tot, Jim!
|
leisten können sichs a handvoll leute so wie auch imemr dei neuesten High End Karten, des amchts den herstellern leichter da müssen dei High end Karten nimmer ganz soo schnell sein weil ma sich ja a 2. oder mehr dazustecken kann.
ich bin mal gespannt was die Karte kann für mich wird aber wie immer erst die nachfolge Generation im Winter interessant werden
|
MrBurns
Back from Banland
|
stromspecs sind fürs system mit karte ausgelgt! die karte alleine saugt niemals 24ampere vom 12er rail.....
das wären satte 288Watt ( nur die karte )
P= UxI (Leistung in Watt = Spannung in Volt x Strom in Ampere)
seEn is aber trotzdme ziemlich viel. und nachdem 2 karten 10A mehr brauchen als eine nehm ich an, dass eine karte bis zu 10A saugt, das sind auch immerhin noch 120W... und ich glaub, netzteile die 34A auf der +!"V schiene liefern sind ned allzu billig und außerdem kann ich mir vorstellen, dass es in einem ATX-System größere Probleme geben kann, wenn man 240W Abwärem von 2 Karten, die wahrscheinlcih auch noch direkt übereinander sind abführen muß...
|
Hornet331
See you Space Cowboy
|
Stromverbrauch =! Abwärme
|
MrBurns
Back from Banland
|
Stromverbrauch =! Abwärme doch, Stromverbrauch=Abwärme. Das gilt für fast alle elektrischen Bauteile die ich kenne (als Ausnahmen fallen mir nur elektromotoren, Pumpen und lichterzeugende bauteile wie Glühlampen oder LEDs ein). Strom ist eine Energieform, Energie kann nicht wirklich verbraucht werden, sondern nur umgewandelt. Und bei einem Computerchip wird sie in nichts anderes als Wärme umgewandelt (es handelt sich im Prinzip um einen elektrischen Wiederstand). Selsbt die Energie, die benötigt wird um den Lüfter zu bewegen wird im Endeffekt durch Reibung in Wärme umgewandelt (wenn es keine Reibung gäbe würde er Lüfter immer schneller werden, bis sich die Drehgeschwindigkeit der Lichtgeschwindigkeit annähert und wenn man ihn ausschalten würde, würde er sich unvermindert schnell weiterdrehen).
Bearbeitet von MrBurns am 30.05.2005, 13:47
|
SKYNET
Götter-Vater
|
|
MrBurns
Back from Banland
|
http://www.hardwarezone.com/article...;cid=3&pg=1 Die Kühlungd ie man auf dem Foto sieht dürfte wohl kaum die endgültige sein, weil NVIDIA hat ja anscheinend noch einige Probleme mit der Kühlung: According to our sources, the card is hot, so hot that we did not managed to even perform a live run. The card is obviously damaged due to heat and upon closer inspection, we saw brown burnt marks around the card, near the PCI Express connector and even at the fan plug. The 10-layer PCB which holds the GPU also suffered heat damage and we saw blistering of the PCB at areas near the GPU. Die endgültige Refernzkühlung dürfte als wohl eine bessere sein als die auf dem Foto...
|
JC
AdministratorDisruptor
|
Aus Anands Pre-Computex Coverage lässt sich herauslesen, dass G70-Karten bereits in Kürze auf den Markt kommen sollen: NVIDIA plans on sticking it to ATI with G70 and offering widespread availability of their new GPU very soon. Manufacturers at the show have already indicated that the first shipments of G70 boards will be in their hands by the second week of June.
|