"We are back" « oc.at

LOL! laut nvidia in naher zukunft 120 watt für gpu`s!!

3Dfx 21.03.2003 - 20:56 2786 62
Posts

Griesi

Das glaub ich nicht Tim
Avatar
Registered: Aug 2000
Location: LI/G
Posts: 1196
Ich glaub dass sie einfach dann die Fläche des GPU´s um einiges vergrößern um so besser die Wärme wegzukriegen und dann sind 120 Watt auch nicht mehr so is Problem.
Aber ich glaub auch dass bei den neuen Mobo Layouts unter dem AGP dann gleich der 1. PCI Slot weggelassen wird.

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9495
Zitat von Griesi
Ich glaub dass sie einfach dann die Fläche des GPU´s um einiges vergrößern

na das wird sicher ned passieren, weil waver Fläche Geld kostet, deswegen will ja jeder soviele cores wie möglich auf einen waver bekommen...

Phobos

✝
Avatar
Registered: Jan 2003
Location: 1050
Posts: 2111
da ich keine ahhnung hab frag ich jetztz in die runde: was für eine leistung hat sag ma eine GF4 GPU?

Jedi

PROGrAMmER
Avatar
Registered: May 2002
Location: linz
Posts: 1871
weniger als 120W :D


iirc 20 - 30W

The Red Guy

Untitled
Avatar
Registered: Jul 2001
Location: Transdanubia
Posts: 3121
LOL

Die 3DFX Engineers haben endgültig das Sagen bei nVidia. :D

:bash:

Aber vielleicht sollte man langsam generell mal über die PC-Architektur diskutieren, wenn es um zukünftige geschwindigkeitssteigerungen geht.

Schmax

Ambitious but rubbish
Avatar
Registered: Apr 2002
Location: Esbjerg, Danmark
Posts: 2727
also was ich daran krank finde ist dass diese 120w gpu (welche auch immer es sein wird - nv50 wahrscheinlich ;)) mehr verlustleistung hat als ein xeon 3,06ghz...
:eek:

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9495
Zitat von Schmax
also was ich daran krank finde ist dass diese 120w gpu (welche auch immer es sein wird - nv50 wahrscheinlich ;)) mehr verlustleistung hat als ein xeon 3,06ghz...
:eek:

wieso is des verwunderlich? Ein p4 hat unter 60 mio TRansistoren, eine nv35 130 mio --> alles klar?

Schmax

Ambitious but rubbish
Avatar
Registered: Apr 2002
Location: Esbjerg, Danmark
Posts: 2727
die anzahl der transistoren hat doch nicht direkt einen großen einfluss auf die wärmeabgabe. die r300 hat sicher auch net sehr viel weniger transistoren als die nv30 mit ihren 125 mio. und trotzdem weit weniger abwäme als eine cpu...

Hubman

Seine Dudeheit
Registered: May 2000
Location: Nürnberg vs. Vl..
Posts: 5835
Zitat von tombman
bei gpus könnte ich mir sehr gut multicores vorstellen, wo ein einzelner
core ned sehr heiß wird, und die leistung eben dadurch
bestimmt wird wieviele von denen eben auf der platine stecken
so hätte ein high end modell dann vielleicht 4, mid range 2
und low end 1 core.

jop, dem würde ich mich anschließen

kollektor

built 4 overclocking
Avatar
Registered: Apr 2001
Location: austria/NÖ/Möd..
Posts: 768
Zitat von Schmax
die anzahl der transistoren hat doch nicht direkt einen großen einfluss auf die wärmeabgabe. die r300 hat sicher auch net sehr viel weniger transistoren als die nv30 mit ihren 125 mio. und trotzdem weit weniger abwäme als eine cpu...

aus logischer sicht würd ich sogar sagen, dass anzahl transistoren und verlustleistung direkt proportional zusammenhängt. warum ati weniger verlustleistungen bei ihren gpus haben wissen wohl nur sie -> technologievorsprung

crashman

OC Addicted
Avatar
Registered: Oct 2001
Location: Vienna
Posts: 891
Zitat von Hubman
jop, dem würde ich mich anschließen


naja ich weiss net diese multi core geschichten haben sich doch net bewährt oder ?
Als Beispiel fällt mir im moment nur 3dfx ein aber auch bei den high end karten ist glaub ich im moment das max. 2.
Was ich mir eher vorstellen könnt wären net 2 gleiche cores die gemeinsam rechnen sondern 2 die auf unterschiedliche aufgaben spezialisiert sind so wie bei den high end cad karten bis vor einiger zeit. Aber ich glaub im grunde sind diese multicorelösungen alle zum scheitern verurteil da sie erstens diesselbe leistung aufnehmen wie alle in einem package, zweitens dadurch die boards sehr kompliziert zum layouten werden und drittens das treiberoptimieren sicher net einfacher wird und zusätzlich durch die 2 sockel ( + eventuell doppelten ram da sie keinen gemeinsamen zugriff haben ) die kosten für den hersteller viel höher liegen.

Hubman

Seine Dudeheit
Registered: May 2000
Location: Nürnberg vs. Vl..
Posts: 5835
Zitat von crashman
Als Beispiel fällt mir im moment nur 3dfx ein

genau dort hat sich imho bewährt

Hermander

OC Addicted
Avatar
Registered: Sep 2000
Location: Vienna
Posts: 7627
interssant wäre ein graka = mainboard prinzip.. :D

also eine stecvkkarte wo dann ein socket is und rambänke...
zum upgraden halt...
also eine neue GPU kaufen gehn und neue ram hätte schon was! :D ;)

wirds aber sicher nicht allzu bald geben... (zu teuer und zu aufwendig!)

crashman

OC Addicted
Avatar
Registered: Oct 2001
Location: Vienna
Posts: 891
Zitat von Hubman
genau dort hat sich imho bewährt

ich dachte die karte hat sie umgebracht ??
War die nicht so teuer durch die vier sockel und netzteil das sie die nie regulär hätten verkaufen können ? Bin mir net sicher aber ich glaub der speicher war ja net shared zwischen den gpus oder ?
Net das ich mich so toll bei 3dfx auskenn aber wenn auf multi gpu dasselbe zutrifft wie auf cpu's war sie wahrscheinlich net doppelt so schnell wie die 2gpu version oder ?
Wah viele fragen hab ich ;)

Master99

verträumter realist
Avatar
Registered: Jul 2001
Location: vie/grz
Posts: 12734
die Enduser HighEnd-Karten von 3dfx hatten max. 4 Chips. (Voodoo 5 6000)

aber es gab auch noch Grakas mit bis zu 32? (oder irre ich mich jetzt da, auf alle fälle >= 16) VSA 100 - Chips.

und dieser Versuch hat 3dfx nicht das Genick gebrochen, sondern die lange Verspätung der Karten, das Kaufen einer Kartenfabrik (vorher hatten sie genau wie Nvidia nur Chips verkauft) und die damals ungünstigen umstände mMn (T&L und 32bit wurden gepusht, aber damals für Praxis noch viel zu langsam... 3dfx hatte aus gutem Grund darauf verzichtet, aber alle bemängelten diese Papierfeatures)

bei Grakas is diese 2 GPU-Variante sogar wirklich fast 50% weil man nur den Bildschirm zwischen den 2 Chips aufteilen muss.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz