Ringding
Pilot
|
Aber jetzt mal zu was anderem Was fange ich denn mit der ganzen Rechenpower der Grafik- und Physik-Karte im Windows an? Es liegt ja nicht direkt brach. Heutzutage ist sehr genau auf den Stromverbrauch zu schauen. Wenn das Ding nicht verwendet wird, wird es eben abgeschaltet und verbraucht nur sehr wenig Strom. Wenn es aber für andere Aufgaben missbraucht würde (was teilweise sicher möglich ist), muss es eingeschaltet bleiben und braucht dann einge Menge Strom, und das eher unnötig. Leistung ist heute nicht mehr gratis. Auch wenn sie grundsätzlich vorhanden ist, ist es doch noch praktischer, sie nur sehr konservativ auszureizen.
|
dirkle
Bloody Newbie
|
(...) Wenn das Ding nicht verwendet wird, wird es eben abgeschaltet und verbraucht nur sehr wenig Strom. (...) Ja, gutes Argument. Allerdings wenn ich mir dann die Entwicklung von MS-Longhorn ansehe, wo eben die Leistung der 3D-Grafikkarte explizit aktiviert sein soll und eben NICHT abgeschaltet wird, beisst sich das doch mit 'Energie sparen'. Ich gehe auch nich davon aus, das MS diese 3D-Oberflaeche Leistungsschonend programmiert... und eine dicke Graka verbraet unter Vollast auch rund 100W. Prozessormaessig sieht es auch nicht viel besser aus. Stichwort: Intels 200W-Gluebirne, aber das gehoert in einen anderen Thread. Die Energiefrage in PC's heute ist mit Sicherheit ein neues sehr wichtiges Kriterium. mfg dirkle
|
Master99
verträumter realist
|
100W is vielleicht a "bissal" übertrieben... windows wird ja hoffentlich nicht a G70 voll auslasten.. hehe.... aber es reicht ja schon vollkommen wenns "nur" 50W sind...
|
XXL
insomnia
|
und ein P4 braucht auch keine 200Watt .. 115 w tdp, die er wahrscheinlich netmal unter vollast erreicht weil nie alle transistoren gleichzeitig takten ... weil wenn man von deiner rechnung ausgeht bräuchte jeder pc ein 600w netzteil weil 300w für cpu und gpu draufgehen, und das ist einfach net so ...
|
whitegrey
Wirtschaftsflüchtling
|
optimierung ist da imho alles. man kanns auch übertreiben mit performance. wenn man aleine mal überlegt, wie gut heut zu tage games auf rechner performen, ich denk da nur an hl2, dann ist ne ppu unsinnig. wenn man überlegt, dass sowas auch wieder zu einer gehobenen ausstattung für pcs gehört braucht ein normalsterblicher sowas garnicht. erinnert mich irgendwie an die MPEG2-Decoder Karten die aktuell waren wie das Thema DVD am PC aufkam, bei vielen Systemen die Leistung aber noch nicht reichte... nicht recht viel später wurden sie schlichtweg überflüssig - könnte hier genauso sein. Vor allem wenn das ganze wirklich mal direkt über die Graka geht (Tendenzen die Graka nicht nur zur reinen Grafikberechnung zu verwend sind ja da)... imho
|
Ringding
Pilot
|
Allerdings wenn ich mir dann die Entwicklung von MS-Longhorn ansehe, wo eben die Leistung der 3D-Grafikkarte explizit aktiviert sein soll und eben NICHT abgeschaltet wird, beisst sich das doch mit 'Energie sparen'. Solang sich nicht ständig was bewegt am Bildschirm, wird eh kein Strom verbraten. Es ist zwar sicher unnötige Energieverschwendung (man könnte das z.B. in absolut sinnlosen weltweiten CO2-Ausstoß umrechnen), aber so schlimm kann's schon nicht sein. Ich gehe davon aus, dass sich am Bildschirm nix bewegt, solange Maus und Tastatur still stehen.
|
dirkle
Bloody Newbie
|
und ein P4 braucht auch keine 200Watt .. 115 w tdp, die er wahrscheinlich netmal unter vollast erreicht weil nie alle transistoren gleichzeitig takten ... Ja, stimmt habe nachgeschaut, 200W waere wirklich etwas viel,... hab jedoch irgendwo mal was von 196w gelesen,... war wohl was anderes CPU.............: P4 EE-840 (dual 1MB L2 - 775) (Smithfield) Core Voltage....: 1.4V (1.2V~1.4V) Umax............: 1.55V Imax............: 125A TDP.............: 130W max. Cover-temp.: 69.8°C Quelle: http://users.erols.com/chare/elec.htm (ziemlich weit unten) Uebrigens, kleine Milchmaedchenrechnung: nach P=U*I folgt P=1.55V*125A ergibt Pmax=193,75VA = 193,75W Solang sich nicht ständig was bewegt am Bildschirm, wird eh kein Strom verbraten. Ja, damit hast du auch wieder Recht,.. aber wie heisst es doch noch so schoen: abwarten und Tee trinken... Zum Glueck haben ja jetzt beide CPU Hersteller die alarmierend hohe Verlustleistung erkannt... mfg dirkle
|
Viper780
Er ist tot, Jim!
|
erinnert mich irgendwie an die MPEG2-Decoder Karten die aktuell waren wie das Thema DVD am PC aufkam, bei vielen Systemen die Leistung aber noch nicht reichte... nicht recht viel später wurden sie schlichtweg überflüssig - könnte hier genauso sein. Vor allem wenn das ganze wirklich mal direkt über die Graka geht (Tendenzen die Graka nicht nur zur reinen Grafikberechnung zu verwend sind ja da)...
imho sand noch immer interessant da sie a sehr guten TV out haben und auch bei DVB stationen ganz nett sand, aber leider viel zu teuer
Bearbeitet von Viper780 am 24.06.2005, 16:27
|
Hornet331
See you Space Cowboy
|
Quelle: http://users.erols.com/chare/elec.htm (ziemlich weit unten) Uebrigens, kleine Milchmaedchenrechnung: nach P=U*I folgt P=1.55V*125A ergibt Pmax=193,75VA = 193,75W is ja klar warum der stromverbracuh höher is als die wärmeabgabe, weil ned amal eine glühbrine wandelt 100% der aufgenommenen energie in wärem um sonderen auch einen gewissen teil in licht. wär ja blöd wenn die glühbrine ned leuchtet sondern nur heizt. Deshalb sollten allle die meinen, stromaufnahme = wärmeabgabe(bei cpus) lieber mal a bisl nachdenken.
|
t3mp
I Love Gasoline
|
Wenn Longhorn mit permanent aktiviertem 3D-Modus rauskommt dürfen sich Nvidia und ATI beim Stromsparen eben nicht mehr auf die Unterscheidung 2D/3D beschränken. C'n'Q für die GPU wär für mich definitiv ein Kaufgrund, 1000 3Dmarks auf oder ab interessieren mich hingegen schön länger nicht mehr.
Eine PPU würde bei Nichtbenutzung ja hoffentlich abgeschaltet werden; aber wie auch immer, ich hoff dass der Chip einfach zu einem Co-Prozessor auf der Grafikkarte wird, dann wär auch der Graka-RAM einmal besser ausgelastet. 256MB werden ja kaum bemüht, und 384/512MB hätten dann vll. sowas wie eine Daseinsberechtigung...
Bearbeitet von t3mp am 25.06.2005, 13:13
|
XXL
insomnia
|
Ja, stimmt habe nachgeschaut, 200W waere wirklich etwas viel,... hab jedoch irgendwo mal was von 196w gelesen,... war wohl was anderes
CPU.............: P4 EE-840 (dual 1MB L2 - 775) (Smithfield) Core Voltage....: 1.4V (1.2V~1.4V) Umax............: 1.55V Imax............: 125A TDP.............: 130W max. Cover-temp.: 69.8°C
Quelle: http://users.erols.com/chare/elec.htm (ziemlich weit unten) Uebrigens, kleine Milchmaedchenrechnung: nach P=U*I folgt P=1.55V*125A ergibt Pmax=193,75VA = 193,75W
Ja, damit hast du auch wieder Recht,.. aber wie heisst es doch noch so schoen: abwarten und Tee trinken... Zum Glueck haben ja jetzt beide CPU Hersteller die alarmierend hohe Verlustleistung erkannt...
mfg dirkle wobei wieder die frage aufkommt wieso pcs heutzutage noch mir 400 watt netzteilen auskommen .... wenn die cpu schon 200 watt verbraucht ... ....
|
dirkle
Bloody Newbie
|
Naja ok.. die 193,75W ist die Leistung bei der der Rechner/ die CPU komplett abschaltet.. also Maximaler Spitzenwert. das formuliert die Quellhomepage http://users.erols.com/chare/elec.htm folgendermassen:Vmax is the maximum non-operating (failure) voltage.ausserdem Interessant:Regarding the chip's wattage numbers, Intel states: "The [Thermal Design Power] numbers ... reflect Intel's recommended design point and are not indicative of the maximum power the processor can dissipate under worst case conditions.und dieses hier:The Estimated Max Power Dissipation numbers are based on the fact that Intel estimates the power dissipation for various software applications and sets the Thermal Design Point as the upper limit for how far these applications might push the Pentium 4. Intel states: "Processor power dissipation simulations indicate a maximum application power in the range of 75% of the maximum power for a given frequency." So the Est Max Power Diss was calculated by dividing the TDP by 75%.und noch ein 1-Zeiler fuer die, die zu faul sind aus Spass mal Nachzurechnen P4-> TDP 130W --> 130W/0.75 = 173,33W also rund 175W mfg dirkle
|
dirkle
Bloody Newbie
|
|
Hornet331
See you Space Cowboy
|
wobei wieder die frage aufkommt wieso pcs heutzutage noch mir 400 watt netzteilen auskommen .... wenn die cpu schon 200 watt verbraucht ... .... weil die netzteile meist a bisl mehr liefern können als angegeben is, aber eben ned auf dauer. Glaubst warum nach manchen intensiven gaming sesions schon ein paar netzteile sich sprichwörtlich in rauch aufgelöst haben. @ topic nette seite endlich mal alle infos auf einen haufen.
|
plainvanilla
rudi
|
|