Stromverbrauch Monitore
Jedimaster 16.11.2023 - 09:19 5389 23
Jedimaster
Here to stay
|
Muss ich testen, Monitore haben wir sehr ähnliche, Benq BL2420PT - sprich 'derselbe' in QHD. Der andere ist von Lenovo aber hat dieselben technische Daten - durchaus möglich das dasselbe Panel ist.
|
sp33d
aka Fas7play
|
Ist wieder nur ein Bauchgefühlt aber lass mal beide auf 60Hz laufen.. andernfalls oag jo. Da ich davon ausgehe, dass der GPU-MEM nicht runtertaktet und immer vull speed lauft.. 30W wirfst du den "Mist-Bug" einfach ins nix.. aber hey.. hauptsache mit 600+W benchen
|
Jedimaster
Here to stay
|
Eh, aber ne Bench-session rennt nicht stundenlang  Aber der Punkt ist einfach das ich abschätzen können sollte ob sich der Strombedarf von Gaming-Rigs die letzten 10 Jahre 'massiv' verändert hat, weniger oder mehr wurde. Angenommen hätte ich da es sich dank Monitore und mehr effizienz etwas verringert hat - dem scheint aber nciht der Fall zu sein. (und ich red jetzt mal vom 'Durchschnitts-Gamer-PC', nicht von irgendwelchen i9/RTX 4090 Monstern dies es zwar auch gibt aber halt mit Lowpower-Gamingnotebooks ausgeglichen werden die auch immer mehr auf Lanpartys verwenden (+ Schirm) Es geht halt darum ob wir für die nächste 300er/400er Lan 200A, 300A oder 400A Kraftstrom brauchn
|
Guest
Deleted User
|
Meine 42er OLEDs brauchen im Dunkelmodus 20-25 Watt. Der 65er nicht viel mehr. Wenn alles auf weiß steht gehts natürlich munter hinauf. In einer "normalen" Desktop Umgebung aber auch kaum über 50 Watt bei 100-125nits.
|
davebastard
Vinyl-Sammler
|
ist auch die Frage bei welcher Helligkeit, ich bin bei meinem 34" LG bei 36(!) von 100 bei einem IPS. Das ist bei anderen Technologien wie oled eventuell anders aber afair macht das schon was aus bei den klassischen Panels. Ist ja bei Laptops auch so dass die immer abdunkeln um Strom zu sparen.
Ich habs nicht auf 36 um Strom zu sparen sondern weil ichs als die richtige Helligkeit empfinde btw.
Bearbeitet von davebastard am 16.11.2023, 17:55
|
Guest
Deleted User
|
125 Nits oder eher sogar etwas weniger empfinde ich beim normalen Arbeiten als am angenehmsten. Bei Spielen und speziell HDR Content geht der Verbrauch natürlich rauf.
Kommt wie immer auch auf die Stärke des Umgebungslichts an.
Unter Tags verwende ich 25-30% Helligkeit und in der Nacht gehts runter auf 15-20.
|
NL223
RoHS-konform
|
aber i find die Werte auch ned hoch... i mein irgendwo muss "das licht" ja herkommen, und bei den größen die heute üblich sind find ich das ganz ok... der Vergleich zur CRT Ära haut auch immer noch hin, wenn i bedenk dass mein iiyama trinitron mit 20" sichtbar sich schon mal 200W genehmigt schrecken mich 25% davon für 7" mehr eigentlich gar nicht
|
COLOSSUS
AdministratorGNUltra
|
Also ich hab meinen Monitor (HP X27q) mit 5% Helligkeit in Betrieb, und das reicht mir im Alltag locker. In WQHD mit 165Hz ueber DP braucht nur der Monitor damit knappe 10W. AMD GPUs (nicht aber AMD iGPUs in APUs, afaict) brauchen je nach Refresh Rate und/oder Anzahl der Displays uebrigens viel mehr Strom beim relativen Nichtstun, weil der Speichertakt in diesen Einsatzszenarien nicht mehr auf die niedrigste Stufe abgesenkt werden kann. Das kann schon das eine oder andere Dekawatt ausmachen, ja nach Karte (bei meiner RX6400 waren es ~8W Unterschied fuer die GPU zwischen 60 und 165Hz). Also wenn euer Gesamtsystem mit hoher Refreshrate ploetzlich viel Strom saeuft, dann wird das imho eher an der GPU als am Display liegen.
|
Guest
Deleted User
|
Ja, meist taktet die GPU nicht richtig runter und das kostet richtig viel..
|