Ah, verstehe.
Also bei MSI haben sie's wegen Kostoptimierung wohl gleich gelassen:
3070 Gaming X -> 323 x 140 x 56mm, 2269 g
3080 Gaming X -> 323 x 140 x 56mm, 2370 g
3090 Gaming X -> 323 x 140 x 56mm, 2370 g
Haben wir hier Erfahrung was UV der 3080er betrifft? Vor allem die FE wäre für mich spannend, aber auch gerne andere Karten
Die ROG Strix RTX 3080 OC ist laut Asus für einen Boost-Takt 1.935 MHz vorgesehen. Den erreicht die Karte schon im (Q)uiet Mode. Den (P)erformance Mode habe ich nicht ausprobiert. Für die FE Edition, die übrigens wegen dem Lüfterkonzept so klein ist, da 3 Axial Lüfter die üblicherweise auf den Custom-Modellen sind nun mal mindestens von der Natur der Sache her die Fläche von 3 Axial Lüftern benötigen, sind 1.710 MHz Boost-Takt angegeben. Die Stock Voltage beträgt 1.062V.
Ich hatte davor eine ROG Strix GTX 1080 OC für die 1.860 MHz Boost-Takt angegeben sind. Die GTX 1080 FE hat einen Boost-Takt von 1.733 MHz. Die Stock Voltage beträgt 1.062V.
Was bei den Karten auf dem Papier also erst mal (oberflächlich) sehr ähnlich ist:
- Gleiche Stock Voltage
- Annähernd gleicher Standard Boost-Takt der GPU
Da ich die GTX 1080 mit 800 mV und 1.750 MHz jahrelang stabil betrieben habe, habe ich die RTX 3080 ebenfalls direkt auf 800 mV und 1.750 MHz eingestellt, was in vielen Stunden Cyberpunk 2077 und anderen Spielereien bisher zu keinen Problemem geführt hat.
Anbei mal ein kurzer Vergleich für die RTX 3080 mit Undervolting und ohne. Für die RX 6900 XT gibt es keine Messung mit UV da selbst bei -5% UV Offset in der Radeon Software bei jeder 3D-Anwendung der Display Driver nach wenigen Sekunden gecrashed ist. Das Undervolting bei der RTX 3080 entspricht ca. 25% gegenüber Stock Voltage.
System Setup:
Corsair RMi 850 Watt zur Energiemessung (Messung von Power Out, d.h. tatsächlicher Systemverbrauch ohne Effizienzverluste einzurechnen = Power In).
Asus ROG Crosshair VII Hero, X470, Ryzen 7 3700X, Sapphire Nitro+ RX 6900 XT Silent Bios.
Asus ROG Crosshair VIII Hero, X570, Ryzen 7 5800X, Asus ROG Strix RTX 3080 Quiet Mode Bios.
Der Stromverbrauch wurde im Shadow of the Tomb Raider Benchmark bei QHD+ Auflösung (beinahe 4K) gemessen. Es wurde das Ultra Preset eingestellt und Raytracing Schatten auf Ultrahoch gestellt. AMD Fidelity und DLSS waren ausgeschaltet, d.h. für beide Grafikkarten wurden die exakt gleichen Settings verwendet.
Benchmark Ergebnisse:
Von links nach rechts, RX 6900 XT Radeon Driver 20.12.2 Silent Bios Default Clock, RTX 3080 Driver 461.40 Quiet Mode Default Clock, RTX 3080 Driver 461.40 Quiet Mode 800 mV 1.750 MHz. Das TDP-Limit war mit UV auf 80% gestellt, wobei das eigentlich irrelevant ist, da es nie erreicht wird bei 800 mV.
Stromverbrauch im Vergleich:
Grundsätzlich muss dazu gesagt werden, dass die Plattform X470 und X570 gewisse unterscheide haben, so ist der Idle Verbrauch deutlich höher. Unter Last sollte das aber weniger bis gar nichts ausmachen. Der Prozessor den ich mit der RTX 3080 verwendet habe ist stärker, allerdings ist SOTR stark GPU Bound, so dass die Auswirkungen hier gering sein sollten, insbesondere auf den Stromverbrauch.
Im Vergleich RTX 3080 Stock zu RTX 3080 UV sieht man kaum Performanceverluste, während der Stromverbrauch doch ganz erheblich sinkt. Da das Undervolting ohne irgendwelches testen auf Basis meiner Erfahrung mit der GTX 1080 hier keine 30 Sekunden gedauert hat, frage ich mich ob ich einfach Glück habe und zufällig extrem undervoltbare Karten erwischt habe. Ich verstehe jedenfalls nicht warum die Karten im Stock so viel Energie verschwenden, da die meisten sich mit dem Thema UV wohl doch nicht befassen.
Ziemlich krass ist natürlich auch der Temperaturunterschied hier im FurMark Stress Test Vergleich, was aber auch kein Wunder bei ca. 150 Watt Unterschied aus der Wand (Raumtemperatur 22.5C, Meshify 2, 2x 140mm Noctua vorne, 1x 140mm Noctua hinten, NH-D15S mit beiden Lüftern montiert auf CPU):
Da ich Cyberpunk 2077 auf Ultra, Ultra, Ultra (alle RT Effekte an) mit DLSS auf Quality problemlos in QHD+ mit den UV Settings spielen kann (kenne aktuell kein Spiel was mehr von meiner GPU abfordern würde), werde ich sicherlich nicht das Zimmer mit Stromverbrauch der GPU heizen.
Nachtrag, so sieht die Voltage "Curve" aus:
Nachtrag 2, 750 mV bei 1.750 MHz scheint ad-hoc für kurze Zeit auch erstmal FurMark Stress Test Stable zu sein. Spart nochmal rund 10 Watt und ist 2-3C kühler. Werde ich mal eingestellt lassen beim Cyberpunk zocken.