Nach einer monatelangen Durststrecke für Fans von flüssiger 3D-Grafik gibt es mit der GeForce GTX 980 eine neue High-End-Grafikkarte für potente Gaming-Systeme. Doch zusätzliche Frames pro Sekunde ist nicht alles für NVIDIAs "fortschrittlichste GPU": Einerseits gibt es brandneue Optionen zur Verbesserung der Bildqualität in 3D-Spielen, andererseits ist sie so stromsparend wie noch nie zuvor. Wir konnten das Gaming-Topmodell von NVIDIA in aller Ruhe für euch unter die Lupe nehmen und stellen gleichzeitig unseren neuen, stark überarbeiteten Benchmark-Parcours vor.
Entgegen den Gerüchten vor dem Launch handelt es sich bei der GeForce GTX 980 nicht nur um den gebührenden Nachfolger der GTX 780. Diese Vermutung war deshalb naheliegend, da NVIDIA für ihre neue Generation auf eine Weiterentwicklung der effizienten Maxwell-Architektur setzt, die bereits im Februar ihr Debüt in der GTX 750 Ti feiern konnte. Die Mittelklasse-Grafikkarte konnte damals zwar mit geringem Stromverbrauch punkten, in Sachen Leistung war jedoch kein überragender Sprung möglich. Diese Schlussfolgerung wurde auch für die neue GTX 900-Serie gezogen - zu früh wie wir in diesem Test für euch herausfinden konnten.
Die GeForce GTX 980 löst nicht nur die GTX 780 ab, NVIDIA spricht hier sogar von ihrem bis dato fortschrittlichsten Grafikchip!
NVIDIAs neuste Grafikkarten-Generation setzt hauptsächlich auf hohe Auflösungen. Die GTX 980 soll ausreichend Potenzial mitbringen, um 2560x1440/1600 Pixel flüssig darzustellen. Gleichzeitig sollen auch kleinere Bildschirme von der zusätzlichen Performance profitieren, indem mittels Dynamic Super Resolution die Bildqualität in 3D-Spielen maximiert wird. Dabei handelt es sich um eine offiziell unterstützte Methode für ein Downsampling. Sollten die Leistungsreserven dafür nicht ausreichen, darf zu einer neuen Antialiasing-Technologie namens Multi-Frame sampled Antialiasing gegriffen werden. Beide Technologien werden wir uns später noch im Detail ansehen. Für 4K-Bildschirme werden dennoch zwei GTX 980 im SLI-Verbund empfohlen.
Kommen wir nun zu den allseits beliebten, harten Fakten der GTX 980. Obwohl NVIDIA mit der Maxwell-Architektur den Fokus speziell auf Performance pro Watt gelegt hat, muss durch bereits bekannte Verschiebungen bei TSMC weiterhin auf die bewährte Fertigung in 28 nm gesetzt werden. Die angepeilte Energieeffizienz wird also rein über die Architektur der GPU erzielt, nicht über die Bauweise der Transistoren und deren Fertigungstechnik. Daher hat NVIDIA dem GM204, so der interne Codename der Maxwell-GPU, nur 5,2 Milliarden Transistoren verpasst, ganze 1,9 Millarden weniger als der bisherige Single-CPU-Champion, die GTX 780 Ti (Kepler, GK110). Dafür ist größtenteils die geringere Anzahl an CUDA-Cores verantwortlich: Vier Graphics Processing Clusters (kurz GPCs) beinhalten insgesamt je vier Streaming Multiprocessors (kurz SMM, das letzte "M" steht für Maxwell), die wiederum mit jeweils 128 CUDA-Cores bestückt sind. Damit setzt die GTX 980 auf insgesamt "nur" 2048 CUDA-Cores.
Links die vier Graphics Processing Clusters in der Übersicht, rechts ein einzelner Streaming Multiprocessor mit 4x32, also 128 CUDA-Cores
Doch wie soll die GTX 980 mit diesen Spezifikationen an eine GTX 780 Ti/Titan mit dem gewaltigen Potenzial von 2880 CUDA-Cores herankommen? Hauptsächlich wurden die Streaming Multiprocessors optimiert: Der L1-Cache innerhalb der SMMs wurde von 64 KB auf 96 KB aufgestockt und mit dem Texture-Cache zusammengelegt, der L2-Cache außerhalb der SMMs darf nun 2.048 statt 1.536 KB speichern. Weiters hat NVIDIA am Scheduling für die Cores gearbeitet, die nun mit 128 Cores/SMM (statt 192/SMM) eine bessere und effizientere Arbeitsteilung erlauben. Dazu gesellt sich die verstärkte PolyMorph Engine 3.0, der Grundbaustein für Tesselation. Ihr wurde die doppelte Anzahl an Engines verpasst, sodass speziell bei vielen Geometriedaten ungefähr die doppelte Leistung zu erwarten ist. Unterm Strich holen diese Optimierungen laut NVIDIA um 1.4x mehr Performance aus den einzelnen CUDA-Cores heraus, während sich die Performance/Watt verdoppelt hat. Das nennen wir mal eine Ansage.
Weitere Veränderungen gibt es beim Memory Subsystem. Erstens setzt NVIDIA nun erstmals standardmäßig auf 4 GB für ein Referenzmodell, womit speziell hohe Auflösungen und diverse Antialiasing-Methoden flüssiger über die Bühne gehen sollten. Dafür verzichtet man auf die größere Speicherbandbreite von 384 bit und kommt mit nur 256 bit, wie es sonst nur in der Mittelklasse verwendet wird. Daher bekommt jeder GPC bzw. dessen dedizierter Memory-Controller eine Speicherbandbreite von 64 bit. Das wirkt sich positiv auf die Transistorenanzahl und damit die Energiebilanz aus, aber gleichzeitig natürlich auch negativ auf den maximalen Durchsatz. Um das zu kompensieren, wurde die Komprimierung der Speicherdaten verfeinert, sodass zusätzlich mit dem größeren L2-Cache nun durchschnittlich 25% weniger Bytes pro Frame aus dem Speicher gelesen werden müssen. Das senkt zusätzlich noch den Energieverbrauch der Grafikkarte im Betrieb.
Die geringere Speicherbandbreite von 256 bit gleicht Maxwell mit besserer Komprimierung und größerem L2-Cache aus
Äußerlich hat sich beim neusten GeForce-Topmodell nur wenig verändert. Der Kühler des Referenzdesigns setzt weiterhin auf das bekannte und keinesfalls schlechte NVTTM-Kühlsystem der letzten Generationen. Daher wird die Hitze von der GPU mit einer direkt aufsitzenden Vapor Chamber in die Kühllamellen abgeleitet und mit einem Radiallüfter durch die Slotblende nach außen befördert. Neu hinzugekommen ist dennoch eine schwarze, sehr stylische Backplate, die von der Titan Z übernommen wurde (siehe 2. Foto im folgenden Image Slider). Sie schützt nicht nur die Rückseite vor mechanischen Schäden und degradierenden Fingertappern, sie hilft auch bei der Ableitung der Hitze aus dem PCB.
5 Bilder
Die genauen Spezifikationen der GTX 980, dem abgespeckten Bruder namens GTX 970 und allen Mitstreitern könnt ihr folgender Gegenüberstellung entnehmen:
Einen interessanten Ansatz zur Verbesserung der Bildqualität bei Leistungsreserven auf kleineren Monitoren – meist Full-HD – verfolgt NVIDIA beim sogenannten Dynamic Super Resolution. Dabei handelt es sich prinzipiell um dasselbe Downsampling, wie es eigentlich auch ohne Hardware-Unterstützung möglich wäre. Dem Spiel wird dabei vorgegaukelt, dass es in einer höheren Auflösung rendern muss, während die Bildausgabe trotzdem auf einer niedrigeren Auflösung stattfindet. Diese Technik ist im Endeffekt dem stinknormalen Multisampling für Antialising sehr ähnlich und hat auch dieselbe glättende Wirkung, umgeht jedoch die Darstellungsfehler beim mittlerweile häufig verwendeten Post Processing. Nachteile gibt es eigentlich nur bei HUDs und OSDs, die unter Umständen auf kleineren Monitoren unleserlich dargestellt werden.
Dynamic Super Resolution nutzt Leistungsreserven für zusätzliche Bildqualität bei kleineren Auflösungen
Dieses Downsampling macht NVIDIA mit diesem Launch für all ihre GeForce-GPUs nun massentauglich, indem es von jedermann über das Control Panel bzw. GeForce Experience aktiviert werden kann. Der einzige Unterschied zur GTX 900-Serie liegt in der Hardware-Unterstützung des 13-tap Gaussian Filters, der das Bild deutlich schöner als bei bisherigen Downsampling-Methoden zuvor skaliert. Das ermöglicht das neu vorgestellte „Multi-Pixel Programmable Sampling“, das auch für den neuen Antialiasing-Modus namens MFAA (siehe nächstes Kapitel) Verwendung findet.
Dynamic Super Resolution aka Downsampling in Watch Dogs, gemischt mit den Antialiasing-Modi 4xMSAA und FXAA
Wenn es um Antialiasing geht, hat NVIDIA immer schon viel experimentiert. Mit Kepler wurde zum Beispiel das "zeitliche Antialiasing" namens TXAA vorgestellt, um (ausschließlich) bei bewegten Szenen ein weicheres Bild zu erwirken, das laut NVIDIA sogar die Qualität von 8-fachem Multisampling schlägt, aber nur die Performance von 2-fachem Multisampling verlangt.
Mit den neuen Maxwell-Grafikkarten stellt NVIDIA nun das Multi-Frame sampled Antialiasing vor, kurz MFAA. Es soll die Bildqualität von Spielen in hohen Auflösungen verbessern, die sonst in herkömmlichem 4-fachem Multisampling nicht mehr flüssig wären. Dafür werden die Bilddaten von zwei aneinandergereihten, mit 2-fachem Multisampling gerenderten Frames per "Temporal Synthesis Filter" verschmolzen, um ein für das Auge qualitativ besseres Bild zu erzeugen. Diese Technik soll die weichen Übergänge von 4xMSAA mit der Performance ähnlich von nur 2xMSAA ermöglichen.
MFAA soll auch für hohe Auflösungen wie 4K die Bildqualität von vierfachem Multisampling bieten können
Leider hat es diese neue Antialiasing-Technik noch nicht in den aktuell verfügbaren GeForce-Driver geschafft, sodass kein Test möglich war. Mit dem nächsten, großen Driver-Release soll es laut NVIDIA aber soweit sein, dann werden wir das nachholen.
Ein großes Thema für neue Grafikkarten ist derzeit die kommende Spiele-API von Microsoft. Sie soll nach aktuellen Gerüchten zwar erst 2015 erscheinen, dennoch wäre es anzuraten, bei einer größeren Investition auf eine zukunftssichere Grafikkarte mit DX12-Unterstützung zu setzen. Selbstverständlich hat NVIDIA neben Fermi und Kepler auch den Maxwell-Grafikkarten schon den Support für Microsofts neue Grafikschnittstelle versprochen und das ist auch nicht verwunderlich. DirectX 12 setzt keine hohen bzw. neuen Ansprüche an die Hardware selbst, sondern ist vielmehr eine Umstrukturierung im Driver, um künftig dem Spieleentwickler die Steuerung der Ressourcen und die Synchronisation zwischen CPU und GPU zu gewähren. Bei richtiger Anwendung können also diverse Overheads, unnötige Speicherallokationen und CPU-GPU-Bottlenecks entfernt werden, was im Endeffekt zu mehr Frames/Sekunde verhelfen kann. Im neuen DirectX 12 steckt also mehr Potenzial, speziell für schwächere Geräte, es muss allerdings auch entsprechend vom Spieleentwickler genutzt werden.
Als erstes Beispiel hat der Benchmark-Hersteller Futuremark bereits bei der diesjährigen GDC gezeigt, wie 3D-Grafik mit DX12 optimiert werden kann:
Zitat
"3DMark 11 on Direct3D 11 uses multithreading extensively, however due to a combination of runtime and driver overhead, there is still significant idle time on each core. After porting the benchmark to use Direct3D 12, we see two major improvements – a 50% improvement in CPU utilization, and better distribution of work among threads."
CPU-Optimierungen in 3DMark 11 mithilfe von DirectX 12
Als alter Profi stellt man sich ja bekanntlich gerne selbst die Grafikoptionen in den Spielen ein, weshalb wir dieses Tool gerne für Anfänger und Konsolenumsteiger empfehlen. Nachdem wir im Laufe dieses Tests vermehrt darüber gearbeitet haben, um einen besseren Überblick bei den Einstellungen mehrere Spiele gleichzeitig zu erhalten, müssen wir uns eingestehen, dass es eigentlich ein perfekter Einstieg für jedes neue Spiel bzw. eine neue Grafikkarte ist. Wir raten also, zuerst über GeForce Experience das Spiel zu optimieren und nur die Feinheiten direkt im Spiel umzustellen. Solltet ihr andere Vorstellungen von flüssiger Bilddarstellung haben, kann auch grob über die Detailstufen gearbeitet werden, bevor es im Spiel zur Sache geht.
GeForce Experience kann eine sehr gute Übersicht zu den Grafikoptionen eurer Spielebibliothek bieten
Neben der Zeitersparnis für das Setup bekommt ihr obendrein noch ein automatisches, aber nicht nervendes Driver-Update (auch für Beta-Versionen) und mit ShadowPlay ein kostenloses Videoaufnahme-Tool dazu. NVIDIA ist es sichtlich wichtig, um mit ihrer Software einen Mehrwert zu den Grafikkarten zu generieren. Ein equivalentes "Never Settle" mit kostenlosen Spielen fehlt allerdings noch.
Bei unseren Grafikkarten-Tests setzen wir ausschließlich auf die im Alltag tatsächlich erbrachte 3D-Leistung in DirectX 11-Spielen. Um auch wirklich realistische Framezahlen messen zu können, verlassen wir uns nicht auf integrierte (und gerne über den Treiber manipulierte) Benchmarks, sondern führen die Messung in einem von uns ausgesuchten Abschnitt des Spiels mittels Fraps durch. Unser Testsystem basiert auf Intels Ivy Bridge mit einer stark übertakteten CPU, womit wir eine Limitierung durch fehlende Rechenpower weitestgehend vermeiden wollen.
Bevor wir ans Eingemachte gehen, wollen wir kurz die Testkandidaten vorstellen. Neben der GTX 980 müssen sich drei weitere GeForce-Grafikkarten in unserem neuen Benchmark-Parcours behaupten. Allen voran die GTX 780 Ti, der aktuelle Platzhirsch für Gamer auf Basis des ausgereizten GK110. Dahinter reiht sich der Vorgänger des Neuankömmlings, die GTX 780. Auch sie basiert auf dem leistungsstarken GK110, allerdings fehlen ihr drei SMX-Blöcke und damit 384 CUDA-Cores sowie einige Texture Units und ROPs. Als schwächstes Testexemplar zwischen diesen High-End-Grafikkarten outet sich die GTX 770. In ihr schlummert der mittlerweile in die Jahre gekommenene GK104, der auch schon die GTX 680 angetrieben hat. Für die 700-Serie wurde der Kepler-Chip mit GPU Boost 2.0 und schnellerem GDDR5-Speicher erweitert.
Als kleine Fleißaufgabe für unsere brandneuen, dynamischen Diagramme haben wir eine wassergekühlte GTX 780 Ti (später als "mit WAK" bezeichnet) in den Test mitaufgenommen. Die Karte wurde nicht übertaktet, sondern soll nur zeigen, inwiefern das Temperaturlimit der GPU Boost-Technologie die GPU-Temperatur, die Lüftergeschwindigkeit und die Framerate beeinflusst. Das ist speziell in unserem neuen Temperaturvergleich zu sehen, wenn ihr im Diagramm auf die Grafikkarte in der Legende klickt. Es ist wirklich interessant, wie unterschiedlich sich die Testkandidaten diesbezüglich verhalten.
Dank EK Water Blocks konnten wir die GTX 780 Ti wasserkühlen, um das volle Potenzial der Karte auszuschöpfen und mit der GTX 980 zu vergleichen.
Da wir bis dato trotz mehreren Versuchen immer noch kein Testsample der AMD Radeon R9 290X auftreiben konnten, haben wir uns dazu entschieden, die Pendants von AMD komplett aus dem Review rauszuhalten. Es tut uns zwar ehrlich leid, aber ohne eine funktionierenden Zusammenarbeit sehen wir keinen Sinn darin, hier Zeit und Geld zu investieren. Wir hoffen, dass sich das seitens AMD irgendwann ändert.
Watch Dogs
Seit 27. Mai 2014 erschwert Watch Dogs die flüssige Bildanzeige selbst auf teureren Gaming-PCs. Das Open World-Spektakel auf Basis von DirectX 11 bietet neben dem Fokus auf Datenklau auch rasante Verfolgungsjagden durch die gesamte Stadt, die jede Grafikkarte zu Höchstleistungen auffordert. In unserer Benchmark-Sequenz haben wir deshalb eine Mission mit einem gesuchten Fluchtwagen ausgewählt; sobald wir ins Auto steigen und die Mission beginnen, ist die Polizei hinter uns her und macht uns das Leben schwer. In den folgenden 3 Minuten lassen wir es böse krachen, schauen aber stets, dass wir die gleichen Gegenden abfahren und das Auto nicht schrotten.
Bei Watch Dogs lassen wir es bei einer Verfolgungsjagd ordentlich krachen
Watch Dogs
2560x1440, Temporal SMAA
Sample
Minimum
Average
GTX 980
40
54
GTX 780 Ti mit WAK
30
49
GTX 780 Ti
32
48
GTX 780
30
40
GTX 770
12
29
Version 1.05 Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
Watch Dogs
1920x1080, Temporal SMAA
Sample
Minimum
Average
GTX 980
47
71
GTX 780 Ti mit WAK
50
64
GTX 780 Ti
42
64
GTX 780
40
56
GTX 770
23
44
Version 1.05 Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
In Watch Dogs sieht man sehr schön, was die GTX 980 leisten kann. Sie liegt mit 5 bzw. 7 Frames signifikant vor der GTX 780 Ti, auch wenn sich im Spiel dadurch kein Unterschied ausmachen lässt. Die GTX 780 hinkt stark hinterher, lässt aber dennoch selbst bei 2560x1440 und maximalen Details problemlos flüssigen Spielspaß aufkommen. Deutlich weniger Freude bereitet die GTX 770, die nur in Full-HD noch ausreichend Leistung mitbringt. In 2560x1440 bleiben im Durchschnitt zwar 29 Frames/Sekunde stehen, aber die minimale Framerate bezeugt, dass es immer wieder zu starken Ruckeleien kommt, sobald die Funken im Spiel fliegen.
Assassin's Creed III
Als etwas älteren, aber trotzdem optisch reizenden Titel haben wir den dritten Teil von Assassin's Creed ausgewählt. Wunderschön gerendertes Wasser, detailreiches Straßenleben und die bekannten Kletterorgien auf die höchsten Gebäude der Stadt zeichnen dieses Open World-Spiel mit DirectX 11-Unterstützung von Ubisoft aus. Im Benchmark spielen wir 3 Minuten lang die Mission "Welcome to Boston", die uns über einen belebten Hafen führt. Danach schnappen wir uns das nächste Gewehr und gehen wahllos auf Soldaten los und erzeugen damit einen leistungshungrigen Tumult.
Die Leistung in Assassin's Creed III messen wir in der Mission "Welcome to Boston"
Assassin's Creed III
2560x1440, TXAA
Sample
Minimum
Average
GTX 980
40
60
GTX 780 Ti mit WAK
40
61
GTX 780 Ti
40
58
GTX 780
34
50
GTX 770
30
43
Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
Assassin's Creed III
1920x1080, TXAA
Sample
Minimum
Average
GTX 980
61
91
GTX 780 Ti mit WAK
58
85
GTX 780 Ti
55
81
GTX 780
51
74
GTX 770
46
65
Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
Speziell in 2560x1440 erhalten wir ein interessantes Endergebnis: Die GTX 780 Ti ist in Assassin's Creed III gleichauf mit der GTX 980 und zeigt damit ihr unbestritten großes Potenzial. Auf den hinteren Rängen gibt es keine Überraschungen, jeder Testkandidat kann dieses Spiel erfreulich flüssig darstellen.
Far Cry 3
Seit Ewigkeiten begleitet uns Far Cry in unseren Tests und das nicht ohne Grund: Auch Far Cry 3 fordert bis heute eure Grafikkarten zum Tanz auf, nicht selten gehen auch teurere Modelle dabei in Knie. Verantwortlich dafür sind der Weitblick über die detaillierte Insel, optisch ansprechende Wasser-Shader, zahlreiche Explosionen und gerne auch großflächige Brände, wo auch immer es richtig zur Sache geht. In unserer Benchmark-Sequenz spielen wir 3 Minuten lang die Mission "Prison Break-In", in der wir uns nicht mit dem Abschalten von Alarmen begnügen, sondern schwer bewaffnet alles in Schutt und Asche legen, was uns den Weg kreuzt.
Far Cry 3 lässt mit seiner dicht bewachsenen Insel auch heute noch Grafikkarten schwitzen
Far Cry 3
2560x1440, 4x MSAA
Sample
Minimum
Average
GTX 980
43
49
GTX 780 Ti mit WAK
40
51
GTX 780 Ti
35
48
GTX 780
34
43
GTX 770
28
34
Version 1.05 Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
Far Cry 3
1920x1080, 4x MSAA
Sample
Minimum
Average
GTX 980
61
75
GTX 780 Ti mit WAK
58
75
GTX 780 Ti
60
74
GTX 780
44
65
GTX 770
44
54
Version 1.05 Maximum Details mit 16xAF Raumtemperatur: ~25 °C
Messung via Fraps
Auch in Far Cry 3 kann gut beobachtet werden, wie wenig die GTX 780 Ti dem Neuankömmling schenkt. In Anbetracht der Spezifikationen ist das allerdings auch kein Wunder. Eher überraschend ist die noch immer ausreichende Performance der GTX 770, die das Spiel selbst in hohen Auflösungen meistert. Zum ungestörten Spielvergnügen trägt allerdings auch das Blurring inklusive Frame-Skip bei Drehbewegungen bei, die unserer Meinung nach hier bei der minimalen Framerate aushilft.
Auch wenn viele Spieler die Performance als wichtigste Eigenschaft einer Grafikkarte sehen, dürfen die Abwärme, die Lautstärke und der Stromverbrauch nicht unterschätzt werden. Speziell in aktuellen Grafikchips stecken Sensoren, die bei der Überschreitung einer gewissen Temperatur oder Leistungsaufnahme die Taktraten zurückschalten und dadurch die Framerate limitieren. In unserem Temperaturvergleich stellen wir die Testkandidaten durch 10 Minuten lange Volllast in Watch Dogs gegenüber. Die primäre Diagrammansicht zeigt euch nur die GPU-Temperaturen Testkandidaten, bei Klick auf die jeweilige Grafikkarte in der Legende erscheinen dann neben der Temperatur auch die gemessenen Umdrehungen des Lüfters und die dargstellte Framerate. Dabei markiert ein rot eingefärbter Hintergrund die Bereiche, in denen das Temperaturlimit des Kandidats erreicht wurde, ein blauer Hintergrund informiert über das Powerlimit.
Temperaturvergleich
10 Minuten Volllast in Watch Dogs
Raumtemperatur: 25 °C (+/-1 °C)
Messung via RivaTuner Statistics Server
Wenn ihr euch durch die Testkandidaten durchgeklickt habt, werdet ihr feststellen, wie unterschiedlich jede Architektur mit ihren Ressourcen umgeht. Die GTX 980 ist laut unseren Messungen sehr stark über die Leistungsaufnahme limitiert, erst später im Spiel wechselt es sich mit dem Temperaturlimit ab, um die Grafikkarte unter 80 °C zu halten. Der Lüfter fährt nach einer Spielzeit von 10 Minuten auf nicht weniger als 2200 Umdrehungen/Minute und ist entsprechend gut zu hören, aber nicht unangenehm laut. Ungefähr 2 Minuten nach dem Spiel beruhigt er sich wieder und kehrt zur normalen Idle-Lautstärke zurück. Die Grafikkarte ist dann am Desktop so gut wie lautlos.
Die GTX 780 Ti ohne Wasserkühlung ist im Vergleich zur GTX 980 kaum über die Leistungsaufnahme limitiert worden, dafür kämpft sie sehr stark mit ihrer Abwärme. Mit bis zu 83 °C ist sie auch der heißeste Kandidat in diesem Test. Der Lüfter dreht mit über 2600 RPM und schaufelt eine gehörige Portion heiße Luft aus der Grafikkarte. Trotzdem wird der gesamte Kühler sehr heiß und gibt dadurch viel Abwärme an die anliegenden Komponenten ab. Hier lässt sich sehr schön der Unterschied zwischen den beiden Karten sehen: Die GTX 780 Ti liefert zwar annähernd so viel Leistung wie die GTX 980 ab, aber die fast 2 Milliarden zusätzlichen Transistoren hinterlassen ihre Spuren.
Die GTX 770 und 780 verhalten sich sowohl von der Lautstärke als auch von der Abwärme ähnlich moderat wie die GTX 980. Herauszustreichen ist, dass beide Kandidaten ausschließlich durch die Temperatur limitiert wurden, niemals durch die Leistungsaufnahme.
Stromverbrauch
20 Minuten Vollast in Watch Dogs
Minuten
GTX 980
GTX 780 Ti
GTX 780 Ti mit WAK
GTX 780
GTX 770
00:00
258
326
336
282
253
01:00
268
316
339
271
242
02:00
260
318
335
269
245
03:00
257
325
345
270
248
04:00
256
322
345
274
248
05:00
260
328
335
276
247
06:00
265
328
343
278
253
07:00
267
332
345
283
250
08:00
265
330
344
280
249
09:00
260
330
339
276
249
10:00
259
331
336
278
252
11:00
263
332
340
280
247
12:00
264
330
332
278
243
13:00
267
331
334
275
247
14:00
263
332
331
275
249
15:00
262
330
331
281
247
16:00
264
329
338
287
247
17:00
266
327
335
278
243
18:00
261
328
336
275
244
19:00
263
329
334
276
243
20:00
264
331
333
277
242
2560x1440, Maximum Details
Messung via Energy Logger 4000
Wichtig: Es wird wechselstromseitig die Leistungsaufnahme des kompletten Testsystems gemessen!
Abschließend widmen wir uns dem Stromverbrauch, leider ein hierzulande nur sehr kleiner Entscheidungsfaktor für bzw. gegen den Kauf einer Gaming-Grafikkarte. In diesem Bereich macht die GTX 980 jedoch die größten Fortschritte und hält damit problemlos ihr Versprechen. Sie ist im Anbetracht der ausgezeichneten Performance deutlich sparsamer als die GTX 780 Ti und liegt in unserer 20-minütigen Messung in Watch Dogs ziemlich genau zwischen GTX 780 und GTX 770. Interessant ist die wassergekühlte GTX 780 Ti, die durch das Eliminieren des Temperaturlimits bis zu 23 Watt mehr Leistung benötigt als mit dem Referenzkühler. Dafür sind hie und da auch ein paar Frames/Sekunde mehr drinnen.
Idle-Stromverbrauch
Sample
Watt
GTX 980
94
GTX 780 Ti mit WAK
128
GTX 780 Ti
128
GTX 780
108
GTX 770
92
Single-Monitor im 2D-Modus, Windows 7 SP1
Messung via Energy Logger 4000
Wichtig: Es wird wechselstromseitig die Leistungsaufnahme des kompletten Testsystems gemessen!
Auch im Leerlauf kann die GTX 980 ihre Stärken ausspielen und spart bis zu 34 Watt ein. Das ist ein gewaltiger Sprung in die richtige Richtung, speziell wenn die Grafikkarte nicht nur in einem reinen Gaming-PC sitzt, sondern auf dem System auch gearbeitet wird.
NVIDIA hat nicht zu viel versprochen: Die GTX 980 ist tatsächlich die fortschrittlichste Grafikkarte, die sie je entwickelt haben. Unterm Strich bringt sie mindestens die Performance der brachialen GTX 780 Ti auf den Bildschirm, aber gänzlich ohne den negativen Begleiterscheinungen. Die Abwärme und der Stromverbrauch halten sich angenehm in Grenzen für ein derartig potentes Topmodell, nur unter Volllast stört uns der hörbare Lüfter. Hier kann unter Umständen noch ein Custom-Design eines Board-Partners etwas herausholen; uns wäre es einen kleinen Aufpreis wert, um das Paket vollständig abzurunden. Wir sehen Maxwell jedenfalls als guten Schritt in die richtige Richtung, nicht nur für mobile Geräte, sondern auch für einen gut ausbalancierten Gaming-PC.
All das hat natürlich auch seinen Preis, auch wenn dieser erfreulicherweise nicht weiter nach oben getrieben wird, sondern sogar deutlich unter dem Startpreis der letzten Topmodelle von NVIDIA liegt. Die Preisempfehlung liegt bei 540 Euro, das günstigste, lagernde Exemeplar ist derzeit von Inno3D und für 512 Euro bei MyLemon gelistet. Ein Kauf in diesen Preisregionen mag also gut überlegt sein. Wer sich jedoch die Benchmarks noch einmal genauer ansieht, wird merken, dass diese High-End-Modelle keine Wegwerf-Grafikkarten mehr sind, sondern noch einige Jahre lang auf dem neusten Stand der Technik halten. Das mag einerseits an der technischen Nähe zur aktuellen Konsolengeneration liegen, andererseits gibt es derzeit auch keinen Standard, der zwingend einen Wechsel erfordert, um grafisch am Ball zu bleiben. Daran wird auch DirectX 12 nächstes Jahr nichts ändern. Das rückt auch das Preis/Leistungsverhältnis in einen fairen Bereich, und so etwas kann nur selten bei einem Topmodell behauptet werden.
Die GTX 980 präsentiert sich als gut ausbalancierte Grafikkarte mit fairem Preis/Leistungsverhältnis - trotzdem ist der neue Single-GPU-Champion!
Alternativ bietet sich die Radeon R9 290X von AMD an, die mit 354 Euro aufwärts mehr Frames pro Euro bringt und zusätzlich mit dem "Never Settle"-Bundle trumpfen kann. Dafür sind klare Abstriche bei der Lautstärke, der Abwärme und beim Stromverbrauch hinzunehmen, die keine uneingeschränkte Empfehlung (laut ComputerBase) zulassen. Wer auf Wasserkühlung setzt, kann mit einem Water Block um ungefähr 100 Euro nachhelfen, um zumindest zwei der drei Probleme auszumerzen und trotzdem günstiger als mit NVIDIA wegzukommen. Aber selbst dann ist die 290X um mindestens 7% langsamer. Wer sparen will, greift lieber zu einer gebrauchten GTX 780, die ebenfalls noch ein paar Jahre durchhält.