NVIDIA GeForce GTX Titan X
creative2k 04.03.2015 - 20:00 33111 199
Umlüx
Huge Metal Fan
|
dann muss ich den GAT jetzt dazu überreden, eine zu kaufen. auf seinem XP64 rennt das game eh nicht, also soll ers dann mir schenken!
|
daisho
SHODAN
|
Ich hab noch einmal The Witcher 3 übrig von der Titan X - 25 Euro?
|
maXX
16 bit herz
|
mal was anderes:
möchte bisschen übertakten. also nix mit hard-mod.
einfach per Software. habe eine karte von Gigabyte und benutze das beiliegende tool oc-guru II.
habe jetzt mal auf 1030/7030 gestellt.
wie heiß darf das ding da unter last werden?
|
mat
AdministratorLegends never die
|
Mittlerweile funktioniert das Übertakten bei Grafikkarten etwas anders, als es früher mal war. Speziell NVIDIA setzt auf ein Power- und ein Temperatur-Target. Du kannst dir aussuchen, was du vorziehst - wenn du das Maximum herausholen willst, dann solltest du die Target-Priorität auf die Temperatur setzen. Wenn dir die Sekundäreigenschaften wie Lautstärke und Stromverbrauch wichtig sind, dann stell das Power-Target auf 110% und priorisiere entsprechend die Leistungsaufnahme. Zusätzliche wirst du für höhere Taktfrequenzen noch eine Spannungserhöhung brauchen. Mehr als 87 mV ist wahrscheinlich auch bei der Titan X nicht drinnen. Wenn du mehr willst, brauchst du den Pencil Mod. Bei der Titan X muss man nur aufpassen, dass die Spannungswandler nicht den Geist aufgeben. Das kommt allerdings nur mit alternativen Kühlmethoden vor, wenn überhaupt.
|
Aslinger
"old" oc.at Member
|
dann muss ich den GAT jetzt dazu überreden, eine zu kaufen. auf seinem XP64 rennt das game eh nicht, also soll ers dann mir schenken! Hey, GAT hat jetzt meine Titan Black. Den ganzen Mist mit Boost, Temptarget usw...habe ich per Biod Mod deaktiviert, damits wie zu Fermi Zeiten wird.
|
maXX
16 bit herz
|
also ich kann bei "target" power oder temp anhaken.
bei power ist Standard 100 %
bei temp ist Standard 83 grad
dann kann ich noch "prioritize gpu temp" anhaken
und per schieberegler die werte verändern. bei power 110 % ist temp auf 91 grad
habe jetzt mal "target temp 85 grad" angehakt und "prioritize gpu temp".
passt das so? möchte maximale power.
|
maXX
16 bit herz
|
wenn ich beim furmark "burn in" und "extreme burn in" mache, dann habe ich bei core 1148 mhz.
eigentlich dürfte es selbst mit boost nur 1086 sein.
übertaktet die etwa selbstständig?
wat ein sch..ß.
früher war das irgendwie weit übersichtlicher...
|
mat
AdministratorLegends never die
|
Ja, das passt. Jetzt regelt die Karte erst herunter, wenn die GPU-Temperatur die 85 °C übersteigt.
Ganz wichtig: Das Power- und Temp-Target sorgt dafür, dass die Grafikkarte durch den zusätzlichen Takt nicht eingeschränkt wird. In Kombination mit der Kühlung - als der Geschwindigkeit der Lüfter - wird dann entschieden, ob die Karte heruntergetaktet werden muss.
Vergiss Furmark, teste lieber in 3DMark oder Unigine bzw. gleich in einem Spiel.
|
AdRy
Auferstanden
|
Das power/temp targen kling eher wie casual/dau oc-ing. Damit kann doch niemand verlässliche takt rekorde aufstellen Was spricht dagegen wie bisher manuell den 3D takt einzustellen und dann auf temp/ stabilität zu prüfen? (außer der erhöhte zeitaufwand)
|
creative2k
Phase 2.5
|
Verlässliche Rekorde stellst halt mit nem Mod Bios etc. auf.
|
maXX
16 bit herz
|
ok mat, danke für deine hilfe.
soll ich die maximale temp noch höher einstellen?
oder sind 85 grad schon schmerzgrenze?
beim furmark habe ich nach ein paar Minuten gleich mal 83 grad erreicht.
|
daisho
SHODAN
|
Welches Tool kann mir bei einer Titan X aktuell die "Memory usage" anzeigen? Sowohl nvInspector, MSI Afterburner, EVGA PrecisionX und Rivatuner zeigen mir nur Werte von 164-166 MB an - was definitiv falsch ist. (mit anderen Sensorwerten wie Temperatur, Clock etc. habe ich kein Problem)
|
Garbage
AdministratorThe Wizard of Owls
|
gpu-z?
|
daisho
SHODAN
|
Leider nicht, scheinen ja eh alle denselben Wert auszulesen. Würde mich interessieren ob das bei anderen auch der Fall ist unter Windows 10 + Titan X?
|
daisho
SHODAN
|
Hat sich erledigt, dürfte ein Problem mit Windows 10 Treiber seitens NVIDIA sein.
|