URL: https://www.overclockers.at/number-crunching/legends-never-die-gpupi_240993/page_28 - zur Vollversion wechseln!
Nein, das ist ein interner Prozess, in den man nicht eingreifen kann.Zitat von othanGibt's die Möglichkeit die Fehler zu zählen und auszugeben?
Wobei ich mir vorstellen kann, dass die Hersteller ungern preisgeben, wie oft sich ihre GPU verrechnet hat.
ZitatWhat 290x's are you guys using? Some cards with Elpida memory will score poorly due to broken memory clock tables in the bioses and pushing clocks too far will result in the same.
for example my sapphire with stock bios and elpida memory gets about 24 seconds.
Wieviel LOCs ist der Code für GPUPI schwer eigentlich Mat?
Nachdem ich als Admin ohnehin nichts gewinnen kann, hier mal ein Ansporn für diesen Wettbewerb.Zitat von matWegen dem OC Contest ist mir gestern etwas eingefallen: Wie wäre es, wenn wir den Wettbewerb so gestalten, dass das älteste System, das noch GPUPI 1M durchlaufen lassen kann, gewinnt. Nachdem Turrican gerne mit 486er und Konsorten durch wprime und SuperPi gequält hat, fände ich es sehr passend!
eine frage hab ich jetzt aber doch noch zur memory reduction, nachdem ja so ziemlich alle ergebnisse auch von deutlich schnelleren karten dort einen schlechteren wert haben, woran könnts denn liegen dass der wert bei mir so gut ist?
bzw. wovon hängt das hauptsächlich ab?
Zitat von matLink: streamcomputing.eu
Interessant ist besonders:
Core 2 Duo 7XXX (except E7200), 6XXX, 5XXX, 4XXX series
Da geht also einiges!
Ganzen Thread lesen hilft, das AMD SDK funktioniert so leider nicht.
Den richtig funktionierenden AMD OpenCL Client bekommst du (vorerst) nur mit einer AMD Graka, die von den aktuellen Treibern noch unterstützt wird, aufs System.
Wenn dieser Punkt erfüllt ist, kannst du auch mit noch älterer Hardware testen, siehe 2 Posts über dir.
ganzen thread gelesen, hätte ja sein können das sich noch jemand mit einer älteren sdk version herum spielt, sry der frage?!
wollte grad auf meinem alten laptop (Core T7300, radeon hd 2600) mit windows 10 rt probieren, da kommt aber immer die meldung cl_Host_ou_of_memory, ist halt die frage obs an der alten hardware oder an windows 10 liegt, denke aber eher am ersteren
eventuell shared memory im bios erhöhen?
Batch Size und unter Umständen auch Reduction Size Stück für Stück heruntersetzen. Und wie schon gesagt, schadet es natürlich nicht, mehr Grafikspeicher im BIOS freizuschalten.Zitat von XXLwollte grad auf meinem alten laptop (Core T7300, radeon hd 2600) mit windows 10 rt probieren, da kommt aber immer die meldung cl_Host_ou_of_memory, ist halt die frage obs an der alten hardware oder an windows 10 liegt, denke aber eher am ersteren
Interessant. Ist das ein Vista oder Win 7/8, dass auf dem System läuft?Zitat von sichNixbeim starten vom gpupi bekam ich trotz installiertem C++ 2013 x86 und x64 die angehängte fehlermeldung ( MSVCP110.dll ). abhilfe brachte das "Microsoft Visual C++ 2012 Redistributable x86 und x64" package.
Im Forum von guru3d.com hat ein User übrigens schon fleißig seine GeForce Titan mit dem Benchmark ans Maximum gebracht. Inklusive Voltmod versteht sich!
So, ich hab das jetzt auch mal angeworfen (procrastination for the win! )
Hier eine Serie mit meinem Intel Core 2 Quad Q9505:
GPUPI 100M, Reduction Size 64, Batch Size 1M - 20M
Interessant zu sehen wie sich die Batch Size auswirkt. Bei 4M scheint ein sweetspot zu sein?
Edit: ok auf einem Alltags-System das nicht frisch und leer ist, spielt das Scheduling wohl eine zu große Rolle. Ich habe bei wiederholten 4M Runs bsi ~3 Sekunden Schwankungen in der Gesamtzeit.
Die Batch Size bestimmt in einem bestimmten Grad die Auslastung der Cores, im Sinne von wieviel der Scheduler auf einmal bekommt und was er damit anfängt. Bei AMD ist die Batch Size noch viel sensibler als bei Intel CPUs, speziell bei schwächeren GPUs kann man da noch die ein oder andere Verbesserung herausholen. Deshalb habe ich sie auch auswählbar gemacht.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025