InfiX
she/her
|
dann solltest sowieso nur maximal 60 fps haben. "sollte" ist mir klar, deswegen frag ich ja ob sich das bei der starcraft geschichte auch wirklich so auswirkt, heisst das problem behebt.
|
EG
thinking with portals
|
Wieso gibt man einer News, die einen Quick-Tipp zur Verfügung stellt und vor einem Problem warnt einen Stern? Weil hier einfach GANZ VIEL Unwahrheiten kursieren und obwohl Colo, Spikx oder daisho - um nur einige zu nennen - wie die Weltmeister argumentieren, diese Gewissen nicht von ihrer Unwahrheit absehen. Es gibt einfach keinen Unterschied zwischen "unnötiger Last" und "nötiger Last". Es is komplett wurscht ob die Graka jetzt wegen dem Menü, oder dem Spiel ausgelastet wird...sie muss das aushalten! Da kann man sich dann noch drüber unterhalten, dass ein Überhitzungsschutz sinnvoll ist (natürlich ist er!), aber im Endeffekt darf eine Grafikkarte die im Rahmen der Spezifikationen betrieben wird (nicht übertaktet, kein anderer Kühler drauf) nicht überhitzen. Dann kann da natürlich Staub sein wie Spikx auf Seite 3 mal gemeint hat...spätestens dort _MUSS_ der Treiber einfach runtertakten/abschalten. Egal wie vermeintlich dumm das Starcraft-Kiddie sein mag...der Grafikkartenhersteller muss dafür sorgen, dass seine Grafikkarte nicht abraucht. "Mit Staub war nicht zu rechnen" gleicht der vielseits bekannten Facebook-Gruppe über das Linzer Auge ("Mit Wasser konnte keiner rechnen) -> abgesoffen -> Wer is Schuld? Wohl die Architekten des Teils... Wurscht wie man die Gschichte dreht und wendet, der Entwickler hat niemals Schuld dran.
|
BooTes
Octocat!
|
Also ich sehe hier auch die Schuld bei der Hardware.
Interessant wäre hierzu ein Statement seitens Nvidia, betrifft sie ja schließlich so oder so.
|
Hansmaulwurf
u wot m8?
|
Wurscht wie man die Gschichte dreht und wendet, der Entwickler hat niemals Schuld dran. Der Entwickler muss aber _imho_ trotzdem möglichst resourcenschonend programmieren. Für mich ist aber auch hauptsächlich Nvidia Schuld, ich hab nie Nvidia gekauft allein wegen Hitze und vor allem wegen Stromaufnahme verglichen mit ATI.
|
EG
thinking with portals
|
Der Entwickler muss garnix. Sicher gehörts zum guten Ton, wenn man effizient programmiert und ich bin sicher der Letzte, der sinnlos Ressourcen verblasen würd.
Fakt ist aber, dass in diesem Fall Activision-Blizzard keine Schuld trifft. Es spielen wohl vielmehr ein paar ganz helle Sterne am Himmel gern Starcraft 2 und haben mangels geistigen Alters sofort losge*****d.
|
Guest
Deleted User
|
also seit dem debakel mit der fx 5800 (wir erinnern uns => http://www.youtube.com/watch?v=WOVjZqC1AE4 ) bin ich auch im ati lager und ich gestehe, ich muss ich da gerade ein wenig schmunzeln, wenn sich sehe, was nv mal wieder verbockt. aber selbst rein objektiv betrachtet liegt das einzig alleine am hw hersteller und mmn _muss_ man auf derartige möglichkeiten als hersteller eingehen. wird ja - wenn auch schlecht - gemacht. edit: wenn ich genau nachdenke, dann wars wahrscheinlich schon seit dem 3dfx kauf.
|
Aslinger
"old" oc.at Member
|
|
Spikx
My Little Pwny
|
hrhr, nice
|
EG
thinking with portals
|
|
Chrissicom
Rise of the Ryzen
|
Und der nächste Programmierer, der nicht das Menü mit 500 fps rendert, sondern irrsinnig komplexe Spieleszenen mit 15 fps, ist dann auch schuld, dass die Grafikkarte abschmort? Oder darf die Grafikkarte nur dann kaputt werden, wenn die Last sinnlos ist? Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht. 12 Stunden 3D Mark in der neuesten Version laufen zu lassen hat so weit mir bekannt auch noch keinen Rechner zum abrauchen gebracht (übertaktete jetzt mal ausgenommen), irgendwas ist da also nicht ganz richtig wenn man sagt die Hardware ist Schuld. P.S. Ich bin seit praktisch immer ATI User, mir geht's also nicht darum Nvidia zu verteidigen
|
HaBa
VereinsmitgliedDr. Funkenstein
|
Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht. 12 Stunden 3D Mark in der neuesten Version laufen zu lassen hat so weit mir bekannt auch noch keinen Rechner zum abrauchen gebracht (übertaktete jetzt mal ausgenommen), irgendwas ist da also nicht ganz richtig wenn man sagt die Hardware ist Schuld.
P.S. Ich bin seit praktisch immer ATI User, mir geht's also nicht darum Nvidia zu verteidigen Hast du irgendwo specs bei der Hand die deine Aussagen auch nur ansatzweise bestätigen? Was benutzen denn dann die ganzem Goldfarmer und diverse koreanische Zock-Götter? => wenn die Hersteller doch alle in den Treibern für die Benchmarks cheaten können sollen sie doch auch für solche Spiele was reinbasteln wenn ihr Gerümpel nichtmal fürs Menüanzeigen taugt ... Generell ist das IMHO sowieso ein Problem, früher wurde aufgrund der mangelnden Vielfalt alles mögliche bis zum Abwinken optimiert, da gabs sogar Tastenkombinationen damit am Chip "bessere" Grafik freigebrannt wurde, auf das sind irgendwelche fraks draufgekommen usw. usf. Jetzt: irgendwelche Konstrukte deren Versionsnummer jährlich steigen muß dienen als Frickel-Grundlage, die HW braucht immer mehr Energie, wird immer lauter usw. usf., aber so richtig "geiler" wird das ganze irgendwie garnicht. IMHO wäre es besser wenn es längere Zyklen gäbe für das Umfeld, bzw. der HW-Müll nicht so schnell rausgebracht werden würde. Ich bin sowieso kein fashion victim und hab hier eine 3870 im Einsatz, wohl noch für länger, aber wenn ich sowas da lese: besser ist ja nichts geworden ...
|
Spikx
My Little Pwny
|
Die letzte Frage würde ich fast mit ja beantworten wollen. Wie ich sagte, Spielegrafikkarten sind Desktop Komponenten und die sind wie gesagt nicht für 24/7 100% Dauerlast gemacht. Du solltest nicht an diesem Mythos festhängen .
|
Viper780
ElderEr ist tot, Jim!
|
Wo steht das?
HDD Hersteller wollen uns weismachen dass sowas nicht für 24/7 ausgelegt ist (die anderen is wurscht) - aber im Großen und ganzen schadet das on/off mehr als der dauerlauf
|
Polyfire
Addicted
|
Hast du irgendwo specs bei der Hand die deine Aussagen auch nur ansatzweise bestätigen? Wie erklaerst Du dir dann die vielen Ausfaelle die passieren. Userberichte von ploetzlich auftretenten Grafikfehlern, etc.. Das mag in manchen Faellen die schuld vom Enduser sein, weil er z.B. die Karte angegriffen wie er elektrostatisch aufgeladen war. Oft ist es aber so das die Dinger einfach so im normalen Betrieb kaputt werden. Es gibt auch physikalische Gruende, warum die Dinger nicht 100% zuverlaessig sein koennen. Stichwort Elektromigration Laut empirischen Beobachtungen ist die zu erwartente Lebensdauer einer Leiterbahn abhaengig von Stromdichte und Temperatur. Die Abhaengigkeit von T: k = 8.617343E-5
Ea = 0.7
>>> def mttf(T):
... Tkelvin = T + 273.15
... return math.exp(Ea / (k * Tkelvin))
>>> for i in range(40,120,10):
... print "%d, %e" % (i, mttf(i))
...
40, 1.843562e+11
50, 8.261097e+10
60, 3.884601e+10
70, 1.908772e+10
80, 9.764235e+09
90, 5.182690e+09
100, 2.845877e+09
110, 1.612376e+09
Der Unterschied schaut jetzt zwar nicht so gross aus, aber wenn man bedenkt das hier wegen 10° mehr die ganze Verteilungskurve der zu erwartenden Lebensdauer quasi um die Hälfte nach links rutscht, dann steigt die Ausfallrate in der typischen Lebensdauer natürlich auch beträchtlich. Was benutzen denn dann die ganzem Goldfarmer und diverse koreanische Zock-Götter?
In einem typischen Spiel wird die GPU aber im Durchschnitt wesentlich weniger ausgelastet wie bei Furmark.
|
jives
And the science gets done
|
Dass die MTBF von unzähligen Faktoren wie durschschnittliche und maximale Betriebstemperatur/Auslastung der Komponente/uvm. abhängt ist klar. Dass eine Komponente innerhalb kürzester Zeit ex geht, nur weil man sie (innerhalb der spezifizierten Rahmenbedingungen!) zu 100% belastet nicht.
Beispiel: Nur weil ich einen E-Motor auf 100% Leistung fahre, brennt er ja auch nicht gleich ab.
|