"We are back" « oc.at

Starcraft II ist für NVIDIAs Grafikkarten zu heiß?

Locutus 09.08.2010 - 10:40 22104 75 Thread rating
Posts

COLOSSUS

Administrator
GNUltra
Avatar
Registered: Dec 2000
Location: ~
Posts: 12148
Zitat von InfiX
naja eine gewisse teilschuld trifft blizzard imho schon, nicht umsonst wird bei furmark teilweise gewarnt ... ich würd sagen das fällt unter fahrlässigkeit, immerhin ist das kein reguläres belastungsszenario.

wenn sie es schon so unsauber programmieren könnten sie ja wenigstens ein pickerl draufmachen: "Warning, may damage your GPU"

B$. "Regulaeres Belastungsszenario", my ass. Bist du Customer Relationship und RMA-Manager bei Gericom? :p Software darf Hardware nicht kaputt machen koennen. Wenn z. B. ein Netbook beim Ausfuehren von Linpack den Hitzetod stirbt, und die Umgebungstemperatur/Humiditaet/Younameit innerhalb der vom Hersteller verlautbarten Specs liegt, dann ist das einzig und allein die Schuld des Herstellers, da er irgendein irgendwo spezifiziertes, wenngleich theoretisches Maximum ueberschritten hat - am falschen Ende gespart, mit anderen Worten.

Ich setze alle Komponenten, auf die ich mich verlassen koennen will, beinahe unpraktikabel hohen Belastungen aus, bevor sie in dauerhaften Betrieb gehen. So kann ich zumindest im Ansatz sicherstellen, dass sie mich im Alltagsbetrieb nicht im Stich lassen werden.

Spikx

My Little Pwny
Avatar
Registered: Jan 2002
Location: Scotland
Posts: 13504
Zitat von InfiX
wenn sie es schon so unsauber programmieren könnten sie ja wenigstens ein pickerl draufmachen: "Warning, may damage your GPU"
Das hat nichts mit unsauberen programmieren zu tun und so ein Pickerl müsstest du auf jedes Spiel kleben, dass 100% GPU Last erzeugt... egal ob "unsauber" programmiert oder nicht.

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14531
Zitat von Spikx
Das hat nichts mit unsauberen programmieren zu tun und so ein Pickerl müsstest du auf jedes Spiel kleben, dass 100% GPU Last erzeugt...

darum gehts ja nicht, 100% last ist ja nicht das problem, sondern die art der last die erzeugt wird.

natürlich ist der hardwarehersteller schuld daran, dass es kein funktionierendes failsafe gibt, dennoch wurde der fehler von blizzard einfach (wenn auch unbewusst) provoziert, und wäre wohl leicht zu verhindern gewesen wenn man "sauber" programmiert hätte, für mich ist das immer noch klar eine teilschuld, hardwarehersteller hin oder her.

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14762
um meinen standpunkt bei dieser diskussion nochmals klarzustellen:

- ich glaube nicht, daß der fail bei nv liegt, die schutzfunktionen funktionieren nämlich sofern man diese nicht umgeht.

- den programmierern kann man sehr wohl vorwerfern, daß sie im pausemodus nicht vom last in den idle wechseln lassen (woher soll der grafikkartentreiber sonst die info hernehmen, ob last oder idle gefragt ist?).

zum großen und ganzen verstehe ich sowieso nicht, wieso die programmierer hier stein auf bein verteidigt werden.
- es liegt an den programmierern, hardware richtig auszulasten, z.B. multithreaded programmierung etc.

in letzter zeit scheint mir nv-gebashe aber sowieso modern zu sein, alleine wenn man an physx denkt.
fragt euch doch selbst einmal, wieso sich die industrie nicht aufrafft und einen standard für physikberechnung schafft. microsoft hätte eine derartige sdk doch schon längst in dx integrieren können, haben sie aber nicht gemacht...

daisho

Vereinsmitglied
SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19809
Bashen sollte man eher die Leute denen die Karte tatsächlich eingegangen ist (sofern das überhaupt die Wahrheit ist ... Internet und Wahrheit ist ... eh schon wissen), weil bei z.B. einer Runde Crysis hätte die Gurke vermutlich schon wesentlich früher den Nippel abgegeben.

Spikx

My Little Pwny
Avatar
Registered: Jan 2002
Location: Scotland
Posts: 13504
Zitat von InfiX
darum gehts ja nicht, 100% last ist ja nicht das problem, sondern die art der last die erzeugt wird.
Die Art der Last ist egal. Jede der Komponente auf der Grafikkarte muss dafür ausgelegt ein, bei 100% Last zu funktionieren.

foo_on_air

OC Addicted
Registered: Jun 2007
Location: Wien
Posts: 769
Zitat von Starsky
den programmierern kann man sehr wohl vorwerfern, daß sie im pausemodus nicht vom last in den idle wechseln lassen (woher soll der grafikkartentreiber sonst die info hernehmen, ob last oder idle gefragt ist?)
Dieses Argument kann ich nicht nachvollziehen! Und wenn die Grafikkarte im Spiel überlastet wird, ist es ok? Die HW bzw. der Treiber muss nicht riechen können, ob Menü / Pause / Ingame. Er bzw. die HW muss über ausreichend Kühlung bzw. eine Schutzfunktion verfügen.

(nicht auf dieses Posting bezogen:) Und von einem Programmierer zu erwarten, seinen Code nach der Temperatur zu optimieren... darüber kann ich nur lachen :D Das gehört eindeutig zur Kompetenz desjenigen, der die Hardware produziert. Ich bin für einen ökonomischen Umgang mit Energie. Suspend ist schon ok. Aber wenn ich arbeite - egal welcher Algorithmus läuft - soll dieser von der Hardware so schnell wie möglich ausgeführt werden. Solange ich will. Dafür habe ich schließlich bezahlt.

COLOSSUS

Administrator
GNUltra
Avatar
Registered: Dec 2000
Location: ~
Posts: 12148
Wenn ich auf einr CPU einen for-loop starte, der eine Variable inkrementiert, baue ich da ja auch nicht alle 100 oder sonstwas Zyklen ein paar NOOPs ein, damit ich die CPU ja nicht beschaedige. Das waere an vollkommener Schwachsinnigkeit nicht ueberbietbar. Der Fehler liegt einzig und allein an der Hardware, bzw. in der Art, wie sie von ihrem Treiber angesteuert wird, Punkt. Jeder, der etwas anderes behauptet, hat einfach nicht die geringste Ahnung von der Materie und sollte sich folglich aus dem Diskurs (der an sich absolut unnoetig ist, weil die Schuldfrage trivial und eindeutig zu klaeren ist) raushalten.

Unholy

Freak
Avatar
Registered: Jan 2001
Location: Vienna
Posts: 3568
true colo

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14531
Zitat von COLOSSUS
Jeder, der etwas anderes behauptet, hat einfach nicht die geringste Ahnung von der Materie und sollte sich folglich aus dem Diskurs (der an sich absolut unnoetig ist, weil die Schuldfrage trivial und eindeutig zu klaeren ist) raushalten.

nein danke :D
ich behaupte ja nichts anderes, dennoch ist es genauso fakt, dass blizzard unsauber programmiert hat, egal ob daran jetzt hardware stirbt oder nicht haben sie einen fehler gemacht.

-> der hardwaresteller ist schuld, dass ein schadfall möglich ist.
-> blizzard hat diesen schadfall durch unsauberes programmieren provoziert.

und imho gehören sie dafür gebasht, weil sowas zur QA gehört das zu erkennen und zu fixen bevor ein produkt released wird.
Bearbeitet von InfiX am 10.08.2010, 13:41

Unholy

Freak
Avatar
Registered: Jan 2001
Location: Vienna
Posts: 3568
unsauber programmiert das menü soll halt auch animiert sein etc wo is das problem? vma kann ein programm sobald ich es starte permanent 100 % auslastung auf die gpu legen - es sollte normal nix passieren es sei denn! der hersteller der graka hat pfuscht oder sie is verdreckt etc aber selbst da sollt nix passiern wenn der hersteller seine hausaufgaben gemacht hat

Spikx

My Little Pwny
Avatar
Registered: Jan 2002
Location: Scotland
Posts: 13504
Zitat von InfiX
-> der hardwaresteller ist schuld, dass ein schadfall möglich ist.
-> blizzard hat diesen schadfall durch unsauberes programmieren provoziert.
Jeder kann einen solchen Schadfall durch "sauberes" programmieren provozieren.

Und dass das Menü keine limitierte Aktualisierungsrate hat würde ich nicht mal in unsauberes programmieren einstufen.

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14762
Zitat von foo_on_air
Dieses Argument kann ich nicht nachvollziehen! Und wenn die Grafikkarte im Spiel überlastet wird, ist es ok? Die HW bzw. der Treiber muss nicht riechen können, ob Menü / Pause / Ingame. Er bzw. die HW muss über ausreichend Kühlung bzw. eine Schutzfunktion verfügen.

(nicht auf dieses Posting bezogen:) Und von einem Programmierer zu erwarten, seinen Code nach der Temperatur zu optimieren... darüber kann ich nur lachen :D Das gehört eindeutig zur Kompetenz desjenigen, der die Hardware produziert. Ich bin für einen ökonomischen Umgang mit Energie. Suspend ist schon ok. Aber wenn ich arbeite - egal welcher Algorithmus läuft - soll dieser von der Hardware so schnell wie möglich ausgeführt werden. Solange ich will. Dafür habe ich schließlich bezahlt.
die grafikkarte verfügt über drei stati; idle, low power 3d und performance 3d.
wenn ich als programmierer im pausemodus fortlaufend performance 3d laufen lasse, wird die karte folglich weder in den low power 3d modus noch in den idle wechseln.
mir geht´s hier nicht um angeblich defekte (die ich so oder so nicht nachvollziehen kann, ohne ein umgehen der schutzmaßnahmen) - mir geht es um den energieverbrauch an sich.
wenn du per alt tab auf den desktop wechselst, wird die karte sofort heruntertakten, wechselst du zum spiel zurück ist die karte sofort wieder im performance 3d - das funktioniert ja.
woher soll aber der treiber einen pausemodus automatisch erkennen, wenn im hintergrund fleissig performance 3d gerendert wird? also muß die anweisung "pause, low power 3d oder idle" wohl vom programmcode kommen.
Bearbeitet von Starsky am 10.08.2010, 13:51

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14531
Zitat von Spikx
Jeder kann einen solchen Schadfall durch "sauberes" programmieren provozieren.
Und dass das Menü keine limitierte Aktualisierungsrate hat würde ich nicht mal in unsauberes programmieren einstufen.

möglich, ich kannte bis jetzt aber kein spiel das eine solche auslastung provoziert... oder war da mal was mit stalker?

an dem framecap allein kanns doch nicht liegen, sonst würd das ja bei jeder anwendung passieren die keine begrenzung hat.

achja was ist eigentlich wenn man vsync via treiber forciert?

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14762
Zitat von InfiX
achja was ist eigentlich wenn man vsync via treiber forciert?
dann solltest sowieso nur maximal 60 fps haben.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz