Guest
Deleted User
|
3 Jahre Garantie und sie ist um 5 Grad und 2db "kühler" als die FE. Mal schaun. Einen Monat hab ich Zeit die Sache zu überdenken. add.: OC war nie ein Thema - Blasphemie in einem Forum wie diesem, ist mir klar
Bearbeitet von am 01.02.2023, 10:47
|
Jedimaster
Here to stay
|
Abschiebung nach default.at droht
|
WONDERMIKE
Administratorkenough
|
Inno3D ist nicht hip, aber eine schlechte Karte hatte ich von denen noch nie in der Hand. Die GTX 980 oder 1070 von denen waren zB solide Karten. Mit den 3-Slots wäre sie bei der 4090 auch meine Präferenz gewesen, aber es geht sich mit der FE zum Glück auch aus
|
smashIt
master of disaster
|
|
Roman
CandyMan
|
Inno3d ist kein Glump. Die sind halt nicht so gehyped wie eine ASU’s ROG Strix oder MSI Gaming Z oder EVGA K1ngp1n oder Gigabyte Aorus. Sind aber auch erst seit Rive TNT Zeitn dabei also gebt’s dem noch a bissl Zeit.
Kann man kaufen.
|
Guest
Deleted User
|
Bevor ich 1800 Euronen raushaue, mach ich schon meine Hausaufgaben. Trotzdem hätte ich eine FE fast lieber gehabt. Ich mag das Design*. Obwohl die Inno angeblich leiser und kühler läuft.
* die 80er war großartig
|
creative2k
eigentlich mag ich nimmer
|
Inno3d ist kein Glump. Die sind halt nicht so gehyped wie eine ASU’s ROG Strix oder MSI Gaming Z oder EVGA K1ngp1n oder Gigabyte Aorus. Sind aber auch erst seit Rive TNT Zeitn dabei also gebt’s dem noch a bissl Zeit.
Kann man kaufen. Warum soll die kein Klump sein? Ja schön entspricht den „Standards“, aber im Vergleich zu allen andern Karte miese VRMs, niedriges PWR Limit usw. Also für mich ist eine Karte schon Klump wenn sie alle anderen in der Qualität unterbietet  Kann man sie kaufen? Ja klar. Will sie jeder kaufen? #doubt. Wenn ich schon so viel Geld ausgebe dann kann ich auch gleich paar mehr Euro in gutes Design investieren. [Sammelthread] - Geforce RTX 4090 VRM PCB Wasserblock ListeHallo zusammen, ich denke es wäre ein coole Idee wenn wir hier alle Infos zu den momentant Verfügbahren RTX 4090 sammeln. Modell PT nom/max VRM GPU/MEM Board Layout Wasserblock NVIDIA GeForce RTX 4090 450W/600W 20x70A MP86957 3x70A MP86957 ~1400W VRM founder Alphacool-Acryl EKWB-Acetal... Link: www.hardwareluxx.de Edit. Ok sorry von PNY und Gigabyte gibts auch „Klump“ Karten
Bearbeitet von creative2k am 01.02.2023, 17:39
|
Guest
Deleted User
|
Die Karte ist möglicherweise mistig. Sie wird für 30 Tage gequält und wenn sie versagt -> back 2.. Schaun wir mal. Und das "Unterbieten" ist per Design und gewollt. Eine 4090er untertakten wird trotzdem spassig. OC war nicht einmal angedacht -> 650W Netzteil  aja.: eine wichtige Anforderung war - 3 slots only
Bearbeitet von am 01.02.2023, 17:50
|
Jedimaster
Here to stay
|
Mutig
|
Guest
Deleted User
|
Eigentlich nur faul. Wenns nicht geht @ Max Power, geht entweder die Karte und/oder das Netzteil zurück/in Rente.
Die 4080er konnte ich mit 110% und bis zu 370 Watt quälen ohne Ende. Furmark und Prime95 parallel.
Sollte also kein Problem sein.
|
Guest
Deleted User
|
Die 4090er kommt nur ganz selten über 350 Watt @ Stock CPU und +1300 Mem. Eigentlich nur bei Port Royale und CP77. Da ich sie mit höchsten 70-90% betreiben werde, mehr ist völlig sinnlos, selbst @ 4k (-3%) mach ich mir wirklich keine Sorgen ..hab mir das lange und gut überlegt.. OC frisst nur sinnfrei Strom, für so gut wie keinen spürbaren benefit >Der Süßpunkt der 90er liegt (ang.) bei ca. 300 Watt. Bei der 80er waren es um die 260 Watt. Wird man alles austesten müssen, bis das Netzteil verglüht, (oder nicht)
Bearbeitet von am 01.02.2023, 18:11
|
WONDERMIKE
Administratorkenough
|
Wenn bei Bender in den Spielen die übertaktete 4080 keine Probleme gemacht hat, dann wird das Netzteil die 4090 auch noch irgendwie dablasen. Die Leute sind vom Sensationalismus rund um die TDP der 4090 imo übertrieben eingeschüchtert. Lastspitzen wie bei den Top Karten der letzten Generation sind auch bei weitem weniger wild.
|
Guest
Deleted User
|
So, Karte mal schnell eingebaut und Port Royale/77 stressgetestet. Geht mit +230 GPU und +1240 MEM ohne Absturz. Waren aber nur knapp 10 Durchläufe. Stromverbrauch liegt um lächerliche 20 Watt höher (370Watt) als die 4080er @ 110%. Gesamt Systemverbrauch bleibt noch recht deutlich unter 600W. Prime 95 lass ich aber erst dann parallel laufen, wenn ich den Laptop dabei habe. Falls das Ding abraucht.  Schaut gut aus bis jetzt. Muss die City aber schon wieder verlassen.
|
Guest
Deleted User
|
So, endlich wieder zurück und Zeit für GTA5 @ 8k. Selbe Einstellung wie die 4080er, also alles maxed out, nur Msaa auf 4x. Bei 8x ging der 80er der Speicher (17,2GB) aus und es gab Mikroruckler. Bei diesen Pixelmenge fühlt sich das Monster erst so richtig wohl. 31 vs 46fps. Der Stromverbrauch ist auch fast lächerlich "niedrig" mit etwas über 300* Watt. Hätte man die 90er als 300(-350) Watt Karte vermarktet und minimal niedriger getaktet und bestromt, wäre das nicht einmal gelogen gewesen. Man kann sie natürlich auch maximal ineffizient bei 500-600 Watt betreiben, bei 10(?)% mehr Leistung. Fürs Benchmarken natürlich nett, ansonsten eher - naja - nicht so klug, um es mal vorsichtig auszudrücken.  *an die 400 - hätte mich auch sehr gewundert - hab den Chip Draw ausgelesen statt den des Bretts - silly me
Bearbeitet von am 07.02.2023, 18:23
|
Sagatasan
Here to stay
|
womit liest du den stromverbrauch der grafikkarte aus?? GPU-Z zeigt ja mehrere werte an - muss man da mehrere werte zusammenzählen um auf den korrekten verbrauch zu kommen?
|