ferdl_8086
Here to stay
|
Remember that the Radeon RX 7900 XTX is a high-end gaming product that still uses much power. Under full load, the reference edition uses about 350 Watts (average). This Wattage is directly related to how much heat the GPU, which sits inside a closed case, gives off. The 386W or 410W (unlocked mode) for this model, by the way, is a lot, but we do need to acknowledge that the RX 7900XTX is relatively efficient with that power budget. Also der Verbrauch reißt mich jetzt gar nicht so.
|
Jedimaster
Here to stay
|
Jetzt stellt sich die Frage ... warum ? Ich mein 'wenn eh mehr geht' wieso hat AMD ihre eigenen Referenzmodelle so niedrig gehalten ?
|
charmin
Super Moderatorhurr gurr fenster
|
Jetzt stellt sich die Frage ... warum ?
Ich mein 'wenn eh mehr geht' wieso hat AMD ihre eigenen Referenzmodelle so niedrig gehalten ? ich denk es geht eben net mehr, ausser man sortiert chips raus bei denen mehr geht und verkauft diese dann als OC modell. zumindest denk ich mir das so zam
|
ferdl_8086
Here to stay
|
ich denk es geht eben net mehr, ausser man sortiert chips raus bei denen mehr geht und verkauft diese dann als OC modell. zumindest denk ich mir das so zam Sicher möglich. Oder die sind einfach sehr sehr risikoavers.
|
mr.nice.
Moderatordifferential image maker
|
Guru3d hat die GPU im Gegensatz zu techpowerup nicht undervolted, "nur" Powerlimit angehoben und GPU und Speicher overclocked. Ich vermute, dass sie so etwas Leistung liegengelassen haben und somit auf 3 Ghz anstatt auf 3,2 Ghz gekommen sind.
|
Jedimaster
Here to stay
|
Wärs evtl. möglich das es bei den ersten Chips die Qualität noch nicht ganz gepasst hat und die somit in die AMD Karten mit unter 3 Ghz gewandert sind und jetzt wo die Produktionsqualität passt die Boardpartner beliefert werden die bessere Ergebnisse erzielen ?
Bei Zen zu Zen+ ging es ja auch relativ schnell mit höherem Takt ?
|
mr.nice.
Moderatordifferential image maker
|
Ich denke, dass es eher an der zusätzlichen Stromzufuhr liegt, AMD hat sich für 2 x 8 Pin entschieden, die Board-Partner für 3 x 8 Pin und dass das den Unterschied beim Maximaltakt ausmacht.
|
charmin
Super Moderatorhurr gurr fenster
|
Ich denke, dass es eher an der zusätzlichen Stromzufuhr liegt, AMD hat sich für 2 x 8 Pin entschieden, die Board-Partner für 3 x 8 Pin und dass das den Unterschied beim Maximaltakt ausmacht. meinst? und damit 8% an leistung verlieren? kann ich mir schwer vorstellen. für amd gehts da um soviel.
|
Jedimaster
Here to stay
|
Nachdem die Geforce sogar ein eigenes Stromkabel für die möglichen exorbitanten Stromgelüste gekriegt hat wärs echt komisch das AMD hier extrem Strom sparen will... Oder waren die Ingenieure sowas von überzeugt und überheblich das sie gmeint haben 'jetzt fahrn ma die Stromsauf-Strategie gegen Nvidia und haben die selbe Leistung bei halben Stromverbrauch hur hur dur ...' oder natürlich auch das Marketing ... Irgendwas interessantes könnt durchaus im Hintergrund gelaufen sein ... die Geforce 4090 schaut ja aus als ob sie im 'letzten Moment' noch mal downgesized wurde (wo die Kühler schon fertig designed waren usw. wurde der Strombedarf von 600 runterreduziert?) Hat hier Nvidia auf leaks von AMD reagiert, oder wars umgekehrt ... oder hat Nvidia festgestellt das bei 600 Watt noch mehr Geforces in Flammen aufgehn ? Wir werdens vermutlich leider nie erfahren ...
|
smashIt
master of disaster
|
kann auch sein, dass sich amd bei den partnern einschleimen will. nvidia ist denen ja massiv in den rücken gefallen.
|
Viper780
ModeratorEr ist tot, Jim!
|
ich denk es geht eben net mehr, ausser man sortiert chips raus bei denen mehr geht und verkauft diese dann als OC modell. zumindest denk ich mir das so zam Ich glaub sie wollten keinesfalls das Powertarget sprengen. Bei den Strompreisen ist es einfach ein heikles Thema. Auch wenns in der Praxis wurscht ist ob ein Abend Gamin 10 oder 11 cent Kostet
|
deleted060824
|
Die 4090er wird im "vernünftigen" Rahmen betrieben wo fps/Watt noch passt. Das hat AMD auch versucht. Erstere kann man auch auf 600 Watt prügeln, aber dann wird sie zum Schluckspecht mit 3090ti Effizienz. Das hebt man sich dann für den Respin in Vollausstattung auf.
|
WONDERMIKE
Administratorkenough
|
Wärs evtl. möglich das es bei den ersten Chips die Qualität noch nicht ganz gepasst hat und die somit in die AMD Karten mit unter 3 Ghz gewandert sind und jetzt wo die Produktionsqualität passt die Boardpartner beliefert werden die bessere Ergebnisse erzielen ? Es gab im Vorfeld Gerüchte, dass es ein Problem beim Chipdesign gab, welches zu spät erkannt wurde. Wirkliche Fakten werden wir dazu nicht bekommen, aber so wies aussieht nimmt man lieber Abstand vom Referenzmodell.
|
deleted060824
|
Hab ich auch gehört. Eine leicht veränderte Neuauflage in nicht allzu ferner Zukunft ist also nicht ausgeschlossen. Kommt drauf an ob und wann sie es bemerkt haben.
|
xtrm
social assassin
|
Ich glaub sie wollten keinesfalls das Powertarget sprengen. Bei den Strompreisen ist es einfach ein heikles Thema. Auch wenns in der Praxis wurscht ist ob ein Abend Gamin 10 oder 11 cent Kostet Und trotzdem verbraucht die Karte mehr als die 4080 und ist gerade im FPS Limiter sowie bei YT abartig schlecht. Die Leistung/Watt ist demnach so oder so schlechter.
|