"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

AMD Radeon 7000 Serie

deleted060824 02.11.2022 - 12:32 221485 747 Thread rating
Posts

Oxygen

Sim Racer
Avatar
Registered: Feb 2004
Location: Mühl4tel
Posts: 3923
Zitat aus einem Post von DjangOC
Bin aber im Moment noch unschlüssig, ob eine gebrauchte 3090 nicht doch der bessere Ansatz ist, einerseits weil schon für unter 600CHF zu bekommen sind, dann noch RT "gscheit" können und anderseits weil für AI (wie SD) AMD derzeitig noch (zumindest mit der WX9100) ein major PITA ist.

Du darfst dabei nicht vergessen das die 7900XTX in RT ziemlich gleichschnell wie eine 3090 ist.

DjangOC

Little Overclocker
Registered: Feb 2014
Location: Ostschweiz
Posts: 105
Zitat aus einem Post von Oxygen
Du darfst dabei nicht vergessen das die 7900XTX in RT ziemlich gleichschnell wie eine 3090 ist.

Ne, das vergesse ich nicht. Nur ist die 3090 gebraucht dann halt doch noch nen ganzen Spalten billiger. Auf Ricardo gehen die teilweise für 580 CHF. - Andernseits ists halt dennoch nVidia, die reifen nicht, die faulen.
Bei AMD ist ja der Performancezugewinn mit den Treibern schon heftig, seh ich ja selber bei meiner WX9100. Die war ja ursprünglich als überteuerte 1070 verspottet worden, zieht jetzt aber gleich auf, zur 2080 die mein Bruder hat.

Leider finde ich wenig "gute" Benchmarks die darauf eingehen, wie viel die sich verbessert haben, resp. ob die 3090 stagniert oder sich auch etwas verbessert hat.
Die Cuda Geschichte für SD bleibt da leider weiterhin. Anderseits, will ich die nicht zum entscheidungskriterium machen, denn AMD schiebt da ja mit den Treibern gut an. Der 23.5.2 soll ggü dem 23.5.1 in SD1.5 fast doppelt so viel Performance aus RDNA Karten raus holen. Ist zwar noch immer langsamer als nVidia mit CUDA, schlicht weil alles und jeder auf CUDA optimierte, aber die Karten von AMD haben die Leistung, es ist halt nur die Frage, wann die Software gleichartig optimiert ist, resp. wie viel da AMD mittels Treiber machen kann und wie viel die Entwickler von bspw. DirectML tun müssen.

Daher will ich das nicht zum Kernpunkt machen.

Viel entscheidender ist, ob Sapphire Kühlertausch zulässt und ob es da preiswerte Kühler für gibt oder nicht.

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14592
Ist zwar schon ein paar Tage alt, aber hth: https://www.computerbase.de/2016-09...ntie-vergleich/

DjangOC

Little Overclocker
Registered: Feb 2014
Location: Ostschweiz
Posts: 105
Zitat aus einem Post von Starsky
Ist zwar schon ein paar Tage alt, aber hth: https://www.computerbase.de/2016-09...ntie-vergleich/

Danke, aber da schneidet Sapphire jetzt nicht gerade am besten ab. Mal schauen, ob ich was aktuelleres dazu finde.

FearEffect

Here to stay
Avatar
Registered: May 2003
Location: Oberösterreich
Posts: 6050
https://www.pcgameshardware.de/Rade...r-Test-1424012/


Also entweder PCGH testet irgendwas oder AMD hat selber nix getestet …

Gibts ja nicht, dass nach über nem halben Jahr die Probleme mit Multimonitorbetrieb und/oder hohen Hz nicht behoben werden können … bzw. noch schlechter werden.

click to enlarge

Starsky

Erbeeren für alle!
Registered: Aug 2004
Location: Proletenacker
Posts: 14592
Da ich den hohen Idleverbrauch selbst nie hatte, kann ich dazu nichts sagen, abgesehen davon läuft der neue Treiber stabil.
Allerdings ärgere ich mich doch auch über AMD, von FSR3.0 ist bislang nichts zu sehen außer Blabla und FSR2.x ist teilweise doch sehr schlecht in vielen Spielen implementiert. :mad:

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9293
rdna3 scheint im allgemeinen probleme mit power draw (scaling) zu haben:

optimum tech video von gestern:
https://www.youtube.com/watch?v=HznATcpWldo&t=113s

sieht nicht so aus, als ob das mit einem treiberupdate zu fixen wäre.
Bearbeitet von blood am 11.07.2023, 10:35

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3108
Komisch, ein bekannter von mir hat sich ne 7900XTX gekauft, der hat 2x 4K Monitore dran (1x 144 Hz, 1x 60 Hz) - und braucht im Desktopbetrieb 38 Watt Boardpower.

Entweder passiert hier Cherrypicking um die schlechtesten Optionen zu zeigen oder ich weiß nicht wieso die Werte von PCGH soviel schlechter sind.... ich mein fast 100 Watt IDLE ? Dann würde die GPU ja nicht mal wirklich fette Power-Reserven haben 'wenn was zutun ist' ;)

Garbage

Administrator
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11347
Bei CB siehts auch nicht besser aus, interessant ist aber in dem Fall eher das Forum.
Da haben einige ihre Werte gepostet und es ist offenbar extrem unterschiedlich: Von deutlicher Verbesserung bis zur Verschlechterung ist da alles dabei. Die Timings die in den Monitoren hinterlegt sind dürften da eine nicht unwesentliche Rolle spielen.

Ich hab zwar nur eine 6800, aber auch da war es so, dass am WQHD Monitor ohne herumspielen mit CRU schon 72 oder 75Hz zu 40W Idle Power geführt haben, weil der Speicher auf max war. Mit CRU ein Profil mit anderen Timings hinterlegt und plötzlich kein Problem, 8W Idle Power.
Dazu dann noch einen zweiten WQHD anhängen und wieder selbes Spiel, aber da hab ich bisher nicht die Lust gehabt ein Profil zu finden das funktioniert.

CRU und custom Profile dürfte aber leider auch nicht immer die Lösung sein.

FearEffect

Here to stay
Avatar
Registered: May 2003
Location: Oberösterreich
Posts: 6050
Zitat aus einem Post von Garbage
Bei CB siehts auch nicht besser aus, interessant ist aber in dem Fall eher das Forum.
Da haben einige ihre Werte gepostet und es ist offenbar extrem unterschiedlich: Von deutlicher Verbesserung bis zur Verschlechterung ist da alles dabei. Die Timings die in den Monitoren hinterlegt sind dürften da eine nicht unwesentliche Rolle spielen.

Ich hab zwar nur eine 6800, aber auch da war es so, dass am WQHD Monitor ohne herumspielen mit CRU schon 72 oder 75Hz zu 40W Idle Power geführt haben, weil der Speicher auf max war. Mit CRU ein Profil mit anderen Timings hinterlegt und plötzlich kein Problem, 8W Idle Power.
Dazu dann noch einen zweiten WQHD anhängen und wieder selbes Spiel, aber da hab ich bisher nicht die Lust gehabt ein Profil zu finden das funktioniert.

CRU und custom Profile dürfte aber leider auch nicht immer die Lösung sein.

Ja sorry - aber das kanns irgendwo trotzdem nimmer sein, dass das ne Lotterie ist und ich als Kunde da so herumspielen und hoffen muss, dass dann irgendwas mal funktioniert ...

Bei mir hat der Verbrauch mit 6750XT und 6950XT auf 2k@144Hz + 1080p@60Hz ja sehr gut gepasst (afaik alles unter 20W ohne herumspielen zu müssen) und dann bei 2 Kumpels mit ähnlicher Config läuft das Ding dauerhaft auf über 40W im idle (6800XT + 6900XT).

Hoffentlich machen sie´s mit der nächsten Gen besser, weil (gute) Konkurrenz ist immer gut :)

Garbage

Administrator
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11347
NVIDIA hat mit Multi-Monitor teilweise ähnliches Verhalten, aber insgesamt läuft das dort schon deutlich runder und mit weniger/keiner Bastelei.

Der einzige Display Controller der letzten 10 Jahre der bei AMD diesbezüglich halbwegs ok war, war der von Vega. War vielleicht aber auch dem HBM geschuldet, wo selbst bei sehr niedrigem Takt noch reichlich Speicherbandbreite vorhanden war.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3108
Mein bekannter hat jetzt mit der 7900XTX etwas rumgespielt und rumprobiert (Auflösungen, Hz, ...) und dabei rausgefunden das:

4K@60Hz SDR + 4K@120Hz HDR hat er den geringsten Stromverbrauch - zwischen 20 und 30 Watt.
Sobald aber beide Monitore SDR oder HDR eingestellt haben gehts rauf auf 70 - 80 Watt.

Echt seltsames Verhalten und ich kann mir fast nicht vorstellen das das ein Hardwareproblem ist.

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9293
Zitat aus einem Post von Garbage
Der einzige Display Controller der letzten 10 Jahre der bei AMD diesbezüglich halbwegs ok war, war der von Vega. War vielleicht aber auch dem HBM geschuldet, wo selbst bei sehr niedrigem Takt noch reichlich Speicherbandbreite vorhanden war.

der VRAM bei AMD karten läuft seit RDNA1 selbst im idle immer auf maximaler frequenz, da hat HBM sicher einen unterschied gemacht.

*edit*
polaris hatte scheinbar das selbe feature/problem.
Bearbeitet von blood am 12.07.2023, 11:45

Garbage

Administrator
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11347
Das stimmt definitiv nicht, sowohl bei den RDNA1 und 2 die ich habe, geht der Speichertakt runter.
Voraussetzung ist aber eine passende Kombination aus Monitorprofil, Auflösung, Hz, 6/8/10-bit pro Farbkanal, HDR/SDR.

Und noch komplizierter wird es, wenn 2 Schirme ins Spiel kommen.

davebastard

Vinyl-Sammler
Avatar
Registered: Jun 2002
Location: wean
Posts: 12278
mit was mess ich den Verbrauch am besten? würd gern mal checken ob es bei mir eh passt...
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz