"We are back" « oc.at

AMD Radeon RX 9000 Serie (RDNA4)

WONDERMIKE 07.08.2023 - 00:09 57411 304 Thread rating
Posts

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14738
Zitat aus einem Post von sk/\r
eine einfache lösung wäre es endlich mal wieder auf effizienz zu setzen und die dinger weniger Stromhungrig zu machen.
aber nein. ich seh jetzt schon völlig absurde lösungen kommen, weil man in diesen bereich nix investieren will.
Naja, der Leistungszuwachs der letzten Generationen war schon gegeben und wenn du FSR oder andere Upscaler verwendest, sinkt die Energieaufnahme auch.
Höhere Auflösungen als auch Technologien wie Raytracing oder gar Pathtracing brauchen halt auch mehr Rechenpower.
Weniger Leistungsaufnahme wäre zwar wünschenswert, ist aber nicht so einfach machbar.

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50464
Zitat aus einem Post von charmin
ich stells mir nur schwierig vor jetzt alles auf 48V umzustellen.
damit gehen sauviele komponenten nimmer und man müsste auch sämtliche stecker ändern weil die ja "kodiert" sind auf 12V

Das seh ich eigentlich überhaupt nicht als Problem.
Neuer ATX Standard mit neuen Steckern. Dort dann 80V Rails rein.

nvidia hat gezeigt wie schnell man neue Stecker etablieren kann

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14738
Zitat aus einem Post von Viper780
nvidia hat gezeigt wie schnell man neue Stecker etablieren kann
Schlechtes Beispiel würde ich sagen. :D

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3459
Ic hhoff mal das die 9070XT nicht zu billig wird ... ich will net schwach werden meine 6900XT ersetzen zu wollen ;)

Spekulieren können wir über den Preis gerne, praktisch wird es da aber ein Gremium von schlauen Köpfen geben die genau wissen wie sie sich positionieren müssen um das maximale rauszuholen (durch verfügbarkeit, verkaufszahlen, marge, ....) und somit den Gewinn optimieren.

charmin

Elder
0_o
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15380
Zitat aus einem Post von Viper780
Das seh ich eigentlich überhaupt nicht als Problem.
Neuer ATX Standard mit neuen Steckern. Dort dann 80V Rails rein.

nvidia hat gezeigt wie schnell man neue Stecker etablieren kann

Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer.
Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc.

Umlüx

Huge Metal Fan
Avatar
Registered: Jun 2001
Location: Kärnten
Posts: 9012
Zitat aus einem Post von Jedimaster
Ic hhoff mal das die 9070XT nicht zu billig wird ... ich will net schwach werden meine 6900XT ersetzen zu wollen ;)

da spekulier ich eher noch richtung 7900xtx, aber im grunde ist mir der sprung zu klein.

Nightstalker

ctrl+alt+del
Avatar
Registered: Jan 2002
Location: .^.
Posts: 6706
Zitat aus einem Post von charmin
Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer.
Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc.

Naja, du brauchst sowieso immer verschiedenste Spannungen.

Die Frage ist, hast du ein Netzteil, welches dir jede Spannung gesondert liefert oder wandelst du die Spannungen onboard nochmal um. Kann man alles überlegen. Da wir aber von wenigen Spannungen sprechen, 3/5/12 und dann ggf. 24/48, könnte man das schon noch im Netzteil machen, wird aber auch Grenzen haben, insbesondere wenn wir von kleinen Netzteilen reden.

Es ist halt nicht so einfach und das ist sicher auch der Grund, warum sich da seit Jahrzehnten kaum was geändert hat.

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 11050
Zitat aus einem Post von charmin
Sicher investiert man da?
DLSS/FSR ist genau das.

Versuchen einer Leistungssteigerung nicht durch einfache Vermehrung der Transistoren und logischen Schaltungen.

als nächstes erzählst du mir, dass die 5090 e garnicht soviel braucht.
der raster leistungszuwachs von 4090 auf 5090 ist nur mit mehr watt gekauft.
dem beispiel mit dlss/fsr müsste es so sein, dass es absolut verpflichtend ist. was es ja nicht ist.

wenn ich mir anschaue was eine 1080, 2080 und dann schon eine 3090 braucht ist das einfach nur grundfalsch.

man kann e nur hoffen das durch neue technologien die leistungsaufnahme wieder sinkt.
aktuell geht man ja davon aus das das mit der nächsten gen auch noch nicht sein wird.

charmin

Elder
0_o
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15380
Ja was ist eine neue Technologie die mehr fps für weniger Verbrauch bietet? Dlss/fsr macht doch genau das?

Dass jetzt nvidia 600w Monster rausbringt ok, andere Diskussion imho.
Wie soll die Leistungsaufnahme sinken?
Ich seh da nicht mehr viel Möglichkeit ehrlichgesagt. Moore's Law und so?

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50464
Zitat aus einem Post von charmin
Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer.
Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc.

Du kannst dafür ja nach wie vor 3,3V; 5V und 12V lassen und alle die den neuen Stecker wollen mit mehr Spannung versorgen

charmin

Elder
0_o
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15380
Ja habs schon checkt. Nightstalker hats eh ausgeführt.
Ka ob das so möglich ist vom Platz her noch einen weiteren Kreis zu verbauen.

smashIt

master of disaster
Avatar
Registered: Feb 2004
Location: OÖ
Posts: 5284
warum glaubt ihr, dass das pcb die ströme nicht aushält?
hinter den spannungswandlern wird ja im gleichen pcb die gleiche leistung mit hausnummer 2V statt 12V durchgeschoben.

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 11050
Zitat aus einem Post von charmin
Ja was ist eine neue Technologie die mehr fps für weniger Verbrauch bietet? Dlss/fsr macht doch genau das?

Dass jetzt nvidia 600w Monster rausbringt ok, andere Diskussion imho.
Wie soll die Leistungsaufnahme sinken?
Ich seh da nicht mehr viel Möglichkeit ehrlichgesagt. Moore's Law und so?

würd moore's law hier greifen, wären nvidia, intel und amd bei gleicher leistung auch gleich auf mit dem verbrauch; was sie aber nicht sind bei den einzelnen modellen. ;)

noch besser sieht man das bei den cpus mit intel und amd.
ich denke das hier os-seitig und softwareseitig extrem viel Potential verschenkt wird. weil optimieren nicht nur bei games keinen mehr juckt. leider.

und das nvidia ein 600w monster (mit peaks richtung 900w!) rausbringt ist eben genau die diskussion und keine andere.
ohne perfektes, verpflichtendes framegen tool ist diese diskussion keine imo.
alles nur theorie. mit der 5090 brauch ich bis 1440p keine framegen die die bildquali leiden lässt (teilweise) also spielt auch dort die rasterleistung die große rolle und damit einhergehend auch der hohe verbrauch.

wennst ein perfektes beispiel für leistung satt und niedrigst verbrauch willst: m4pro von apple.
im singlecore benchmark vor allen anderen cpus. tdp max. irgendwo bei 55, 60w. :eek:
m4max hat als soc knapp die leistung einer 4080. :eek: :eek:

also mit entsprechender Entwicklung ließe sich da sicher viel machen. ohne echte konkurrenz wird da aber nichts passieren.

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14490
Zitat aus einem Post von sk/\r
noch besser sieht man das bei den cpus mit intel und amd.
ich denke das hier os-seitig und softwareseitig extrem viel Potential verschenkt wird. weil optimieren nicht nur bei games keinen mehr juckt. leider.
was ja gerade auch durch DLSS/FSR&co herbeigeführt wurde... hier beisst sich die katze also in den schwanz

man sieht ja auch in vielen tests immer wieder, dass die hardware heutzutage selten im besten effizienz-bereich betrieben wird.

und ich hab ehrlich gesagt wenig hoffnung, dass das bei der 9000er von AMD anders sein wird ^^

charmin

Elder
0_o
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15380
Ja ka, ich sehe das etwas wie Dunning-Kruger bei uns. Wer von uns hat wirklich Ahnung von der Materie. Deswegen will ich da nicht urteilen und so tun wie wenns super einfach wäre die Hardware einfach schneller zu machen und gleichzeitig sparsamer. Ich bin mir sicher, dass die Ingenieure und Entwickler bei AMD und Nvidia ihr bestes geben. Es wir halt ned so einfach sein.

Der Apple M4 ist immer noch keine riesige GPU wie von Nvidia oder AMD.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz