Starsky
Erdbeeren für ALLE!
|
eine einfache lösung wäre es endlich mal wieder auf effizienz zu setzen und die dinger weniger Stromhungrig zu machen. aber nein. ich seh jetzt schon völlig absurde lösungen kommen, weil man in diesen bereich nix investieren will. Naja, der Leistungszuwachs der letzten Generationen war schon gegeben und wenn du FSR oder andere Upscaler verwendest, sinkt die Energieaufnahme auch. Höhere Auflösungen als auch Technologien wie Raytracing oder gar Pathtracing brauchen halt auch mehr Rechenpower. Weniger Leistungsaufnahme wäre zwar wünschenswert, ist aber nicht so einfach machbar.
|
Viper780
ElderEr ist tot, Jim!
|
ich stells mir nur schwierig vor jetzt alles auf 48V umzustellen. damit gehen sauviele komponenten nimmer und man müsste auch sämtliche stecker ändern weil die ja "kodiert" sind auf 12V Das seh ich eigentlich überhaupt nicht als Problem. Neuer ATX Standard mit neuen Steckern. Dort dann 80V Rails rein. nvidia hat gezeigt wie schnell man neue Stecker etablieren kann
|
Starsky
Erdbeeren für ALLE!
|
nvidia hat gezeigt wie schnell man neue Stecker etablieren kann Schlechtes Beispiel würde ich sagen.
|
Jedimaster
Here to stay
|
Ic hhoff mal das die 9070XT nicht zu billig wird ... ich will net schwach werden meine 6900XT ersetzen zu wollen Spekulieren können wir über den Preis gerne, praktisch wird es da aber ein Gremium von schlauen Köpfen geben die genau wissen wie sie sich positionieren müssen um das maximale rauszuholen (durch verfügbarkeit, verkaufszahlen, marge, ....) und somit den Gewinn optimieren.
|
charmin
Elder0_o
|
Das seh ich eigentlich überhaupt nicht als Problem. Neuer ATX Standard mit neuen Steckern. Dort dann 80V Rails rein.
nvidia hat gezeigt wie schnell man neue Stecker etablieren kann Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer. Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc.
|
Umlüx
Huge Metal Fan
|
Ic hhoff mal das die 9070XT nicht zu billig wird ... ich will net schwach werden meine 6900XT ersetzen zu wollen  da spekulier ich eher noch richtung 7900xtx, aber im grunde ist mir der sprung zu klein.
|
Nightstalker
ctrl+alt+del
|
Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer. Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc. Naja, du brauchst sowieso immer verschiedenste Spannungen. Die Frage ist, hast du ein Netzteil, welches dir jede Spannung gesondert liefert oder wandelst du die Spannungen onboard nochmal um. Kann man alles überlegen. Da wir aber von wenigen Spannungen sprechen, 3/5/12 und dann ggf. 24/48, könnte man das schon noch im Netzteil machen, wird aber auch Grenzen haben, insbesondere wenn wir von kleinen Netzteilen reden. Es ist halt nicht so einfach und das ist sicher auch der Grund, warum sich da seit Jahrzehnten kaum was geändert hat.
|
sk/\r
i never asked for this
|
Sicher investiert man da? DLSS/FSR ist genau das.
Versuchen einer Leistungssteigerung nicht durch einfache Vermehrung der Transistoren und logischen Schaltungen. als nächstes erzählst du mir, dass die 5090 e garnicht soviel braucht. der raster leistungszuwachs von 4090 auf 5090 ist nur mit mehr watt gekauft. dem beispiel mit dlss/fsr müsste es so sein, dass es absolut verpflichtend ist. was es ja nicht ist. wenn ich mir anschaue was eine 1080, 2080 und dann schon eine 3090 braucht ist das einfach nur grundfalsch. man kann e nur hoffen das durch neue technologien die leistungsaufnahme wieder sinkt. aktuell geht man ja davon aus das das mit der nächsten gen auch noch nicht sein wird.
|
charmin
Elder0_o
|
Ja was ist eine neue Technologie die mehr fps für weniger Verbrauch bietet? Dlss/fsr macht doch genau das?
Dass jetzt nvidia 600w Monster rausbringt ok, andere Diskussion imho. Wie soll die Leistungsaufnahme sinken? Ich seh da nicht mehr viel Möglichkeit ehrlichgesagt. Moore's Law und so?
|
Viper780
ElderEr ist tot, Jim!
|
Najo da hast aber noch 12v und der Rest rennt noch mim Netzteil. Bei anderer Spannung rennt das alles aber nimmer. Lüftersteuerungen, hdds, ssds, rgb Controller, Lüfter etc etc. Du kannst dafür ja nach wie vor 3,3V; 5V und 12V lassen und alle die den neuen Stecker wollen mit mehr Spannung versorgen
|
charmin
Elder0_o
|
Ja habs schon checkt. Nightstalker hats eh ausgeführt. Ka ob das so möglich ist vom Platz her noch einen weiteren Kreis zu verbauen.
|
smashIt
master of disaster
|
warum glaubt ihr, dass das pcb die ströme nicht aushält? hinter den spannungswandlern wird ja im gleichen pcb die gleiche leistung mit hausnummer 2V statt 12V durchgeschoben.
|
sk/\r
i never asked for this
|
Ja was ist eine neue Technologie die mehr fps für weniger Verbrauch bietet? Dlss/fsr macht doch genau das?
Dass jetzt nvidia 600w Monster rausbringt ok, andere Diskussion imho. Wie soll die Leistungsaufnahme sinken? Ich seh da nicht mehr viel Möglichkeit ehrlichgesagt. Moore's Law und so? würd moore's law hier greifen, wären nvidia, intel und amd bei gleicher leistung auch gleich auf mit dem verbrauch; was sie aber nicht sind bei den einzelnen modellen.  noch besser sieht man das bei den cpus mit intel und amd. ich denke das hier os-seitig und softwareseitig extrem viel Potential verschenkt wird. weil optimieren nicht nur bei games keinen mehr juckt. leider. und das nvidia ein 600w monster (mit peaks richtung 900w!) rausbringt ist eben genau die diskussion und keine andere. ohne perfektes, verpflichtendes framegen tool ist diese diskussion keine imo. alles nur theorie. mit der 5090 brauch ich bis 1440p keine framegen die die bildquali leiden lässt (teilweise) also spielt auch dort die rasterleistung die große rolle und damit einhergehend auch der hohe verbrauch. wennst ein perfektes beispiel für leistung satt und niedrigst verbrauch willst: m4pro von apple. im singlecore benchmark vor allen anderen cpus. tdp max. irgendwo bei 55, 60w.  m4max hat als soc knapp die leistung einer 4080.  also mit entsprechender Entwicklung ließe sich da sicher viel machen. ohne echte konkurrenz wird da aber nichts passieren.
|
InfiX
she/her
|
noch besser sieht man das bei den cpus mit intel und amd. ich denke das hier os-seitig und softwareseitig extrem viel Potential verschenkt wird. weil optimieren nicht nur bei games keinen mehr juckt. leider. was ja gerade auch durch DLSS/FSR&co herbeigeführt wurde... hier beisst sich die katze also in den schwanz man sieht ja auch in vielen tests immer wieder, dass die hardware heutzutage selten im besten effizienz-bereich betrieben wird. und ich hab ehrlich gesagt wenig hoffnung, dass das bei der 9000er von AMD anders sein wird ^^
|
charmin
Elder0_o
|
Ja ka, ich sehe das etwas wie Dunning-Kruger bei uns. Wer von uns hat wirklich Ahnung von der Materie. Deswegen will ich da nicht urteilen und so tun wie wenns super einfach wäre die Hardware einfach schneller zu machen und gleichzeitig sparsamer. Ich bin mir sicher, dass die Ingenieure und Entwickler bei AMD und Nvidia ihr bestes geben. Es wir halt ned so einfach sein.
Der Apple M4 ist immer noch keine riesige GPU wie von Nvidia oder AMD.
|