"We are back" « oc.at

NVIDIA GeForce RTX 4000 Serie

Wyrdsom 11.03.2022 - 00:30 346479 1372 Thread rating
Posts

xtrm

social assassin
Avatar
Registered: Jul 2002
Location:
Posts: 12123
Zitat aus einem Post von Bender
Bis man deutlich effizientere ASICs entwickelt hat. So wie beim Mining.
Leider nein. Mining hat so lange Grafikkarten vom Markt gefressen, bis ETH umgestellt hatte, danach war's vorbei.

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50347
Zitat aus einem Post von Bender
Bis man deutlich effizientere ASICs entwickelt hat. So wie beim Mining.

Der Chipbedarf bleibt natürlich hoch, keine Frage.

Eben nicht
FPGA und dann ASIC waren nur so lange interessant bis die Mining Software endlich auf den GPU gelaufen ist. Ab dann ging der Strombedarf und die Grafikkarten Preise ordentlich rauf

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15160
Zitat aus einem Post von xtrm
Leider nein. Mining hat so lange Grafikkarten vom Markt gefressen, bis ETH umgestellt hatte, danach war's vorbei.

Ja zum Glück.

Rogaahl

Elder
interrupt
Avatar
Registered: Feb 2014
Location: K
Posts: 2389
Zitat aus einem Post von charmin
Liegt aber auch daran dass cuda einfach funktioniert und rocm ned.

Ich verwende ROCm täglich :confused:

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10772
Zitat aus einem Post von charmin
Der demand wird nicht mehr aufhören. Ai ist einfach überall und dringt in alle Bereiche. Jedes Auto wird sowas brauchen, Finanzen, Bildverarbeitung, Robotik usw usw.

Die Frage ist jedoch ob sich die Vorzeichen ändern. Jetzt gibt es Gründe für ein Wettbieten(Aufbruchstimmung, Hype, drohende Sanktionen, begrenzte Produktionskapazitäten, Quasi-Monopol beim Designer und Fertiger,..) aber das muss in 1-2 Jahren nicht mehr so zutreffen. Hoffentlich unternehmen AMD und Intel entsprechend erfolgreiche Anstrengungen, damit eine Entspannung eintritt.

Römi

Hausmeister
Avatar
Registered: Feb 2001
Location: Bez. Tulln
Posts: 5321
Für die meisten Enduser wird es wohl CPU integrierte Blöcke geben (AMD und Intel fangen ja schon damit an?)
Bei Smartphones gibt es das auch schon.

Dedizierte beschleuniger seh ich eher für Spezialaufgaben..., Devs, Contet creator etc

Das mit der Knappheit ist halt einfach auch der Strategie bzw Dummheit der Herstellern geschuldet.
Es gab halt noch massive Restln der letzten Generation, drum haben sie wohl nichts zu aufregendes gemacht bis auf ultra-highend wo sie super abcashen können.

Aber sie könnten genauso auf älteren Nodes GPUs herstellen.
Müssen ja nicht 4/5nm nehmen, gute midrange bis highend Karten können sie genauso auf den vorigen Nodes herstellen. Für den Mist den sie da jetzt abliefern hättens keine neue Fertigung gebraucht.
Dann gäbs vielleicht auch wieder gute GPUs die man um 200-500€ kaufen kann, und AI beschleuniger könnens in der neuen pressen und vergolden lassen.
Nur eine Idee.

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6550
Aus einer GPU-Architektur mittels unterschiedlichen Herstellungsprozessen (Nodes) mehrere GPUs zu produzieren kann meiner Meinung nach kaum zu günstigeren Grafikkarten führen, da müssten sie für jeden Prozess die gesamte Vorlaufarbeit doppelt machen. Bis dieser Aufwand letztlich über die Stückzahlen billiger wäre, ist die GPU vermutlich schon wieder veraltet. Die kalkulieren schon beinhart, wenn sie so etwas sparen könnten, dann würde Nvidia es machen. AMD hat da einen interessanten Weg eingeschlagen, zumindest die GPU-Caches in eigene Module auszulagern, die in einem günstigeren Verfahren hergestellt werden können, weil da aktuell keine große Optimierung mehr möglich ist. Ob Nvidia diesen Weg auch verfolgen wird? Wir werden es sehen. Gemunkelt wird aber von einem GDDR7 512-Bit memory interface für highend Blackwell, was den Bedarf für Riesencaches vermutlich etwas reduzieren könnte.
Bearbeitet von mr.nice. am 14.08.2023, 08:44

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14669

Guest

Deleted User
Registered: n/a
Location:
Posts: n/a
Zitat aus einem Post von Starsky
DLSS 3.5 soll Raytracing Bildqualität verbessern -ComputerBase.de

Denoising via Tensor Cores wurde schon für Turing angekündigt und mit den letzten Game Ready Treibern endlich geliefert. Der Entlärmungsmatsch bei Reflexionen sollte damit deutlich reduziert werden.

Starsky

Erdbeeren für ALLE!
Registered: Aug 2004
Location: Proletenacker
Posts: 14669
Lustig ist die Tatsache, daß DLSS 3.0 nur auf Ada Lovelace funktioniert, DLSS 3.5 aber auch auf Turing und Ampere laufen soll.

Guest

Deleted User
Registered: n/a
Location:
Posts: n/a
Gibt einem schon etwas zu denken, ja.
Der für DLSS3 angeblich benötigter Optical Flow Accelerator (OFA) ist zwar bei Ampere auch schon verbaut, hat aber nur 40% der Leistung von ADA.

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10772
https://www.reddit.com/r/nvidia/com...on_of_the_dlss/

click to enlarge

bin gespannt wie sich das weiterentwickelt :D

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 11011
das wichtigste, die frame generation, bleibt den neuen karten vorbehalten. :D

Guest

Deleted User
Registered: n/a
Location:
Posts: n/a
Falls AMD was ähnlich gutes wie FG auf die Beine stellen könnte, würde sich das sehr, sehr schnell ändern. ;)
Da FSR jedoch bis jetzt nicht wirklich mit DLSS mithalten kann, bin ich da eher skeptisch.

Der Vorsprung bei der Entwicklung und vor allem beim Ressourceneinsatz ist nicht so leicht aufzuholen bzw. zu kompensieren.

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12659
Wer hat lust auf was neues? :D

Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz