xtrm
social assassin
|
Bis man deutlich effizientere ASICs entwickelt hat. So wie beim Mining. Leider nein. Mining hat so lange Grafikkarten vom Markt gefressen, bis ETH umgestellt hatte, danach war's vorbei.
|
Viper780
ElderEr ist tot, Jim!
|
Bis man deutlich effizientere ASICs entwickelt hat. So wie beim Mining.
Der Chipbedarf bleibt natürlich hoch, keine Frage. Eben nicht FPGA und dann ASIC waren nur so lange interessant bis die Mining Software endlich auf den GPU gelaufen ist. Ab dann ging der Strombedarf und die Grafikkarten Preise ordentlich rauf
|
charmin
Elder^_^
|
Leider nein. Mining hat so lange Grafikkarten vom Markt gefressen, bis ETH umgestellt hatte, danach war's vorbei. Ja zum Glück.
|
Rogaahl
Elderinterrupt
|
Liegt aber auch daran dass cuda einfach funktioniert und rocm ned. Ich verwende ROCm täglich
|
WONDERMIKE
Administratorkenough
|
Der demand wird nicht mehr aufhören. Ai ist einfach überall und dringt in alle Bereiche. Jedes Auto wird sowas brauchen, Finanzen, Bildverarbeitung, Robotik usw usw. Die Frage ist jedoch ob sich die Vorzeichen ändern. Jetzt gibt es Gründe für ein Wettbieten(Aufbruchstimmung, Hype, drohende Sanktionen, begrenzte Produktionskapazitäten, Quasi-Monopol beim Designer und Fertiger,..) aber das muss in 1-2 Jahren nicht mehr so zutreffen. Hoffentlich unternehmen AMD und Intel entsprechend erfolgreiche Anstrengungen, damit eine Entspannung eintritt.
|
Römi
Hausmeister
|
Für die meisten Enduser wird es wohl CPU integrierte Blöcke geben (AMD und Intel fangen ja schon damit an?) Bei Smartphones gibt es das auch schon.
Dedizierte beschleuniger seh ich eher für Spezialaufgaben..., Devs, Contet creator etc
Das mit der Knappheit ist halt einfach auch der Strategie bzw Dummheit der Herstellern geschuldet. Es gab halt noch massive Restln der letzten Generation, drum haben sie wohl nichts zu aufregendes gemacht bis auf ultra-highend wo sie super abcashen können.
Aber sie könnten genauso auf älteren Nodes GPUs herstellen. Müssen ja nicht 4/5nm nehmen, gute midrange bis highend Karten können sie genauso auf den vorigen Nodes herstellen. Für den Mist den sie da jetzt abliefern hättens keine neue Fertigung gebraucht. Dann gäbs vielleicht auch wieder gute GPUs die man um 200-500€ kaufen kann, und AI beschleuniger könnens in der neuen pressen und vergolden lassen. Nur eine Idee.
|
mr.nice.
differential image maker
|
Aus einer GPU-Architektur mittels unterschiedlichen Herstellungsprozessen (Nodes) mehrere GPUs zu produzieren kann meiner Meinung nach kaum zu günstigeren Grafikkarten führen, da müssten sie für jeden Prozess die gesamte Vorlaufarbeit doppelt machen. Bis dieser Aufwand letztlich über die Stückzahlen billiger wäre, ist die GPU vermutlich schon wieder veraltet. Die kalkulieren schon beinhart, wenn sie so etwas sparen könnten, dann würde Nvidia es machen. AMD hat da einen interessanten Weg eingeschlagen, zumindest die GPU-Caches in eigene Module auszulagern, die in einem günstigeren Verfahren hergestellt werden können, weil da aktuell keine große Optimierung mehr möglich ist. Ob Nvidia diesen Weg auch verfolgen wird? Wir werden es sehen. Gemunkelt wird aber von einem GDDR7 512-Bit memory interface für highend Blackwell, was den Bedarf für Riesencaches vermutlich etwas reduzieren könnte.
Bearbeitet von mr.nice. am 14.08.2023, 08:44
|
Starsky
Erdbeeren für ALLE!
|
|
Guest
Deleted User
|
|
Starsky
Erdbeeren für ALLE!
|
Lustig ist die Tatsache, daß DLSS 3.0 nur auf Ada Lovelace funktioniert, DLSS 3.5 aber auch auf Turing und Ampere laufen soll.
|
Guest
Deleted User
|
Gibt einem schon etwas zu denken, ja. Der für DLSS3 angeblich benötigter Optical Flow Accelerator (OFA) ist zwar bei Ampere auch schon verbaut, hat aber nur 40% der Leistung von ADA.
|
WONDERMIKE
Administratorkenough
|
|
sk/\r
i never asked for this
|
das wichtigste, die frame generation, bleibt den neuen karten vorbehalten.
|
Guest
Deleted User
|
Falls AMD was ähnlich gutes wie FG auf die Beine stellen könnte, würde sich das sehr, sehr schnell ändern. Da FSR jedoch bis jetzt nicht wirklich mit DLSS mithalten kann, bin ich da eher skeptisch. Der Vorsprung bei der Entwicklung und vor allem beim Ressourceneinsatz ist nicht so leicht aufzuholen bzw. zu kompensieren.
|
rad1oactive
knows about the birb
|
Wer hat lust auf was neues? Geforce RTX 4090: Asus' ROG Matrix Platinum mit 2,67 GHz und Flüssigmetall kostet 3.200 US-DollarAsus hat mit der ROG Matrix Geforce RTX 4090Platinum eines der außergewöhnlichsten Custom-Designs von Nvidias Grafikkarten-Topmodell vorgestellt. Link: www.pcgameshardware.de
|