Viper780
ModeratorEr ist tot, Jim!
|
Hängt dann davon ab wie gut nvidia liefern kann und in welchem Segment die Nachfrage da ist.
Durch den AI Boom und die Ausfuhrbeschränkung von KI Hardware ist es mit Stand jetzt recht wahrscheinlich.
Ob jetzt als Titan oder 5090Ti spielt dann keine Rolle
|
Klaus
Little Overclocker
|
Mit den kommenden 3GB Speicherchips kann/könnte man sich ab Mitte des Jahres noch deutlicher von den "billigen" 5090ern abheben und der Titan Name wäre gerechtfertigt.
Ein extra Tausender wäre dann auch noch "gerechtfertigt" und 48GB käme im Semi-professionellen Bereich gut an. Und bei den High End Gamern natürlich auch, selbst wenn der extra Speicher wohl nix bringt.
|
Whiggy
Here to stay
|
Ausfuhrbeschränkung von KI Hardwar Das hab ich auch mitbekommen. Das es leistunbgsschwächere Modelle für China geben soll usw. Aber kann mich mal jemand aufklären über den Hintergrund? Warum ist das so? Warum dürfen manche Länder keine "schnelleren" Modelle haben?
|
charmin
Super Moderatordarkly wanking
|
Sauviel research im KI Bereich kommt aus China. Denke es wird gemacht um den Research / Konkurrenz auszuhungern dort. Aber auch nur Vermutung.
|
Whiggy
Here to stay
|
Sauviel research im KI Bereich kommt aus China. Denke es wird gemacht um den Research / Konkurrenz auszuhungern dort. Aber auch nur Vermutung. Nur weil eine Karte ein Bisschen langsamer ist soll man damit den research verhindern? Weiss nit.
|
charmin
Super Moderatordarkly wanking
|
Wieso leistungsschwächere? Ich lese in allen Artikeln Ausfuhrbeschränkung generell. Und: Die USA seien weltweit führend bei der Entwicklung von KI und entsprechender Chips - und so solle es auch bleiben, betonte Raimondo. Die Technologien könnten von gegnerischen Ländern für Nuklear-Simulationen, die Entwicklung von Bio-Waffen und die Stärkung ihres Militärs verwendet werden, warnte sie. Zugleich werde KI in den kommenden Jahren allgegenwärtig werden. Mit den Maßnahmen wolle die Regierung dafür sorgen, dass die Gegner der USA die Technologien nicht in die Hände bekämen - und zugleich die Partner davon profitieren könnten. https://www.computer-automation.de/...echnologien.htmWie gesagt, aus China kommt sauviel Research in die Richtung. Aus Sicht der USA durchaus sinnvoll die Konkurrenz einzuschränken.
|
Whiggy
Here to stay
|
Ha meine Antwort jetzt. ChatGPT hats mir genau erklärt
|
Jedimaster
Here to stay
|
Aber ists nicht grad bei KI recht egal ob du eine 4090er hast oder 4x eine 4070 ? Das lässt sich ja parallelisieren, im Gegensatz zu Gaming oder bin ich hier aufm Holzweg ?
Abgesehn davon, wer hindert China davon über einen Strohmann - sagen wir mal einen argentinischen Großhändler - mal schnell 10.000 Stück einkauft und die dann anstatt im Handel zu verkaufen direkt an China weiterverschifft, mit 10% Aufschlag ?
Es wird keiner überprüfen können ob die GPU's wirklich "Auf dem Markt" gelandet sind oder als Gesamtpaket an einen Chinesen ging.
|
Dune
Dark mode
|
Durch den AI Boom und die Ausfuhrbeschränkung von KI Hardware ist es mit Stand jetzt recht wahrscheinlich. Es wird sehr spannend wie sehr sich Nvidia hier an Trump anpassen muss, gegen China tut er ja immer noch ganz auf streng, grundsätzlich ist ihm aber Kohle das wichtigste und Nvidia schon ein Prunkstück im NASDAQ. Aber ists nicht grad bei KI recht egal ob du eine 4090er hast oder 4x eine 4070 ? Nicht für jeden Zweck, Parallelisierung hat Grenzen. Außerdem wird's physisch aufwendiger und die TFLOPS/W sind auch ein oft schlechter.
Bearbeitet von Dune am 22.01.2025, 10:33
|
charmin
Super Moderatordarkly wanking
|
nein ist nicht egal. Grade riesige LLMs müssen in den Speicher der GPU passen. Bzw das Modell muss Multi-GPU unterstützen. Sollte schon möglich sein aber hier bitte selber googeln. Skalierung ist auch nicht linear, man hat Leistungseinbußen. Ausserdem schreitet die Entwicklung ja fort. Irgendwann is eine 4070 oder 4090 viel zu langsam in ein paar Jahren wenn du nix schnelleres bekommst weil Export Stop.
edit: GPT4 behauptet von sich selbst dass es 8 x A100 GPUs mit je 80 GB VRAM benötigt. Also rund 640 GB. Da wirst selbst mit 4090er oam wenn man multi GPU frameworks benutzt.
|
Dune
Dark mode
|
GPT4 mit welchem Modell genau dahinter? Habens in der Hackn auf kleineren Maschinen laufen, ich glaub Antwort von GPT ist nicht so ganz korrekt
Bearbeitet von Dune am 22.01.2025, 10:44
|
charmin
Super Moderatordarkly wanking
|
GPT4 behauptet von sich selbst Ausserdem, du redest von Inferenz, was ggf. dann auch noch Quantisiert rennt. Training benötigt mehr.
|
Viper780
ModeratorEr ist tot, Jim!
|
Das hab ich auch mitbekommen. Das es leistunbgsschwächere Modelle für China geben soll usw. Aber kann mich mal jemand aufklären über den Hintergrund? Warum ist das so? Warum dürfen manche Länder keine "schnelleren" Modelle haben? China hat schon länger einen Bann - auch auf Gamer Karten. Aber alle anderen Länder (auch wir in Österreich - es gibt nur 16 Ausnahmen) haben für KI Karten ein Zwei Jahres Limit bekommen welches sehr klein ist. Da erwarte ich dass viele auf die größten Gamerkarten umsteigen werden. Zu chatGPT Rechnung von charmin. Bei mehr Karten in einem System muss das Modell im Speicher einer jeden Karte sein. Den Speicher also bitte nicht addieren. Das war schon zu SLI Zeiten ein beliebter Marketing Trick
|
charmin
Super Moderatordarkly wanking
|
|
Umlüx
Huge Metal Fan
|
|