"We are back" « oc.at

Machine Learning Rechner

charmin 16.02.2022 - 17:29 9555 32
Posts

charmin

Legend
Shrek Is Love
Avatar
Registered: Dec 2002
Location:
Posts: 15578
Mach ich gern @Viper.


@Dune:

Ich hab damals recherchiert, die A6000 ist etwas schneller als eine 3090er und die A5000 etwas langsamer. weiss die aktuellen faktoren nicht mehr, aber iirc 1,2 und 0,8 x so schnell wie 3090.

Aber: Für meine Masterarbeit verarbeite ich Datensätze wie semantic KITTI und nuscenes-lidarseg. Also point cloud streams, und die sind sehr sehr groß. Die A6000 hat gemütliche 48 Gb VRAM. Die A5000 "nur" 24 GB. Beides würd reichen, aber mit doppelt soviel VRAM hast halt doppelt so große Batch Size.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10456
Wollt grad sagen mit dem VRAM bist du wahrscheinlich relativ safe :)

Wie kritisch ist bei euren Applikationen der RAM der CPU? Für meine bisherigen Rechnungen wäre ich mit 128 GB tausend Tode gestorben.

Ich denke da ist AI/ML aber wesentlich gemütlicher unterwegs, da doch _viel_ mehr über die GPU und damit den VRAM läuft. Wäre nur blöd wenn da ein Flaschenhals entsteht, aber ich denke das sollte vom Gefühl her passen.

charmin

Legend
Shrek Is Love
Avatar
Registered: Dec 2002
Location:
Posts: 15578
nein da ensteht kein flaschenhals bei uns, es sind 2 kollegen die drauf R machen.
der rest is alles deep learning bzw halt matrizenzeug für die GPU
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz