Machine Learning Rechner
charmin 16.02.2022 - 17:29 9555 32
charmin
LegendShrek Is Love
|
Mach ich gern @Viper.
@Dune:
Ich hab damals recherchiert, die A6000 ist etwas schneller als eine 3090er und die A5000 etwas langsamer. weiss die aktuellen faktoren nicht mehr, aber iirc 1,2 und 0,8 x so schnell wie 3090.
Aber: Für meine Masterarbeit verarbeite ich Datensätze wie semantic KITTI und nuscenes-lidarseg. Also point cloud streams, und die sind sehr sehr groß. Die A6000 hat gemütliche 48 Gb VRAM. Die A5000 "nur" 24 GB. Beides würd reichen, aber mit doppelt soviel VRAM hast halt doppelt so große Batch Size.
|
Dune
Dark mode
|
Wollt grad sagen mit dem VRAM bist du wahrscheinlich relativ safe  Wie kritisch ist bei euren Applikationen der RAM der CPU? Für meine bisherigen Rechnungen wäre ich mit 128 GB tausend Tode gestorben. Ich denke da ist AI/ML aber wesentlich gemütlicher unterwegs, da doch _viel_ mehr über die GPU und damit den VRAM läuft. Wäre nur blöd wenn da ein Flaschenhals entsteht, aber ich denke das sollte vom Gefühl her passen.
|
charmin
LegendShrek Is Love
|
nein da ensteht kein flaschenhals bei uns, es sind 2 kollegen die drauf R machen. der rest is alles deep learning bzw halt matrizenzeug für die GPU
|