TOM
Super ModeratorOldschool OC.at'ler
|
Die Ryzen 3100 und 3300X machen mir Lust auf ein low-cost Micoserver/NAS System mit 10 Gbit
Habt ihr da empfehlungen bzgl. sonstiger Komponenten? (Motherboard, RAM, Netzteil etc.)
ECC ist leider recht teuer im Vergleich zu Gaming-RAM :[
|
Viper780
ModeratorEr ist tot, Jim!
|
Überleg dir 10GBit gut. Die Karten heizen ordentlich, sind bitchy as Hell mit den Kabeln und der Nutzen ist nur in Edge Cases vorhanden.
In einen kleinen Server oder NAS würd ich die nur mit aktiver Kühlung einbauen.. Wenn dir ECC RAM zu teuer sind, dann wird dir 10G aber auch zu teuer sein.
|
WONDERMIKE
Administratorkenough
|
ECC funktionieren ja bloß in AM4 Boards, können aber nicht die ECC Funktion tatsächlich nutzen iirc?
|
Garbage
AdministratorThe Wizard of Owls
|
Ist der volle 72-bit Bus pro Speicherkanal am Board implementiert, geht es auch auf AM4. Offiziell unterstützt wird ECC halt nur bei den Ryzen PRO, aber praktisch geht es mit jeder Ryzen CPU, wenn das Board mitspielt.
|
Viper780
ModeratorEr ist tot, Jim!
|
Ich hab gute Erfahrungen bei den Asus und Asrock Boards - bei einigen stehts auch im DAtenblatt.
Da funktioniert ECC wie erwartet
|
TOM
Super ModeratorOldschool OC.at'ler
|
heizen ordentlich, sind bitchy as Hell mit den Kabeln und der Nutzen ist nur in Edge Cases vorhanden. Die lösung scheinen NICs mit SFP+ modulen zu sein, weniger heiss als direkt RJ45 ECC RAM hab ich neulich einen Bericht gelesen, dass selbst bei tausenden Systemen mit vielen tausend TB an ECC Memory nur 1x Memory Bit Flip pro Woche erkennbar ist....für den Home-Use Bereich also nicht sehr relevant, aber nice to have 1Gbit => 10Gbit ist halt _der_ Flaschenhals in jedem aktuellen System, gehört beseitigt
|
Viper780
ModeratorEr ist tot, Jim!
|
Kommt drauf an was man macht die ca 100MB/s die mit GBit gehen musst erst mal auf Dauer nutzen können. Was wir mit 10Gbit in der Firma für Probleme haben ist nimma schön. Bisher nur Glasfaser. Seit Herbst verwenden wir Twinaxial Kabel. Die haben auf beiden Seiten die SFP+ Connector direkt drauf. Das geht besser, ist aber noch immer nix was man daheim haben will.
Meine 10GBit experimente hab ich wieder beendet. Da muss sich noch einiges tun bis es fürn Heimbereich wirklich brauchbar ist.
|
dosen
Here to stay
|
Wir haben in der Firma 10Gbit über RJ45 gelöst. Die iMac Pros habens bereits Integriert, die neuen Mac Minis ebenfalls. Die Windows Rechner haben Intel Nics drin. Läuft soweit problemlos und stable. 2,5Gbit ist preislich recht verlockend, dann is der Sprung zu 10Gbit aber auch nicht mehr so riesig... es ist zurzeit relativ schwierig, würde daheim auch gerne upgraden und beobachte das schon länger
|
spunz
Super ModeratorSuper Moderator
|
Die lösung scheinen NICs mit SFP+ modulen zu sein, weniger heiss als direkt RJ45 Die Bauweise ändert daran nichts, auch als SFP+ Modul braucht 10Base-T entsprechend mehr Leistung als z.B. DAC. Die Sparsamkeit von DAC Kabeln kommt aber mit entsprechenden Aufpreis für SFP+ Karten und der deutlich geringeren Reichweite. Wirkliche Probleme mit der Hitze hast du aber v.a. mit dem ganzen Uraltkarten die bei Ebay verkauft werden.
|
Viper780
ModeratorEr ist tot, Jim!
|
Bei uns sterben die Module in den switches und Routern wie die Fliegen.
So zwischen 2-5 Jahre alt alles Markenware
|
daisho
SHODAN
|
Ja, die Chips müssen ordentlich gekühlt werden, haben dementsprechend immer ziemlich grosse passive Kühler und brauchen ev. entsprechend Platz im Gehäuse (je nach Bauart). SFP+ ist der Way to Go um z.B. den Server anzubinden. Bei Karten mit mehr als einem Port (falls man das überhaupt braucht/will - man läuft da in der Regel dann schon in andere Bottlenecks hinein) gibt es iirc schon quasi keinen Preisunterschied mehr zwischen SFP+ und RJ45. Was man jedoch beachten sollte sind die Stecker-Module, wenn die nicht dabei sind kosten die pro Stück nicht unerheblich wenig - und wie Viper meint kann es gut sein dass die nicht lange halten (bei mir zum Glück noch kein Ausfall, so lange laufen die aber noch nicht und ich weiss dass die allesamt ziemlich heiss werden ... Lebensdauer also vermutlich nicht so toll ...). Was ich aber sehr geil finde ist das Verlegen von SFP Kabeln wenn man eh schon wenig Platz in seinen Rohren hat ... extrem dünn und die Enden üblicherweise auch. Wenn ich die Zeit zurückdrehen könnte, hätte ich vermutlich das ganze Haus mit LWL Kabel ausstatten lassen statt dem Kupfer. Aber das ist vielleicht nur das Salz aus den Wunden vom RJ45 Kabel verlegen Am besten ist wenn du dir mal zusammen rechnest wie viel alles zusammen kostet (Karten, Kabel und SFP+ Module falls nicht rein mit RJ45 gearbeitet wird), Switch(es)) und dich dann fragst ob du das Geld dafür ausgeben willst. Die Kosten können nicht ganz unerheblich sein für den vermutlich eher geringen Mehrwert. (Ich bereue meinen Kauf nicht da ich sehr oft BD-rips auf mein Share lade, notwendig ist es aber wohl nicht) /Edit: ECC ist leider recht teuer im Vergleich zu Gaming-RAM :[ Ist es das in einem AM4 System? ECC RAM wird halt nicht mit Gaming-Spezifikationen produziert im Normalfall, Frequenz ist üblicherweise einfach irgendein niedriger Standard der stabil läuft und Timings komplett uninteressant. Vielleicht ist dein Geizhals-Filter zu strikt gesetzt (ev. wegen der Frequenz)? ECC RAM hab ich neulich einen Bericht gelesen, dass selbst bei tausenden Systemen mit vielen tausend TB an ECC Memory nur 1x Memory Bit Flip pro Woche erkennbar ist....für den Home-Use Bereich also nicht sehr relevant, aber nice to have Wenn dein NAS nur für z.B. Mediathek verwendet wird ist ECC einfach irrelevant. Mein Storage ist halt auch Langzeitarchiv für alle möglichen Dokumente. Natürlich gibt es Backups, aber Fehler sieht man in der Regel meist erst wenn man mal versucht die Daten auch zu öffnen/anzusehen. Ja, in der Regel ist vermutlich sogar das egal (ob jetzt irgendwo ein paar Bits in einem Word-Dokument, PDF o.Ä. umfallen). Was aber vermutlich interessanter ist, dass im Fehlerfall (also RAM ev. schon defekt ist) nicht lauter Dreck geschrieben wird. Selbiges gilt sicherlich auch für Hardware-RAID-Controller die ihren eigenen Cache verwenden.
Bearbeitet von daisho am 09.05.2020, 12:24
|
Viper780
ModeratorEr ist tot, Jim!
|
Gegen Bitrot hilft eh nur ein File system das Checksummen speichert und eine Fehlerkorrektur implementiert hat.
Mit ECC beim Cache stellt man nur (halbwegs) sicher dass die Daten korrekt geschrieben werden und erhöht den Durchsatz, damit im Fehlerfall nicht neu geschrieben werden müsste.
Für ein NAS und Heimserver eigentlich wurscht.
Raidcontroller sind ja auch so ein Ding, meist machens es nur schlimmer - wenns geht Verzicht ich drauf und wenn dann nur als Host adapter ohne Logik Funktion.
|
TOM
Super ModeratorOldschool OC.at'ler
|
fragiles Glas tu ich mir nicht an, die Rede ist von SFP+ => RJ45 Modulen Cat7 in der Wand verlegt, das sollte schon passen Hier die aktuelle Geizhals Einkaufsliste/Ideenliste: https://geizhals.at/?cat=WL-1457737Die Idee wäre 4 alte 4TB WD-REDs aus dem 414er Synology und die neuen zwei Platten in einen Zen Server mit 10Gbit Anbindung zu stopfen Der sollte auch genügend Luft für ein/zwei VMs haben 10Gbit Switch gibt's von Microtik ja schon für 130,- (exkl SFP+ Module) Kommt trotz günstiger CPU in Summe doch noch auf einen guten Batzen... aber eine Synology/QNAP Kiste die ähnliches kann, kost ein vielfaches bzw. kann's nicht mal entfernt Les auch überall, dass man die Platten nicht direkt ans Mainboard anhängen sollte, sondern einen RAID-Controller (ohne RAID, nur zum Durchschleifen der SATA Ports auf PCIE) nutzen soll..... kost halt auch wieder einige 100er :/
|
PIMP
Moderator
|
Bookmarked! btw: Ich werd für meinen Storage daheim keine HDDs mehr kaufen
|
daisho
SHODAN
|
SSD Array hätte ich mir auch schon überlegt, aber nachdem es bei mir eher auf Quantität ankommt war mir dass dann einfach zu teuer. Hätte mind. das doppelte bezahlen müssen für denselben Space. Performance gegenüber normalen HDDs wäre allerdings wohl ein Traum. HDDs aus den WD MyBook Cases zu holen ist auch einfach zu ridiculously günstig.
|