InfiX
she/her
|
beim x16 oder x8 muss es leider das Mobo unterstützen. gibts nach wie vor genug aktuelle die das nicht machen also wenn ein TR kein bifurcation mehr unterstützt dann geh ich aber wieder zu intel
Bearbeitet von InfiX am 22.10.2023, 09:00
|
Jedimaster
Here to stay
|
^
|
voyager
kühler versilberer :)
|
TR kein bifurcation der chipsatz ist weniger das problem, sondern der Mainboard Hersteller. der muss es im Bios,... implementieren. und das machen leider nicht alle
|
Philipp
Here to stay
|
Das ist doch Standard bei den großen Boards. Wozu sonst die Lanes?
|
voyager
kühler versilberer :)
|
Wozu sonst die Lanes vernünftige NW Karten, Raid Controller,... würd mir mal einfallen wo du das nicht brauchst, und im "Server" Bereich durchaus üblich wäre
|
Philipp
Here to stay
|
Bei den Taktraten/Bandbreiten ist ein PCIe 5.0 Slot alles andere als trivial und dann noch wenn 16 Lanes ident ausgeführt werden müssen mit selber Impedanz / Kapazität / Länge und ohne (relevanten) Crosstalk Wenn die CPU es kann, ist es eigentlich überhaupt kein Problem: https://www.asus.com/motherboards-c...ge-se/techspec/Intel® Xeon® W-3400 Series Processors* 7 x PCIe 5.0 slot(s) (Seven at x16/x16/x16/x16/x16/x8/x16)** Intel® Xeon® W-2400 Series Processors* 4 x PCIe 5.0 slot(s) (Four at x16/x16/x16/x16)** * Please check the PCIe bifurcation table on the support site (https://www.asus.com/support/FAQ/1037507/). Interessant auch, das die kleinen W-2400 CPUs am großen Board plötzlich 4x PCIe 5.0 x16 bieten vernünftige NW Karten, Raid Controller,... würd mir mal einfallen wo du das nicht brauchst, und im "Server" Bereich durchaus üblich wäre Ganz Moderne Server haben keine RAID Controller mehr . Es ist alles NVME wobei RAID über die CPU läuft und deswegen hat EPYC auch seine 128 Lanes.
|
quilty
Ich schau nur
|
|
Viper780
ModeratorEr ist tot, Jim!
|
Wenn die CPU es kann, ist es eigentlich überhaupt kein Problem 100% aller Boarddesigner werden dir widersprechen. Hast du mal ein simples HF Layout mit ein paar MHz gemacht?
|
voyager
kühler versilberer :)
|
Ganz Moderne Server haben keine RAID Controller mehr . Es ist alles NVME also die Boards haben Anschlüsse für 12-24 und mehr(128,...) SAS, U.2,... "Festplatten" ? wär mir neu. Und nein, im Server hast du eher kein NVME, sondern U.2 , da es mehr kann als NVME, und die Platten oft ne viel längere Lebensdauer haben
|
COLOSSUS
AdministratorGNUltra
|
Und nein, im Server hast du eher kein NVME, sondern U.2 , da es mehr kann als NVME, und die Platten oft ne viel längere Lebensdauer haben U.2 beinhaltet genauso NVMe wie M.2, nur halt ggf. mit hoeherer Betriebsspannung, und kann auch noch Hot-Plug. SATA (bzw. bei U.2 auch SAS, aber ich hab beides noch nie in echt im EInsatz gesehen) kannst du in beidem haben.
|
Philipp
Here to stay
|
100% aller Boarddesigner werden dir widersprechen. Hast du mal ein simples HF Layout mit ein paar MHz gemacht? In der Preiskategorie in der Threadripper ist, wird das sicherlich nicht das Problem sein . Man sieht das auch am kleineren ASRock Board des Konkurrenten. Dort gibt es einen PCIe 4.0 Slot, allerdings weil er über den Chipsatz angebunden wird. Alles was direkt über die CPU läuft ist PCIe 5.0. also die Boards haben Anschlüsse für 12-24 und mehr(128,...) SAS, U.2,... "Festplatten" ? wär mir neu. Nein, sie haben viele PCIe Slots. Ähnlich den Vierer M.2 Karten gibt es sowas auch für den Serverbereich nur mit 4x U.2, wobei jeder Anschluss seine eigenen 4 Lanes zur CPU hat. 6 solche Karten x 4 U.2 = 24 NVMe die direkt und mit voller Bandbreite an die CPU angebunden sind. Das muss man sich so vorstellen: https://www.ovhcloud.com/de/bare-me...rade/hgr-sds-2/ 24× 15.36TB SSD NVMe Soft RAID
|
Viper780
ModeratorEr ist tot, Jim!
|
Es geht, aber nur mit viel Aufwand (mehrere Lagen des PCB nur für shielding und PCIe Slots.) Klar kann man alles machen, aber dann kostet sogar ein Board mit ordentlich Stückzahl über 1000€ und wird nicht zum Start einer Plattform verfügbar sein. Klassische PCIe Slots in (Storage) Servern werden auch immer weniger. In den letzten beiden Server Generationen wurde stark auf U.2 und 2,5" enterprise SSD gesetzt. Karten sind schlecht zu kühlen und 24 Stück m.2 NVMe SSD in einem flachen Server ist der Supergau. Kenn den aktuellen OVH Server nicht, der Vorgänger ist mir aber sehr gut bekannt In den neuesten Servern wird man wohl stärker auf den EDSFF Standard setzen.
|
Philipp
Here to stay
|
|
InfiX
she/her
|
M.2, U.2, SFF-8643/8639, oculink, slimSAS... whatever... sind alles nur verschiedene anschlüsse und steckerarten letztendlich geht darüber PCIe bzw. NVMe für storage.
das alles ändert aber nix daran, dass auf einem desktop motherboard ein klassischer PCIe slot schlichtweg den größten spielraum und flexibilität bietet, rackserver sind eine völlig andere baustelle.
|
erlgrey
formerly known as der~erl
|
jein, wenn man den platz hat ist man mit einem pcie slot besser bedient, kleineres gehäuse oder zusätzliche karten und man freut sich ggf. über 2 m.2 slots am mainboard.
|