REQ: Das SAN des kleinen Mannes...
Master99 24.06.2009 - 11:55 1245 8
Master99
verträumter realist
|
Hi, bin gerade beim Re-Designen unserer Firmeninfrastruktur... derzeit ist das Filehandling inkl. Backup alles andere als optimal. (inkonsistentes GBLan, Daten verteilt auf mehreren Rechnern/Festplatten.... manuelle Backups auf mehrere externe Festplatten...)
es handelt sich um nen Medienbetrieb/Tonstudio mit 2 Mac Pros (ProTools HD-Workstations) und mehreren kleineren Clients (Office, Administration usw.)
Optimallösung wäre IMHO ein SAN (Apple XSAN2 über Fibre Channel) wo alle Produktionsdaten zentral in nem performanten RAID 5 / 6 liegen... aber das ist durch die hohen Einstiegskosten (>= 10.000 Euro) unwirtschaftlich.
die Anforderungen sind ansich ja nicht sehr hoch: >= 4TB Speicher (erweiterbar), >= 80MB/s Read/Write.... kann man dafür inzwischen eine GB-Lan-basierte Lösung verwenden?
Speicher&Bandbreitenmäßig is klar dass das kein Problem ist - aber wie siehts mit Latenz, CPU-Belastung, parallelem Zugriff und Systemeinbindung aus?
CPU-Belastung sollte bei aktuellen MacPros ja nicht das Thema sein, aber ProTools akzeptiert AFAIK keine Netzwerkfreigaben als Work-Volumes... der Zentralspeicher müsste also anderwertig ins System eingebunden werden.
Als Alternative zu ner gänzlich zentralen Datenhaltung hätt ich mir eben ein NAS (Raid5) ausgedacht auf dem die lokalen Produktionsdaten der Workstations (500GB) 1:1 gespiegelt werden, ein >= 3TB Zentralarchiv wo alte Projekte usw. dann hingeschoben werden.... und Backups in der Nacht auf externe Datenträger von einem Server (G5 Powermac) aus... wär ne günstige Lösung, aber halt nicht die schönste, da man dadurch erst wieder eine fragmentierte Datenhaltung mit (Arbeits)kopien hat... aber immerhin besser wartbar, redundant & backupbar! non-Produktionsdaten werd ich btw mit TimeMachine sichern... also falls es mal nen Systemdatencrash in ner Workstation gibt...
Budget liegt noch nicht fest btw... aber bei allem über 1-1,5 k Euro würd ich mir schwer tun mitn argumentieren (wissts eh, es "funktioniert" ja jetzt auch)
|
Master99
verträumter realist
|
niemand?
hat jemand erfahrungen mit iSCSI, den div. "FC über ethernet/ip" möglichkeiten usw.?!
|
ica
hmm
|
hab jetzt nicht wirklich erfahrung in diesem gebiet - aber 4tb speicher mit 80mb read/write im raid5 um 1500€ kommt mir ein wenig utopisch vor.
|
davebastard
Vinyl-Sammler
|
jop bin auch der meinung dass man weit mehr einplanen muss. Als selbst-bastellösung wäe zum beispiel openfiler eine möglichkeit oder opensolaris oder irgend eine linux kiste. imho aber ned vergleichbar mit einem SAN.
|
spunz
ElderElder
|
in dem bereich gibts nicht viel - schau dir mal qnap an.
|
COLOSSUS
AdministratorGNUltra
|
die Anforderungen sind ansich ja nicht sehr hoch: >= 4TB Speicher (erweiterbar), >= 80MB/s Read/Write.... kann man dafür inzwischen eine GB-Lan-basierte Lösung verwenden? Also mit Linux-Hosts und -Clients schaffen wir das bei uns im Netz ganz gut. Ist halt die Frage: wie viele Hosts brauchen diesen Durchsatz gleichzeitig? Dann wird es auf Serverseite ohne unkomfortable Tricksereien sehr schwierig. Ob iSCSI (oder AoE) dafuer das ideale Mittel ist, kann ich nicht sagen. Wenn du eine schluesselfertige Loesung suchst, bist du mit dem angegebenen Preisrahmen eh rettungslos verloren. Eigenbau (nur die Serverseite, klarerweise) sollte aber machbar sein.
|
coolsn11
1k senseless posts
|
in dem bereich gibts nicht viel - schau dir mal qnap an. was ich auf die schnelle bei geizhals gefunden habe.. http://geizhals.at/a401674.htmlfehlen aber noch die Platten
|
Master99
verträumter realist
|
vielen dank schonmal für die antworten.... ok lassen wir das finanzielle mal vorerst weg und konzentrieren uns auf technik/implementierung/protokolle...
es sind zwei workstations die mit den >= 80mb/s verbunden werden müssen... die anderen clients können nieder priorisiert werden und interessieren mich derweilen mal relativ wenig.
@ COLOSSUS: über welche protokolle läuft dass bei euch? wie schauts mit Latenz, CPU-Belasung, Systemeinbindung usw. aus?
wie "tragisch" muss ich den tcp/ip unterbau von iSCSI und co heutzutage wirklich sehen was performance usw. angeht?
|
COLOSSUS
AdministratorGNUltra
|
@ COLOSSUS: über welche protokolle läuft dass bei euch? wie schauts mit Latenz, CPU-Belasung, Systemeinbindung usw. aus?
wie "tragisch" muss ich den tcp/ip unterbau von iSCSI und co heutzutage wirklich sehen was performance usw. angeht? ad 1: Linux-nbd und NFS(v3 bald wohl v4) - wobei die Daten nicht direkt von den gespiegelten HA-Servern kommen, sondern aus einem Xen-Container, der auf diesen laeuft. ad 2: ich denke mal nicht sonderlich tragisch. In privaten Tests habe ich mit NFSv4 und mit entsprechendem TCP-Tuning auch schon um die 115MB/s (und noch ein bisschen mehr...  ) Transfer gesehen, und da sollte der Overhead doch noch ein Stueck ueber dem von iSCSI liegen (mit dem ich aber noch nie etwas gemacht habe). CPU-Load am Server hab ich kuerzlich mal bei parallelen Zugriffen monitored. Da tut sich bei Transfer eigentlich gar nix, die beiden Quadcore-XEONs langweilen sich fuerchterlich. Unser Storage-Backend ist allerdings nicht das schnellste (4x76GB 15kRPM SAS-Platten im RAID-10). In unserem System (Netzwerkboot) lassen sich neue Clients entsprechend einfach einbinden - einfach in der dhpcd.conf einen neuen Eintrag in ein bestehende Hostgroup (oder eine neue eroffnen), HWaddr mit Hostnamen und IP-Adresse assoziieren, PXE-Boot am Client einstellen, fertig. Hth.
|