Master99
verträumter realist
|
werd in der arbeit nen "alten" core2duo server reaktivieren der neben dateifreigabe für mac & win-rechner auch als zielvolume für timemachine-backups dienen soll.
geplant wäre:
raid5 mittels mdadm afp (via netatalk/avahi) und samba evtl. kommt noch ein ftp dazu ssh remotezugriff für wartung/konfig
gedacht hätt ich an ubuntu server - anregungen, einwände?
was mir jetzt noch fehlt ist eine komfortable lösung kopiervorgänge am server durchzuführen und ftp-server (benutzer/zugriffsrechte) konfigurieren. beides vorzugsweise grafisch bzw. mittels web-gui weil das auch von kollegen (non-linuxer) bedient werden soll.
was sind da meine optionen ausser kanonen auf spatzen (x-server installieren + vnc)?
|
Viper780
ElderEr ist tot, Jim!
|
würd sowas wie openfiler, FreeNAS,open-e oder NASLite dafür in betracht ziehen.
die sind alle recht einfach aufzusetzen, können das was du willst und haben alle ein WebInterface
|
bsox
Schwarze Socke
|
Mich würd' auch brennend interessieren wie ihr einen Linux Rechner als host für Timemachine verwendet.
Debian/Ubuntu/whatever als Fileserver via afp, cifs, nfs, etc zu konfigurieren und das Apferl darauf zugreifen zu lassen ist ja eh standard. Aber ich bekomm' es um's verrecken nicht zusammen den Share als gültiges Timemachine target zu konfigurieren. Im Netz habe ich nur veraltete Konfigurationen gefunden die bis dato bei mir nicht zum Ziel gefunden haben. Hat das wer von Euch mit aktuellem MacOs und Linux schon zum Laufen gebracht?
|
Master99
verträumter realist
|
hab das vor nem jahr schonmal mit nem qnap-nas (linux powered) gemacht (insgesamt drei macs drauf gesichert), funzt tadellos... einzig was bei den meisten tutorials nicht steht ist das handische erstellen des spare-images. am automatischen erstellen des images scheiters nämlich AFAIK oft... aber ist ohnehin gscheiter wenn man das händisch anlegt und gleich eine maximalgröße angibt. die linux-implementation von afp hat(te?) nämlich probleme mit der rückmeldung wenn der speicher ausgeht was durchaus ein großes problem darstellt wenn man ein unendlich-inkrementelles-backup-system wie time machine verwendet das alte datenbestände im normalfall erst löscht wenn der speicher ausgeht. ich find die qnap-anleitung mit dem genauen terminal-befehl nicht mehr online, habs aber in meiner DA drinnen. kann ich später posten wenn du willst... das aktuellste how-to das ich gestern gefunden hab war btw.: http://talklikeaduck.denhaven2.com/...or-snow-leopard
|
Viper780
ElderEr ist tot, Jim!
|
sehr grad das der open-e Lite sehr sehr stark beschnitten ist und kein RAid kann, streich den mal. Wennst was mit Linux willst bist mit openfiler sicher gut dran, FreeNAS ist halt altgedient und hat einen sehr stabilen BSD unterbau
|
bsox
Schwarze Socke
|
am automatischen erstellen des images scheiters nämlich AFAIK oft.. Vollkommen richtig, daran hat's bis dato auch bei mir gehappert. Danke für den Link! Den werd' ich mir am WoE genauer ansehen.
|
Master99
verträumter realist
|
hier noch die qnap-anleitung zum händischen anlegen des spare-bundles: http://wiki.qnap.com/wiki/How_to_se...le_Time_MachineHN=`hostname | cut -f1 -d.`;MA=`ifconfig en0 | grep ether | sed "s|:||g" | cut -f2 -d' '`;
hdiutil create -size 350g -fs HFS+J -volname "TM_$HN" $HN\_$MA.sparsebundle
maximalgröße (in diesem syntaxbeispiel 350g) natürlich noch anpassen an deine anforderungen rsync hat bei mir btw. nicht immer funktioniert, kannst es aber auch einfach händisch auf die netzwerkfreigabe rüberkopieren.
|
Master99
verträumter realist
|
so, mal wieder zeit mich mit dem server zu beschäftigen...
nachdem ich vor 2 wochen schonmal ubuntu 10.10 aufgesetzt hatte (mir war dann eine verbreitete und gut dokumentierte plattform ohne restriktionen was erweiterungen udgl. angeht doch lieber als eine spezialisierte out-of-the-box-lösung) und der initialisierungs-sync ewigst gedauert hat (5 Tage?) war ich nach ersten tests sehr ernüchternd was performance angeht.
datenraten allesamt <20MB/s und auch browsing nicht wirklich fluffig... weitere tests über samba waren noch schlechter und inzwischen ist die performance ohne änderungen am raid noch weiter in den keller gerutscht. selbst bei einer lokalen kopie eines dvd-images vom raid auf die systemplatte trödelt der server bei 25mb/s rum -> I'm not amused!
beim checken der block/chunk-größen (da hab ich beim erstellen auf die default-werte 'vertraut') hab ich dann entdeckt, dass ubuntu eine alte mdadm-version von 2008 verwendet... zahlreiche dokumentierte bugs inklusive. kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen.
werd wohl nochmal ground-zero machen und auf ein anderes pferd setzen...
>= 50MB/s darf ich doch erwarten von einem Core2Duo, 2GB RAM und 5 x 2TB im Raid5 oder?
|
PIMP
ElderElder
|
gbit? nic?
|
COLOSSUS
AdministratorGNUltra
|
kein wunder also dass das verwendeten metadaten-format und chunk-size nicht den anforderungen heutiger raids mit >=2TB platten entsprechen. Woraus schlieszt du das? Welche Werte hat dir mdadm denn fuer das Array "ausgesucht"? Und ja, GBit solltest du bei sequential reads und sequential writes durchaus saturieren koennen. Die stripe width (Anzahl der Disks im Array) ist auch noch entscheidend, aber so als Vergleichswert: mein 5x1.5TB RAID5 liest ueber 300MiB/s sequentiell.
|
baldi
Addicted
|
Ohne Ubuntu schlecht reden zu wollen, könntest du vll auch auf einen "ZFS-Server" (solaris express 11, nexenta, etc) setzen. Hier hast du mit Napp-It ( http://www.napp-it.org/) auch ein funktionelles WebGui dabei bzw. kannst installieren. Ansonsten, solltest du auf alle Fälle ne höhrere Schreibrate erreichen. Welche Festplatten verwendest du? Welche mit "4k-Design" ? Diese können Probleme machen ...
|
Master99
verträumter realist
|
motherboard ist ein GA-EP45-DS3R mit 2 x Realtek 8111C via PCI-E http://www.gigabyte.de/products/pro...842&dl=1#ovhab mir jetzt nochmal vipers empfehlungen angeschaut, aber bis auf FreeNAS kommt das alles nicht in frage (fehlende features, kostenpflichtige upgrades, veraltete codebasis...) seh auch keinen grund bis auf die einfacherer konfiguration wieso ich so ein 'eingeschränktes' system verwenden sollte wenn ressourcenverbrauch nicht wirklich ein problem dar stellt. zu was würdet ihr mir also raten?
Bearbeitet von Master99 am 31.03.2011, 13:05
|
baldi
Addicted
|
was sind also meine optionen?
Debian? Solaris ![;)](/images/smilies/wink.gif) (oder ein Ableger davon - OpenIndiana, Nexentastor) Btw. weiß nicht wirklich ob mdadm damit Probleme hat ... könnte zumindest sein.
|
COLOSSUS
AdministratorGNUltra
|
Wenn deine Platten Partitioniert sind, und diese Partitionen dann die Member deines Arrays, dann kein dir ein "falsches" Alignment durchaus reinpfuschen. Ich wuerde dir raten, die ganzen Platten als Member Devices fuer dein RAID5 zu verwenden, und die Chunk Size auf mindestens 256k zu setzen. Anonsten: http://johannes.truschnigg.info/blo...-Software-RAID5
|
Master99
verträumter realist
|
Festplatten sind eine 250GB WD2500AAJS als Systemplatte und 4x WD20EARS im RAID. 4K Sektoren also... seh gerade das mein raid-device 512 byte sectoren hat. dürfte wohl der hauptgrund sein für die miese performance.
btw. sollte fdisk aber nicht zumindest die einzelplatten richtig erkennen? da wird auch 512bytes als sector size angezeigt
platten wurden btw. partioniert ja (da - non-fs data), damit ne geringfügig kleinere austauschplatte kein problem macht.
edit: Metadata-Version 0.9 und 64kbyte Chunk Size wurde von mdadm standardmäßig verwendet
Bearbeitet von Master99 am 31.03.2011, 13:54
|