TOM
Super ModeratorOldschool OC.at'ler
|
hast irgendeine andere ssd mit der du noch testen kannst? Leider nein Dann uebertrag die Daten initial halt ueber ein anderes Protokoll, wo es weniger Variablen zum "Tunen" gibt. rsync ist in der Praxis bei mir deutlich schneller als SMB, auch ueber ssh getunnelt. Das wäre ein möglicher workaround für die Migration, allerdings muss im Endeffekt SMB einfach funktionieren. Darauf laufen die Windows Backups, auch MacOS scheint inzwischen darüber die Time Machine Backups zu machen (statt AFP, bei moderneren OS Versionen). Alltägliche Zugriffe von verschiedenen OS sowieso darüber.... das muss einfach performen, damit es alltagstauglich ist. Weiters bin ich mir garnicht mal sicher, dass es am SMB Protokoll liegt, da ich bei meinen Tests auch den Web-Upload in DSM an's gleiche 85 MB/s Bottleneck gestoßen bin lokale FIO/DD tests werde ich mir noch anschauen
|
MaxMax
Here to stay
|
@tom kanns sein, dass du vl einen herstellertreiber/tool laden/installieren musst, um diesen schreibcache zu aktivieren (so kenn ich es zB von meiner Samsung NVMe) @all kann mir wer bitte sagen, wie ich mit der synology konsole bei einer ext.HDD (extFS/ext4) das (korrupte) filesystem reparieren kann bitte? Hintergrund: ich hab nämlich 4x4TB als JBOD an mein synology NAS angehängt über USB, und dann ~14.5TB daten kopiert auf dieses JBOD. nach paar tagen wurde die ext. Disk dann vom NAS nicht mehr erkannt, und seitdem kann ich die ext.JBOD nicht mehr mounten/dateien sehen, weder auf Windows 10 noch am NAS; aber rein USB technisch wird das JBOD schon erkannt, aber er meint halt die partition wäre leer (afaik sind aber 145 dateien oben, ich hab sie mal kurz gesehen mit einem wiederherstellungstool) !? es wird zwar eine GPT partition erkannt, aber Filesystem steht "Unknown" und bei partition ditto, laufwerksbuchstabe/usbshare wird auch nicht vergeben
|
smashIt
master of disaster
|
hast du schon den anderen lan-port probiert?
zur not kannst du das ding auch über USB befüllen. dann siehst du zumindest was ohne netzwerk dazwischen möglich ist.
|
Joe_the_tulip
Editorbanned by FireGuy
|
@TOM: Ich hab ein DS920+ und weils gestern etwas langsamer ging als sonst, hab ichs auch probiert. Statt stabil 112/111 R/W hab ich 108/105 am SSD und 105/90 auf der HDD? wtf? Das war vor DSM7 sicher nicht so. edit: Benchmark der Laufwerke (Ironwolf Pro 10TB im RAID1 und Ironwolf Pro SSDs als JBOD) edit2: Der 5gbe Adapter ist immer noch tot - offenbar bin ich nicht der einzige mit dem Problem. Und da es "on reboot" nicht klappt, funktioniert mein Workaround nicht. Warning, DO NOT update to DSM7. Because you refuse to overpay for higher model to have 2.5G/5G/10G, Synology disabled all USB dongles in DSM7. You also can't flash back to DSM6. Reddit
|
nexus_VI
Overnumerousness!
|
@all kann mir wer bitte sagen, wie ich mit der synology konsole bei einer ext.HDD (extFS/ext4) das (korrupte) filesystem reparieren kann bitte? Hintergrund: ich hab nämlich 4x4TB als JBOD an mein synology NAS angehängt über USB, und dann ~14.5TB daten kopiert auf dieses JBOD. nach paar tagen wurde die ext. Disk dann vom NAS nicht mehr erkannt, und seitdem kann ich die ext.JBOD nicht mehr mounten/dateien sehen, weder auf Windows 10 noch am NAS; aber rein USB technisch wird das JBOD schon erkannt, aber er meint halt die partition wäre leer (afaik sind aber 145 dateien oben, ich hab sie mal kurz gesehen mit einem wiederherstellungstool) !? es wird zwar eine GPT partition erkannt, aber Filesystem steht "Unknown" und bei partition ditto, laufwerksbuchstabe/usbshare wird auch nicht vergeben Würde ich mir vielleicht mit Testdisk anschauen, angeblich gibts das im SynoCommunity Repo. Sonst an einen Linuxrechner anhängen.
|
COLOSSUS
AdministratorGNUltra
|
Mein NAS (ein x86-PC mit Debian 11) schreibt auf die 8TB 870 QVO uebrigens ~150MiB/s sustained seq. - also die Disk selbst ist sicherlich geeignet, um einen 802.3ab-Link zu saturieren.
|
TOM
Super ModeratorOldschool OC.at'ler
|
dd status=progress bs=128k if=/dev/zero of=/volume1/test count=81920 oflag=direct
388 MB/s fio -numjobs=1 -iodepth=128 -direct=1 -ioengine=libaio -sync=1 -rw=randwrite -bs=1M -size=1G -time_based -runtime=30 -name=Fio -directory=/volume1
270MB/s Also das NAS hat genug Luft und die SSD kann schneller als 85 MB/s schreiben.... nur wo ist das bottleneck edit: Ich hab grad einen Transfer via SFTP getestet => 70 MB/s Es liegt also nicht am Protokoll
Bearbeitet von TOM am 14.11.2021, 22:20
|
smashIt
master of disaster
|
vieleicht die netzwerkkomponenten?
|
TOM
Super ModeratorOldschool OC.at'ler
|
vieleicht die netzwerkkomponenten? Ich war bereits direkt verbunden mit dem NAS und hatte denselben Speed
|
Viper780
Er ist tot, Jim!
|
vieleicht die netzwerkkomponenten? Der wäre dir Richtung evaluiert. Ich würd mich mal an Synology wenden.
|
COLOSSUS
AdministratorGNUltra
|
[code]edit: Ich hab grad einen Transfer via SFTP getestet => 70 MB/s Es liegt also nicht am Protokoll Also ich lese aus diesem Messergebnis, dass du via SFTP schlicht ein anderes Bottleneck triffst, als du es via SMB tust... Vergiss nicht, dass auch schlecht implementierte Clients schuld sein koennen. Der erste Schritt sollte mal ein Messen der erreichbaren TCP-Bandbreite mittels iperf3 sein. Wenn das etabliert ist, kann man weiterschauen.
|
TOM
Super ModeratorOldschool OC.at'ler
|
also die iperf3 Tests haben mehr Fragen aufgeworfen als antworten Workstation (iperf-client) => SSD-NAS (iperf-server) via Standard Verkabelung (über Switch) 703 Mbits/sec Workstation (iperf-client) => SSD-NAS (iperf-server) via direkter Verbindung (kein Switch) 707 Mbits/sec Das sind genau die 85 MB/s Limit Beim Lesen vom SSD-NAS via Workstation, komme ich allerdings auf die 100-110 MB/s (full Gigabit - also limitiert die Verkabelung prinzipiell nicht) Daraufhin habe ich das Macbook Air direkt mit dem NAS-SSD verbunden (USB-C to RJ45 adapter) und iperf3 laufen lassen: 710 Mbit/sec Inzwischen habe ich auch schon beide Netzwerk-Ports auf der Synology durch, beide limitieren gleich bei ~710 Mbit/sec Macbook Air 8GB File schreibend => SSD-NAS 85 MB/s Macbook Air 8GB File lesend => SSD-NAS 97 MB/s Eigentlich würde ich jetzt noch gerne iPerf3 umdrehen (server/client) aber das bekomm ich grad auf die Schnelle nicht hin mit diesem iPerf Docker da ist das bottleneck, aber warum? PS: Vom Synology Support kam gerade die recht unmotivierte Antwort: "Es dann also sein, dass die Festplatte daher nicht optimal mit Ihrer NAS funktioniert. Ich würde Ihnen empfehle als kompatibel getestete Festplatten zu testen, damit sollte es dann keine Probleme geben." iPerf beweist aber eigentlich, dass es nicht an der Disk liegt?! (memory to memory)
Bearbeitet von TOM am 15.11.2021, 11:05
|
Master99
verträumter realist
|
mhm, normalerweise sollten linkspeed in iperf >=900mbit sein.
steck doch mal ein anders device statt dem syno nas an das kabel und teste nochmal mit iperf.
|
Joe_the_tulip
Editorbanned by FireGuy
|
|
Garbage
AdministratorThe Wizard of Owls
|
PS: Vom Synology Support kam gerade die recht unmotivierte Antwort: "Es dann also sein, dass die Festplatte daher nicht optimal mit Ihrer NAS funktioniert. Ich würde Ihnen empfehle als kompatibel getestete Festplatten zu testen, damit sollte es dann keine Probleme geben." Also kurz: Kauf unsere Synology relabeled HDD/SSD Modelle. Wenn das ab jetzt Standard ist, kannst Synology auch schmeißen.
|