COLOSSUS
AdministratorGNUltra
|
Die Geschwindigkeit ist fuer 40GBit Ethernet ziemlich arm. Du solltest mal mit iperf3 messen, was denn tatsaechlich ueber den Link geht, und was an moeglicher Bandbreite irgendwo anders liegenbleibt.
Ad `ping`-Problem: Vermutlich blockiert eine Policy der Windows-"Firewall" die ICMP echo reply?
|
spunz
ElderElder
|
Was auch noch etwas seltsam ist, ich kann vom Mikrotik Switch Richtung Windows Gerät nur pingen wenn ich die Windows Firewall abschalte. Dann klappt die Verbindung einwandfrei. Schalte ich die Firewall ein sehe ich sofort wie der Dauerping abbricht. Hat hierzu jemand eine Idee? ICMP ist in der Windows Firewall freigeschalten?
|
nexus_VI
Overnumerousness!
|
Klassiker, Windows hat deine neue Karte/Treiber/Netzwerk als öffentlich, "public" deklariert und dort ist ICMP standardmäßig deaktiviert.
|
mrhide
Addicted
|
Die Geschwindigkeit ist fuer 40GBit Ethernet ziemlich arm. Du solltest mal mit iperf3 messen, was denn tatsaechlich ueber den Link geht, und was an moeglicher Bandbreite irgendwo anders liegenbleibt.
Ad `ping`-Problem: Vermutlich blockiert eine Policy der Windows-"Firewall" die ICMP echo reply? hier die iperf3 Ergebnisse und auch NAS Performance Tester. Irgendwie nicht das gelbe vom Ei... ![click to enlarge](/attachment.php?attachmentid=245990&thumb=250)
|
mrhide
Addicted
|
Klassiker, Windows hat deine neue Karte/Treiber/Netzwerk als öffentlich, "public" deklariert und dort ist ICMP standardmäßig deaktiviert. in den Lokalen Sicherheitsrichtlinien ist jede Verbindung auf Privat gestellt oder meinst du etwas anderes?
|
nexus_VI
Overnumerousness!
|
Nein, das hätte ich gemeint. Dann wirst du in der Windows Firewall manuell eine Regel konfigurieren müssen.
Bei iperf kannst du noch mit den Settings spielen schaut aber wirklich nicht berühmt aus.
|
userohnenamen
leider kein name
|
In den Advanced Firewall Settings ICMP Echo erlauben Probier bei iperf mal mehrere Threads mit -t 4
|
COLOSSUS
AdministratorGNUltra
|
Wie genau sah dein Testaufbau bei "iperf3 -c localhost" aus? Weil die Ergebnisse sind nicht gerade knackig... (oder ist TCP unter Windows via Loopback so grottig lahm?) Zum Vergleich mein Ryzen 5 3600 auf Linux 5.8: [ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 65.4 GBytes 56.2 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 65.4 GBytes 56.2 Gbits/sec receiver
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 61.2 GBytes 52.6 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 61.2 GBytes 52.6 Gbits/sec receiver
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 61.2 GBytes 52.5 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 61.2 GBytes 52.5 Gbits/sec receiver
|
bsox
Schwarze Socke
|
Zum Vergleich mein Ryzen 5 3600 auf Linux 5.8 Könntest Du vielleicht deine Hardware (Nic, Switch, Kabel) dazu posten? Merci!
|
Viper780
ElderEr ist tot, Jim!
|
Das war sicherlich "nur" localhost ohne jeglichem Netzwerk.
|
COLOSSUS
AdministratorGNUltra
|
Ja, das war ein Test ueber Loopback. Ich bin ja vernuenftig, und habe "nur" GBit Ethernet daheim
|
daisho
VereinsmitgliedSHODAN
|
Ja, rein das was die CPU schafft, da geht nichts davon übers Netzwerk. Unter Windows bekomme ich irgendwas um die 25-30 Gbits/s (Skylake, Ryzen9) via v3.1.3 ( https://iperf.fr/iperf-download.php), die 32bit Version nur ~15 Gbits/s (warum auch immer). kA wie gut diese Binaries sind ... Unter Linux VMs (VMware 7, Epyc) bekomme ich in etwa 50 Gbit/s zusammen. Bei mir ist auch eher das Problem, sobald ich auf einer Seite raus gehe (sprich UniFi Switches) bekomme ich nur noch ~550 MB/s (~4,4 Gbits/s). Also in etwa die halbe Datenrate die ich mir eigentlich wünschen würde. (10gbe) Ich kann leider derzeit überhaupt nicht sagen woran das liegt (UniFi Hardware, Intel Netzwerkkarten, Irgendwelche OS Settings?). RSS, Jumbo Packets, Receive/Send Buffers auf Max (zumindest unter Windows) etc. hilft alles nichts. Zudem kommt dazu dass das Teaming (eingestellt auf 802.3ad Dynamic Link Aggregation) bei meiner 2-Port Intel NIC leider überhaupt nicht funktioniert ![:(](/images/smilies/frown.gif) In dem Fall dürfte das Intel LAG allerdings für'n Arsch sein unter Windows 10, man sieht beim Netzwerktraffic immer sehr gut dass IMMER nur ein Adapter aktiv ist - auch wenn ich X verschiedene Verbindungen öffne - am zweiten Adapter passiert genau "0".
|
mrhide
Addicted
|
Wie genau sah dein Testaufbau bei "iperf3 -c localhost" aus? Weil die Ergebnisse sind nicht gerade knackig... (oder ist TCP unter Windows via Loopback so grottig lahm?)
Zum Vergleich mein Ryzen 5 3600 auf Linux 5.8:
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 65.4 GBytes 56.2 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 65.4 GBytes 56.2 Gbits/sec receiver
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 61.2 GBytes 52.6 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 61.2 GBytes 52.6 Gbits/sec receiver
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 61.2 GBytes 52.5 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 61.2 GBytes 52.5 Gbits/sec receiver
es war alles nur mit QSFP+ über 40Gbit verbunden. Windows Client > Switch > Switch > NAS sämtliche RJ45 Verbindungen habe ich physikalisch getrennt gehabt
|
that
Hoffnungsloser Optimist
|
Wie genau sah dein Testaufbau bei "iperf3 -c localhost" aus? Weil die Ergebnisse sind nicht gerade knackig... (oder ist TCP unter Windows via Loopback so grottig lahm?)
Zum Vergleich mein Ryzen 5 3600 auf Linux 5.8 Da sollte man meinen, mein 6 Jahre alter 4790K (nichtmal übertaktet) könnte da nicht mithalten, aber sieh da: that@ws ~ $ uname -a
Linux ws 5.7.6 #1 SMP PREEMPT Tue Jun 30 21:11:53 CEST 2020 x86_64 Intel(R) Core(TM) i7-4790K CPU @ 4.00GHz GenuineIntel GNU/Linux
that@ws ~ $ iperf3 -c localhost
...
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 98.8 GBytes 84.9 Gbits/sec 0 sender
[ 5] 0.00-10.00 sec 98.8 GBytes 84.9 Gbits/sec receiver
|
Viper780
ElderEr ist tot, Jim!
|
Ich komm am Ryzen 7 1700 unter Windows nicht über 22GBits/sec - wobei es mit einem Thread besser ist als mit mehr
|