PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 10Gbit-LAN mit 2x Asus XG-C100C


PHuV
2017-09-04, 00:50:24
Vorwort

Wenn ich dem Forum trauen darf, installierte ich ca. März 2005 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=208509&highlight=Gigabit)mein erstes Gigabit-Netzwerk. Der Wechsel von 10/100 MBit-Lan ab ca. 1998 zu Gigabit-Lan lag bei mir ca. 7 Jahre, als die ersten Karten und Gigabit-Switches 2005 einigermaßen erschwinglich wurden. Damals, als Realtek- und Marvel-Karten lange nicht so gut waren, mußte man für gute Intel-Lan-Karten ebenfalls Preise von 100-150 € hinlegen, und ein günstiger Gigabit-Switch kostete ca. 300-400 € aufwärts.

Nun sind bereits 12 weitere Jahre vergangen. Mittlerweile gilt Gigabit-Lan als ethabliert, selbst neuere Router - die bisher hier stiefmütterlich nur mit 100 MBit versorgt wurden - verfügen nun endlich auch über Gigabit-Lan-Anschlüsse, und viele können sich zu Hause einen dafür vorher notwendigen Switch (wenn die 4 Ports ausreichten) sparen. Da die Internetprovider mit 100 MBit Internetgeschwindigkeit und mehr voranschreiten, ist dieser Schritt notwendig und überfällig.

Doch wo bleibt dieser Schritt für die Netzwerkschnittstellen auf den Mainboards? Kann ein Gigabit-Lan-Netzwerk bisher die Lese- und Schreibgeschwindigkeiten der Festplatten von 100-120 MB/s ohne Probleme ausreizten, ist seit dem Aufkommen der SSDs und NVMe-SSDs mit Lese- und Schreibgeschwindigkeiten von 500-540 MB/s kein Land mehr hier zu sehen. Darunter leiden auch alle, die mit NAS- und Raidsystemen arbeiten, die über diverse Raid-Stufen selbst mit Festplatten hier entsprechend hohe Übertragungsraten verfügen. Beispielsweise liefert der LSI 9271-8i in meinem Server mit 8x4 TB WD Red HDDs ca. 450 MB/s lesend und schreibend. Backups über das Netzwerk und Netzwerkfreigaben für allerlei Datenaustausch unterfordert somit schon lange die Übertragungsgeschwindigkeiten, welche aktuelle Datenträger heute liefern.

Welches Gigabit-Ethernet paßt? (https://www.computerwoche.de/a/welches-gigabit-ethernet-passt,2517945)

Seit langem schaue ich schon nach einer schnelleren Möglichkeit. Bisher hatte es nur den Nachteil, daß die Anbieter für 10Gbit-Lan Karten sehr dürftig und zudem recht teuer sind. Als ich am Anfang des Jahres mal nach Karten schaute, lagen die Intel X540 (PCI 2.1 8x) und Intel X550 (PCIe 3.0 4x) noch bei ca. 320-350 € pro Karte! Ebenso sind auf Mainboards selten 10Gbit-NICs aufzufinden. Schau man bei den aktuellen Chipsätzen von Intel und AMD wie Z170, X299 und X399, findet man nichts.
Preislich hoch sind weiterhin entsprechende Switches, die günstigsten bewegten sich zu Jahresanfang um die 800 €.

Bei 10GBit-Hardware muß man aufpassen, da es hier verschiedenen Anschlußarten gibt:

SFP+, über Kupfer und Glasfaser
RJ45, mit Cat5-7e-Kabeln

Glasfaser und SFP+ sind als PCIe-Karten günstiger, jedoch hat man mit Zubehör deutlich höhere Kosten als bisherige Kupferkabel mit RJ45. Daher stand es für mich außer Frage, bei Kupferkabel und dem bewährten RJ45-Stecker zu bleiben. Selbst damit würde ein Gigabit-Netzwerk mit 3 Karten sich auf ca. 1760 € (3x320 € Lan-Karten + 800 € Switch) summieren, daher wartete ich ab.

Asus bringt einen günstigen 10GBit-LAN-Adapter

Erste Informationen gab es Anfang Juni, wo Asus ankündigte, eine 10-Gbit-Netzwerkkarte für günstige 115 € anzubieten. Im Vergleich zu günstigen aktuellen Gbit-LAN-Karten teuer, im Vergleich zu anderen Karten: günstig.
10GbE- und NBase-T-Adapter kostet 115 Euro (https://www.golem.de/news/asus-xg-c100c-10gbe-und-nbase-t-adapter-kostet-115-euro-1707-128726.html)
c't hatte das Glück, als einer der ersten diese zu testen.
c't 11/2017, S. 68 - LAN-Turbo (https://www.heise.de/ct/ausgabe/2017-11-NBase-T-LAN-Karte-Asus-XG-C100C-3707560.html)

Angekündigt für Juli 2017 dauerte es doch bei einigen bis Mitte August, bis diese verfügbar waren. Der günstigste Switch Asus XG-U2008 verfügt über 2 10 Gbit RJ45- und 8 1GBit-Lan-Anschlüsse und ist mit ca. 250 € aktuell der günstigste Einstieg in das 10Gbit-Netzwerk. Er wird aber hier nicht getestet.
Ich habe für die ersten Tests 2 von den Asus-Karten bei Amazon gekauft.

Die Karten selbst

Da Asus bisher selbst keine NICs herstellte, ist nun die große Frage, wer der Hersteller dahinter ist? Während die Windows-Installation keine Hinweise auf den Hersteller liefert, wird man bei den Linux Treibern etwas schlauer. Sie unterstützen die beiden Karten mit den Bezeichnungen AQN-108 (http://www.aquantia.com/wp-content/uploads/AQN-108%20Brief%20051117.pdf) und AQN-107 (http://www.aquantia.com/wp-content/uploads/AQN-107%20Brief%20051117.pdf). Die AQN-108 (http://www.aquantia.com/wp-content/uploads/AQN-108%20Brief%20051117.pdf) ist eine 5 GBit-Karte, die AQN-107 (http://www.aquantia.com/wp-content/uploads/AQN-107%20Brief%20051117.pdf) die 10-Gbit-Version. Dahinter steckt vermutlich die Firma Aquantia (http://www.aquantia.com/), welche bereits seit 2012 10Gbit-NICs für Server anbietet und 2016 bereits ein 100Gbit-NICs vorgestellt hatte. Ihnen ist es vermutlich zu verdanken, daß Asus so günstig diese Karten anbieten kann, siehe auch Aquantia AQtion Network Adapters Introduce New Levels of Multi-Gigabit Connectivity for High-Performance PCs and Professional Workstations (http://www.aquantia.com/2017/05/15/aquantia-aqtion-network-adapters-introduce-new-levels-multi-gigabit-connectivity-high-performance-pcs-professional-workstations/).

Unboxing

Den Karten liegt bei

ein verkürztes Slotblech
eine Installations-CD und
die üblichen Garantie- und CE-Papiere
ein Quickstart-Guide in verschiedenen Sprachen

Im Quickstart-Guide wird vermerkt:
Cable lenght limit (for 10 Gbps network speed):

Cat5e up to 30 meters
Cat6 up to 55 meters
Cat6a and upper level cables up to 100 meters


Diese Infos sind weder in den PDF-Dateien auf der CD noch Online bei Asus zu finden.

https://i.imgur.com/D0sjmRE.jpg

Zur Sicherheit habe ich mir jedoch ein Cat7e-Kabel 5m für ca 9 €, ebenfalls bei Amazon, gekauft.

Einbau und Treiberinstallation

Der Einbau erfordert einen freien PCIe 3.0 x4 Slot und 4 freie PCIe-Lanes. Der Treiber kann nur mit dem Setup der beigelegten CD installiert werden. Der Treiber in der gleichen Version kann auch von der Asus-Homepage geladen werden. Ebenso liegen Treiber für Linux dabei. Hier muß man jedoch diese zuerst mit gcc übersetzen und von Hand per Hand als Modul laden (> insmod atlantic.ko), was für den erfahrenen Linuxer an sich kein Problem darstellen dürfte.

Konfiguration

Windows

Sind mehrere Netzwerkkarten im Computer vorhanden, muß man beachten, wie mal alle weiteren Netzwerkkarten konfiguriert. Gas Gateway und der DNS-Server müssen frei bleiben, da sich sonst die verschieden Konfigurationen in die Quere kommen.
https://i.imgur.com/SamLjcm.jpg

Eigentlich wählt Windows automatisch den schnellsten Netzwerkadapter, jedoch kann man sich nicht immer darauf verlassen. Daher werden alle Rechner direkt per IP-Adresse mit UNC-Notation angesprochen:
https://i.imgur.com/DoGeIgf.jpg

Linux

Man beachte die beiliegende Readme-Datei. Hier packt man den Treiber, welcher als bz2-Format vorliegt, erst mal aus. Dann kann man mit dem vorhandenen Makefile als User root einfach per
> make
den Code übersetzen, und den Treiber per
> insmod atlantic.ko
welches auf der aktuellen Desktop-Version von Ubuntu 17.04. anstandslos funktionierte.
> insmod atlantic.ko
Wer Lust hat, den Code zu verändert, kann per
> modprobe -r atlantic.ko
das Modul wieder löschen, per
> make clean
entfernen und die Prozedur wieder erneut starten.

Netzwerkeinbindung erfolgt wie bei Windows als 2. Adapter. Eine Ramdisk unter Linux (https://wiki.ubuntuusers.de/RAM-Disk_erstellen/) läßt sich einfach per device tmpfs erstellen:
> mkdir /ramdisk
> mount -t tmpfs -o size=40G none /ramdisk

Auf Windows-Freigaben kann man ebenso einfach per SMB zugreifen
> smb://198.168.1.80/r

Testumgebungen

Alle Rechner werden direkt miteinander per Cat7e-Kabel verbunden. Da die heutigen Karten Auto-MDI-X (https://de.wikipedia.org/wiki/Medium_Dependent_Interface)-fähig sind, sind keine Crosslinkkabel ab 1GB-Netzwerkkarten mehr notwendig. Man kann jedes beliebige Cat5/6/7e-Kabel dazwischen schalten. Das Programm Netio (http://www.nwlab.net/art/netio/netio.html), welches ich bisher immer gerne zum Testen der Lan-Performance verwendete, ist leider veraltet und liefert nur ca. 280 MB/s, und damit etwas mehr als ein Viertel der möglichen Performance.

Testrechner

R1: Server, Asrock Z170 Extreme7+, Intel i7-6700k, 48 GB Ram (DDR4 2400), Samsung 951 512 GB über PCIe 3.0 4x mit Adapter-Karte, Logitech G15-Tastatur mit LCD, LSI 9271-8i mit 8x4 TB Raid 5 mit ca. 27 TB.
R2: Anwendung, Gigabyte GA-X99-UD7, Intel i7-5820k, 96 GB Ram (DDR4 2400), Samsung 950 Pro 512 GB über M.2-Anschluß Mainboard, Logitech G19-Tastatur mit LCD
R3: Spiele, Z97 Extreme6-3.1, Intel i7-4970k, 16 GB Ram (DDR3 1333), 2 TB Samsung 850 Pro SSD, Logitech G19-Tastatur mit LCD
Keiner der Rechner wird übertaktet

Verwendete Software

Windows 10 Pro 1703 mit allen aktuellen Updates
Ubuntu 17.04. mit aQuantia Corporation Network Driver
SoftPerfect RAM Disk 3.4.8 64-Bit
Windows Task-Manager mit Leistungsanzeige
Aida64 Extreme Edition
Auf allen Rechnern wurde die aktuelle Treiber-Version 1.40.37.0 von Asus installiert.

Teststellung

Kein Switch und Hub dazwischen.
Auf den Rechnern R1, R2 sind 40 und 35 GB-Ramdisks und NVmes vorhanden, auf R3 nur eine 11 GB große Ramdisk und eine SSD
Übertragen werden jeweils 8-30 GB große Dateien über die im Netzwerk freigegebenen Laufwerke R (Ramdisk) und F (NVMe-Laufwerke) und D (Samsung 850 Pro SSDs)
Mit den Taskmanagern und den LCD-Bildschirmen der G15/G19-Tastaturen wurden alle Aktivitäten beobachtet
Alle RamDisks liefern laut AS SSD Benchmark über 5 GB/s lesend und schreibend.
Beide NVMes schaffen >3GB/s lesen und ca. 2-2,5 GB/s schreibend
LSI 9271-8i Raid 5 schafft ca. 450 MB/s lesend und schreibend

Ergebnisse

Windows und Windows

Die ersten Tests verwunderten. Das Kopieren von R1 nach R2 brachte nur ca. 510 MB/s, während die gleiche Übertragung von R2 nach R1 mit ca. 1,05 GB/s lief. Tests mit R3 nach R1 und umgekehrt brachten immerhin 670 MB/s lesend und schreibend 715 MB/s. Dabei spielte es keine Rolle, ob per schnelle SSD (Samsung 850 Pro in allen Rechnern), NVMe SSDs oder die RamDisks verwendet wurden.

Schaut man in die Netzwerkeinstellungen, findet man schnell die Ursache des Problems, die Jumbo-Frames (hier als Jumbo Packet bezeichnet) sind per default deaktiviert.
https://i.imgur.com/tZ2kTkm.jpg

Setzt man diese auf den höchsten Wert, schon klappt es schneller.
https://i.imgur.com/ZqcqxW2.jpg

Übertragung R1->R2 (pull oder get)
https://i.imgur.com/rXAZN5w.png

Übertragung R2->R1 (push oder put)
https://i.imgur.com/2HSRHGm.png

Interessant ist wieder das Phänomen, daß das Holen von Dateien pull/get (FTP-User erinnern sich) auf einem beliebigen Rechner immer etwas langsamer ist als Dateien als etwas dorthin zu kopieren push/put.

Pull ergibt 850 Mbit-1,05 GBit/s, push dagegen liefert fast immer konstant 1,05-1,14 GBit/s, egal welcher Rechner und welches Medium (NVMe-SSD und RamDisk). Sind die Medien langsamer (HDDs, SSDs, Raid5), so wird hier trotz allem die volle Performance der Medien bis zu ihrem Maximum ausgereizt.

Werden viele kleine Dateien übertragen, bricht in allen Fällen die Datenübertragungsrate dramatisch auf bis zu 15 MB/s ein, je nach Größe und Anzahl der kleinen Dateien. Somit lohnt sich das 10GBit-Netzwerk nur für große Dateien.

Linux und Windows

Hier sind die Ergebnisse erst mal ernüchternd. Mehr als 150-160 MB/s sind nicht drin, egal von welcher Seite und von welchem Medium. Selbst das Konfigurieren als einzige Netzwerkkarte brachte keine Verbesserung. Es wird im Readme auf eine Konfigurationsdatei aq_cfg.h verwiesen, die aber nur sehr dürftig dokumentiert ist. In der Suche der Sourcen gibt es einige Verweise auf die Jumbo-Frames- Einstellungen als Variable:
hw_atl/hw_atl_a0_internal.h:#define HW_ATL_A0_MTU_JUMBO 9014U
hw_atl/hw_atl_a0_internal.h: .mtu = HW_ATL_A0_MTU_JUMBO,
hw_atl/hw_atl_b0.c: /* jumbo */
hw_atl/hw_atl_b0.c: ++ring->stats.rx.jumbo_packets;
hw_atl/hw_atl_b0_internal.h:#define HW_ATL_B0_MTU_JUMBO (16000U)
hw_atl/hw_atl_b0_internal.h: .mtu = HW_ATL_B0_MTU_JUMBO,
release_notes.txt:+ Linear skb for single descriptor packets (jumbo frames up to 4500 bytes).
Das muß ich mir aber mal in Ruhe und länger anschauen, wie diese zu verwenden sind.

Fazit

Nach 12 Jahre Warten: 10Gbit-Netzwerkkarte für ca 110-115 €, das ist eine Ansage und ein akzeptabler Preis, während vergleichbare Intel-Karten wie die Intel X550-T1 immer noch bei 289 - 300 € liegt. Das heißt zum Preis von einer Intel-LAN-Karte kann man sich fast 3 Asus-LAN-Karten kaufen.

Unter Linux ist die Performance erst mal sehr enttäuschend, und leider für meine Pläne mit BigData-Tests wie Apache Hadoop und HDFS (https://de.wikipedia.org/wiki/Apache_Hadoop)mit Citrix XenServer 7.1. ungeeignet. Gerade hier in Verbindung mit NVMe SSDs wären Performance-Tests sehr interessant geworden. Hier muß man wohl noch auf bessere Treiber warten, oder sich intensiv mit den Quellen des Treibers auseinandersetzen, um das Problem zu finden. Für Linux gibts von mir erst mal keine Empfehlung und ein (no).

Wer unter Windows viel große Dateien zwischen Rechnern, Server und NAS-Server hin- und herschieben will, für den lohnt sich definitiv eine Anschaffung. Dafür muß aber ein PCIe 3.0 x4-Anschluss und entsprechend freie PCIe-Lanes vorhanden sein. Dann kann mal auch mal getrost über das LAN ein Backup mit beispielsweise Acronis True Image direkt auf ein NAS- oder Fileserver mit Raid-Controller erfolgen, wo die Geschwindigkeit der vorhandenen Datenspeicher fast ausgereizt werden kann.

Jetzt müßten nur noch die größeren Switches im Preis deutlich günstiger werden, hier ist man aktuell mit ca. 600 € für den aktuell günstigsten Switch wie NETGEAR XS708E-100NES ProSAFE dabei.

Im Betrieb wird der Kühler der Karte sehr warm bis heiß, was aber als Fingertest noch erträglich ist.

Da die Installation und der Betrieb unter Windows einfach und schnell geht, bekommt diese Karte von mir ein fettes (y) als aktuelle Empfehlung.

Ausblick

Leider kann man selbst mit 10GBit-Lan aktuelle NVMe-SSDs noch nicht ausreizen. Sobald angekündigte PCIe-NVME-SSDs mit PCIe 3.0, x8 und x16 mit Übertragungsraten über 10-12 GB/s erhältlich sind, ist wieder das Netzwerk das Limit, welches man dann nur mit mehreren skalieren LAN-Karten in einem Rechner lösen könnten (genügend Slots und PCIe Lanes vorausgesetzt).
100GBit-Lan (http://www.itwissen.info/100-Gigabit-Ethernet-100-Gigabit-Ethernet-100GbE.html) ist bereits in der Mache, und PCIe wird ebenfalls - erst mal nur bei Server - schneller werden, siehe IDF: PCIe 4.0 läuft, PCIe 5.0 in Arbeit (https://www.heise.de/newsticker/meldung/IDF-PCIe-4-0-laeuft-PCIe-5-0-in-Arbeit-3297114.html). Somit wird es interessant, wann wir erleben werden, daß diese Geschwindigkeiten ebenso im Consumer-Bereich ankommen, und ob ich hier weitere 12 Jahre für den nächsten Schritt warten muß.

Jasch
2017-09-04, 08:33:26
Bitte aber nicht vergessen, das die Dinger keinerlei RDMA können und bei anderen Sachen als linearem Durchsatz da auch komplett hinten anstehen.(RDMA = ISER,iWarp,ROCE...)
Auch SMB3+(direct Samba) nutz RDMA.(wenn unterstützt)

Mal nen Artikel wo man sieht, das
mit RDMA der random Access enorm zulegt.
http://www.zeta.systems/blog/2016/09/21/iSCSI-vs-iSER-vs-SRP-on-Ethernet-&-InfiniBand/

BTW für Homenetz:
https://geizhals.eu/asus-xg-u2008-90ig02r0-bo3x00-a1562800.html?hloc=de
8x RJ-45 (1000Base-T), 2x RJ-45 (10GBase-T) 250EUR.

Bei mir zuhause ist nur meine Workstation ans NAS mit 56Gbit IB (ISCSI)angebunden(muss mal meine Sig aktualisieren).

PHuV
2017-09-04, 09:07:26
Bitte aber nicht vergessen, das die Dinger keinerlei RDMA können und bei anderen Sachen als linearem Durchsatz da auch komplett hinten anstehen.(RDMA = ISER,iWarp,ROCE...)
Auch SMB3+(direct Samba) nutz RDMA.(wenn unterstützt)
Danke für diese Info, damit ist dann der Test mit Hadoop und Co. obsolet geworden.


BTW für Homenetz:
https://geizhals.eu/asus-xg-u2008-90ig02r0-bo3x00-a1562800.html?hloc=de
8x RJ-45 (1000Base-T), 2x RJ-45 (10GBase-T) 250EUR.
Diesen Switch haben ich oben bereits erwähnt. Leider bietet er nur 2 Ports 10Gbit-Ports, wer mehr braucht, muß auch entsprechend mehr hinlegen.

Bei mir zuhause ist nur meine Workstation ans NAS mit 56Gbit IB (ISCSI)angebunden(muss mal meine Sig aktualisieren).
Kannst Du dazu mal die genaue HW und Daten bzw. Preise posten? So eine 56Gbit-Karte liegt vermutlich bei Preisen um die 600-800 €, wenn ich das richtig sehe, und benötigen min. PCIe 3.0 mit x8.
https://www.sysgen.de/mellanox-connectx-4-vpi-adapter-cards/

Lowkey
2017-09-04, 09:12:51
Da hast du dir aber Mühe gegeben. Für die Bilderformatierung gibt ein Plus.

Die Anschaffungskosten sind zu hoch. Meine 10gbit Asus dient immer noch als Briefbeschwerer.

PHuV
2017-09-04, 10:42:19
Das ist eine Frage der Betrachtungsweise und der Notwenigkeit. Wie ich oben schrieb, wer früher zu Anfangszeiten vernünftige GBit-Lan-Karten + Switch haben wollte, mußte ebenso ordentlich hinlegen. Ich kann mich erinnern, daß ich für die Intelkarten über 115 € hingelegt hatte. Besser wäre es natürlich, wenn die Mainboardhersteller endlich aktiv werden würden.

HisN
2017-09-04, 12:55:38
Interessant.
Jetzt müssen nur die Switche preisgünstiger werden.
Ich bräuche hier im Haus zwei Stück für die Verkabelung über die Etagen...

Jasch
2017-09-04, 16:36:23
Ich verwende gebrauchte Mellanox ConnectX-3, hab die günstig geschossen 110€ pro Stück.
Kabel war 29€.
Alternativ gibts die ConnectX-2 recht günstig. da zb 56€. (hatte ich vorher)
http://www.ebay.de/itm/40Gbps-low-profile-Infiniband-QSFP-Mellanox-MHQH19B-XTR-PCIe-IB-ConnectX-2-QDR-/152380156089?epid=1634514842&hash=item237a90a8b9:g:UxgAAOSwa~BYapd2

Aber aufpassen da gibts 10GBe, 40GB IB und Dual Adapter die beides können, die im Link sind 40gbe

mit Firmwareanpassung machen die dann auch unter Windows RDMA
http://www.triebwerk23.de/joomla/index.php/netzwerk/infiniband/29-rdma-mit-connectx-2-unter-windows-server-2012-2016.
https://forums.servethehome.com/index.php?threads/mellanox-connectx-2-firmware.14350/
Ich bin den Weg mit der Firmware aus dem HP gegangen.

Wenn man nur 2 Geräte Verbinden will hat man für ca 130-150€ 40Gbe mit Rdma.(bz 3 ist auch easy mit dualkarte im Server)
Gebrauchte 40Gbe Switche gibts in der Bucht um 300€

xiao didi *
2017-09-04, 17:52:48
@ PHuV
Hast du die Möglichkeit den Stromverbrauch zu messen?
Interessieren würde mich zb. der Stromverbrauch des PCs mit und ohne Karte sowie mit aktivem und inaktivem 10GB Link.

nalye
2017-09-04, 17:55:48
Ich denke, das wird sich im Rahmen halten
Typical Power Consumption 6 W at 10 Gbps, 4W at 5 Gbps full length 100 m Cat6a

PHuV
2017-09-04, 18:30:21
@ PHuV
Hast du die Möglichkeit den Stromverbrauch zu messen?
Interessieren würde mich zb. der Stromverbrauch des PCs mit und ohne Karte sowie mit aktivem und inaktivem 10GB Link.
Nur so grob und ungenau, so daß die von nalye erwähnten 4-6W sich noch im Rahmen von Messfehlern bewegen würden.

myMind
2017-09-04, 22:49:44
@PHuV: Schöner Erfahrungsbericht.

Bei den Linux-Problemen würde ich in Erwägung ziehen ein Support-Ticket bei Asus einzustellen, falls du die bürokratischen Hürden bei Asus nicht scheust. Das ist zwar echt anstrengend bei der Company, aber es hilft auch hin- und wieder.

Mir würde bei der Asus XG-C100C die ausdrückliche Unterstützung von Windows-Server und VMware ESX fehlen.

Ich konnte es auch nicht abwarten und bin auf den SFP+ Zug aufgesprungen: 5 * Mellanox ConnectX2 (gebraucht, 25$ pro Stück inkl DAC-Kabel im 5er Pack (http://www.ebay.com/itm/LOT-OF-5-MNPA19-XTR-MELLANOX-10GB-CONNECTX2-ETHERNET-CARD-HIGH-PROFILE-W-CABLE-/142117619002?hash=item2116dec53a:g:RhwAAOSwMtxXq44f) + Shipping) + 2 * TP-Link T1700G + Transciever und Kabel. Im Ergebnis lautlose 10G für das VMware-Backup und Ankopplung der Haupt-Clientrechner für < 900€. Der TP-Link ist nochmal im Preis gefallen und liegt jetzt bei 234€ für 4 * SFP+. Ich bin damit sehr zufrieden, wobei der Alltagsnutzen zu 99% bei dem VM-Backups besteht. Das Clientbackup läuft leicht schneller und die Schwuppdizität (Latenz) ist gefühlt leicht besser. Ansonsten ist es bei meinen Anwendungsfällen objektiv betrachtet eher Spielerei.

Bei 10GBase-T fehlt einfach noch ein günstiger lautloser Switch mit >= 4 Ports.

Haarmann
2017-10-21, 18:26:29
Gebraucht gibts langsam sogar Switches im angenehmen Rahmen...

400€

24 Ports SFP+

ickerz
2017-10-25, 12:21:03
Nettes Teil, wenn auch ein stolzer Preis. Muss mir demnächst auch nen Upgrade zulegen, danke für deinen Test. Wie schauts mit Internetspeed aus?

Birdman
2017-10-27, 12:07:17
Gebraucht gibts langsam sogar Switches im angenehmen Rahmen...

400€

24 Ports SFP+
Von Miktrotik gibts neu einen passiv gekühlten 16 Port SFP+ CloudcoreRouter/Switch mit Dual-PowerSupply für ~500 CHF.

Wer sich also in die Welt von Mikrotik und deren Web-UI traut, für den gibts hier richtig viel "Bang for the Buck"

The_Invisible
2017-10-29, 11:31:48
Von Miktrotik gibts neu einen passiv gekühlten 16 Port SFP+ CloudcoreRouter/Switch mit Dual-PowerSupply für ~500 CHF.

Wer sich also in die Welt von Mikrotik und deren Web-UI traut, für den gibts hier richtig viel "Bang for the Buck"

Ist das SwitchOS eigentlich endlich benutzerfreundlich und bugfrei oder noch immer nicht?

Auch bei RouterOS muss man drei Handstände für eine Switch VLAN-Config machen die bei HP mit einem Befehl geht.

Auch beim CRS212-1G-10S-1S+IN mussten wir zweimal das Gerät tauschen da nach Neustarts manche SPF Module nicht mehr erkannt wurden. Mikrotik setzen wir aber trotzdem gerne als Router mit OSPF/BGP ein, mit den größeren/teureren Modellen hatten wir auch nie Probleme.

PHuV
2018-05-17, 14:50:48
Die Asus XG-C100C gibts mittlerweile für 99 €. Und es gibt mittlerweile einen "günstigern" 5-Port Switch Netgear XS505M für 10GBit (https://www.heise.de/preisvergleich/netgear-prosafe-xs500m-desktop-10g-switch-xs505m-100-a1685834.html)für ca. 360-400 €.

Godmode
2018-05-17, 15:39:14
Als Switch würde ich eher den CRS317 von Mikrotik nehmen, weil der kostet nur etwas um die 300€ und hat dann gleich 16 SFP+ Ports und Dual-PSU.

Daten: https://mikrotik.com/product/crs317_1g_16s_rm

Shop: https://www.ip-sa.com.pl/crs317-16srm-p-2529.html

Edit: Ups, drei Posts über mir. ^^

PHuV
2018-05-17, 17:39:01
Und wer RJ-45 möchte, liegt mit dem Gerät falsch, und es paßt nicht zu den beschriebenen Karten. Wieder mal nicht richtig gelesen, godmode? ;)

Birdman
2018-05-17, 19:07:57
Falls wer mit 10GbE SFP+ Karten liebäugelt, dem kann ich übrigens die Synology E10G17-F2 empfehlen.
Das sind 1:1 Mellanox X3 Karten mit RDMA und allem erdenklichen Schnickschnack für günstig Geld. (billiger als Intel oder Broadcom aber trotzdem mitunter deutlich besser)

Godmode
2018-05-17, 19:59:26
Und wer RJ-45 möchte, liegt mit dem Gerät falsch, und es paßt nicht zu den beschriebenen Karten. Wieder mal nicht richtig gelesen, godmode? ;)

Es gibt ja auch SFP(+)-Transiver mit RJ-45 an der Ausgangsseite, oder übersehe ich hier etwas? Ich verwende z.B. Intel X710 NICs mit Intel Transiver (SFP+) und beim CRS317 Mikrotik Transiver (SFP+), aber mit Glasfaser.

Birdman
2018-05-17, 20:13:57
Es gibt ja auch SFP(+)-Transiver mit RJ-45 an der Ausgangsseite, oder übersehe ich hier etwas?
Ja, dass die alleine mehr kosten als eine 10GbE/RJ45 Netzwerkkarte :)

Btw. Mikrotik bringt neu einen komplett passiven 4Port SFP+ Switch raus mikrotik.com - news may 2018 (https://download2.mikrotik.com/news/news_82.pdf) der ziemlich günstig aussieht.
Ebenfalls einen interessanten 12-Port 10/5/2.5G Copper Switch (mit noch ein paar SFP+ Ports drauf) wo der Preis wohl ebenfalls zahlbar sein wird.

Ph03n!X
2018-06-13, 11:52:29
Die Asus Karte ist wohl nicht zertifiziert für Virtualisierung wenn ich das richtig gelesen habe. Daher doch lieber die Intel x550 Karte

PHuV
2018-06-13, 14:24:49
Das ist ein Problem, mit dem ich auch gerade kämpfe. Weiß den jemand hier, ob VMWare Workstation oder VirtualBox die Intel X550 unterstützen?

Jasch
2018-06-13, 15:04:49
Also meine X540er werden von so ziemlich allem unterstützt, Vmware, Proxmox, Xen... (passtrough und SR-IOV).
Ich behaupte mal frech die X550 auch(ist derselbe Treiber, ixgbe für alles was Linux und BSD ist).
Ist im Prinzip die selbe Karte nur PCie 3.


Ich hab hier auch noch so eine Asus XG liegen(nie eingebaut), war beim X399 Board dabei.
Deshalb war das wohl so teuer , weil sie mir ihre Müll 10Gbe Karte dazu verkauft haben.

Ph03n!X
2018-06-13, 16:37:29
Die X550 ist echt heftig 10GB.bin Test File von Hetzner auf meine 10GBE QNAP NAS innerhalb ein paar Sekunden veschoben von der 960 Pro SSD.

Müsste ich nicht auch beim VMWare Workstation OVF Export auf die NAS ähnliche Geschwindigkeiten haben?

Die VM's liegen auf einer 960 Pro.

Gerade beim Test einer Maschine nur 110 MBit's.

Während er beim erst genannten Test 1 Gbit/s anzeigt.

Die VM's laufen als SCSI im VMWare Workstation.

Hat jemand die 14 Pro Version und VM's auf einer SSD's als NVME liegen?

Jasch
2018-06-13, 22:34:33
Habe ich noch nicht probiert, aber ich habe am WE mein ISCSI von igst auf ctl umgestellt.
ZFS Vol zum Testen 2x Samsung Evo 850 250GB Stripe.
(Nas4free(BSD) auf Proxmox mit X540 und LSI 2008 passtrough)
Win 10 Client mit X540.
Da kommen linear read/write volle 10Gbit.
4kist auch ganz ok.(Karten können ja leider kein RDMA)

Loeschzwerg
2018-06-14, 07:05:58
Ich behaupte mal frech die X550 auch(ist derselbe Treiber, ixgbe für alles was Linux und BSD ist).
Ist im Prinzip die selbe Karte nur PCie 3.


Korrekt :) Läuft hier prima mit Xen.

Ph03n!X
2018-06-14, 08:05:05
Hat jemand diesen Buffallo Switch und kann etwas dazu sagen?

https://geizhals.de/buffalo-bs-mp-desktop-10g-smart-switch-bs-mp2008-a1627847.html?hloc=at&hloc=de

Die Fans würde ich gegen 2x Noctua 3 Pin Lüfter ersetzen falls Sie laut sein sollten.

Review zum Switch:

https://www.eteknix.com/buffalo-bs-mp2008-8-port-multi-gbe-switch-review/


Oder alternativ folgender?

http://www.trendnet.com/langge/support/supportdetail.asp?prod=200_TEG-40080ES


10 GBE bei Laptop/Notebooks ist noch nicht angekommen oder?

Sehe größtenteils TB3 Adapter auf 10 GBE

Loeschzwerg
2018-06-14, 08:24:14
Ich denke da kannst du nicht viel falsch machen, wenn dir die Features des Switches ausreichen. P/L scheint sehr gut zu sein und der Switch hält auch den Durchsatz.

Persönlich habe ich mit Buffalo noch keine Erfahrungen gemacht.

Im 24/4 Betrieb dürfte der größte Schwachpunkt das verbaute Netzteil sein.

Ph03n!X
2018-06-14, 17:14:23
Buffalo kenne ich nur die NAS Systeme. Haben eines in der Firma.
Ich nutze privat QNAP NAS.

Loeschzwerg
2018-06-16, 16:35:42
Also wenn es dir primär um den möglichen Datendurchsatz geht und du nicht ein riesiges Managed-Network aufbauen willst, ich würde es riskieren :)

Ph03n!X
2018-06-17, 13:36:41
Nein, geht um max 3-4 Geräte für 10 GB.

PHuV
2018-06-18, 16:57:13
Ich habe mir das Netgear XS708E-200NES (v2) bestellt, und ich muß sagen, größte Enttäuschung seit langem. :mad:

Keine stabile Übertragungsrate, sie bricht permanent ab.

SpielePC pull Server, dauert ewig mit vielen Abbrüchen oder er bleibt einfach bei 0 Mbit/s eine Weile stehen.
SpielePC push Server, geht, fängt mit 112 Mbit/s an, und eiert zwischen 600-800 Mbit/s

Lasse ich den Switch weg und verbinde direkt beide PCs, liegt die Performance nahezu bei 1 GBit/s, daher schließe ich mal eine Fehlkonfiguration aus. Kabeltausch brauchte keine Verbesserung, ebenso Einstellungen im Switch ändern (Loop-Erkennung usw.)

Unabhängig davon ist das Teil für ein normales Arbeitszimmer etc. definitiv zu laut. Ich habe mir zwar 2x NOCTUA nf-a4 x 20 PWM Lüfter PC gekauft, um sie ggf. auszutauschen. Aber so geht das Ding erstmal sofort wieder als untauglich für mich zurück.

PHuV
2018-06-20, 18:48:30
Nun habe ich das Buffalo BS-XP2008-EU auch da. Es ist nicht ganz so laut wie das Netgear, und es sieht so aus, als ob man hier mehr einstellen kann. Trotzdem zicken hier die Netzwerkverbindungen auch so rum, und ich verstehe es nicht.

Ich habe die Karten direkt an den 10Gbit-Switch angeschlossen, nur mit IP und Netzwerkmaske, damit die bisheren Adapter auch funktionieren. Mal gehts, mal gehts nicht. Danach habe ich mal alle Adapter bis auf die 10Gbit-Karten entfernt, und die volle IP-Konfiguration vorgenommen (Gateway + DNS). Zwischen Server und Anwendung gehts, nur der SpielePC mit der internen Asus-Karte auf dem Mainboard geht irgendwie gar nicht. Seltsamerweise funktioniert aber alles direkt per Kabel ohne Switch dazwischen reibungslos. :confused: Ich bin erstmal ratlos.

Update: Dank einem Tipp aus CB konnte ich die Ursache finden, JumboFrame muß bei beiden Switchen auf 9k reduziert werden, da beide nur diese maximale Jumbo-Größe unterstützen.

Zumindest beim Buffalo bekomme ich kopieren von Server->SpielePC 1Gbit/s hin. Kopieren von SpielePC->Server seltsamerweise geht nicht mehr wie 500-700 Mbit/s, warum auch immer. Push/put (kopieren von eigener RAM-Disk in die Freigabe-RAM-Disk) geht seltsamerweise immer schneller als Pull/get (kopieren von Freigabe-RAM-Disk in die eigener RAM-Disk). Ich werde das morgen mal mit dem Netgear nachstellen.

Jasch
2018-06-26, 14:35:54
Mh, ihr macht mir Sorgen.
Ich wollte meinen Heimswitch auch austauschen, aber wenn ich das lese, bleibe ich wohl lieber bei meiner Doppelverkablung, normales Netzwerk Gbit, und 10Gbe nur direkt.
@Work geht das alles ohne Probleme, aber da kosten die Switche auch entsprecend mehr

PHuV
2018-06-26, 16:43:04
Mein Fazit ist sehr ernüchternd, und ich gebe die beiden Switche zurück. Für die Leistung ist es mir schlichtweg nicht wert. Es wird nur 1/3 der mögliche Performance über die Switche geschafft. Sie sind groß und teilweise laut, und für 580 € Netgear bzw. 400 € Buffalo ist für die gebotene Leistung zu teuer, und lohnt sich IMHO nur in Ausnahmefällen.

Ich habe es dann nochmal mit iperf3 überprüft, hier schafften die Switche bei mir mit allen 3 Maschinen nicht mehr als 385 Mbit/s. Teilweise wurden die Kopiervorgänge mit einer 11 GB großen Datei ausgesetzt, verzögert, und die Performance stiegt erst im Laufe der Übertragung an, wobei man dem Explorer mit seiner Anzeige nicht so ganz vertrauen sollte.

Für mich ist das Thema 10Gbit-Migration erst mal durch und mache das nur auf Bedarf mit Direktverbindungen ohne Switch. Mein Plan war eigentlich mir ein QNAP TS-832X mit eine 10Gbit Anbindung zu kaufen, das Netgear mit einem SFP+Port zu verwenden, und alle Rechner direkt im Netz von den primären OS-SSDs eine Sicherung auf das NAS zu machen, so daß ich mir die interne Backupplatte pro Rechner sparen kann. Tja, so wirds erst mal nix damit, ausgeträumt. Oder ich mach irgendwann nochmal ein Versuch mit teuren Intel oder SFP+ Karten, wobei hier die Switche ja noch teuerer sind.

Jasch
2018-06-27, 12:47:03
Ich wer am we mal zum testen einen Switch von der Arbeit mitnehmen(Reservegeräte).
Aruba (HP) 2920-48g-POE+ (sind halt laut) und nen 10Gbe Modul RJ45, mal schauen wie es da aussieht.

Jasch
2018-07-05, 11:08:52
So, wie erwartet funkt es mit der "Profi" Hardware einwandfrei, voller Durchsatz, identisch mit direktverkabelung.
Allerdings sind das auch ca. 2000€ für Switch + 350€ für 10Gbe Modul Kupfer.

BiG OnE
2018-07-06, 11:13:54
Ich habe es dann nochmal mit iperf3 überprüft, hier schafften die Switche bei mir mit allen 3 Maschinen nicht mehr als 385 Mbit/s.
Also ich schaff dabei über den BS-XP2008 über 6000 Mbits. Ist zwar nicht full speed, aber mir reicht es.

PHuV
2018-09-08, 03:46:42
Ich habs damals falsch aufgeschrieben, es sollten 385 MB(byte)/s sein. Das ist nur ein Drittel der maximalen Geschwindigkeit. Direkt verbunden komme ich auf 1,1 GByte/s, und das ist schon ein drastischer Unterschied. Wenn Du von NVMe auf NVMe kopierst, merkst Du das. Gut, bei einer SSD gehts maximal bis 520 MByte/s, aber bei mir blieb das mit den Werten drunter. Und das sind mir die hunderte von € + Lautstärke nicht wert.
So, wie erwartet funkt es mit der "Profi" Hardware einwandfrei, voller Durchsatz, identisch mit direktverkabelung.
Allerdings sind das auch ca. 2000€ für Switch + 350€ für 10Gbe Modul Kupfer.
Da heißts bei mir sparen oder warten, bis es günstiger wird. :freak:

Screemer
2019-01-11, 16:32:34
Ja, dass die alleine mehr kosten als eine 10GbE/RJ45 Netzwerkkarte :)

Btw. Mikrotik bringt neu einen komplett passiven 4Port SFP+ Switch raus mikrotik.com - news may 2018 (https://download2.mikrotik.com/news/news_82.pdf) der ziemlich günstig aussieht.
Ebenfalls einen interessanten 12-Port 10/5/2.5G Copper Switch (mit noch ein paar SFP+ Ports drauf) wo der Preis wohl ebenfalls zahlbar sein wird.
er ist mittlerweile übrigens kaufbar!

https://www.youtube.com/watch?v=MDiiHN0MPdA

Haarmann
2019-01-13, 07:29:37
Birdman

MikroTik 16 Port Switch CRS317-1G-16S+RM

Der lächelte mich so an und schrie "Kauf Mich!"

Meintest sicher den - der is aber keine CHF 400 und für kleinere Einrichtungen würde ich die günstigere 4 Port Version empfehlen.

Mellanox X3 gibts ja auch für saubere CHF 40 in Gebraucht.

Wenns billig sein muss dann halt ne Chelsio T3 für nen Appel und nen Ei - dafür Dual SFP+.

MikroTik 5 Port, Redundant SFP Switch CRS305-1G-4S+IN

Ich denke Du meinst dies Teil für ca CHF 150.

Endlich machen meine eingezogenen Glasfasern eben auch Sinn.

Semmel
2019-08-02, 11:38:30
Falls jemand ein 10 GBit LAN aufbauen will, die hier getesteten Netzwerkkarten + dazugehöriger ASUS Switch gibts gerade bei NBB im "Black Weekend" stark vergünstigt.

ASUS XG-U2008 für effektiv 141,75€:
https://www.notebooksbilliger.de/blackweekend/asus+netzwerk+blackweekend/asus+xg+u2008+10+gbits+switch

ASUS XG-C100C für effektiv 71,93€
https://www.notebooksbilliger.de/blackweekend/asus+netzwerk+blackweekend/asus+xg+c100c+pcie+10+gbits+netzwerkkarte


Edit:
Den Netgear GS110EMX gibts auch, für nicht ganz so tolle 178,40€:
https://www.notebooksbilliger.de/blackweekend/netgear+netzwerk+blackweekend/netgear+gs110emx+411445

Badesalz
2019-08-11, 10:57:37
Edit:
Den Netgear GS110EMX gibts auch, für nicht ganz so tolle 178,40€:
https://www.notebooksbilliger.de/blackweekend/netgear+netzwerk+blackweekend/netgear+gs110emx+411445
War wohl doch recht toll. Schnellstens ausverkauft :freak:

p.s.:
Es ist aber echt schon Wahnsinn wie unglaublich langsam sich das von 1Gb nach 10Gb entwickelt. Hätte nie gedacht, daß es noch weit zäher wird als mit PCIe 4.0.

=Floi=
2019-08-15, 17:25:48
hier schlagen wieder mal die physikalischen grenzen zu. alles braucht auch mehr energie und die infrastruktur an sich ist auch teurer.

Semmel
2019-08-19, 06:39:42
Von 1 auf 10 GBit/s war auch ein zu großer Schritt.
Netzwerkkarten mit 10 GBit/s haben alle einen fetten Kühlkörper drauf, sind teuer und bleiben es wohl auch.

Zum Glück kamen irgendwann die Zwischenschritte mit 2,5 und 5 GBit/s.
Zur Auslastung einer HDD (die üblicherweise in einem NAS werkelt) reichen die 2,5 GBit/s, von daher sehe ich das als einen sinnvollen Zwischenschritt.

Seit kurzem gibt es auch eine Netzwerkkarte dafür:
DeLOCK 89531, RJ-45, PCIe 2.0 x1 (https://geizhals.de/delock-89531-a2106926.html)
Mit 38,90€ ist sie wesentlich billiger als jede 10 GBit-Karte und sie benötigt nur einen x1-Slot, welcher häufiger vorhanden ist als ein x4-Slot.

Den verbauten Realtek RTL8125-Chipsatz sieht man auch immer öfter auf manchen Mainboards verlötet. Das Teil scheint billig zu sein und hat die Chance, den uralten 1 GBit-Standard endlich abzulösen.

Was allerdings noch fehlt is ein billiger Switch mit 2,5 Gbit/s.

Zafi
2019-08-19, 11:26:34
Pull ergibt 850 Mbit-1,05 GBit/s, push dagegen liefert fast immer konstant 1,05-1,14 GBit/s, egal welcher Rechner und welches Medium (NVMe-SSD und RamDisk).

Ich glaube da sind ein paar Bit/Byte Angaben vertauscht, könntest du die bitte prüfen.

Danke für den Thread. Was mich noch interessiert hätte, wäre die Prozessorlast bei diesen Datenraten. Denn bei 10Gbit/s wird die wieder relevant, wenn nicht gar ein limitierender Faktor. Falls du wieder bencht, könntest du dann die Prozesorlast mitbenchen? Danke!

Screemer
2019-08-19, 14:02:00
von PHuV wirst du keine Antwort mehr bekommen. Der hat sich vor ein paar Monaten verabschiedet. Nach dem "Turing-Preise-Heul-Thread".

Zafi
2019-08-19, 18:55:02
von PHuV wirst du keine Antwort mer bekommen. Der hat sich vor ein paar Monaten verabschiedet. Nach dem "Turing-Preise-Heul-Thread".

Schade.

Falls jemand anderes zwei 10GBit Karten im Einsatz hat und schnell mal einen Benchmark laufen lassen könnte, wäre es toll, wenn auch die CPU-Last während der Übertragung dargestellt wird (muss nur ungefähr sein). Interessant wäre es hier auch zu sehen, ob es auf mehrere Threads geht oder nur ein Kern belastet wird.

Annator
2019-08-20, 11:19:53
Bei Unifi kann man mehrere Switch Ports zusammen betreiben (Link Aggregation). Also den Durchsatz mit mehreren Kabeln bündeln. Wäre sonst eine kostengünstige Möglichkeit mehr Geschwindigkeit rauszuholen. Funktioniert bei mir mit einem Synology NAS wunderbar.

Jasch
2019-08-21, 18:27:57
Das kann jeder halbwegs aktuelle (8 Jahre) managbare Switch, nennt sich LACP.

Jasch
2019-08-21, 18:30:30
hab gerade keinen aktuellen Bench, da ich gerade umbaue.
Aber bei 10G mit Vollast (1000MB/s) geht ohne RDMA auch eine Aktuelle CPI gut in die Knie.
Eventl. hab ich am WE zeit und teste mal aktuell.(muss ich fix auf beiden Seiten nen SSD raid machen damit ich auch die 1000 packe)

Jasch
2019-08-23, 15:37:01
Schneller Test zeigt, ist gar nicht so schlimm.
CPU 3770k@4,5 fest für Test.

Windows 10 IntelX540 -> ISCSI -> ZFS Pool (Stripe 2x500GB Samsung)@Xigmanas@Proxmox via Intel X540 @OpenSwitch

67564

Zafi
2019-08-23, 16:49:56
Könntest du bitte den Benchmark nochmal durchführen und die einzelnen Threads über den Task-Manager -> Leistung darstellen?

Die 50.0% machen mich nämlich stuzig. Die sehen irgendwie zu sauber aus. Dein Prozessor unterstützt HT, aber dort sind nur die Last-Werte der einzelnen Kerne aufgeführt. Wenn er jetzt 100% Last auf dem einen Core 3 Thread hat und (weil er HT nicht nutzt) 0% Last auf dem anderen Core 3 Thread (HT) hat, dann verrechnet das Programm es womöglich zu 50% Last auf Core 3. Obwohl tatsächlich 100% Last aufliegt.

Beim Task-Manager könnte man die einzelnen Threads sehen und da würde sich dann auch eine 100% Spitze zeigen.

Jasch
2019-08-23, 19:44:39
Hi, ja da ist beim Read ein Kern auf 100%.
Write ist deutlich weniger.

67566

Zafi
2019-08-24, 00:31:33
Super danke. Da zeigt sich, dass ein Kern allein, die Last garnicht packt und ein zweiter Kern mithelfen muss. Insgesamt ist es also ca. 140% Last für einen echten Kern (@4,5GHz). Und das erst bei großen Dateien, wo er sich eigentlich leichter tut. Wie mag es dann erst bei vielen-kleinen Dateien sein? :naughty:

Ich weiß, ich bin penetrant. Es tut mir leid. Könntest du das Ganze bitte noch mit vielen-kleinen Dateien testen? Gut möglich, dass deine CPU dann voll ausgelastet wird (mal abgesehen vom HT, dass hier wohl garnicht zum Zuge kommt). Für einenen Benchmark mit vielen-kleinen Dateien bietet sich der FC-Test von xbit-labs an. Da es xbit-labs nicht mehr gibt, müsstest du dir diesen Benchmark woanders runterladen (https://www.cdrinfo.pl/download/9150120127). Mit dem FC-Test kannst du Anzahl und Größe der Dateien selbst definieren. Zum Beispiel 40.000x 100.000 Byte Dateien. Das sind dann 4 GByte an Daten und er gibt dir in Sekunden aus, wie lange er für den Kopiervorgang gebraucht hat.

Sehr wahrscheinlich werden hier aber die SSDs limitieren. Denn für die sind kleine Dateien auch eine große Belastung. Um das zu verhindern brauchst du die Samsung Magician Software (https://www.samsung.com/semiconductor/minisite/ssd/product/consumer/magician/) bzw. deren Rapid-Cache. Damit kannst du den SSDs etwas Hauptspeicher zuweisen, die diesen als Zwischenspeicher verwenden. Um 4 GByte zu benchen, solltest du auch sicherheitshalber 4GB Cache einstellen.

Ich verlange echt zuviel. Wenn du nicht magst, ist das vollkommen ok. Danke für den bisherigen Benchmark. Der hilft mir sehr weiter. Er bestätigt mir, dass sich die CPU-Belastung seit Ethernet und GigabitLAN linear weiterentwickelt hat. Sollten wir also irgendwann 25GbLAN benchmarken, dann wird er sehr wahrscheinlich 2,5x soviel Leistung fressen, wie das 10GbLAN.

Badesalz
2019-08-24, 10:06:39
Von 1 auf 10 GBit/s war auch ein zu großer Schritt.
Netzwerkkarten mit 10 GBit/s haben alle einen fetten Kühlkörper drauf, sind teuer und bleiben es wohl auch.

Zum Glück kamen irgendwann die Zwischenschritte mit 2,5 und 5 GBit/s.Bei der Spec und der Vermarktung hat man alles falsch gemacht was so allgemein ging. Bist auf das Gestrippe. Das mit den Cat6 Kabel hat gut funktioniert :ulol:

2.5Gb und 5Gb? Wozu? Und wo sind die denn? Das ist weiterhin spezialisierte Hardware. Man hätte das TurboEthernet :tongue: nennen sollen und das in "Level 1" und "Level 2" aufteilen. Level 2 wären die aktuellen 10Gb, Level 1 wären 4Gb.
Mit ~420 MB/s auf der Netzwerkstrippe braucht daheim keiner rumheulen. Und wenn, dann könnte er immernoch gerne seine Unsummen in Level 1 investieren.

Damit hätten wir Level2 heute überall auch auf der Consumerhardware. Auf den Mainboards auch schon in Chipsätzen, dem FertigNAS und dem Switch der nicht anders aufgebaut werden müsste als ein Netgear 105 oder 108.
Und Nachrüstkarten mit Chips die weder Kühlkörper brauchen noch ein Vermögen kosten. Und das hätte ja auch mit 2.0 x1 auf dem Hostboard funktionieren können (wegen der Umkodiererei vielleicht mit ~25MB/s weniger als auf 3.0 x1, geschenkt -> wäre später auch für Plasterouter bestens. Oder der Glotze selbst und dem Receiver.

So ist das Zeug ausserhalb der Wirtschaft immernoch quasi tot. Das haben sie halt einfach verkackt. Und zwar sowas von :frown: daß ich mich nicht erinnern kann wo in der Geschcihte der EDV eine allgemein standardisierte Schnittstelle so verkackt wurde.

Jasch
2019-08-24, 12:04:51
@Zafi mach ich bei Gelegenheit mit.

Plage
2021-01-04, 20:53:29
Bei Unifi kann man mehrere Switch Ports zusammen betreiben (Link Aggregation). Also den Durchsatz mit mehreren Kabeln bündeln. Wäre sonst eine kostengünstige Möglichkeit mehr Geschwindigkeit rauszuholen. Funktioniert bei mir mit einem Synology NAS wunderbar.
Das hilft dir aber nur zu mehr Durchsatz wenn du mit mehr als einem Client gleichzeitig darauf zugreifst. Für eine einzelne Verbindung hilft Link Aggregation überhaupt nicht, daher habe ich mein Synology NAS und den Haupt-PC mit einer Intel X710-DA2 ausgerüstet.
Der Laptop kommuniziert am Schreibtisch mit dem integrierten 2,5 Gbe LAN und als Switch verwende ich einen QNAP QSW-308-1C, der verbraucht nur 3 W im Idle und 4,5 W mit einer aktiven 10 Gbe-Verbindung über Glasfaser und hat keinen nervigen Lüfter.


Für Geräte, die dauerhaft eingeschaltet sind (z.B. ein NAS) empfehle ich dringend auf Grund des Stromverbrauchs auf DAC-Kabel oder Glasfaser zu gehen. Die Netzwerkchips werden dann auch nicht so warm und können passiv gekühlt werden.

Jasch
2021-01-11, 09:50:45
@Plage

das kommt drauf an mit SMB3+ funktioniert SMB Multichanel sehr gut.(da werden aber auch keine Teams gebildet, macht man heute eh nicht mehr)
Die Frage ist nur wenn man sich 2x 4er Gbit Lan Karten + Kabel einbaut (am Switch dann 8 Ports belegt) und diese Bandbreite "wirklich" braucht, ist man in de Regel immer besser dran gleich auf 10GBit zu gehen.

LLG