fenris14
Goto Top

SFP+ Twinax vs Cat6 Netzwerkkarte

Guten Tag Community,

ich habe hier auf zwei Server ein DRBD laufen mit 1Gbit. Was sich erstmal nicht schlecht anhört, zumal die Synchronisation relativ gut läuft, ist in bestimmten Situationen leider nicht so wirklich das gelbe vom Ei. Vor allem wenn man große Dateien kopieren will, sind die 1Gbit schnell zu wenig und gefühlt braucht man ewig. Gerade ins solchen Situationen wo es auf jede Minute ankommt. Deshalb wäre 10Gbit schon von Vorteil, denn mit 1Gbit lassen sich zumindest die SSDs noch nicht ausreizen.

Ich hatte vor etwas längerer Zeit schonmal ein System mit Twinax-Kabeln im Einsatz, da wurde auch ein Switch verwendet. Dies möchte ich aber eher nicht, lieber wäre mir eine direkte Verbindung zwischen beiden Servern. Ist dies mit Twinax-Kabeln überhaupt möglich? Welche Netzwerkkarte wäre zu empfehlen?

Ich wollte schon zu einer Cat6-Lösung greifen und dann dachte ich mir: "Twinax hat ja irgendwo seinen Kaufgrund."
Welche expliziten Vorteile hat den Twinax gegenüber Cat6? Eine richtig zufriedenstellende Antwort konnte ich leider nicht finden.

In beiden Servern ist folgendes Motherboard verbaut: http://www.supermicro.com/products/motherboard/Xeon/C600/X10SRH-CLN4F.c ...

Die Best-Practice-Methode würde mich in diesem Fall brennend interessieren. Ich würde mich sehr über eine Empfehlung und Hilfe freuen.

Gruß

Content-Key: 317572

Url: https://administrator.de/contentid/317572

Printed on: April 19, 2024 at 19:04 o'clock

Member: clSchak
clSchak Oct 12, 2016 at 08:38:25 (UTC)
Goto Top
Hi

und hä? Was soll das von dir angestrebte Projekt bringen? Twinax ist lediglich eine Variante der SFP/SFP+ Verkabelung...

Twinax Verkabelung setzt passende Netzwerkadapter / HBAs und / oder Switche voraus. Die Technik wird vor allem in Kurzstrecken Verbindungen verwendet wo 10Gb (SFP+) oder 40 Gb (QSFP) zum Einsatz kommen - dafür benötigst du aber auch Switche die 10 oder 40Gb können bzw. die passende Gegenstelle. Zudem gibt es aktive und passive Twinax Leitungen (siehe auch http://www.scientificcomputing.com/article/2008/11/high-speed-copper-in ..). Bei einer 1Gb Verkabelung bringt das rein gar nichts da ist es auch egal ob du Cat5e oder besseres Kabel einsetzt - 1Gb bleibt 1Gb face-smile.

Ich denke eher das du Switche benötigst die 10Gb können alternativ eine 1zu1 Verbindung über 10Gb zwischen den beiden Knoten.

Gruß
@clSchak
Member: Fenris14
Fenris14 Oct 12, 2016 at 08:43:17 (UTC)
Goto Top
Sorry, habe vergessen zu schreiben das ich Möglichst eine Datenübertragung von 10Gbit erreichen möchte. Habe es ergänzt.

Bei Cat6 gibt es ja immerhin die Möglichkeit des Cross-Overs womit eine direkte Verbindung zwischen zwei Servern möglich wäre, ohne über zusätzliche Switche zu gehen. Ich sehe Switche in diesem Szenarion immer als zusätzliche Fehler-Quelle, weshalb ich dies ausschließen möchte.

Ist so eine Crossover-Funktion bei Twinax/SFP+ überhaupt möglich?
Member: Kraemer
Kraemer Oct 12, 2016 at 08:49:23 (UTC)
Goto Top
Member: Fenris14
Fenris14 Oct 12, 2016 at 08:56:00 (UTC)
Goto Top
Danke @Kraemer,

aber diese Seite habe ich mir bereits durchgelesen. Mir ist duchaus bekannt das es sich bei Twinax nur um eine von vielen Verbindungsarten von SFP+/QSFP handelt.

Dann die Frage mal anders gestellt: Was würdet ihr mir genrell empfehlen? (bevorzugt eine Direktverbindung also ohne Switch)
Member: SlainteMhath
SlainteMhath Oct 12, 2016 at 09:00:04 (UTC)
Goto Top
Moin,

welche Strecke gilt es denn zu Überbrücken? Wenn möglich würde ich das per Twinax SFP/Kabel per Direktverbindung lösen, das ist m.E. die günstigste Lösung.

lg,
Slainte
Member: Fenris14
Fenris14 Oct 12, 2016 at 09:01:33 (UTC)
Goto Top
Die beiden Server sind untereinander in einem Rack verbaut. Plus Reserve würde ich sagen maximal zwei Meter.
Member: SlainteMhath
SlainteMhath Oct 12, 2016 at 09:03:03 (UTC)
Goto Top
zwei Meter.
Twinax! face-smile
Member: wiesi200
wiesi200 Oct 12, 2016 at 09:05:12 (UTC)
Goto Top
Wie währ's mit InfiniBand?
Member: Fenris14
Fenris14 Oct 12, 2016 at 09:18:19 (UTC)
Goto Top
Ich geh mal von folgender Auswahl aus:

SFP+
2x http://geizhals.de/intel-x710-da2-bulk-x710da2blk-a1163659.html?hloc=at ...
1x http://geizhals.de/cisco-twinax-sfp-direct-attach-kabel-sfp-h10gb-cu2m- ...

Gesamt: ~740€

RJ45
2x http://geizhals.de/intel-x540-t2-x540t2-a929523.html?hloc=at&hloc=d ... (Preis pro Stück beim ersten seriösen Händler wäre ca. 515€)
1x Cat6-Kabel

Gesamt: ~1040€

Also wenn das die richtigen Komponenten sein sollten, dann ist aus meiner Sicht der Preisunterschied nicht zu vernachlässigen. Ich geh mal davon aus, dass man ein sogenanntes "Direct Attach"-Kabel benötigt wenn man zwei Server direkt miteinander verbinden möchte. Ich würde mich freuen wenn da noch jemand Licht ins Dunkel bringen könnte...
Member: Fenris14
Fenris14 Oct 12, 2016 at 09:22:53 (UTC)
Goto Top
Kenn ich mich nicht wirklich aus damit. Ist es günstiger? Vergleichbar mit was? Vorteil?
Mitglied: 119944
Solution 119944 Oct 12, 2016 updated at 09:37:40 (UTC)
Goto Top
Ich geh mal davon aus, dass man ein sogenanntes "Direct Attach"-Kabel benötigt wenn man zwei Server direkt miteinander verbinden möchte.
Nö das funktioniert auch zu einem Switch face-wink "Direct Attach" weil ohne extra Transceiver Module.

Ich würde 2x die X710 Karten und dazu 2x die DAC Kabel direkt für Intel Karten:
http://shop.fiber24.net/index.php/de/SFP-DAC-Direct-Attach-Copper-Cable ...

Die RJ45 Karten haben einen extrem hohen Stromverbrauch, Wärmeentwicklung und sind offenbar auch noch teurer.

VG
Val
Member: Fenris14
Fenris14 Oct 12, 2016 at 09:49:09 (UTC)
Goto Top
Wieso zweimal die DAC-Kabel?
Member: clSchak
clSchak Oct 12, 2016 updated at 10:17:56 (UTC)
Goto Top
Twinax ist das gleiche wie DAC - sind beides Direct Attached Kabel für entsprechendes Protokoll (Ethernet, FC, SAS oder was auch immer).

Und seit dem es >1Gb gibt sind Crossoverkabel nicht mehr notwendig. @119944 hat da bereits die passenden Endgeräte für dich rausgesucht die dein Problem beheben werden, wobei das Dateisystem/Copy Protokoll eher dürftig ist was Windows abliefert (ich komme von MS <-> MS Server nicht über 5Gbit - mit Linux Systemen auf 8-9Gbit bei beiden via FTP getestet) - erwarte also keine Wunder face-smile.

10Gb Karten und Anschlüsse sind alle SFP+ bei uns, Verbindungen zu den Switchen "Top of the Rack" zu 75% via Twinax Kabel und z.T. mit SFP+ Modulen und normalen Patchkabel (Dell EQL mögen Brocade Twinax nicht :| ).

Gruß
@clSchak

Edit / Add: Wenn du die direkt Verbindung machst, achte darauf Jumbo Frames, FlowControll usw einzuschalten und den ganzen Overhead an MS Protokollen auszuschalten - braucht man in dem Fall nicht
Mitglied: 119944
119944 Oct 12, 2016 at 10:25:50 (UTC)
Goto Top
Wieso zweimal die DAC-Kabel?
Lastverteilung, Redundanz etc.
Wenn nicht gewünscht reicht natürlich auch ein Kabel.

VG
Val
Member: Fenris14
Fenris14 Oct 12, 2016 at 10:28:15 (UTC)
Goto Top
@clSchak danke für die Ausführungen.

Was DAC-Kabel sind weiß ich. Mir war nur nicht bewusst warum es unbedingt zwei Stück sein müssen. Würde nicht eines reichen?

Auf den Servern wo ich es verbauen werde, ist ebenfalls Linux installiert. Deshalb habe ich mich auch für eine Intel-Karte entschieden, in der Hoffnung das dort zumindest keine Treiber-Probleme gibt.
Member: Fenris14
Fenris14 Oct 12, 2016 at 10:29:01 (UTC)
Goto Top
Achso danke. Ist natürlich auch ein gutes Argument.
Member: wiesi200
wiesi200 Oct 12, 2016 at 11:00:19 (UTC)
Goto Top
Preislich liegt's ähnlich. Bei dem was du vor hast.

Vorteil:
Höhere Geschwindigkeit
Latenzarmen

Nachteil:
blöd bei langen stecken
nicht so gängig

Hab's aber selber noch nie getestet.
Member: Th0mKa
Th0mKa Oct 12, 2016 at 15:20:00 (UTC)
Goto Top
Zitat von @Fenris14:

Kenn ich mich nicht wirklich aus damit. Ist es günstiger? Vergleichbar mit was? Vorteil?

Moin,

gebrauchte Infiniband 40GBit Adapter gibts ab 100EUR, ist damit deutlich schneller und guenstiger als 10G Ethernet.

VG,

Thomas