SFP+ Twinax vs Cat6 Netzwerkkarte
Guten Tag Community,
ich habe hier auf zwei Server ein DRBD laufen mit 1Gbit. Was sich erstmal nicht schlecht anhört, zumal die Synchronisation relativ gut läuft, ist in bestimmten Situationen leider nicht so wirklich das gelbe vom Ei. Vor allem wenn man große Dateien kopieren will, sind die 1Gbit schnell zu wenig und gefühlt braucht man ewig. Gerade ins solchen Situationen wo es auf jede Minute ankommt. Deshalb wäre 10Gbit schon von Vorteil, denn mit 1Gbit lassen sich zumindest die SSDs noch nicht ausreizen.
Ich hatte vor etwas längerer Zeit schonmal ein System mit Twinax-Kabeln im Einsatz, da wurde auch ein Switch verwendet. Dies möchte ich aber eher nicht, lieber wäre mir eine direkte Verbindung zwischen beiden Servern. Ist dies mit Twinax-Kabeln überhaupt möglich? Welche Netzwerkkarte wäre zu empfehlen?
Ich wollte schon zu einer Cat6-Lösung greifen und dann dachte ich mir: "Twinax hat ja irgendwo seinen Kaufgrund."
Welche expliziten Vorteile hat den Twinax gegenüber Cat6? Eine richtig zufriedenstellende Antwort konnte ich leider nicht finden.
In beiden Servern ist folgendes Motherboard verbaut: http://www.supermicro.com/products/motherboard/Xeon/C600/X10SRH-CLN4F.c ...
Die Best-Practice-Methode würde mich in diesem Fall brennend interessieren. Ich würde mich sehr über eine Empfehlung und Hilfe freuen.
Gruß
ich habe hier auf zwei Server ein DRBD laufen mit 1Gbit. Was sich erstmal nicht schlecht anhört, zumal die Synchronisation relativ gut läuft, ist in bestimmten Situationen leider nicht so wirklich das gelbe vom Ei. Vor allem wenn man große Dateien kopieren will, sind die 1Gbit schnell zu wenig und gefühlt braucht man ewig. Gerade ins solchen Situationen wo es auf jede Minute ankommt. Deshalb wäre 10Gbit schon von Vorteil, denn mit 1Gbit lassen sich zumindest die SSDs noch nicht ausreizen.
Ich hatte vor etwas längerer Zeit schonmal ein System mit Twinax-Kabeln im Einsatz, da wurde auch ein Switch verwendet. Dies möchte ich aber eher nicht, lieber wäre mir eine direkte Verbindung zwischen beiden Servern. Ist dies mit Twinax-Kabeln überhaupt möglich? Welche Netzwerkkarte wäre zu empfehlen?
Ich wollte schon zu einer Cat6-Lösung greifen und dann dachte ich mir: "Twinax hat ja irgendwo seinen Kaufgrund."
Welche expliziten Vorteile hat den Twinax gegenüber Cat6? Eine richtig zufriedenstellende Antwort konnte ich leider nicht finden.
In beiden Servern ist folgendes Motherboard verbaut: http://www.supermicro.com/products/motherboard/Xeon/C600/X10SRH-CLN4F.c ...
Die Best-Practice-Methode würde mich in diesem Fall brennend interessieren. Ich würde mich sehr über eine Empfehlung und Hilfe freuen.
Gruß
Please also mark the comments that contributed to the solution of the article
Content-Key: 317572
Url: https://administrator.de/contentid/317572
Printed on: April 20, 2024 at 03:04 o'clock
18 Comments
Latest comment
Hi
und hä? Was soll das von dir angestrebte Projekt bringen? Twinax ist lediglich eine Variante der SFP/SFP+ Verkabelung...
Twinax Verkabelung setzt passende Netzwerkadapter / HBAs und / oder Switche voraus. Die Technik wird vor allem in Kurzstrecken Verbindungen verwendet wo 10Gb (SFP+) oder 40 Gb (QSFP) zum Einsatz kommen - dafür benötigst du aber auch Switche die 10 oder 40Gb können bzw. die passende Gegenstelle. Zudem gibt es aktive und passive Twinax Leitungen (siehe auch http://www.scientificcomputing.com/article/2008/11/high-speed-copper-in ..). Bei einer 1Gb Verkabelung bringt das rein gar nichts da ist es auch egal ob du Cat5e oder besseres Kabel einsetzt - 1Gb bleibt 1Gb .
Ich denke eher das du Switche benötigst die 10Gb können alternativ eine 1zu1 Verbindung über 10Gb zwischen den beiden Knoten.
Gruß
@clSchak
und hä? Was soll das von dir angestrebte Projekt bringen? Twinax ist lediglich eine Variante der SFP/SFP+ Verkabelung...
Twinax Verkabelung setzt passende Netzwerkadapter / HBAs und / oder Switche voraus. Die Technik wird vor allem in Kurzstrecken Verbindungen verwendet wo 10Gb (SFP+) oder 40 Gb (QSFP) zum Einsatz kommen - dafür benötigst du aber auch Switche die 10 oder 40Gb können bzw. die passende Gegenstelle. Zudem gibt es aktive und passive Twinax Leitungen (siehe auch http://www.scientificcomputing.com/article/2008/11/high-speed-copper-in ..). Bei einer 1Gb Verkabelung bringt das rein gar nichts da ist es auch egal ob du Cat5e oder besseres Kabel einsetzt - 1Gb bleibt 1Gb .
Ich denke eher das du Switche benötigst die 10Gb können alternativ eine 1zu1 Verbindung über 10Gb zwischen den beiden Knoten.
Gruß
@clSchak
Ich geh mal davon aus, dass man ein sogenanntes "Direct Attach"-Kabel benötigt wenn man zwei Server direkt miteinander verbinden möchte.
Nö das funktioniert auch zu einem Switch "Direct Attach" weil ohne extra Transceiver Module.Ich würde 2x die X710 Karten und dazu 2x die DAC Kabel direkt für Intel Karten:
http://shop.fiber24.net/index.php/de/SFP-DAC-Direct-Attach-Copper-Cable ...
Die RJ45 Karten haben einen extrem hohen Stromverbrauch, Wärmeentwicklung und sind offenbar auch noch teurer.
VG
Val
Twinax ist das gleiche wie DAC - sind beides Direct Attached Kabel für entsprechendes Protokoll (Ethernet, FC, SAS oder was auch immer).
Und seit dem es >1Gb gibt sind Crossoverkabel nicht mehr notwendig. @119944 hat da bereits die passenden Endgeräte für dich rausgesucht die dein Problem beheben werden, wobei das Dateisystem/Copy Protokoll eher dürftig ist was Windows abliefert (ich komme von MS <-> MS Server nicht über 5Gbit - mit Linux Systemen auf 8-9Gbit bei beiden via FTP getestet) - erwarte also keine Wunder .
10Gb Karten und Anschlüsse sind alle SFP+ bei uns, Verbindungen zu den Switchen "Top of the Rack" zu 75% via Twinax Kabel und z.T. mit SFP+ Modulen und normalen Patchkabel (Dell EQL mögen Brocade Twinax nicht :| ).
Gruß
@clSchak
Edit / Add: Wenn du die direkt Verbindung machst, achte darauf Jumbo Frames, FlowControll usw einzuschalten und den ganzen Overhead an MS Protokollen auszuschalten - braucht man in dem Fall nicht
Und seit dem es >1Gb gibt sind Crossoverkabel nicht mehr notwendig. @119944 hat da bereits die passenden Endgeräte für dich rausgesucht die dein Problem beheben werden, wobei das Dateisystem/Copy Protokoll eher dürftig ist was Windows abliefert (ich komme von MS <-> MS Server nicht über 5Gbit - mit Linux Systemen auf 8-9Gbit bei beiden via FTP getestet) - erwarte also keine Wunder .
10Gb Karten und Anschlüsse sind alle SFP+ bei uns, Verbindungen zu den Switchen "Top of the Rack" zu 75% via Twinax Kabel und z.T. mit SFP+ Modulen und normalen Patchkabel (Dell EQL mögen Brocade Twinax nicht :| ).
Gruß
@clSchak
Edit / Add: Wenn du die direkt Verbindung machst, achte darauf Jumbo Frames, FlowControll usw einzuschalten und den ganzen Overhead an MS Protokollen auszuschalten - braucht man in dem Fall nicht
Wieso zweimal die DAC-Kabel?
Lastverteilung, Redundanz etc.Wenn nicht gewünscht reicht natürlich auch ein Kabel.
VG
Val
Zitat von @Fenris14:
Kenn ich mich nicht wirklich aus damit. Ist es günstiger? Vergleichbar mit was? Vorteil?
Kenn ich mich nicht wirklich aus damit. Ist es günstiger? Vergleichbar mit was? Vorteil?
Moin,
gebrauchte Infiniband 40GBit Adapter gibts ab 100EUR, ist damit deutlich schneller und guenstiger als 10G Ethernet.
VG,
Thomas