rudeboy
Goto Top

10 GBit-Backbone gegenüber 1 GBit für Server sinnvoll?

Hallo zusammen!
Wir wollen unsere Serveranbindung konsolidieren, speziell die Server an einen kleinen aber schnellen Switch zusammen führen.

Derzeit sind 2 Server 2003 R2 und ein 2008 R2 (LTO3-Tape) sowie der eine oder andere kleinere PC mit serverartigen Funktionen zusammen mit den Clients und Netzwerkdruckern auf einem Gigabit-Switch.

Hier nun die Frage, macht es Sinn wenn die Server untereinander mit 10GBit und die Clients mit 1GBit kommunizieren?

Welche Hardware könnt ihr empfehlen als Switch und und als Karte für nachträglichen EInbau in den Server. Welche Cat-Kabel werden optimalerweise verwendet?

Es wird keine kompromisslose Höchstleistung benötigt, gut und günstig lautet die Devise! ;)

Gruß, Thomas

Content-Key: 188314

Url: https://administrator.de/contentid/188314

Printed on: April 18, 2024 at 01:04 o'clock

Member: bioperiodik
bioperiodik Jul 19, 2012 updated at 13:35:56 (UTC)
Goto Top
Hallo,

gut und günstig? dann würd ich aber nicht direkt 10 GBit in betracht ziehen face-wink

Ich denke nicht das bei so einem kleinen Netzwerk 10 GBit von Nöten ist (außer ihr schiebt natürlich riesige Mengen an Daten zwischen euren 3 Server hin und her face-smile).

Wenn ich mal davon ausgeh das auf euren Server denke ich mal die üblichen Anwendungen wie Dateiserver (Hauptsächlich Office Dateien, ein paar Images etc.), vllt ein Mail-Server und vllt noch ein WWS läuft, behaupte ich (ohne eure Anwendungen und Anforderungen zu kennen), dass ein guter 1 GBit Switch ausreichen sein sollte.

Wenn sich allerdings herausstellt das ihr riesigen Traffic habt und kurze Latenzzeiten benötigt (was ich aber dank deinem letzen Satz nicht denke), dann wären evtl. über 10 GBit nachzudenken.

Also erstmal noch ein paar Fragen um deine Anforderungen zu konkretisieren:

- Wieviele Clients arbeiten in dem Netzwerk?
- Was für Anwendungen laufen auf den Servern?
- An was für einem Switch (Modell) hängen die Server/Drucker momentan?
- Gibt es momentan Engpässe?
Member: aqui
aqui Jul 19, 2012 updated at 14:00:57 (UTC)
Goto Top
10 GiG über CAT Kabel geht gar nicht oder nur sehr bedingt. Zeigt eher das du dich mit dem Thema 10 GiG nicht wirklich beschäftigt hast.
Den Standard 10G-BaseT (10 GiG über Cat Kabel) gibt es zwar aber nur sehr wenige Hersteller die ihn supporten. NIC Karten gibt es so gut wie gar nicht dazu.
Am weitesten sind NICs mit SFP+ GBIC Slots verbreitet, die du auch verwenden solltest. Intel, Broadcom, Marvell sind hier wie immer die Klassiker.
Verkabelung machst du dann mit preiswerten Twinax Kupfer Kabeln an die die SFP+ GBICs gleich angecrimpt sind:
http://www.youtube.com/watch?v=P2A_hzo_Pl4
http://www.cisco.com/en/US/prod/collateral/modules/ps5455/data_sheet_c7 ...
Die preiswerteste Verkabelungs Variante wenn du nicht mehr als 10 Meter zw. Server und Switch überbrücken musst !!
Hast du mehr als 10 Meter kommst du um eine Glasfaserverbindung bei 10 GiG nicht drumrum. Die Technik bei NIC und Switch ist dann die gleiche statt der fertigen Direct Attach Twinax Kabel nimmst du dann ganz einfach Glasfaser SFP+ GBICs und Glasfaser Patchkabel...fertig.
10GiG Switches haben dann entsprechend auch diese SFP+ GBIC slots für Twinax oder Glas.
Alle renomierten Hersteller (HP, Cisco, Brocade, Extreme, Enterasys usw.) Haben Switches im Portfolio die auf 1 HE 2 oder 4 10 GiG Ports haben und 24 oder 48 GiG Ports. Damit fährst du am besten.

Den Rest der Fragen nach der Sinnhaftigkeit kann man dir sinnvollerweise nicht beantworten, denn es ist essentiell wichtig WIE die Trafficströme in deinem Netzwerk sind um beurteilen zu können ob es aus Perfromance Sicht Sinn macht oder nicht.
Dazu sagst du leider kein einziges Wort und deshalb ist eine zielführende Antwort unmöglich wie du dir logischerweise auch selber denken kannst ?!
Wenn du also sehr viel Traffic zw. Server A und B hast macht es ggf. Sinn.
Wenn einen Menge an Clients verteilt auf den Servern arbeiten macht es natürlich weniger Sinn. Traffic Flow und ggf. Engpässe in der Bandbreite sind hier der Schlüssel zur Antwort.
Zudem muss die Server Hardware (Platten, Controller, Bussystem usw.) auch dafür ausgelegt sein eine 10 GiG NIC möglichst gut ausnutzen zu können. Hast du einen schwachbrüstigen Server bzw. Hardware nützt die 10 GiG herzlich wenig, dann kann man besser mit Link Aggregation (Teaming) auf den Servern und Switches arbeiten also der Zusammenfassung mehrere GiG Links zu einem aggregierten Link höherer Bandbreite.
Leider auch dazu von dir keinerlei Aussage face-sad
Was für eine Art Antwort erwartest du also nun von uns ??
Member: fisi-pjm
fisi-pjm Jul 19, 2012 updated at 14:34:28 (UTC)
Goto Top
Hi,

Zunächst eine kleinigkeit zu deiner Frage, generell wird das Vorhaben natürlich die Geschwindigkeit zwischen deinen Servern verbessern, die Anbindung deiner Client wir sich allerdings im schlimmsten Fall um das dreifache (Vorher Pro Server ein Gigabit Port, jetzt nur noch 1 für alle 3) verschlechtern. Du könntest irgendwie versuchen die Anbindung zwischen den beiden Switsches zu verbessern (Stichwort LACP).

Noch ein anderer Punkt, warum wollt ihr die Geschwindigkeit erhöhen? Ist euer Netz zu langsam? Oder nur die Kommunikation zwischen den Servern? Bevor ihr Tausende ins Backbone steckt obwohl, Z.B. nur die 2003 und 2008 Server Daten nicht schnell genug rübern nüber schieben, lies dir mal ein bisschen zeug über die Neuerungen im SMB Protokoll ab Server 2008 durch, das Bringt auch schon mehr Performance, zumindest bei der Dateiübertragung. Dann könntet ihr das Geld in neue Software anlegen da die Verkabelung auf Gigabit doch schon recht gut ist.

Lieben Gruß
PJM
Member: rudeboy
rudeboy Jul 19, 2012 updated at 14:41:37 (UTC)
Goto Top
Stimmt schon dass die Umgebung nicht riesig ist, sind gut 40 XP/W7 CLients und ca. 15 Netzwerkdrucker.
Auch der Leistungshunger der lokalen Anwendungen hält sich in Grenzen, ein paar Datev pro und 2 Adobe CS4 Arbeitsplätze ist das höchste, ein paar UPS-Worldship 2012 dazu, sonst Office 2010.
Als Server-Anwendungen sind DATEV pro, BackupExec, hauseigenes CRM, WSUS, HyperV mit einer kleinen VM, dazu diverse, programmspezifische kleinere SQL-DBs.
Die Switche setzen sich aus Linksys SRW2024P, SRW-2024 v1.2, Cisco SG300-28P, DLink DES-1016R+ und Level One FSW-1610TX zusammen, wobei zwischen dem Linksys und CISCO noch eine GBIC SFP-Verbindung besteht.
Direkt Engpässe würde ich nicht sagen, meckert immer mal jemand das irgendwas langsam wäre, ist meist aber nicht nachzuvollziehen.
Member: aqui
aqui Jul 19, 2012 updated at 15:00:49 (UTC)
Goto Top
Da ist es vermutlich sinnvoller etwas Geld zu sparen und zwischen den betroffenen Switches eine 2er oder 4er Link Aggregation mit 1 GiG zu konfigurieren um die Performance zu erhöhen. Solltest du dennoch mehr brauchen kannst du ja immer noch auf 10 GiG wechseln.
Denk dran das das wenn du das machst (Link Aggregation) es immer auf beiden Switchenden passieren muss damit der LAG funktioniert.
Kannst du aber auch im Switch im Status Fenster sehen ob der aktiv ist.

@fisi-pjm
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache ! verschlechtern soll musst du uns hier erstmal erklären, denn die ist nicht nachvollziehbar ?!
Rechnen wir mal ganz einfach über den Daumen mit möglicher Wirespeed würde die 10 GiG Anbindung der Servers 10 Clients ! gleichzeitig in Wirespeed bedienen können mit 1 GiG.
Mit der ursprünglichen 1 GiG Anbindung hätten 10 Clients eine nominale Bandbreite von max. 100 Mbit auf den Server.
Wie kommst du also zu dieser unsinnigen "Dreifach" Aussage der Client Performance ??
Member: Hubert.N
Hubert.N Jul 19, 2012 updated at 16:55:42 (UTC)
Goto Top
Moin

@aqui: naja - indem man die Server alle aussschließlich über 10GBit verbindet und den Switch für die Clients dann über einen Uplink anschließt. Dass ein Backbone etwas anderes ist, ist dir sooo klar, dass du das wohl nicht direkt verstanden hast ;)

Nebenbei ist die Konfiguration eines solchen Netzes auch kein Knderspiel. Stichwort "Multihomed DC". Wenn man so etwas macht, dann muss man siih auch mit der Materie erst einmal gründlich auseinandersetzen.

Bei Betrachtung des Kosten/Nutzen-Effekts, schließe ich mich voll und ganz aqui an, denn das Geld kann man an anderer Stelle sicher besser einsetzen. Die Frage wäre ja auch erst einmal in erster Linie, welche Datenmengen die Server untereinander austauschen. In einer normalen, kleinen Umgebung dürfte dafür das 1GBit-Netz mehr als ausreichend sein...

Gruß

Dirk
Member: aqui
aqui Jul 19, 2012 updated at 16:59:34 (UTC)
Goto Top
@hubertn
OK, mein Verständnis war wie vermutet das auf dem Client Switch auch 2 bis 4 mal 10 GiG Ports drauf sind und die Server da angeschlossen sind.
Wenn der Client Switch separat ist und z.B. mit 1 GiG angeschlossen, wär das Konzept dann natürlich totaler Unsinn, da hast du ohne Zweifel Recht !
Den müsste man dann mindestens mit einem 4er Gig Trunk (LAG) oder noch besser mit einem 8er Gig LAG anschliessen damit so ein Konzept dann Sinn macht...logisch !
Member: MrNetman
MrNetman Jul 19, 2012 at 22:20:23 (UTC)
Goto Top
Zitat von @aqui:
10 GiG über CAT Kabel geht gar nicht oder nur sehr bedingt.
10GBaseT läuft selbst über ungeschirmte Cat6a Kabel und Buchsen, RJ45 und 100m. Der Standard ist lange durch. Man kann auch komplexere Kabel (Cat7) und selbstverständich Schirmung nutzen.
Am weitesten sind NICs mit SFP+ GBIC Slots verbreitet, die du auch verwenden solltest. Intel, Broadcom, Marvell sind hier wie immer die Klassiker.
GBIC ist hier ein schwieriges Wort, da der 1GBit Komponente vorbehalten. SFP steht für kleines Einsteckgerät (Small Form factor Plugable) und die meisten sind sogar nur simple Medienkonverter.
Verkabelung machst du dann mit preiswerten Twinax Kupfer Kabeln an die die SFP+ GBICs gleich angecrimpt sind:
In der Aufzählung fehlen noch die leicht größeren XFPs. Twinax für Infrastrukturen ist tot und viel zu teuer und nur für 15 m geeignet.
10GiG Switches haben dann entsprechend auch diese SFP+ GBIC slots für Twinax oder Glas.
spezielle MM-Fasern oder Singlemode oder Kupfer TP Cat6a
Hast du einen schwachbrüstigen Server bzw. Hardware nützt die 10 GiG herzlich wenig, dann kann man besser mit Link Aggregation (Teaming) auf den Servern und Switches arbeiten also der Zusammenfassung mehrere GiG Links zu einem aggregierten Link höherer Bandbreite.
Teaming und Link Aggregation sind leicht verschiedene Dinge. Link Aggregation ist ein wirklich breiterer Link um den Faktor der zusammengefassten Einzellinks und erfordert eine exakte Konfiguration auf beiden Seiten. Teaming ist meist ein Sicherheitsfeature für Arme mit etwas erhöhter Bandbreite.

Sorry, konnte mich nicht zurück halten. face-wink
Gruß
Netman
Member: bioperiodik
bioperiodik Jul 20, 2012 at 05:40:14 (UTC)
Goto Top
Moin,

Also ich würde das ganze nicht unnötig verkomplizieren.

LGA würde ich rein gefühlsmäßig nur zwischen zwei gleichartigen Switchen (am besten gleiches Modell) machen und selbst dann, seh ich hier kein größeren Nutzen.

rudeboy:

Du hast den HyperV erwähnt, falls dieser nur mit einer 1GBit Leitung angebunden ist, wär die einfachste und kostengünstigste Variante, einfach noch weitere Netzwerkkarten in den Server einzubauen (falls nicht ohnehin vorhanden) und somit die Last auf mehrere Karten/Ports zu verteieln.
Ich hab schon wesentlich größere Umgebungen gesehen wo Server auch "nur" mit 1GBit angebunden waren und sehr viel Datenintensivere Anwendungen laufen wie Datev, CRM oder WSUS face-smile

Außer bei Verbindungen zwischen zwei Rechenzentren sehe ich bei "normalen" Servern keinen entscheidenden Vorteil von 10GBit im Vergleich zu 1GBit.
Member: fisi-pjm
fisi-pjm Jul 20, 2012 updated at 06:43:47 (UTC)
Goto Top
@fisi-pjm
Deine Logik warum sich die Client Kommunikation mit einem 10 GiG attachten Server (der vorher nur 1 GiG hatte) um das dreifache !
verschlechtern soll musst du uns hier erstmal erklären,

also ich bin wahrscheinlich fälschlicherweise davon ausgegangen das auch die Client Gigabit angebunden sind. Dann würde die aussage durchaus zutreffen, aber du hast mit deiner annahme das die Clients nur über eine 100 Mbit Karte verfügen sicher recht.
Member: aqui
aqui Jul 20, 2012 updated at 07:05:22 (UTC)
Goto Top
Nein, auch wenn die Cleints 1 GiG hätten würde sich das ja so aufteilen und die Aussage von dir wäre unverständlich.
Es kann ja nie schlechter werden als mit dem singulären GiG Link vorher.
Unsinnig wäre natürlich die Server mit 10 GiG anzubinden und und ein Switch mit allen Clients dann wieder nur mit 1 GiG. Das wäre Blödsinn, denn damit hätte man nix gewonnen.
Sinnvoll wäre dann hier ein 4er oder 8er Gig Trunk zwischen so einem Client Switch und einem 10 GiG Serverswitch.
Aber egal dazu ist ja oben schon alles gesagt !
Member: rudeboy
rudeboy Jul 23, 2012 at 09:25:11 (UTC)
Goto Top
Die Clients sind teilweise mit 1GBit, teilweise 100MBit angeschlossen, das "PC-Alter" an die Switch-Geschwindigkeit angepasst.
Member: rudeboy
rudeboy Jul 23, 2012 at 10:16:59 (UTC)
Goto Top
Als erstes hab ich nun 2 Switche per LAG mit 1 Gruppe und 2 Verbindungen ausgestattet.
Oder wäre LACP besser?
Member: rudeboy
rudeboy Jul 23, 2012 at 10:48:51 (UTC)
Goto Top
Hallo aqui,

bisher sehe ich nur in der Schnittstellenstatistik dass das LAG Verkehr aufweist, weiß aber nicht welches Statusfenster du meinst?
Habe das LAG zwischen dem Cisco SG-300 und Linksys SRW2024P aufgebaut, falls du die Webinterface kennst.