rstrub
Goto Top

Modernisierung Switch-Infrastruktur

Hallo zusammen

Ich betreibe ein Netzwerk mit aktuell rund 60 Switchen (grösstenteils Cisco Catalyst 3548XL). Auf Core-Ebene bestehen zwei Cisco Catalyst 4500er mit entsprechenden GBIC-Modulen.
Da die Switche alle bereits seit längerem EOL sind, möchten wir diese ersetzen. Jedoch sind wir uns noch unschlüssig, durch was für Geräte.

Ein paar Eckdaten dazu:
- Industrie-Areal mit vielen einzelnen Standorten
- Alle via MM-LWL-Leitungen untereinander verbunden
- Es bestehen diverse "Ringe", welche mittels STP redundant gemacht wurden.
- Das Netzwerk ist ein reines L2-Netzwerk, ohne Routing Funktionalitäten auf den Switchen.
- Grundsätzlich besteht kein besonders grosses Trafficaufkommen.
- Ca. 120 VLANs via VTP

Grundsätzlich könnten wir einfach auf die aktuellen Cats umstellen ... da dies jedoch ein recht grosser Brocken ist, hier mal die Frage dazu.

Ziele für die Umstellung:
- Aktuelle Hardware
- Zentrale Verwaltung möglich
- SNMP fähigkeit
- Einzelne Standorte mit PoE(+)

Aktuell schauen wir uns die HP 2530er an ...
Hat jemand Erfahrungen mit den MikroTik-Modellen? z.B. CRS226-24G-2S+RM

Besten Dank für eure Inputs / Erfahrungen

Content-Key: 291771

Url: https://administrator.de/contentid/291771

Printed on: April 19, 2024 at 21:04 o'clock

Member: aqui
Solution aqui Dec 28, 2015 updated at 13:03:47 (UTC)
Goto Top
Jedoch sind wir uns noch unschlüssig, durch was für Geräte.
Geht es dir da eher ums Konzept oder Hersteller ? Hoffentlich ersteres...
Mehrere Dinge die bedenklich oder unverständlich sind...
Es bestehen diverse "Ringe", welche mittels STP redundant gemacht wurden.
Sowas ist immer tödlich in einem Ethernet Netzwerk und bedingt erhebliche Risiken. Das solltest du in einem neuen Konzept mit Hardware ersetzen die speziell Ringstrukturen oder auf Ringstrukturen angepasste Redundanz Protokolle supportet Cisco Resilient Ring oder Brocade MRP z.B.
Noch besser ist es das mit Switchhardware zu ersetzen die sog. "horizontal Stacking" supporten also ein Stacking über Netzwerk Infrastruktur.
Das Netzwerk ist ein reines L2-Netzwerk, ohne Routing Funktionalitäten auf den Switchen.
Hier widersprichst du deinem eigenen Konzept.... Du redest ja unten von "120 VLANs" ??? Wie wird denn einen Kommunikation unter diesen VLANs sichergestellt. ??
Vermutlich routen doch die 2 Core Switches und sind als L3 Switches augelegt, oder ? Es ist dann also mitnichten ein dummes, flaches L2 Netzwerk, oder ?
Sprich die Access Switches kummulieren via Uplinks die VLANs auf die Cores und dort wird geroutet, ist dem so ?
Das wäre ein klassisches hierarchisches Banalkonzept.

Generell was du in so einem Umfeld machen solltest:
  • Den Core rüstet man heutzutage nicht mehr mit teuren Chassis Switches aus sondern nutzt dafür stackfähige Switches. Also preiswerte 1 HE Modelle die man über nicht proprietäre Infrastruktur 10G oder 40G redundant Stacken kann.
Dabei ist hier "richtiges" Stacking gemeint die diese Geräte also logisch ein einziges Gerät erscheinen lassen und nicht ein sog. Clustering was viele Billiganbieter wie auch HP machen.
Cisco VSS mit 45xxX oder 3850 oder Brocade Hyperstack mit 7250, 7450 sind solche Kandidaten z.B.
Im Billigbereich Cisco SG500 Modelle.
  • Damit bist du in der Lage Spanning Tree frei zu arbeiten. Access Swoitches kannst du so mit einem LACP LAG (802.3ad) anbinden und erreichst damit außer redundanz auch noch die doppelte Bandbreite im Access.
  • Ringstrukturen solltest du dringenst vermeiden wenn es geht. Hier bieten sich Switches an die sich über 1G und 10G stacken lassen. Von diesen Stacks gehst du dann wieder mit LACP LAG (802.3ad) an den stacked Core.

Solch ein Konzept hat den Vorteil das du schrittweise migrieren kannst und nicht alles austauschen musst. Deine Catalyst Access Switches sind sicher in manchen Umfeldern noch leistungsstark genug.
Es macht also Sinn erstmal nur den Core auf eine stacked Infrastruktur umzustellen z.B. Brocade ICX 7450 mit 40G Kupfer Stack Kabel (DAC) und dort dann erstmal sukzessive die bestehenden Catalysten im Access mit LACP LAG (802.3ad) anzubinden.
Da wo du es kannst und Budget hast kannst du die Ringstrukturen im Access durch Stacks ersetzen wie Cisco SG500 oder 3750, 3850 oder Brocade ICX 7250 z.B.
Vorteil du kannst das sukzessiive in Schritten machen ohne dein Netzwerk unterbrehen zu müssen.
Viele dieser neuen Produkte supporten auch eine sog. Port Extender Technologie. D.h. diese externen Stacks können in den Core Stack integriert werden und stellen so einen virtuellen gemeinsamen Core Switch dar.
Aus Management Sicht ist das eine erhebliche Vereinfachung der Pflege und der Überwachbarkeit des Netzes.
Das sind so die groben Richtlinien die du bei der Erneuerung unbedingt beachten solltest !
Ob du da bei der Größenornung auf billige Campus und Comodity Hersteller wie HP usw. setzen solltest solltest du dir reiflich überlegen. Im Access kann man darüber nachdenken aber im Core solltest du da besser die Finger von lassen.
Sowas rächt sich später ganz sicher.
Member: Dani
Dani Dec 28, 2015 at 12:16:55 (UTC)
Goto Top
@aqui
Dabei ist hier "richtiges" Stacking gemeint die diese Geräte also logisch ein einziges Gerät erscheinen lassen und nicht ein sog. Clustering was viele Billiganbieter wie auch HP machen.
Gilt das auch für die HP Produkte mit IRF Funktionalität?


Gruß,
Dani
Member: aqui
aqui Dec 28, 2015 updated at 12:26:54 (UTC)
Goto Top
Ja leider, da das nicht für alle Funktionen innerhalb des Switches vollständig ist. HP hat generell das Problem das das keine eigen entwickelten Produkte sind bei denen.
Zum einen die Billigschiene von Accton und die höherpreisigen Switches die von H3C (3Com/Huawei) stammen. Damit haben die zusätzlich nichtmal ein gleiches CLI und Funktionalitäten, was den Einsatz nicht gerade vereinfacht.
Im Bereich Port Extender und DCB Hybrid Switching haben sie gar nix....
Welche HW davon auf die Dauer überleben werden steht noch auf einem ganz anderen Blatt. Bei HP steht viel marketing Blah und Blubb in den Datasheets was dann bei nährem Hinsehen heisse Luft ist.
Leider lassen sich sehr viele nicht Netzwerke davon blenden nach dem Motto wer auch gute Drucker und PCs kann der kann auch gute Netzwerke.
Das böse Erwachen kommt dann wie immer später... face-wink
Member: RStrub
RStrub Dec 28, 2015 at 13:31:12 (UTC)
Goto Top
Hallo aqui

Erstmal besten Dank für deine Inputs.
Als erstes geht's ums Konzept, später dann natürlich auch um Hersteller / Produkte.

Jeden Switch doppelt anbinden wäre sicherlich die schönere Variante, jedoch habe ich nicht an jeden Standort genügend freie Leitungen um dies zu erreichen. Historisch ist das so gewachsen, dass Ringe gebildet wurden, welche dann mittels Spanning-Tree logisch aufgetrennt wurden. Hat den Vorteil, dass wenn eine Verbindung (z.B. durch Bagger) aufgetrennt wird, der Rest innert weniger Sekunden wieder online ist. Mehr brauch ich hier auch garnicht.

Das Thema "horizontal Stacking" hab ich mir auch schon angeschaut ... da bin ich aber soviel ich weiss, auf 8 Switche beschränkt. Sprich ich müsste dann diverse kleinere Stackings erstellen, welche dann wiederum an einem Punkt als "normale" LACP an den Core angebunden wird?

Du hast natürlich recht. Die Core-Switches haben L3 Funktionalitäten, die genutzt werden. Dies betrifft jedoch nur einen kleinen Teil des Netzwerkes ... der Grosse sind reine "Durchleitungs-VLANs" ... sprich ohne Routing in irgend eine Richtung. Oder Besser ... das Routing wird extern gemacht.
Member: clSchak
clSchak Dec 28, 2015 at 14:34:05 (UTC)
Goto Top
Hi

auch wenn der Beitrag bereits als gelöst gilt: "externes Routing" ? wie ist das gemeint? Du hast auch von der Leitungsanzahl geschrieben, dass diese nicht in ausreichender Menge vorhanden sind, auch wenn @aqui schon einiges geschrieben hat, gibt es sicherlich noch ein paar weitere Punkte die man angehen kann.

Wenn du z.B. Leitungslängen <300m hast, kannst du darüber auch, bei MM Kabel, 10Gb fahren, wodurch du dann selbst mit nur 2 Paaren eine passende Bandbreite erreichst, dann natürlich die aktuelle Portanzahl die bedient werden muss und die Art der Applikationen die darüber läuft (wenn z.B. an den einzelnen Standorten nur 30 VoIP Telefone hängen und normale Rechner für die ERP sind 10Gb Leitungen total überdimensioniert ... ).

Just my 2 Cent
@clSchak
Member: aqui
aqui Dec 28, 2015 updated at 14:51:59 (UTC)
Goto Top
Als erstes geht's ums Konzept,
So sollte es natürlich auch sein... face-wink
Jeden Switch doppelt anbinden wäre sicherlich die schönere Variante, jedoch habe ich nicht an jeden Standort genügend freie Leitungen um dies zu erreichen
Wie hast du es denn bis jetzt gemacht ?? Bei der Größe des Netzes etwa alles einbeinig ohne jegliche Redundanz ??
Das wäre fatal und fahrlässig. Hängt aber natürlich letztlich von deinen Verfügbarkeitsanforderungen ab. Bei einem Netz was ruhig mal einen halben Tag stillstehen kann wie vermutlich deins ist das natürlich dann tolerabel. Andersrum nicht.
Mittlerweile gibt es aber sehr preiswerte Optiken (SFP) die mit nur einer einzigen Faser 2 Links (RX u. TX) realisieren. Das geht über integrierte optische Multiplexer mit unterschiedlichen Farben. Damit kannst du dann auf einer singulären MM Faser beide Links unterbringen....solltest du mal drüber nachdenken ?!
Historisch ist das so gewachsen,
Leider sehr häufige Praxis wenn man ohne Nachdenken immer nur "dazusteckt" weils ja so einfach ist und damit leider auch oft der Grund für solche gefährlichen und eigentlich falschen Designs die dann daraus entstehen. Das ist dann immer ene Frage des Faktors Mensch wie der Admin damit umgeht...
der Rest innert weniger Sekunden wieder online ist.
Ein gefährlicher Trugschluss dem viele Laien die STP oder RSTP nicht wirklich kennen erliegen. Vermutlich leider auch du. STP Protokolle können mit Ringstrukturen nicht umgehen, da sie niemals darauf optimiert wurden ! Ethernet ist seit je her immer einen Baumstruktur, daher kommt das.
Warum wohl haben alle renomierten Hersteller Redundanzprotokolle wie Ciscos RRP und Brocade MRP auf den Switches die speziell Ringstrukturen optimieren ??
Leider ist das niemals standardtisiert worden so das diese so gut wie alle proprietär sind. Sie sind aber allemal erheblich besser als STP.
Bis 3 Switches in der Kaskade mag das noch OK sein mit mehr können bei STP schnell Ausfallzeiten 10 Minuten und erheblich mehr betragen.
In einem RZ ist das nicht mehr tolerabel.
Fazit: Gerade Ringstrukturen sind immer tödlich in einem Ethernet Design mit STP.
Ganz anders sieht das mit DCB fähigen Switches aus !
Diese supporten dann meist TRILL oder SPB als Redundanz Protokoll die dann wieder problemlos mit Ringen umgehen können sofern die Kaskaden nicht mehr als 6 bis 8 Switches betragen. Ab dann wirds auch da wieder tödlich !
Auf TRILL oder SPB Fähigkeit zu achten ist also gerade in so einem Umfeld auch nicht falsch...im Gegenteil.
Das Thema "horizontal Stacking" hab ich mir auch schon angeschaut ... da bin ich aber soviel ich weiss, auf 8 Switche beschränkt.
Nein, das ist falsch und betrifft in der Regel die Billiganbieter.
Renomierte Hersteller supporten hier 12 und manchmal bis 32 Switches.
In einem Port Extender Design in Verbindung mit Stacking kann das 8 Mal so viel und auch mehr werden. (Hersteller)

@clSchak
"externes Routing" ? wie ist das gemeint?
Vermutlich das sie dann VLAN Ports als dedizierte Links oder tagged Uplinks trotz L3 Switch noch auf externe Firewalls oder Router stecken. Sieht man auch sehr häufig.... und machen viele die nicht wissen was Access Listen sind oder ganz sicher gehen wollen aus Netzwerk Security Sicht...
Member: clSchak
clSchak Dec 28, 2015 at 15:04:40 (UTC)
Goto Top
ein bischen OT:
Zitat von @aqui:

...
Mittlerweile gibt es aber sehr preiswerte Optiken die mit nur einer Faser 2 Links (RX u. TX) realisieren. Das geht über integrierte optische Multiplexer mit unterschiedlichen Farben. Damit kannst du dann auf einer singulären Faser beide Links unterbringen....solltest du mal drüber nachdenken ?!
...

woah, der Begriff lag mir auf Zunge weil ich den gleichen Gedanken hatte, aber immer nach PRISMA SFP gesucht habe gerade, war mir nicht sicher ob es die auch für MM gibt, die SM wusste ich face-smile

/OT

Für TRILL: das ist eher Datacenter Umfeld, auch wenn man damit einen schönen Core bauen kann und "mal eben" >1.500 Ports als ein logisches Chassis verbauen kann, ist die Technik auch sehr kostspielig und macht auch erst bei Verschaltungen >=10Gb Sinn. Der Nachtteil der VDX Serien in meinen Augen ist der Mangel an PoE (ok als Access-Switche evtl. auch, wenn nur ein wenig face-wink, oversized) und das die Links minimal 1Gb fahren und somit jedes Management-Inteface dort nicht angeschlossen werden kann (iLO, iDRAC usw.) - aber als reines Core-Netzwerk schon nicht außer acht zu lassen (wir haben die VDX6710/6720/6730 im Einsatz) aber das L3 Routing, was die auch können, würde ich dann eher auf andere Geräte auslagern und dort nur LAN/iSCSI ggf. FCoE mit bereitstellen).

Für das Routing die ICX6450-xxx mit L3 Firmware ggf. mit Premium Lizenz wenn man OSPF oder gar BGP damit fahren möchte. Für den reinen Access-Layer die ICX6430-xx-PoE und man hat eigentlich alles erschlagen, wenn man doch 10Gb Uplinks haben möchte an einzelnen Standorten, kann man dort auch die ICX6450 nehmen, ggf. eine additive RPS Einheit dazu und man hat nebst doppelter Spannungsversorgung auch die Option auf HPoE Anbinding.

Aber wie schon vorher geschrieben, es fehlt noch einiges an Details (Kabellängen, Portanzahl, verfügbare Fasern usw.)

Gruß
@clSchak
Member: aqui
aqui Dec 28, 2015 at 15:13:45 (UTC)
Goto Top
Für TRILL: das ist eher Datacenter Umfeld, auch wenn man damit einen schönen Core bauen kann und "mal eben" >1.500 Ports als ein logisches Chassis verbauen kann, ist die Technik auch sehr kostspielig und macht auch erst bei Verschaltungen >=10Gb Sinn.
Technisch hast du Recht aber ein TRILL uMfeld funktioniert stabil und wunderbar auch als "verteilter" Backbone....wenn man denn das Budget davon hat. Horizontal Stacking fähige Campus Switches sind gleichteuer und TRILL bietet da mehr....
Ansonsten hast du aber Recht !