madsquirrel
Goto Top

ESXI-Host mit Nadelöhr: Netzwerkkarten

Hallo in die Runde,

ich bin in erster Linie Entwickler, habe jedoch eine Frage zu Virtualisierung.


Habe einen ESXI 5.5 Server vorgesetzt bekommen und denke, die Konfiguration ist eher suboptimal. Der Host beherbergt über 10 VMs, darunter Oracle-Datenbanken, Fileserver und E-Mail Server und ein D C.

Soweit nichts wildes für den Host, der ganz ordentlich dimensioniert ist. Allerdings verfügt der Host nur über zwei Netzwerkkarten - die eine stellt über IP eine Verbindung zu einem NAS her, das als "SAN" dient, also die VMs teilen sich 1Gbit für sämtliche Speicherzugriffe. Der andere Netzwerkadapter verbindet die VMs mit dem Netzwerk. Zugriffe auf die Oracle-DB, Fileserver, DC, E-Mails teilen sich hier also insgesamt auch 1 Gbit.

Meines Erachtens kann es in dieser Konfiguration nur langsam funktionieren bzw. wie schon des öfteren vorgekommen auch überhaupt nicht (allein schon das SAN über IP). Was meint Ihr dazu? Kann jemand, der das verkauft hat davon sprechen, wissen zu wollen, was er tut?

Viele Grüße

Content-Key: 345970

Url: https://administrator.de/contentid/345970

Printed on: April 23, 2024 at 09:04 o'clock

Member: Vision2015
Vision2015 Aug 11, 2017 at 03:05:00 (UTC)
Goto Top
Zitat von @MadSquirrel:

Hallo in die Runde,
moin...

ich bin in erster Linie Entwickler, habe jedoch eine Frage zu Virtualisierung.
jut...


Habe einen ESXI 5.5 Server vorgesetzt bekommen und denke, die Konfiguration ist eher suboptimal. Der Host beherbergt über 10 VMs, darunter Oracle-Datenbanken, Fileserver und E-Mail Server und ein D C.
oha... ein ESXI 5.5 Server! hast du etwas gebrauchtes vorgesetzt bekommen? oder war die 5er lizenz noch da?

Soweit nichts wildes für den Host, der ganz ordentlich dimensioniert ist. Allerdings verfügt der Host nur über zwei Netzwerkkarten - die eine stellt über IP eine Verbindung zu einem NAS her, das als "SAN" dient, also die VMs teilen sich 1Gbit für sämtliche Speicherzugriffe. Der andere Netzwerkadapter verbindet die VMs mit dem Netzwerk. Zugriffe auf die Oracle-DB, Fileserver, DC, E-Mails teilen sich hier also insgesamt auch 1 Gbit.
hm... ordentlich dimensioniert... was bedeutet das genau?

Meines Erachtens kann es in dieser Konfiguration nur langsam funktionieren bzw. wie schon des öfteren vorgekommen auch überhaupt nicht (allein schon das SAN über IP). Was meint Ihr dazu? Kann jemand, der das verkauft hat davon sprechen, wissen zu wollen, was er tut?
ich denke es ist ein ISCSI anbindung an dein SAN... das kannst du so machen!
was ist das für ein SAN? ist es evtl. nur NAS?
was genau hat nicht funktioniert... oder tut es nicht?
kann dein SAN /NAS überhaubt 10 GBit... etc... der Server? bzw. gibbet eine aufrüst option?

Kann jemand, der das verkauft hat davon sprechen, wissen zu wollen, was er tut?
natürlich.... wir wissen jetzt nicht was verlangt wurde, wie hoch das Budget war... etc..

Viele Grüße
Frank
Member: maretz
maretz Aug 11, 2017 at 06:00:35 (UTC)
Goto Top
Moin,

ein SAN via IP ist absolut nix ungewöhnliches - iSCSI oder selbst NFS wird vom ESX offiziell supported.
Ob das ganze jetzt deshalb lahm ist hängt von vielen Faktoren ab -> wenn das NAS nur 1 GBit hat (gucke drauf, es kann ja auch 10 GBit haben) dann kann das halt ein Part sein. Wenn du aber nur 3-5 Anwender davor hast ist das eher kein Problem (ich hab z.B. im NAS zuhause ne kleine SSD als Cache drin, d.h. es gehen wirklich ca. 100 MByte/s über die Leitung...).

Ich würde aber generell mal jemanden draufgucken lassen der Erfahrung hat. Normal ist so eine Konfig dann wenn man min 2 Server hat die dann ein shared Storage haben. In dem Fall hast du aber auch am Netzwerk noch einiges (falls HA/FT genutzt wird). Und üblicherweise wirst du dann nicht den einen Fehler finden sondern viele kleinere Dinge die nicht optimal sind...
Member: SeaStorm
SeaStorm Aug 11, 2017 at 06:27:04 (UTC)
Goto Top
Hi

grundsätzlich kommt es hier mal darauf an ob deine Clients überhaupt so viel Traffic produzieren würden.
1GBit ist nur in wenigen Netzwerken wirklich zu wenig. Guck doch mal auf die Leistungsprotokolle vom ESX. Der sagt dir, ob er an das Limit ran kommt.

Und wenn du im Schnitt über 40% Netzwerklast kommst, kannst du ja mal nach einer Netzwerkkarte mit 4 Ports gucken, oder 10GBit, falls eure restliche Infrastruktur das unterstützt.
Ausserdem musst du sehen, was für eine ESX Lizenz ihr habt. Teaming per RoundRobin ist glaube ich bei allen Lizenzen möglich. Echtes Bonding (Also dann Brutto 2GB auf einer Verbindung) ist glaube ich nicht bei allen Lizenzen möglich.
Und euer Switch muss das natürlich noch können.
Member: MadSquirrel
MadSquirrel Aug 11, 2017 at 09:26:26 (UTC)
Goto Top
Danke für eure Antworten.

Der Host ist schon eine Weile alt, zwei CPU und 128 GB RAM. Wahrscheinlich ist es sogar die kostenfreie Variante, es wirt nämlich nur über den vSphere-Client verwaltet. Die Synology RackStation RS2414RP liefert leider nur Gigabit-Ethernet. Im Gebäude ist 10-Gigabit aufgrund der DV nicht möglich.

Ergänzend zum Thema: an dem ganzen hängen 80 Clients, die eine Anwendung von einer Freigabe aus verwenden. Unsere Anwendung benutzt diverse Flatfile-Datenbanken auf der Freigabe, den Oracle Server und schreibt/liest stetig in den Dateien. Das bedeutet, jeder Client hat ca. 300 Files auf dem Server gleichzeitig offen.
Das lässt sich auch nicht anders verteilen - der Hersteller der Software schreibt es so vor, die Pfade sind hardcoded immer relativ zur Anwendung.

An 30 dieser 80 Arbeitsplätze werden den Tag über Dokumente eingescannt und auf einer der VMs abgelegt, die andern Clients greifen nur lesend zu.

Die vorhandenen Cisco-Switches sind Teaming/Bonding-fähig. Die Überlegung geht dahin, den Windows-Server für die Anwendung und Flatfile/Oracle-Datenbanken eventuell wieder auf Nicht-virtualisierter Basis mit SSDs zu betreiben und dabei dann drei oder vier Netzwerkkarten per Teaming zusammenzufassen.