Top-Themen

AppleEntwicklungHardwareInternetLinuxMicrosoftMultimediaNetzwerkeOff TopicSicherheitSonstige SystemeVirtualisierungWeiterbildungZusammenarbeit

Aktuelle Themen

Administrator.de FeedbackApache ServerAppleAssemblerAudioAusbildungAuslandBackupBasicBatch & ShellBenchmarksBibliotheken & ToolkitsBlogsCloud-DiensteClusterCMSCPU, RAM, MainboardsCSSC und C++DatenbankenDatenschutzDebianDigitiales FernsehenDNSDrucker und ScannerDSL, VDSLE-BooksE-BusinessE-MailEntwicklungErkennung und -AbwehrExchange ServerFestplatten, SSD, RaidFirewallFlatratesGoogle AndroidGrafikGrafikkarten & MonitoreGroupwareHardwareHosting & HousingHTMLHumor (lol)Hyper-VIconsIDE & EditorenInformationsdiensteInstallationInstant MessagingInternetInternet DomäneniOSISDN & AnaloganschlüsseiTunesJavaJavaScriptKiXtartKVMLAN, WAN, WirelessLinuxLinux DesktopLinux NetzwerkLinux ToolsLinux UserverwaltungLizenzierungMac OS XMicrosoftMicrosoft OfficeMikroTik RouterOSMonitoringMultimediaMultimedia & ZubehörNetzwerkeNetzwerkgrundlagenNetzwerkmanagementNetzwerkprotokolleNotebook & ZubehörNovell NetwareOff TopicOpenOffice, LibreOfficeOutlook & MailPapierkorbPascal und DelphiPeripheriegerätePerlPHPPythonRechtliche FragenRedHat, CentOS, FedoraRouter & RoutingSambaSAN, NAS, DASSchriftartenSchulung & TrainingSEOServerServer-HardwareSicherheitSicherheits-ToolsSicherheitsgrundlagenSolarisSonstige SystemeSoziale NetzwerkeSpeicherkartenStudentenjobs & PraktikumSuche ProjektpartnerSuseSwitche und HubsTipps & TricksTK-Netze & GeräteUbuntuUMTS, EDGE & GPRSUtilitiesVB for ApplicationsVerschlüsselung & ZertifikateVideo & StreamingViren und TrojanerVirtualisierungVisual StudioVmwareVoice over IPWebbrowserWebentwicklungWeiterbildungWindows 7Windows 8Windows 10Windows InstallationWindows MobileWindows NetzwerkWindows ServerWindows SystemdateienWindows ToolsWindows UpdateWindows UserverwaltungWindows VistaWindows XPXenserverXMLZusammenarbeit

Jumbo Frames auf VMware, SAN und Switches

Frage Virtualisierung Vmware

Mitglied: uLmi

uLmi (Level 2) - Jetzt verbinden

02.12.2011, aktualisiert 18.10.2012, 11007 Aufrufe, 72 Kommentare

Hallo Leute,

ich möchte dieses Wochenende auf unserem System Jumboframes aktivieren also vom SAN über die Switches bis hin zu den ESXi Hosts.
Ich habe alles elemente auf Jumbo frame tauglichkeit geprüft aber frage mich noch folgendes:

bei uns geht der iSCSI und normale Server Traffic über den switch und dieser Traffic ist nicht über VLANs getrennt.
Wenn ich jetzt für die iSCSI kommunikation die Jumboframes aktiviere stört es dann die normale kommunikation ?
also müsste ich die Ports für ISCSI in ein VLAN hängen und die anderen Public ports in eine anderes VLAN ?
Der Switch hat grundsätztlich auf allen Ports JumboFrames aktiviert und da es jetzt auch ohne geht wird es einfach im einzelfall entscheiden und da sehe ich eigentlich keine Problem.

Desweiteren:
Im Client also dem Windows2008 System selbst muss ich bei der Netzwerkkarte nicht Jumboframes aktivieren oder ? es reicht wenn es auf dem SAN, dem Switch und auf dem ESX Host einstelle oder ?

viele Grüße,
uLmi
72 Antworten
Mitglied: clSchak
02.12.2011 um 17:19 Uhr
Hi

damit alleine ist es aber nicht getan, nur JumboFrames einzustellen, als erstes muss der Switch das supporten und auch können (was billige Hersteller wie Netgear, HP, usw.) und vor allem auch supporten, du wirst massiven Broadcast/Multicast Trafic durch das iSCSI auf den Switchen haben und die meisten gehen dann in die Knie, ferner bist du mit deinem Vorgaben schon gezwungen mit PVST zu arbeiten (was auch nicht jeder Switch kann), dann sollten die Switche auch sowas wie sFlow, gescheit viel Puffer, non Blocking, FlowControl usw. können damit da auch noch Leistung da ist wenn wirklich mal alle Ports unter Feuer ist.

Bei den Servern dann nicht FlowControl vergessen

Was mich am meisten wundert - das dein Switch noch nicht in die Knie gegangen ist - iSCSI Traffic muss auf jedenfall separat vom Netz laufen, da sonst alle Clients "gestört" werden und wenn es dann nicht einmal per QoS Priorisiert wird gehen die evtl auch noch Pakete verloren und die Latenc vom iSCSI geht nach oben (Prerofrmancetechnisch ein grauß) ... damit laufen dann auch die Server extrem langsam würde ich jetzt mal tippen.

Und bei den Clients Windows 2008 (Vista!?) haben im iSCSI Netz rein garnichts zu suchen - per VLAN trennen und in keiner Weise Kontakt zum iSCSI Netz - wenn die sich was mounten sollen dann über eine separate Netzwekkarte die ggf. für iSCSI optimiert ist - auch bei den Server ist es immer der beste Weg das Storage über komplett eigenständige Uplinks zu verbinden und nicht über eine Karte per VLAN getrennt ...

Just my 2 Cent

Besser: iSCSI und Standard-LAN Switche auf separaten Kisten laufen lassen, es sein denn du hast gescheite Hardware die das kann
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 18:57 Uhr
Hi,

mit den Clients meinte ich die Windows 2008 Server die als "clients" innerhalb der Hosts laufen - sorry die formulierung war sehr ungünstig.

Also du machst mir jetzt schon ein wenig angst da ich das jetzt eigentlich machen wollte um mehr speed zu bekommen aber jetzt muss ich mir gedanken machen um das was vielleicht jetzt davor noch im argen liegt.

Der Lieferant der das eingerichtet hat meinte es gäbe keine probleme wenn der iSCSI traffic und der Public Traffic der Server im selben "netz" auf dem selben switch ablaufen.

Egal ich würde das jetzt gerne nochmal von dir alles zusammenfassen, bewerten und dann daraus eine todo liste erstellen.
So wie ich das sehe sind die folgenden handlungen nötig:

1. Server und ISCSI Traffic über getrennte switche trennen oder die ports via VLANs auf den bestehenden switches trennen.
2. Puffer von Switch prüfen
3. Sflow/Flowcontrol prüfen.

Flowcontrol am server ? von sowas hab ich noch nie gehört oder machen müssen ?


update, der switch kann:

Flow Control
Broadcast Suppression
Multicast Suppression
Unicast Suppression
MSTP (ist glaube ich das hat was spanning-tree zu tun)
Link Aggregation
QOS

das hab ich auch noch gefunden:

Memory and processor Module
ARM @ 333 MHz, 128 MB flash, 128 MB RAM;
packet buffer size: 512 KB

Performance
100 Mb Latency < 5 µs
1000 Mb Latency < 5 µs
Throughput 41.7 million pps
Routing/Switching capacity 56 Gbps
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 19:06 Uhr
auch nur an der Stelle wo du ein iSCSI LUN direkt mounten möchtest - für die VM die im ESX läuft ist das egal - wo wir auf iSCSI Storage umgestellt haben hat jeder Anbieter separate Switche genommen und auch durch's lesen (wie z.B. hier im Forum) wurde immer darauf hingewiesen es über separate Switche zu machen - ich kenne deine Hardwware jetzt nicht und weis auch nicht über wieiviele Server und Storage Nodes wir sprechen - wenn du aber alles über einen Switch machen willst musst du auf jedenfall Enterprise Hardware haben (Cisco, Brocade, Extrem ....) die supporten so etwas weil die auch entsprechende Leistung haben.

Was hast du denn momentan für Switche im Einsatz?
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 19:24 Uhr
das sind HP 1910-24G Switche gelabelt als: 3Com 2928-SFP Plus

unsere umgebung ist nicht extreme groß:

3 x ESXi hosts
2 x dieser Switche
1 x NetApp 2020

1 x DC, 1 x Exchange mit 200GB, 1 x SQL mit 40GB und ein paar weitere Windows Server mit kleineren diensten.


haste gesehen ich hab oben noch was hinzugefügt ?
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 19:44 Uhr

1 x DC, 1 x Exchange mit 200GB, 1 x SQL mit 40GB und ein paar weitere Windows Server mit kleineren diensten.

SQL braucht IOs - alleine das wird schon einiges an Performance kosten, 3 ESXi Hosts mit 12 Server (geschätzt) - die Switche sind auch nicht seitens HP dafür vorgesehen, da empfehlen die eher 2910al Switche - wenn du wirklich über ein Switch beides machen willst, dann würde ich 2 x Brocade FCX624S im Stack nehmen (ja ich bevorzuge Brocade - es gibt aber auch von anderen Herstellern wie z.B. Cisco, Extrem, Juniper, Force10... gleiche/bessere Geräte) - die supporten das - aber besser ist wirklich das getrennt zu machen, wenn du bei HP bleiben möchtest entsprechend die 2910al (die kann man aber nicht stacken - das nennt sich bei HP MESH oder so) -alternativ sollte auch die FWS Serie von Brocade funktionieren - eine günstige alternative wäre Dell (wobei die Qualitätiv nix besser wie HP sind - aber bessere Leistungsdaten haben) - die Serie 6224/6248.

Und um die Ausfallsicherheit zu wahren: immer mind. 2 Switche (ich kenne jetzt die NetApp Geräte nicht - aber auf dauer würde ich eine 2. holen und die dann spiegeln/replizieren)

haste gesehen ich hab oben noch was hinzugefügt ?
jap gesehen

Der Lieferant der das eingerichtet hat meinte es gäbe keine probleme wenn der iSCSI traffic und der Public Traffic der Server im selben "netz" auf dem selben switch ablaufen
bei kleine Umgebungen mag das gehen, aber nicht wenn Festplattenlastige Anwendungen wie SQL usw. laufen

1x DC, ...
da würde ich schon mal mindestens einen mehr machen

Und die HP Kisten machen fast alles in Software, teure Geräte können das direkt in Hardware - darum geht z.B. ein HP bei einem Loop auch direkt aus ... naja 100% Last ... Enterprise Hardware hustet dann nicht einmal und deine HP Switche sind schon ziemlich weit unten - selbst bei HP
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 20:09 Uhr
Der SQL macht kaum was 5 User dran, da mache ich mir eher sorgen um den Exchange.
Es gibt übrigens außerhalb der VMware auch noch einen DC

jedenfall sind es in der summe im VMWare 5 Server: EX, SQL, DC, Antivir und BES. der einzige wo 70+ User drauf juckeln ist der Exchange.
Der Fileserver steht im selben netz aber nicht in der VMware und auch nicht an diesen Switches.

Deine Vorschläge sind allesamt verdammt teuer ich will einfach das beste aus dem rausholen, was ich habe.

Eigentlich wollte ich nur wissen ob ich zwingend die ISCSI ports von den Public ports per VLAN trennen muss wenn ich den ISCSI verkehr auf Jumboframes hochdrehe.
Irgendwie habe ich das gefühl, du bringst das hier mit viel dramaturgie in die falsche Richtung. Ich werde mich jetzt nicht verrückt machen lassen und die sache angehen...

seih mir nicht böse aber ich habe mich oft von meinem plan abbringen lassen als ich mir mehrere meinung eingeholt habe.

Wie kommt es eigentlich das du jetzt noch vorm PCs hockst ? nachschicht ?
Bitte warten ..
Mitglied: Dani
02.12.2011 um 20:16 Uhr
Moin,
wenn du wirklich über ein Switch beides machen willst, dann würde ich 2 x Brocade FCX624S im Stack nehmen (ja ich bevorzuge Brocade
Sorry, aber das ist laut VMWare White Paper nicht 100%ig supportet.

Eigentlich wollte ich nur wissen ob ich zwingend die ISCSI ports von den Public ports trennen muss wenn ich den ISCSI verkehr auf Jumboframes hochdrehe.
Lass es mich so sagen, man trennt immer beide Netze physkalisch , egal ob JF oder nicht.

Die Netapp 2020 hat leider pro Kopf nur zwei Netzwerkports. Hast du ein oder zwei Koepfe?
Gleich eine zweite Netapp zu kaufen halte ich für übertrieben. An deiner Stelle würde ich über FC jede Nacht auf LTO-Bändern sichern. Da sollte nicht die rießige Datenmenge anfallen.

BTW: Wie viel Platten hast du in der Netapp?


Grüße,
Dani
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 20:17 Uhr
nö - die gleiche Frage zurück bei mir ist das eher mit'm Notebook ein wenig im Netz am surfen
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 20:21 Uhr
Zitat von Dani:
Moin,
> wenn du wirklich über ein Switch beides machen willst, dann würde ich 2 x Brocade FCX624S im Stack nehmen (ja ich
bevorzuge Brocade
Sorry, aber das ist laut VMWare White Paper nicht 100%ig supportet.

ich habe es auch nicht empfohlen :> ich würde auch eine strikte Trennung von iSCSI und Produktivnetz nehmen -(und die zweite NetApp nur schon mal als Gedanke für zukünftige Investitionen)
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 20:24 Uhr
ich sitzte hier im büro und bereite die katastrophe vor

anders gefragt klappt es (ob gut oder nicht) wenn ich JF einfach so anmache ? oder kommt dann der jumbo verkehr mit dem normalen verkehr durcheinander ? wenn ich das per VLAN trenne ist das doch getrennt oder Nicht ? der einzige sinn für 2 extra switches wäre wenn der eine switch mit den lasten der beiden Traffics nicht mehr klar kommt und das problem wird bei der last nicht vorkommen.

ja die NetApp hat nur 2 ports pro Kopf, ich habe 2 Köpfe in Active/Active laufen.

eine zweite NetApp kaufen kommt so was von nicht in frage

was hat eine FC Sicherung auf LTO bändern mit meinem problem zu tun
seid ihr vertriebler oder was ?
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 20:30 Uhr
OT jap Dani verkauft NetApple und ich Bonecrate :o) /OT

Passieren tut eigentlich nichts wenn du JF einschaltest - zur Sicherheit mach das via Konsole dann kannst es, was unwahrscheinlich ist, einschalten und bei Bedarf wieder ausschalten

Und was Dani meinte: das direkt von der NetApp Backups zieht per Snapshot oder wie auch immer und das direkt auf Band wegschreibst. *zwecks Datensicherung*
Bitte warten ..
Mitglied: Dani
02.12.2011 um 20:44 Uhr
wenn ich das per VLAN trenne ist das doch getrennt oder Nicht?
Ja es geht, aber frag den Netapp- und VMWaresupport ob Sie dir im Worstcase auch helfen. Denn wie schon gesagt ist das nicht BestPractice. Unn denk auch weiter: Somit steigt die Last auf den Switches und somit kann es soweit kommen, dass bei iSCSI Datenpakete verloren gehen. Falls das auch noch eine SQL-DB treffen sollte, solltest du ein gutes Backup haben das beim Recovery auch funktioniert. Wie schon gesagt kauf die die HP 2910al und baue zwei getrennte Netze.

ja die NetApp hat nur 2 ports pro Kopf, ich habe 2 Köpfe in Active/Active laufen.
Hmm... Da wirst du bezüglich Redudanz einen Tod noch sterben müssen. Off Topic, ich weiß.

seid ihr vertriebler oder was
Nö, aber man sollte über den Tellerrand schauen. Zukunftsweisend denken!

Leider nicht, sonst würde ich auch solche Autos fahren. Wir haben einige Netapps hier rumstehen.
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 20:45 Uhr
Die Ports der Switch sind schon für JF Enable der Werk. ich müsste die MTU auf der NetApp per GUI machen. bei den ESXi host mache ich es per CLI.

was Dani meint ist mir schon klar aber es hat nicht mit dem Topic zu tun außerdem sichere ich auf ein NAS obwohl mir bänder lieber wären.
Dani schick ma ein angebot für nen Bandloader
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 20:48 Uhr
warum muss ich einen tod sterben wenn ich JF aktiviere ?

ja manchmal wäre ich auch lieber vertriebler aber ich hab es nicht so mit der "vertriebler-wahrheit" ich bin einfach ein zu ehrlicher mensch
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 20:54 Uhr
nicht wegen JF - sondern das dir die NetApp ausfällt - und bedenke das was Dani geschrieben hat bzgl. SQL (da habe ich jetzt ich jetzt nicht mal dran gedacht) - kaufe dir einfach einen gescheiten Switch fürs iSCSI dazu - das wird dir jede Menge Ärger ersparen - die 2910al bekommst schon für "schmales" Geld:

http://www.ebay.de/sch/i.html?_from=R40&_trksid=p5197.m570.l1313&am ...
http://www.heise.de/preisvergleich/?fs=2910al&in=&x=0&y=0
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 20:56 Uhr
die AL dinger kosten 900€ brutto wären die dann rein für das ISCSI netz ?

mit dem Tod sterben meinst du ich könnte einen der switche jetzt schon für ISCSI und eins für Public traffic nehmen nicht ?
dabei würde ich die redundanz verlieren
Bitte warten ..
Mitglied: Dani
02.12.2011, aktualisiert 18.10.2012
dabei würde ich die redundanz verlieren
Das würdst du auch so... rechne mal nach: Die Netapp je Kopf zwei Netzwerkports. Wenn du zwei iSCSI - Switches nehmen würdst wären beide Ports für SAN blockiert und du kannst dein normales LAN nicht anbinden. Davon hab ich schon weiter oben geredet. Bilderlösung!!
Andere Frage: Liest du überhaupt die Whitepaper von VMware und Netapp?

wären die dann rein für das ISCSI netz ?
Ja, nur für iSCSI!

Die Rechnung bei sowas ist doch die Wirtschaftlichkeit. Welche Server / Anwendungen müssen laufen, Wie hoch darf die Ausfallzeit von Netapp/Server durch defekt im Jahr sein, wie schnell muss ein Recovery der Umgebung erfolgen und was kostet deine Arbeitszeit. Zum Schluss die einzelnen Werte addieren/abziehen und dann seht ihr was die Umgebung kosten darf/soll/muss.

sondern das dir die NetApp ausfällt
Naja, dabei müssten pro Aggregat mehr als 2 Platten ausfallen oder aber beide Köpfe parallel defekt sein. Beide Fälle haben wir bei uns noch nie erlebt.


Grüße,
Dani
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 21:07 Uhr
ja die wären dann fürs reine iSCSI Netz - und 900EUR ist nicht unbedingt teuer - immer Ware nach Geld - wenn du allerdings irgendwann auf 10Gb willst - dann nimm direkt Cisco oder Brocade - die werden dann in der Summe günstiger wie HP (da ist 10gb Technik sehr teuer - und die beiden Supporten Gbic vom freien Markt)

Mal zur Info: http://www.heise.de/preisvergleich/?fs=FCX624&in=&x=0&y=0

wobei die Preise ... naja - ich würde es auf jedenfall beim Systemhaus anfragen bzw. die Hersteller mal anrufen und fragen was die "größeren" Zwischenhändler sind - da bekommst weitaus bessere Preise wie im "Onlineshop".

Was ich aber mal machen würde, lass den Juppie antanzen der das bei euch geplant hat und mal klarstellen was er da geplant hat ... eigentlich is es ein Planungsfehler - das ganze (iSCSI und Produktiv-Netz) über ein Netz laufen zu lassen und das bei "den" Switchen (wie bereits geschrieben - unteres Preis-/Leistungsegement bei HP)
Bitte warten ..
Mitglied: 60730
02.12.2011 um 21:10 Uhr
moin,
@ Dani...

Zitat von Dani:
Andere Frage: Liest du überhaupt die Whitepaper von VMware und Netapp?

Nein, der liesst ja nichtmal, was ihr Ihm geschrieben hat..

Meine ganz persönliche Meinung?

Da ist ein schwäbischer Schotte an der anderen Seite der Leitung, der gerne von uns hören möchte, dass Geiz so geil ist und seine Idee die beste der Welt ist.

Von daher - kann ich Ihm nur zustimmen und würde trotzdem schonmal nachsehen, ob der Reisepass noch gültig ist und ob es im Moment ein Land gibt, dass IT Spezialisten braucht.

Gruß

ich möchte dieses Wochenende
Na wie gut, dass heute erst Freitag ist...
Bitte warten ..
Mitglied: Dani
02.12.2011 um 21:17 Uhr
allerdings irgendwann auf 10Gb willst - dann nimm direkt Cisco oder Brocade
Schön und gut. Aber davor benötigt er eine neue Netapp. Da reisen es die Switches auch nicht mehr raus.

Versandkosten nicht vergessen.

Was ich aber mal machen würde, lass den Juppie antanzen
Ich würde IHn anrufen und mitteilen, dass die Planung von einem anderen Systemhaus durchgeführt wird!


Grüße,
Danni
Bitte warten ..
Mitglied: Dani
02.12.2011 um 21:19 Uhr
Na wie gut, dass heute erst Freitag ist...
Das kommt noch dazu. Ich hoffe er hat 7x9 oder 24x7 Support bei VMWare und/oder Netapp. Falls es doch nicht nach Plan verläuft. Was eigentlich bei EDV sehr sehr selten der Fall ist.


Grüße,
Dani
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 21:25 Uhr
Ich weis jetzt nicht wie gut du dich mit deinem Chef verstehst - ich würde einfach den 2910al bestellen und einbauen, wenn der Chef dann fragt mit der Wahrheit direkt rausrücken - wenn du die verantwortung dafür übernehmen sollst das alles funktioniert, bekommst vielleicht nen Einlauf aber mehr nicht - ich denke nicht das bei einem 40+ MA Unternehmen kosten von unter 1000 EUR derbe ins Gewicht fallen und das Unternehmen in den Ruin treiben.

Damit wirst du dir sehr viel Stress ersparen und von der Gewindkeit her spürbare verbesserungen erleben und mit weitaus weniger Ärger leben können.

@Dani
10Gb für die Verbindung von z.B. zwei Serverräumen - wir haben alles mit 2x10Gb verbunden - die Leitung ist zwar nicht ausgelastet (rund 25-50% im Peak je 10Gb Leitung) aber nicht nur die Storagenodes machen Traffic und irgendwann hat man evtl. 3 Node und schon kann man es brauchen ;o
Bitte warten ..
Mitglied: uLmi
02.12.2011, aktualisiert 18.10.2012
Zitat von Dani:
> dabei würde ich die redundanz verlieren
Das würdst du auch so... rechne mal nach: Die Netapp je Kopf zwei Netzwerkports. Wenn du zwei iSCSI - Switches nehmen
würdst wären beide Ports für SAN blockiert und du kannst dein normales LAN nicht anbinden. Davon hab ich schon
weiter oben geredet. Bilderlösung!!
Andere Frage: Liest du überhaupt die Whitepaper von VMware und Netapp?


Ja 2 Ports, einer pro switch...wo ist das problem ? ich verstehe das nicht. mein ESXI host hat 4 Ports würde aber auch mit 2 pro switch auskommen. klar ist dann SAN und Public traffic vermischt ist das mein "kern" problem ?
also bräuchte ich: 2 ports auf dem HOST nur für den redundanten SAN traffic und 2 Ports für den redundanten Public traffic (auf jeweils getrennten switch paaren) ?


> wären die dann rein für das ISCSI netz ?
Ja, nur für iSCSI!

Die Rechnung bei sowas ist doch die Wirtschaftlichkeit. Welche Server / Anwendungen müssen laufen, Wie hoch darf die
Ausfallzeit von Netapp/Server durch defekt im Jahr sein, wie schnell muss ein Recovery der Umgebung erfolgen und was kostet deine
Arbeitszeit. Zum Schluss die einzelnen Werte addieren/abziehen und dann seht ihr was die Umgebung kosten darf/soll/muss.


Rechnung hin oder her ich muss gucken wie ich so klar komme. ist ja nicht so als würde alles explodieren wenn ich jetzt keine weiter kohle investiere. verstehe auch nicht warum es immer gleich die riesen katastrophe in euren augen ist...


> sondern das dir die NetApp ausfällt
Naja, dabei müssten pro Aggregat mehr als 2 Platten ausfallen oder aber beide Köpfe parallel defekt sein. Beide
Fälle haben wir bei uns noch nie erlebt.



würde mich jetzt auch wundern bei RAID-DP, und diversen HOTspares Netto 6 von 12 HDD auch sehr geil


Grüße,
Dani
Bitte warten ..
Mitglied: Dani
02.12.2011 um 21:38 Uhr
Ja 2 Ports, einer pro switch...wo ist das problem ?
Ich denke mein Bildlink oben sagt alles. Wenn du iSCSI dedudant haben möchtest, benötgist du 2 Ports pro Netapp Kopf. Da es aber phy. getrennt von LAN ist, fehlen dir an der Netapp ein Netzwerkport pro Kopf. Du wirst bisher CIFS direkt über die Netapp bereitstellen. Somit müsstest du Abstriche auf beim iSCSI machen. Was aber wiederrum zur Folge hätte, dass du den iSCSI Switch ebenfalls auf die USV hängen solltest.


verstehe auch nicht warum es immer gleich die riesen katastrophe in euren augen ist...
Die Erfahrung lehrt einfach, dass wennn alles läuft keiner sich Gedanken macht. Aber wenn die EDV mal nicht geht, ist an DICH die Frage woran es liegt. Und diesen Worstcase erleben wir leider viel zu oft bei Neukunden.

würde mich jetzt auch wundern bei RAID-DP, und diversen HOTspares Netto 6 von 12 HDD auch sehr geil
Ich frag jetzt lieber nicht warum deine Konfiguration der Netapp so aussieht.
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 21:39 Uhr
ich weiß ihr werdet euch jetzt die mäuler zereissen aber ich habe das zeug geplant und gekauft. als das budget knapp wurde habe ich halt die einfachen switche genommen... bisher gehts ja auch nur verstehe ich langsam das es zeit ist SAN traffic auf vernüpftigen switches zutrennen.

ich habe ein gutes verhältniss zur meinem cheff und ja mit über 70 MA ist 2000€ nicht viel aber mein cheff hat generell ein schlechtes verhältniss zum geld

ich habe von NetApp 24x7 von VMWare leider nur 24x5 und der support von VMware ist auch über HP geregelt keine ahnung was das soll naja.

denke es würd zeit das geld was damals fehlende Geld neu anzufragen.

also noch mal ihr sagt ganz klar, bevor der SAN traffic auf den HP AL dingern nicht getrennt vom normalen Traffic ist, sollte ich die finger vom jumboframes weglassen ?


Gruß
uLmi

PS: für die meisten ist jetzt Wochenende !
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 21:45 Uhr
vom gesamtem iSCSI eigentlich ... (Edit/Add: als Antwort auf deine letzte Frage "...Finge von Jumboframes lassen?")

bestellt dir 2 HP 2910al baue die ein - mach einen auf reudiger Hund beim Cheffe und alles wird gut - und mit der Planung das kenne ich nur zu gut auch die sparsamen Cheffs - wobei "meiner" sehr umgänglich geworden ist und man anhand von praktischen Beispielen (idealerweise mit einer "Bildersprache" die irgendeinen Bezug zu Fußball oder Autos hat) und auch auf die Kosteneinsparungen hinweist, immer ans Ziel gekommen bin (nur meine 60 Zoll "Monitoring" Bildschirm habe ich nicht bekommen ;( )

Und zum WE: bie mir nicht ich war gestern auch bis 23 Uhr in der Firma weil unser BackupServer das zeitliche gesegnet hat *es leben der 4h Support!* und der wieder laufen musste - und am WE stehen bei uns immer die Dinge an die man wegen 3 Schicht Betrieb nicht in der Woche machen kann - aber auch nicht jedes
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 21:47 Uhr
was meinst du mit : vom gesammten iSCSI eigentlich ?
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 22:22 Uhr
also ich hab hier mal eine grafik gemalt, weil ich mir nicht sicher bin ob ich das verstanden habe mit der trennung von ISCSI und dem normalen traffic, wie ihr das meint mit der verkabelung. Das hier ist die einzige möglichkeit die ich sehe. habe ich euch richtig verstanden?

bitte mit ja generell schon aber
oder
mit nein keineswegs weil..

was ich jetzt nicht gebrauchen kann sind sätzte die das nicht bestätigen aber auch nicht zustimmen.

danke jungs

bbb8ff5ef6bca6a9326581c693154ff9 - Klicke auf das Bild, um es zu vergrößern
Bitte warten ..
Mitglied: Dani
02.12.2011 um 22:33 Uhr
Bingo!!Bingo!!Bingo!!Bingo!!Bingo!!Bingo!!
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 22:40 Uhr
Das sieht schon mal passend aus - so hast auf jedenfall beide Netze getrennt.

Die Freigbaben die momentan auf der NetApp liegen würde ich das iSCSI Laufwerk in einem Windows Server mappen (iSCSI Initiator Target) und nicht durch die VM als Laufwerk anfügen und dann freigeben.

Die nächste Anschaffung wären dann noch weitere Netzwerkkarten für die Server (bei uns hat jeder ESX Host 4 x iSCSI Netz und 4-8x reguläres LAN)
Bitte warten ..
Mitglied: flitzenderelch
02.12.2011 um 22:50 Uhr
Ich hab so ein Konstrukt seit ca. 1 Jahr am laufen mit 2 x HP-Switche ProCurve 1800-24G für das iSCSI-Netz und das produktive Netz was über VLAN getrennt ist.
Das hat mir damals so der NetApp-Techniker eingerichtet und das ganze läuft ohne Probleme.

Auf den 3 ESX'n laufen bei mir ca. 8 VMs gemischt mit DC's, SQL und IIS-Servern und vom Netzwerk gibt es keine Probleme.
Die ESX'n sind über NFS mit der NetApp verbunden und darauf laufen die VMs. Dann noch ein CIFS/SMB Share auf der NetApp für die Server auf die alle zugreifen dürfen.
In dem NetApp-Management bei der Auslastung langweilt sich die NetApp eher.

Im Nachhinein würde ich aber für sowas nicht mehr eine teure NetApp kaufen, habe noch 2 Dell-SAN's im Einsatz und die tun es auch.
Vor allem weil ich DeDup ausgeschaltet habe weil es bei VMs wenig Vorteile bringt also nicht soviel Platz spart wie angepriesen.

Nachtrag:
Der Techniker hat mir damals das mit iSCSI und LUN ausgeredet da es Vorteile hat wenn man es NFS benutzt. Wenn Du 1 LUN hast wo alle VMs
drauf laufen und Du einen Desaster-Fall hast muss Du aus dem Backup/Snapshot die komplette LUN wiederherstellen. Bei NFS kannst Du einzelne
VMs aus dem Snapshot wiederherstellen. Weiterhin meinte er das der Performance-Verlust durch NFS unter 5 % ist gegenüber von iSCSI.
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 22:57 Uhr
und bei wieviel Usern? Ich würde das nicht machen (bei uns auch garnicht mehr möglich mit rund 170-200 Usern)
Bitte warten ..
Mitglied: flitzenderelch
02.12.2011 um 23:09 Uhr
Ist nicht für interne User, darauf laufen Portale die im Internet erreichbar sind.

Da jeder Anwendungszweck anders ist muss man mit dem Projekt wachsen, bei neuen Projekten trenne ich die Netzwerk zu den SAN's auch.
Mit Monitoring kann man Engpässe rechtzeitig abfangen dann kann man mit einer kleinen Struktur beginnen und Sie dann weiter ausbauen.
Wenn nicht genügend Budget vorhanden ist, ich kenne das Problem nur zu gut.
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:20 Uhr
Undrt FileServer liegt physikalisch auf ganz andere Hardware.

Die OS Laufwerke sind über NFS per VMware eingebunden, die DB laufwerk sind LUNS per ISCSI also in diesem fall per SnapManager for Exchange oder for SQL eingebungen. NetApp braucht die Datenbanken auf LUNs für ihre Backup und Restore software....

aber ich höre gerne mehr zu diesem Thema...

meine ESXI hosts haben jeweils 2 Onboard Intel ports und 2 weitere Intel Ports per PCI133 sollte klargehen...
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:21 Uhr
also du hast dicken switche und da geht das mit der leistung... ich hatte mich erst gewundert weil die jungs hier mir stark davon abraten das so zumachen mit meinen "billig" switches.

hast du Jumboframes an ?
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:26 Uhr
kleine off-topic frage:

ich habe hier 2 virtuelle maschinen die beide per NFS Export angebunden sind. Bei dem einen kann ich Festplattengröße im Vcenter unter virtuelle Festplatte bearbeiten bei dem anderen nicht. Bei dem wo es geht steht bei virtueller Festplatte SCSI und bei dem wo es nicht geht IDE.

denke ich habe beim erstellen was falsch gemacht, leider ist die kiste produktiv und braucht bald langsam mehr Speicherkapazität. wie bekomme ich VMK oder wie das heißt von der IDE auf eine neue SCSI HDD oder total schaden ?

bin euch sehr dankbar !
Bitte warten ..
Mitglied: flitzenderelch
02.12.2011 um 23:32 Uhr
Hab kurz nachgesehen, Jumboframes sind bei mir nicht aktiv.

Was erhoffst Du Dir von den JF?

Vielleicht solltest Du bevor Du JF aktivierst das ganze noch in einer kleinen Testumgebung testen, habe ich vor kurzem gemacht mit einem
iSCSI-Server unter Debian und einem weiteren Debian worauf XEN lief. Geht auch einfacher z.B. mit FreeNas,Openfiller usw.
Wennst noch alte Kisten rumstehen hast kannst das sogar mit denen testen.
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:39 Uhr
ich weiß langsam gar nichts mehr

wenn ich kein JF brauche, dann kann ich noch auch weiterhin mit meinen billig switches das vermischte netz fahren, VLAN können meine switche auch .... wofür brauche ich die dicken switche ? ich meine klar ich habe die umgebung noch nicht ganz ausgebaut, der exchange soll noch darein und bisher sind alle Server/Hosts nur mit einem Kabel angebunden aber ohne JF fehlt mir einfach das argument für die anschaffung.

meine problem ist das eine Fucking Lexware Anwednung so elend lahm ist. alle anderen sachen laufen akzeptable. ich erhoffe mich durch JF halt dieses problem zu erschlagen und allgemein mehr leistung zu bekommen.

ich weiß halt nicht was passiert wenn der Exchange nicht nur mit seinen DBs im SAN hängt sondern auch mit seinem OS und wenn die ganzen hosts vollständig redundant angebunden sind und die virtuellen server mehr gebraucht werden...

ich glaube sinn machen die dicken dinger schon wegen bandbreite/leistung etc. eigentlich wollte ich morgen den Exchange noch virtuallisieren, wie gesagt momentan sind nur seine DBs auf dem Filer aber ich habe schon einwenig schiss das der danach vielleicht voll lahm ist oder die ganze umgebung lahm ist. obwohl ich dann das argument für die neuen switche hätte

ist nur blöd weil ich die argumentation grade nicht auf den punkt bringen kann und ich dann genau so vor meinem cheff stehe...

hilfe
Bitte warten ..
Mitglied: flitzenderelch
02.12.2011 um 23:40 Uhr
Was steht denn im VCenter bei "Festplattenbereitstellung" "Typ" bei dem Server bei dem es nicht geht?
Bitte warten ..
Mitglied: flitzenderelch
02.12.2011 um 23:44 Uhr
Könntest Du Deine momentane Struktur mal skizzieren?

Du könntest doch das ganze auch vorab mal mit einer Test-VM auf der vorhanden Struktur testen.
Auch möglich einen zweiten Exchange hochziehen und darauf dann nur ein paar Test-Kontos laufen lassen.
Bitte warten ..
Mitglied: clSchak
02.12.2011 um 23:47 Uhr
Zitat von uLmi:

meine problem ist das eine Fucking Lexware Anwednung so elend lahm ist. alle anderen sachen laufen akzeptable. ich erhoffe mich
durch JF halt dieses problem zu erschlagen und allgemein mehr leistung zu bekommen.

wieviele Leyware User sind das denn? (die Software geht bei vielen Usern einfach in die Knie egal welche Hardware darunter liegt)
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:48 Uhr
ja dauert 2-3 minuten...........................................
Bitte warten ..
Mitglied: uLmi
02.12.2011 um 23:50 Uhr
ein user der sich beklagt ...

aber ich dachte halt JF bringt allgemein was. jemand hat mal gesagt: you get more bang for the buck
Bitte warten ..
Mitglied: Dani
02.12.2011 um 23:52 Uhr
Ich frag mich langsam ob ich japanisch rede...

Whitepaper ist auch dir ein Fremdwort? Warum meint ihr, dass Hersteller die möglichen supporteten Konstellationen dort niederschreiben? Das Sie niemand liest? Unsere Inhouse Netapp- und VMWareingenieure verweisen bei jedem Projekt mit iSCSI immer auf das Whitepaper und richten sowas nur mit Unterschrift meines Chefs bzw. des Kunden ein.

@flitzenderelch
War es vllt. ein netappzertifizierter Systemhaustechniker?!

Vor allem weil ich DeDup ausgeschaltet habe weil es bei VMs wenig Vorteile bringt also nicht soviel Platz spart wie angepriesen.
Hängt von dem eingesetzten Betriebssystemen ab und dem Alignment auf virtuellen Platten (Stichwort Blockgröße)! Damit haben wir bisher überall über 50% herausgeholt. Achja, Netapp macht als einzigster Hersteller Dedup innerhalb der VM und nicht nur auf die vmdk-Files.
Bitte warten ..
Mitglied: Dani
02.12.2011 um 23:59 Uhr
Wir wäre es wenn du deine Netappkonfiguration schreibst. Wichtig wäre z.B. wie viele Platten du in einem Aggregat hat, welches RAID-System, wie viel Spare Platten, nutzt du SATA, SAS oder FC Platten und wie viel Umdrehungen haben die Platten. Wichtig ist auch noch die Ontap Version. Denn die musste man mit ESXi 4.1U1 auch hochziehen.

Hast du dich bei der Netappkonfiguration an das I/O Datenblatt von Netapp gehalten (Low, Middle und Havyserver)?!
Bitte warten ..
Mitglied: uLmi
03.12.2011 um 00:06 Uhr
4cc1309d55a713759302b3329495b446 - Klicke auf das Bild, um es zu vergrößern

hier der ist zustand.... unfertig...

der Exchange wird mit dem Fileserver am meisten benutzt . 50-70 User.

die Exchange datenbank liegen auf dem Filer.

den BES nutzen 40 User (unkritisch)

den linken ESXi Hosts und seine Server nutzen kaum leute, vielleicht 3-4 Remoteapp terminal sitzungen ist eher mehr zum spielen, zumindest jetzt noch

den rechten ESXi Host und seine server nutzen halt die BES user und 5 Finance Mitarbeiter (MS Dynamics und der SQL) keine beschwerden. der Lexware den max. 3 leute gleichzeitig benutzten ist für Reisekosten und Lohn und gehalt. Reisekosten ist lahm aber geht noch, Lohn und gehalt wird von einer person benutzt und ist richtig lahm...

meine netapp hat 12x 300 GB (15K platten) ein aggr0 mit 1,33 TB
oh gott frag mich doch jetzt nicht nach der config
ESXI 4.0 im einsatz.
optap: 7.3.5P1

controllerA: 9 (Spare: 1)
controllerA: 3 (Spare: 1)


achja auf dem Bild fehlt noch den Vcenter Server der ist auch an den unteren switches angebunden.
Bitte warten ..
Mitglied: flitzenderelch
03.12.2011 um 00:11 Uhr
Puh du frägst Sachen, weiß nicht mehr ob das so einer war ist schon 1 Jahr her.

Das ausschalten von DeDup wurde mir auch von einem Techniker von der NetApp-Service-Hotline angeraten, da die Firmware auf der NetApp keine Volumes größer
500GB mit DeDup zulässt. Da ich aber größere gebraucht habe war das sein Tip.

Wenn ein Techniker von dem Hersteller kommt und mir das so einrichtet das es passt, warum sollte ich dann das Whitepaper lesen.
Der Techniker müsste das Whitepaper ja dann aus dem FF können und dann müsste er mich ja darauf hinweisen dass das so wie er es
konfiguriert hat nicht mit dem Whitepaper übereinstimmt und es zu Performance-Problemen / nicht genügend Ausfallsicherheit usw. kommen kann.
D.h. wiederum für mich: Dann hätte der das so nicht einrichten dürfen!

DeDup:
Hat bei mir leider nicht soviel rausgeholt, wie gewünscht.
Auch bei meinem CIFS/SMB-Share war die % nicht so hoch.
Bitte warten ..
Mitglied: Dani
03.12.2011 um 00:18 Uhr
@TO:
Schau mal auf deiner Netapp nach der I/O Auslastung nach. Kannst du per CLI oder System Manager anschauen.

Es ist eindeutig ein I/O Problem. Du hast zu wenig Festplatten. Das wird dir jedes Systemhaus bestätigen. Warum meinst du gibt es I/O Richtwerte von VMWare und Netapp für virtuelle Server.
Bitte warten ..
Mitglied: Dani
03.12.2011 um 00:18 Uhr
Schade... dacht ich mir fast.
Das ausschalten von DeDup wurde mir auch von einem Techniker von der NetApp-Service-Hotline angeraten, da die Firmware auf der NetApp keine Volumes größer
500GB mit DeDup zulässt. Da ich aber größere gebraucht habe war das sein Tip.
Das ist so nicht wahr! Eine LUN darf nicht größer sein als 500GB für Dedup. Aber Dedup wird seit einer bestimmten ONTAP Version über das Volume gesteuert und das darf sehr groß sein. Darum regelmäßig Releaseinfo lesen.
Bitte warten ..
Mitglied: flitzenderelch
03.12.2011 um 00:19 Uhr
Hast Du mal über das VCenter die Auslastung des rechten ESXi (eigentlich von allen ESXi) beobachtet?
Vor allem Festplatten/IO Auslastung.
Hier würdest Du Engpässe erkennen.

Was sagt die Auslastung der NetApp?

Exchange und DC auf einem Server? Sowas macht man nicht!
Whitepaper von MS

Wenn Du auf einen Ex2010 wechselst geht die Performance auf der DB um einiges runter, Microsoft hat hier ernome (gute) Änderungen vorgenommen.
Hab vor kurzem selbst von Ex07 auf EX2010 umgestellt.
Bitte warten ..
Mitglied: flitzenderelch
03.12.2011 um 00:22 Uhr
Ich glaube so einfach wie Du Dir das vorstellst ist das nicht, einfach JF aktivieren und alles wird gut.

An Deinem Netz und Strukturen müsste einiges geändert werden, sorry!
Bitte warten ..
Mitglied: uLmi
03.12.2011 um 00:24 Uhr
Dani, was bringt es dir wenn ich performance messungen gebe wenn hier keine arbeitet. ..
außerdem wie willst du merken , dass die performance von lexware ### ist, wenn da 70 Exchange user drauf rum werkeln.

naja ich denke das Lexware ist einfach rotze und eigentlich ist alles okay bei uns mir der leistung...

ich schau mal was morgen nach der Exchange p2v migration so mit der leistung abgeht.
in diesem Zusammenhang werde ich das ganze netz mal ausseinnander nehmen und wieder zusammen bauen aber ordentlich verkabeln und mal schauen was dann geht...eigentlich sollte ich jetzt anfangen aber kein bock mehr

nacht mädels, vielleicht bis morgen und nochmals danke für die unterstützung.

gruß
uLmi
Bitte warten ..
Mitglied: uLmi
03.12.2011 um 00:25 Uhr
danke das weiß ich auch, oben steht auch genau deswegen "unfertig" sorry !
Bitte warten ..
Mitglied: flitzenderelch
03.12.2011 um 00:26 Uhr
Kann leider mein ONTAP nicht aktualisieren, da ich hier keine Redundanz habe. Und sollte bei dem etwas
schief gehen hab ich viel Ärger.

Deshalb: Don't touch a running system!
Bitte warten ..
Mitglied: uLmi
03.12.2011 um 00:29 Uhr
nach ganz fest kommt ganz ab oder man sagt auch: kaputt repariert

also jungs vergewaltigt nicht mein thread oder doch tut euch keinen zwang an.

nacht !
Bitte warten ..
Mitglied: Dani
03.12.2011 um 00:31 Uhr
Keine zwei Köpfe in der Netapp verbaut?
Du weißt aber das es Abhängigkeiten zwischen ONTAP-Version und VMWare ESX(i)-Version gibt, die bei nicht einhalten der Versionkombinationen Probleme verursachen kann?

Um wirklich festzustellen ob es an den Platten liegt, erzeug künstliche Last (z.B. verschiedende Server große Dateien schreiben lassen). Somit siehst du bei der Netapp gleich was der I/O sagt. Somit lässt sich feststellen ob es an der Netapp liegt oder nicht.

Wir haben mit Lexware auf ESX keinerlei Probleme. Bei uns sind es ca. 23 Benutzer.
Bitte warten ..
Mitglied: uLmi
03.12.2011 um 21:09 Uhr
Jungs wenn ich das so wie hier aufbaue:

bbb8ff5ef6bca6a9326581c693154ff9 - Klicke auf das Bild, um es zu vergrößern

muss ich Spanning Tree einsetzten und wenn ja wo ?
Bitte warten ..
Mitglied: Dani
04.12.2011 um 00:06 Uhr
Moin,
im iSCSI Netz macht RSTP keinen Sinn! Da du da eigentlich zwei IP-Netze wegen der Reduanz hast. Im LAN wirst du es aber brauchen.


Grüße,
Dani
Bitte warten ..
Mitglied: Anton28
04.12.2011 um 12:10 Uhr
Hallo zusammen,

das aktivieren von Jumbo Frames alleine bringt noch gar nichts. Das bedeutet nur, dass der oder die Switche ETH-Pakete bis zu einer Größe von 4000 oder 9000 Bytes forwarden, je nachdem was das OS des/der Switche dafür anbieten.

Die Jumbo-Frames werden erst nach konfiguration der Treiber der Netzwerkkarten übertragen. Dabei kann man gemischt normale und Jumbo Frames fahren.

Die tatsächliche Größe der Frames, die in einem Paket übertragen werden, werden im Bereich TCP bei 3-way Handshake ausgehandelt. (MTU-Size)

Im Bereich udp wäre mir nicht bekannt, dass Jumbo Frames genutzt werden, (aber ich bin nicht allwissend).

Ob das einstellen der Jumbo-Frames tatsächlich etwas bringt, ist so einfach nicht zu beantworten.
Das hängt von vielen Fatoren ab.

Netzwerkkarte (billigteil a la Realtek und konsorten, oder spzifische Serverkarten mit entsprechendem Proc, Memory, und entsprechender Anbindung an den Bus des Servers )
Aufgebohrter PC als Billigserver oder potente Serverhardware
Switch mit entsprechender Leistung, CPU, Buffer, Buffer per Port, forwardingstrategien, ets. etc. etc.
Brauchbare Netzwerkverkabelung ( in Deutschland mindestens Cat5e oder besser, geschirmt, geschirmte Patchkabel, etc.), oder Anbindung an per LWL 50/125 Multimode oder 9/125 Monomode Fasern, keine alten 62,5/125 Mulitmode Fasern mehr,
Alter der Verkabelung, entsprechende 5-Leiter Stromverkabelung nach VDE, Saubere Erdung der Verkabelung.

Also, es spielen viele Faktoren eine Rolle.

Gruß

Anton
Bitte warten ..
Mitglied: uLmi
04.12.2011 um 13:31 Uhr
Hallo Dani,

ich habe es jetzt komplett neu verkabelt, muss aber die netze noch dringend trennen und es gibt noch einiges was ich optimieren kann...
werde auch mal schauen ob ich die switche kurzfristig kaufen kann. Habe mir jetzt auch mal die Whitepapers ansehen und überlege evtl. auch noch richtige ISCSI HBAs zu besorgen...
Ich werde morgen hier noch mal ausführlich berichten und hoffe, dass ich die Woche auf deine Unterstützung zählen kann ?!?!?

Viele Grüße,
uLmi
Bitte warten ..
Mitglied: Dani
04.12.2011 um 20:59 Uhr
überlege evtl. auch noch richtige ISCSI HBAs zu besorgen...
Schau lieber, dass du zertifizierte Netzwerkkarten in den ESXen hast (z.B. Intel DualCards, etc...).

dass ich die Woche auf deine Unterstützung zählen kann
Na klar, wenn du mir mein Gehalt zahlst, steh ich dir pausenlos zur Verfügung.
Bitte warten ..
Mitglied: uLmi
04.12.2011 um 21:02 Uhr
ich habe gute intel server karten drin aber die hbas entlasten doch durch ihren prozesser die eigentliche cpu oder nicht ?

naja

aso ja klar zahl ich dir dein gehalt. was verdienst du den die stunde ?
Bitte warten ..
Mitglied: clSchak
04.12.2011 um 21:45 Uhr
nie nach verdienen - immer danach fragen wieviel er bekommt nicht wieviel er verdient :D - und was du meinst sind iSCSI Offloadkarten - die hat jeder Hersteller im Programm, worauf ich bei der Installation der ESX achten würde, versuche Installations CD's der HErstreller für ESX zu bekommen, dann sind direkt die richtigen Treiber enthalten.
Bitte warten ..
Mitglied: uLmi
04.12.2011 um 21:48 Uhr
ich werde diese woche das ganze intensiv angehen. wichtig ist die trennung der Netzte und die switche aber in der whitepapers steht auch noch ne menge bezüglich storage provisionierung und vmware settings. das wird ne menge ich freue mich schon ..
Bitte warten ..
Mitglied: Dani
04.12.2011 um 21:59 Uhr
@clSchak
Psssst... Hättest was abbekommen.

@uLmi
whitepapers steht auch noch ne menge bezüglich storage provisionierung und vmware settings. das wird ne menge ich freue mich schon ..
Jo, ist aber alles machbar. Vergiss nicht die Netapp Whitepaper zu lesen. Dort stehen auch noch wichtige Dinge zu ONTAP und VMWare Versionen.
Bitte warten ..
Mitglied: uLmi
04.12.2011 um 22:04 Uhr
dani danke für die motivation du bist echt sauber !
Bitte warten ..
Mitglied: cimboo
15.02.2013 um 13:06 Uhr
wie ist die Geschichte eigentlich ausgegangen?
Bitte warten ..
Mitglied: uLmi
18.02.2013 um 09:38 Uhr
Es wurden alle Server bis auf den Fileserver/DC virtuallisiert.
Es wurde eine ESXI Host hinzugefügt. Alle ESXI sind auf 5.1 aktuallisiert.
JumboFrames sind immer noch nicht aktiviert.
Flow-Control ist immer noch nicht aktiviert.
ISCSI Traffic und Public Server traffic ist immer noch nicht seperiert.

Es sind weiter Virtuelle Maschinen hinzugekommen und das ganze ist halt gewachsen.
Ich kann nur sagen: bevor man irgendeine Produktive Maschine in die Umgebung pflanzt erstmal alles perfekt einstellen und ambesten alles von Extern schlüsselfertig als paralelle Umgebung bereitstellen lassen.
Ich habe alles selbst gemacht und auch viele alte server "recycelt" das war ein fehler.
Wenn man von vorne auf einer grünen Wiese anfängt sicherlich okay oder wenn man die grüne wiese kommplett neben der alten umgebung aufsetzten kann auch aber sobald es eine mischung wird aus, produktiv umgebung, server recycling und entwicklung/aufbau verbaut man sich einfach zu viel.

die größte herrausforderung stellt sicherlich die ISCSI traffic trennung dar. Ich habe keine Ahnung wie der Exchange auf die Datenbanken zugreifen soll wenn diese getrennt werden. naja erstmal sind soviele andere Themen zu klären und ich weiß auch gar nicht ob die den Traffic jemals trennen werde...
Bitte warten ..
Mitglied: cimboo
18.02.2013 um 10:32 Uhr
Aber wenn du die Netze nicht getrennt hast, sind deine anfangs beschriebenen Probleme behoben?
Bitte warten ..
Mitglied: uLmi
18.02.2013 um 10:41 Uhr
welche Probleme meinst du genau ?
Bitte warten ..
Mitglied: cimboo
18.02.2013 um 10:59 Uhr
Du wolltest die Jumbo-Frames nicht aus spaß aktivieren, oder?
Bitte warten ..
Mitglied: uLmi
18.02.2013 um 11:10 Uhr
frag mich doch einfach was du wissen willst dann beantworte ich dir das gerne.

gruß
uLmi
Bitte warten ..
Neuester Wissensbeitrag
Ähnliche Inhalte
Vmware
gelöst VMWare 6 konsolidierung 2ter Platte auf SAN funktioniert nicht (2)

Frage von DirkGrote zum Thema Vmware ...

Vmware
VMware ESXi für Schulen? (3)

Frage von mrserious73 zum Thema Vmware ...

Erkennung und -Abwehr
Hackers are holding San Francisco s light-rail system for ransom

Link von Lochkartenstanzer zum Thema Erkennung und -Abwehr ...

Heiß diskutierte Inhalte
Windows Userverwaltung
Ausgeschiedene Mitarbeiter im Unternehmen - was tun mit den AD Konten? (23)

Frage von patz223 zum Thema Windows Userverwaltung ...

Viren und Trojaner
Aufgepasst: Neue Ransomware Goldeneye verbreitet sich rasant (20)

Link von Penny.Cilin zum Thema Viren und Trojaner ...

LAN, WAN, Wireless
FritzBox, zwei Server, verschiedene Netze (19)

Frage von DavidGl zum Thema LAN, WAN, Wireless ...

Windows Netzwerk
Windows 10 RDP geht nicht (18)

Frage von Fiasko zum Thema Windows Netzwerk ...