berndoppelt
Goto Top

FC Datastor schreibgeschützt

Hallo Forum,

ich habe momentan mit meiner vSphrere Umgebung folgendes Problem:
Vorhanden sind 3 ESXi 5.5 Server mit Essentials Lizenz inkl. vSphere Server.
2 Server haben jeweils einen QLogic QLE 2462 Dual Port 4GB FC Adapter. An diesen hängt direkt, ohne FC Switch ein FC SAN, so dass beide Server Zugriff auf ein gemeinsame LUN haben. Die funktioniert auch soweit, dass ich den Speicher anbinden kann und mit VMFS5 formatieren kann.

Wenn ich nun eine VM auf diesem Speicher erstelle, werden die VM Dateien inkl. virt. Festplatten auch angelegt, sobald jedoch die VM gestartet wird, kann nicht mehr schreibend auf die Festplatte zugegriffen werden. Auch kann ich an den Einstellungen der VM nichts mehr ändern. Lediglich löschen der gesamten VM von der Festplatte ist möglich. Es ist so, als wenn ich auf dem Speicher neue Dateien anlegen kann, löschen auch, jedoch ändern bestehender Dateien nicht möglich ist.

Ich habe den Speicher auch schon mehrfach neu erstellt und formatiert, jedoch ohne Besserung der Lage.

Kann mir dabei jemand helfen???

Vielen Dank!

Content-Key: 272182

Url: https://administrator.de/contentid/272182

Printed on: April 23, 2024 at 10:04 o'clock

Member: broecker
broecker May 17, 2015 at 14:35:34 (UTC)
Goto Top
moin,
das ist weit außerhalb jeder HCL, - ich geh' mal' von heimischer Test-Umgebung aus?!
ist es tatsächlich ein SAN-Storage oder "nur" ein Shelf?
ich könnte mir vorstellen, daß das Storage/Shelf den Zugriff von jedem anderem Node unterbindet, da das einzelne "SCSI-Device" - also die LUN schon zugewiesen ist.
Das Clusterfähige VMFS kommt da dann gar nicht mehr zum Zuge.

Modell?, nur eine LUN oder mehrere?
Sind beide Hosts auch noch doppelt angebunden?

2 SAN-Switche 4Gbit und 4-6 LC-LC Patchkabel dazu kosten doch in der Bucht nicht die Welt...

HG
Mark
Member: berndoppelt
berndoppelt May 17, 2015 at 15:01:16 (UTC)
Goto Top
Es handelt sich um ein FC-SAN (intern werkelt da ein ARECA Raid Controller mit 2x 4GB FC Anschluss) das bisher via Sanrad V2000 Switch verwendet wurde. Die ESXi Hosts haben ein neues 10GB ISCSi Storage für den produktiven Einstaz bekommen und ich wollte die SAN als zusaätzlichen Backup Storage bereitstellen. Die Sanrads sind mittlerweile mit dem 1 GB/s ISCSi Port sehr träge geworden.
Auch wenn ich das LUN nur einem einzigen Host zur Verfügung stelle, bekomme ich das gleiche Problem.
Ich weis, dass offiziell immer ein FC Switch verlangt wird, jedoch auch im Piont-to-Point Modus eine Verbindung funktionieren sollte. Es ist nicht geplant, weitere Server anzubinden.
Member: broecker
broecker May 17, 2015 at 16:50:45 (UTC)
Goto Top
ok, nun muß ja der Areca die Funktion des "SAN-Gateways" übernehmen, d.h. LUN-Zuweisung zu den Hosts, hier wäre zumindest ein Ansatz, daß dieser (sogar beiden Hosts - VMFS ist ja clusterfähig) beiden Hosts diese LUN auch präsentiert. Anzusprechen wäre dann auch die freigegebene LUN, nicht das ganze Storage im jeweiligen ESXi.
HG
Mark
Member: berndoppelt
berndoppelt May 18, 2015 at 17:27:41 (UTC)
Goto Top
Ich habe jetzt doch mal einen günstigen Switch in der Buch ergattert, wenn der da ist melde ich mich wieder!
Vielen Dank bisher.
Member: berndoppelt
berndoppelt May 27, 2015 at 18:11:09 (UTC)
Goto Top
FC Switch nun da, eingebaut und nach wie vor das gleiche Problem!
Liegt das nun an den SAN oder ist das eher ein Problem des ESXi?

Bin momentan echt ein bißchen ratlos!
Member: broecker
broecker May 27, 2015 at 18:30:11 (UTC)
Goto Top
1. keine Panik!
2. wenn Du bislang SAN nur angewendet hast, rechne jetzt mit einer Woche lernen:
Welcher Switch? Brocade/Qlogic/OEM? Die "SAN-Fabric" sollte konfiguriert werden, i.d.R. mit einem Helfer-PC, häufig über LAN, gelegentlich aber auch über RS232 oder FC "In-Band-Monitoring",
besonders schön finde ich den SAN-Surfer von QLogic mit einer 246x-Karte.
Grob: auf dem SAN-Storage muß die LUN-WWNN für den ESXi mit seiner WWNN oder seinen WWPN freigegeben sein, in der Fabric (d.h. der Switch) muß die Verbindung gestattet sein "Zoning"
Dann wird man die LUNs z.B. über den SAN-Surfer sehen und dann wird's auch mit dem Datastore klappen...
Ich weiß, jede Menge Aufriß, aber dafür gab's mal Storage-Administratoren...
HG
Mark
Member: berndoppelt
berndoppelt May 28, 2015 at 13:03:42 (UTC)
Goto Top
Danke für deine Hilfe.

Aber das Problem ligt ja nicht daran, dass die LUNs nicht etwa am ESXi gesehen werden können. Das geht auch alles, auch die redundanten Pfade über die beiden Switche (Brocade E200) funktionieren tadellos.

Wenn ich nun einen Datastor anlege auf dem LUN mit VMFS5 wird dieser auch richtig eingebunden und ich sehe ihn an beiden Hosts. Ich kann auch eine neue VM dort erstellen, wenn ich diese aber einschalte, dann ists so, als wenn die Files schreibgeschützt wären. d.h. es kann nichts an den virtuellen Festplatten geändert werden.

Kurz gesagt, ich kann Dateien anlegen und löschen, aber nichts verändern!
Member: broecker
broecker May 28, 2015 at 13:32:26 (UTC)
Goto Top
geht`s denn über nur einen esxi, nur einfach angebunden?
Member: berndoppelt
berndoppelt May 28, 2015 at 13:38:43 (UTC)
Goto Top
Gleiches Problem, das hatte ich ja schon versucht, bevor ich die Switche bekam und nur ein Kabel vom SAN zu einem ESXi hatte.
Member: broecker
broecker May 28, 2015 at 14:02:18 (UTC)
Goto Top
kann man im Storage-Controller (also der Arcea) die Art der LUN zuweisen?
normalerweise das Zielbetriebssystem - daraus werden dann Blockgrößen aber auch Cluster-Funktionalitäten bestimmt.
Ich würde, wenn vSphere nicht zur Verfügung steht, auf Linux tippen.
Aber die Ideen gehen mir inzwischen aus: Aufwändiger Weg jetzt: Win7 o.ä. auf einen Host, SAN-Surfer dazu, darüber eine LUN versuchen, anzusteuern...
HG
Mark
Member: berndoppelt
berndoppelt May 28, 2015 at 14:06:52 (UTC)
Goto Top
Der Gedanke mit Windows kam mir auch schon. Evtl kann ich über das WE testen. Werde erst mal versuchen, die QLogoc HBAs an einem Host als Passthrough einzurichten.
Ich melde mich bei Neuigkeiten...
Member: broecker
broecker May 28, 2015 at 14:12:03 (UTC)
Goto Top
Passthrough: darüber bitte berichten, das habe ich bei FC noch nie versucht....
Member: berndoppelt
berndoppelt May 29, 2015 at 08:45:17 (UTC)
Goto Top
Gestern Nacht noch die HBAs zur Passthrough Nutzung eigerichtet und einer Win7 VM zugeordnet. Nach Installation der Treiber würde der Speicher sofort als Festplatte erkannt und konnte formatiert werden. Zugriff klappt 1A und ist auch von der Zugriffszeit so, wie ich es mir für den ESXi erhofft hatte.

Also liegt das Problem am ESXi, unter Windows geht es ja. Am SAN könnte ich noch die Blockgröße verändern, von 4 KBytes bis max 128 KBytes, aktuell sind 64 eingestellt. Kann das noch was ändern? VFMS5 hat ja Blockgröße 1 MB, soweit ich mich erinnere.
Member: broecker
broecker May 29, 2015 at 09:15:37 (UTC)
Goto Top
Blockgrößen werden durch das SAN-Storage modifiziert, d.h. ja, für die Performance muß man testen oder alle Parameter, Spindeln, RAM, WriteThrough oder WriteBack, Blockgrößen der Disks, Slices des RAIDs - Storage baut intern vielleicht RAID10, sagt nach außen aber RAID1-LUN, usw. berücksichtigen,
das hat aber ja alles nicht damit zu tun, daß kein Schreibzugriff mehr möglich ist.
Da würde ich jetzt wirklich den Hersteller Areca bzw. den Verkäufer des SAN-Storage ansprechen.
Mir fällt spontan nur ein, bei RedHat 'mal ein Storage-Manual über exotische SAN-Parameter gelesen zu haben, gib mir 'mal zwei Tage...
Und ja, ohne dieses spezielle Storage kann ich (natürlich) bestätigen, daß QLogic-246x an ESXi 5.5 geht.
HG
Mark
Member: berndoppelt
berndoppelt Jun 02, 2015 at 11:23:28 (UTC)
Goto Top
neue Erkenntnis:
es ist nichts schreibgeschützt, sondern der Zugriff ist scheinbar so quälend langsam, dass alle Programme irgendwann in einen Timeout laufen.
Wenn ich direkt auf den datastor via SSH oder auch über den VI Client zugreife und eine Datei dorhin kopiere wird es zwar ausgeführt, dauert aber alles seeeeehr lange.
Member: broecker
broecker Jun 02, 2015 at 16:39:02 (UTC)
Goto Top
hey, damit kann man schon eher arbeiten...
SSH für scp und sshfs sind bekanntermaßen bei jedem ESXi langsam: FastSCP ist dafür eine denkbare Lösung.
Womit ich nicht sagen möchte, daß das spezifisch bei Dir jetzt das einzige Problem ist.
Im FC-Bereich läßt sich jetzt doch mit dem SAN-surfer bzw. auf dem Switch (immer noch: welches Modell?) ermitteln, welche Roh-Übertragungsgeschwindigkeit ausgehandelt wurde: 1, 2 oder 4 Gbit, halb- oder vollduplex
und welche Fehlerrate auftritt: vom Anschließen unter diesen Bedingungen her, "darf" da sowas wie "1000 Fehler" stehen, im laufenden Betrieb darf dann aber nichts mehr hinzukommen, sonst ist die LWL-Verkabelung "falsch"/verschmutzt/...
Werden Multimode-SFPs und passende Kabel - z.B. LC-LC, 125/50 eingesetzt?
Beim FC-Protokoll wird davon ausgegangen (anders als bei Ethernet), daß praktisch keine Fehler entstehen, die "Einschwingphase" ist entsprechend lang gewählt.
HG
Mark
Member: berndoppelt
berndoppelt Jun 17, 2015 at 13:42:46 (UTC)
Goto Top
Das Problem ist gelöst!
nach einer Woche Urlaub habe ich auch endlich Antwort vom Storage Hersteller, bzw. Areca bekommen.
Im ESXi musste folgendes geändert werden:

Please disable VAAI (check the following for how-to), this should solve the issue "vm cannot start up"

  • How to disable VAAI on VMware ESXi 5?
On ESXi 5.x GUI, navigate to Configuration > Advanced Settings > DataMover > fill in "0" on both two column.

Vielen Dank Mark für die Unterstützung!