docusnap-dude
Goto Top

Festplattenreparatur im laufenden Betrieb

Hallo,

das gute alte Checkdisk ist ja immer recht hilfreich; aber auf einem großen Fileserver in Produktionsunternehmen über Stunden ein unmount der Shares wäre echter Hardcore!

Meine Frage: habt Ihr evtl. Softwareprodukte gefunden, welche das auch im laufenden Betrieb erledigen?

Ein anderer Ansatz: eine performante LIVE-Replikation der Verzeichnisse mit ordentlicher Kopie der Zugriffsrechte. Somit quasi selber Dateistand auf 2 unterschiedlichen Servern).
Nur: was nimmt man da wenn es sauber, schnell und ordentlich laufen soll? DFS ist ja gut aber eben nicht für riesige Dateimengen die auch immer gleichen Stand haben sollen.

Danke für eure Erfahrungen!

Content-Key: 230285

Url: https://administrator.de/contentid/230285

Ausgedruckt am: 19.03.2024 um 04:03 Uhr

Mitglied: Lochkartenstanzer
Lochkartenstanzer 18.02.2014 um 16:24:59 Uhr
Goto Top
Zitat von @DocuSnap-Dude:

Meine Frage: habt Ihr evtl. Softwareprodukte gefunden, welche das auch im laufenden Betrieb erledigen?

Moin,

Weißt du was du da verlangst? Operation am offenenen Herzen, während der Patient noch bei der Arbeit ist, um es mal mit einem Metapher aus derm Fachbereich von @keine-ahnung zu sagen.

Ntürlich ist es nicht unmöglch während des Produktivbetriebes Dateisystemfehler zu beheben, Das muß aber das dateisystem mitmachen udn dafür mechanismen vorgesehen haben. mit NTFS 8und vielen anderen) ist das eher ein Vabanque-spiel.

Wenn da wirklich der Verdacht auf ein korruptes Filesysdtem besteht, muß man eben das Risiko der Folgeschäden gegen die Kosten einer downtime gegenrechnen udn entsprechend entscheiden.

Du köntnest natürlich ein readonly-Filesystemcheck machen und nur falls Fehler gefunden werden, die offline-reparatur durchführen.

lks
Mitglied: DerWoWusste
DerWoWusste 18.02.2014 aktualisiert um 16:28:11 Uhr
Goto Top
Hi.

DFS ist ja gut aber eben nicht für riesige Dateimengen die auch immer gleichen Stand haben sollen.
Eigene Erfahrung? Gerüchte? Was diente als Quelle? Was für DFS vom Level Win2k galt, gilt jedenfalls heute nicht mehr, da modernere DFS-Versionen nur noch die Änderungen an Dateien synchronisieren, nicht mehr die ganze Datei.

Bevor weitere Vorschläge diskutiert werden:
-wie viele Nutzer greifen zu?
-was für eine Umgebung (Client-OS, Netzwerkgeschwindigkeit)?
-Wie viele Daten (Menge/Anzahl/Neudaten pro Stunde)?
-maximales Budget?
Mitglied: DocuSnap-Dude
DocuSnap-Dude 18.02.2014 aktualisiert um 17:12:55 Uhr
Goto Top
Tachchen,


Eigene Erfahrung? Gerüchte? Was diente als Quelle? Was für DFS vom Level Win2k galt, gilt jedenfalls heute nicht mehr,
da modernere DFS-Versionen nur noch die Änderungen an Dateien synchronisieren, nicht mehr die ganze Datei.

Ich hatte das vo ~3 Jahren auf einem 2003R2 probiert. Am Ende hatte ich vollkommenen Datensalat und differente Dateistände.

-wie viele Nutzer greifen zu?
~150 Users
-was für eine Umgebung (Client-OS, Netzwerkgeschwindigkeit)?
Server 2003/2008/2012 Mixed, Client's Winxp/Win7, 100Mbit Für Clients; Server über Teaming-LAN mit bis zu 4GBit untereinander
-Wie viele Daten (Menge/Anzahl/Neudaten pro Stunde)?
etwa 2500 (Volumen etwa 1-5GB)
-maximales Budget?
wenn's gut ist ruhig bis zu 3000 (Frage dann nur ob es genehmigt wird face-big-smile)
Mitglied: DocuSnap-Dude
DocuSnap-Dude 18.02.2014 aktualisiert um 17:12:08 Uhr
Goto Top
@Lochkartenstanzer

Wie gesagt: es ist ja auch erst einmal eine Frage. Dazu dient ja dieses Forum auch. Es gibt am Markt geniale Lösungen für alles mögliche. Und da ich kein "Prof.Dr. Allwissend" bin und nun niemand alle Einzellösungen kennen kann eröffnet sich der Weg für "frag mal andere".

Nichts desto Totz; klar ist das eine Mamutaufgabe, keine Frage. Wenns einfach wär könnt's ja auch jeder face-big-smile
Mitglied: DocuSnap-Dude
DocuSnap-Dude 19.02.2014 aktualisiert um 08:50:09 Uhr
Goto Top
Ich werde mich jetzt zum letzten Kommentar nicht weiter auslassen.

Sorry, aber ich definiere ein Forum doch etwas eher in Richtung "sachliche Diskussion für respektvollen, emotionsgezügelten und uneuphorischen Erfahrungsaustausch".
Punkt.
Mitglied: it-frosch
it-frosch 19.02.2014 aktualisiert um 10:29:18 Uhr
Goto Top
Hallo GPOdin,

Nur: was nimmt man da wenn es sauber, schnell und ordentlich laufen soll?
auch wenn ich deine Frage nach dem Tool nicht beantworten kann, wollte ich etwas Erfahrung beisteuern.

Ich stand jetzt vor der Aufgabe unseren Fileserver (ca. 3,5 TB) umzuziehen und möglichst wenig Downtime zu haben.
Also habe ich den Server das komplette WE gesperrt und dem Umzug durchgeführt. Mit den gemachten Erfahrungen würde ich in
Zukunft aber besser so vorgehen:

1. Image vom alten Fileserver (SRV1) machen und in neuer Umgebung als SRV2 zurück sichern.
2. Letzte Vollsicherung von SRV1 auf SRV2 einspielen (das dauert bei uns schon mal 2,5 Tage).
3. SRV1 inkrementell sichern und dieser Sicherungen zeitnah au SRV2 einspielen.
4. SRV1 für Produktion sperren, herunterfahren, Computerkonto im AD löschen, SRV2 nach SRV1 umbenennen

Nun weiß ich nicht, was das für Daten bei euch sind. Ob die ständige modifiziert wachsen (8:00 300MB - 14:00 5,6 GB) oder ob einfach
die Anzahl der Dateien wächst. Im zweiten Fall könntest du die letzte inkrementelle Sicherung auch nach Punkt 4 einspielen, wenn
wieder alle Arbeiten und sparst dir die Downtime für das Restore in Punkt 3.

Es gibt sicher super Tools für alles, aber wenn man wie ich nicht der "super allwissende Admin" ist und kaum Budget hat, dann wäre es
auch mit robocopy oder der Datensicherung getan.

Du kannst mein Beispiel ja auf deinen Fall übertragen. Dann müsstest du nur den Platz für ein zeitweiliges doppeltes Laufwerk haben auf
das du die Daten des korrupten Datenträgers überträgst.
Einzig für den Punkt 4 ist downtime notwendig.
Damit solltest du sie aber deutlich unter 1h halten können.

grüße vom it-frsoch
Mitglied: DocuSnap-Dude
DocuSnap-Dude 20.02.2014 um 14:44:49 Uhr
Goto Top
So, dann werde ich das Thema hier mal schliessen. Mal schauen was ich da nun machen werde. Danke für eure Anregungen auf alle Fälle.