bachelorffm
Goto Top

RAID5 nach bespielen von ca. 1,5TB Daten nicht mehr erreichbar

RAID5 aus 4x1000GB HDDs ermöglicht nach aufspielen von ca. 1,5TB Daten keinen Zugriff mehr.

Hallo.

Ich habe folgendes Problem:

Mein RAID5 besteht aus vier 1000GB Festplatten (Samsung SpinPoint F2 EcoGreen) und hängt an einem onboard RAID-Controller der Marke Marvell, welcher auf einem ASUS-Board verbaut ist.
Ich habe das RAID5 initialisiert (Full initialization) unter Windows Server 2003 als GPT konvertiert und mit NTFS formatiert. Es lassen sich ohne Probleme ca. 1,5TB Daten aufspielen bis Windows plötzlich keinen Zugriff mehr ermöglicht.
Das BIOS des RAID Controllers zeigt als Status weiterhin FULLASSIGN an. Die Samsung Festplatten habe ich vor Inbetriebnahme mit dem ESTOOL überprüft, allerdings ohne "Complete Surface Scan".
Sämtliche Wiederherstellungsversuche (Testdisk, GetDataBack) sind erfolglos, die Programme können keine MFT zu wiederherstellen finden. Nach dem der Fehler das erste mal auftrat habe ich alles nochmal neu aufgesetzt und kam nach tagelanger Arbeit wieder zum selben Ergebnis.
Das RAID5 ist nur als Datenlaufwerk gedacht, Windows 2003 läuft auf einer seperaten Platte an dem zweiten onboard Controller.


Hat hier irgendjemand eine Idee wo das Problem liegen könnte?

Content-Key: 120242

Url: https://administrator.de/contentid/120242

Ausgedruckt am: 28.03.2024 um 15:03 Uhr

Mitglied: bartlebi
bartlebi 11.07.2009 um 04:59:49 Uhr
Goto Top
Ja, an den Marvell onBoard Controller. Diese Controller taugen nichts
für den harten Dauerbetrieb mit Raid5 würde ich z.B. den von 3ware
empfehlen.
Ich habe das einmal auf Desktop-Ebene mit diesem onBoard Controller
und anderen durchexerziert und gleich wieder verworfen. Alles Mist.
Im übirgen wird für ein Raid5 fünf Festplatten benötigt, wobei die fünfte Platte für die Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben, wobei die 3te Platte dann für die Paritätskontrolle zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch eine Hotspareplatte mitlaufen lassen, die im Falle eines Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID
oder in diesem Forum.
Dieses Thema wurde schon öfters behandelt.
Mitglied: bachelorffm
bachelorffm 11.07.2009 um 06:06:14 Uhr
Goto Top
Erstmal danke für die Antwort.
Das Marvell nicht das gelbe vom Ei ist, ist mir durchaus bewusst. Aber es ist doch schon komisch das alles reibungslos funktioniert, bis eine bestimmte Datenmenge auf das RAID gespielt wurde. Kann mir nicht vorstellen, dass der Controller hier anfängt zu streiken, oder irre mich da?
Außerdem soll das RAID auch nicht im harten Dauerbetrieb laufen, sondern nur auf einem Fileserver zuhause. Ich finde es nur besonders erwähnenswert, dass der Absturz zweimal, bei exakt derselben Datenmenge aufkam.
Der onboard Controller leistete auch schon mehrere Monate gute Dienste mit einem RAID1 Verbund aus zwei 1000GB Platten.
Das ein RAID5 zwangsmäßig aus 5 Platten bestehen muss, ist meinem Kenntnisstand nach nicht ganz richtig. Es werden mindestens 2 Platten + 1 Paritätplatte benötigt soweit ich weiß. Sei es drum, hier liegt wohl kaum die Ursache meines Problems.
Gibt es keine praktible Möglichkeit wieder Zugriff auf das RAID zu erhalten? Oder ist möglicherweise doch eine Platte defekt? Wie kann ich dann feststellen an welcher Platte es hängt? Nur mit einem Complete Surface Scan mit dem ESTOOL?
Mitglied: wiesi200
wiesi200 11.07.2009 um 07:46:48 Uhr
Goto Top
Zitat von @bartlebi:
Im übirgen wird für ein Raid5 fünf Festplatten
benötigt, wobei die fünfte Platte für die
Paratiätskontrolle zuständig ist.
Du kannst natürlich auch Raid5 mit drei Festplatten betreiben,
wobei die 3te Platte dann für die Paritätskontrolle
zunständig ist.
Eine Platte kann dann ausfallen. In jedem Fall würde ich noch
eine Hotspareplatte mitlaufen lassen, die im Falle eines
Plattenausfalls gleich einspringt.
Zum Nachschlagen für Raidkonstellationen
http://de.wikipedia.org/wiki/RAID

Obwohl der Wiki Artikel gut ist hast du ihn selbst vermutlich nicht gelesen. Erst mal die Paratätsinformationen werden auf alle Platten verteilt. Bei Raid 4 wird's nur auf eine einzige geschrieben. Zum anderen Raid5 benötigt mindestens 3 Platten geht aber auch auf 4,5,6,7 usw.

@bachelorffm
Schon mal an ein Softwareraid gedacht. Das nimmt sich zum Marvel nicht viel.
Mitglied: bachelorffm
bachelorffm 11.07.2009 um 09:10:24 Uhr
Goto Top
Mitglied: bachelorffm
bachelorffm 11.07.2009 um 09:12:36 Uhr
Goto Top
Ja, habe ich. Allerdings würde ich lieber erstmal wieder Zugriff auf das RAID erhalten.
Mitglied: bartlebi
bartlebi 11.07.2009 um 17:40:45 Uhr
Goto Top
@wiesi200, und ob ich den richtig gelesen habe.
Die Paritätsverwaltung auf alle Platten habe ich allerdings vorausgesetzt.
Zudem habe ich auch geschrieben, dass ein Raid5 auch aus 3 Platten bestehen kann. Die Frage ist mit welcher Ausfallsicherheit man leben möchte.
Anmerkung: In unserer Firma haben wir mehrere Server mit unterschiedlichen Raid-Konstellationen wie Raid10, Raid5 im großen Maßstab etc., bei einer Serverfarm gibt es mehr zu beachten, u.a. auch Ausfallsicherheit von Controllern.
Wenn eine Frage eher für den privaten Bereich abzielt, sollte dieses auch entsprechend formuliert werden, d.h. die Priorisierung der Wichtigkeit, ob das Raid auch wirklich mit dem Controller laufen muss, ist dann natürlich eine andere.face-wink
Im übrigen sind diese Fragen schon öfters in diesem Forum erörtert worden!

@bachelorffm, aber OK, bleiben wir beim onBoard Controller von Marvel und dessen Problemlösung.
Bei einem Raid 1-Verbund habe ich diesen Controller auch auf Desktop-Ebene auch schon betrieben.
Damit kann man leben, falls eine Platte ausfällt macht es nichts, Umschalten auf IDE-Modus und weiter geht es.
Die Analyse, warum es gerade bei Raid-5 und 1.5 gb zum stoppen kommt, ist schwierig zu analysieren.
Ausgewogenheit Hardware, Bios-Einstellungen und Controller-Software könnten hier die Ursachen sein.
Neueinrichtung:
1. Sofern alle 4 Festplatten wirklich gleich sind und alle keinen Defekt haben, besteht bei dem Hardware-Raid
immer das Problem mit der Syncronisation zwischen den Festplatten und Controller, was auch mit den
teureren Controllern immer wieder auftritt.
Es wird ein vermeintlicher Fehler bzw. eine defekte Festplatte angezeigt und die Controller-Software
schließt die eine oder andere Platte aus.
2. Software-Raid, ist nach meiner Einschätzung erheblich gefährlicher und hat auch eine Einschränkung,
aber von der Transferrate fast genauso schnell.
Entscheidend ist aber auch hier, wieviel Sicherheit will ich haben zu welchen Kosten.
Wird nicht nur im Linux-Umfeld immer beliebter.
Wichtig ist, dass der Bootloader auf der ersten Festplatte sitzt, geht diese kaputt, bootet der PC nicht
mehr, dass ist der Pferdfuß.
Mitglied: wiesi200
wiesi200 11.07.2009 um 20:08:39 Uhr
Goto Top
Du hast geschrieben: "Im übrigen wird für ein Raid5 fünf Festplatten benötigt" hast zwar wieder korrigiert aber es der Satz stimmt so nicht.
Du hast dann geschrieben das bei 3Platten die 3te die Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht richtig.

Lassen wir mal die Hotspare Platte außen vor. Bringt ja eh nur bedingt mehr Sicherheit, da sich der Verbund beim Ausfall erst wieder aufbauen muss. Ne Platte daneben hin legen bringt genau so viel. Ist eher ne Sache der Bequemlichkeit.
Ein Raid 5 mit 5 Platten ist eigentlich nicht so sicher wie eins mit 3 Platten da geht's um Wahrscheinlichkeit. Die Geschwindigkeit ist aber höher.

Das mit den privaten Bereich spielt da denke ich eher eine untergeordnete Rolle. Die onBoard Marvel Raidcontroller sind jetzt nicht grad das tollste.
Das macht ein Software Raid genau so gut. Da kann dir kein Controller ausfallen. Da es nur im die Datenplatten geht ist auch der Bootloader nicht drauf. Also für den Fall nicht unbedingt die blödeste Lösung.

Im Serverbereich setzte ich am liebsten GDT oder LSI ein. Hab da auch den einen oder anderen Server rum stehen.
Mitglied: bartlebi
bartlebi 11.07.2009 um 20:58:21 Uhr
Goto Top
Zitat von @wiesi200:
Du hast dann geschrieben das bei 3Platten die 3te die
Partiätsverwaltung mach bzw. bei 5 die 5te. Das ist so auch nicht
richtig.
Gut, etwas zu grob umschrieben, da die Paratitätsinformationen im Gegensatz zum Raid4 ja auf die Platten verteilt werden. Sonst könnte ja keine ausfallen. face-wink Zu diesem Thema sind ja schon in diesem
Forum etliche Abhandlungen und Kommentare geschrieben worden, warum die keiner liest, ist mir schleierhaft.
Die Geschwindigkeit bei Raid5 mit fünf oder drei Platten sei einmal dahingestellt, aber eine Hotspareplatte macht im professionellen Umfeld immer Sinn, wenn diese schon eingebaut ist, bevor ein Fehler auftritt.

Selbstverständlich ist bei reinen Datenplatten und Softwareraid, der Bootloader nicht maßgeblich, war auch nur als allgemeiner Hinweis gedacht.
Ist im übrigen auch keine blöde Lösung, sondern wird bei vernünfter Datensicherung auch häufig eingesetzt.

Gut, die GDT und LSI Controller bewegen sich in einem anderen Preissegment als Adaptec oder 3ware face-wink
Mitglied: Jochem
Jochem 13.07.2009 um 13:00:50 Uhr
Goto Top
Moin,
mal ganz blöd gefragt: Kann es sein, daß Dir bei 1,5 TB an Dateien die MFT "übergelaufen" ist? Wenn ich lese
Sämtliche Wiederherstellungsversuche (Testdisk, GetDataBack) sind erfolglos, die Programme können keine MFT zu wiederherstellen finden.
sieht es mir so aus, als ob die maximale Anzahl von Dateieinträgen erreicht wurde und daher das Inhaltsverzeichnis der Raid-Partition überschrieben wurde. Vor allem, wenn
Nach dem der Fehler das erste mal auftrat habe ich alles nochmal neu aufgesetzt und kam nach tagelanger Arbeit wieder zum selben Ergebnis.
das noch hinzukommt.

Gruß J face-smile chem
Mitglied: bachelorffm
bachelorffm 13.07.2009 um 15:43:18 Uhr
Goto Top
Ja, sieht wohl schwer danach aus. Kenne mich leider nicht so gut mit Dateisystemen aus, aber deine Antwort klingt auf den ersten Blick schon sehr plausibel!
Welche Begrenzungen hat die MFT denn?
Und gibt es eine Möglichkeit sie wiederherzustellen?

Für weitere Hilfe wäre ich dir wirklich sehr dankbar!
Mitglied: Jochem
Jochem 13.07.2009 um 16:42:25 Uhr
Goto Top
Moin,
wenn ich recht erinnere, gibt es in der Registry einen Schlüssel, der den reservierten Speicherplatz für die MFT begrenzt:
HKEY_LOCAL_MACHINE \ SYSTEM \ CurrentControlSet \ Control \ FileSystem" beim Eintrag "NtfsMftZoneReservation"

Als Einträge sind möglich
1- 12,5%
2- 25%
3- 37,5%
4- 50%
der Partitionsgröße.

Vom Prinzip her sollte die MFT (ist ja eigentlich nur eine Datei) dynamisch "mitwachsen". Standard sind 16 KB (Default-Einstellung bei der Installation des BS). Mit jeder Datei, die hinzukommt, wächst diese Datei um 1 KB.

Die Anzahl der Dateien ist so groß, daß der reservierte Speicherplatz nicht mehr ausreicht und die Datei überschreiben wird. Womit dann die Anfangs-Informationen auch weg sind. Was dann in einer nicht zu findenden MFT endet.

Ob dem so ist, kannst nur Du endgültig beantworten, denn nur Du weißt, wieviele Dateien tatsächlich gespeichert werden und ob deren Anzahl den zugewiesenen Platz gemäß der o.a. Formel sprengt.

Gruß J face-smile chem
Mitglied: SamvanRatt
SamvanRatt 13.07.2009 um 17:13:45 Uhr
Goto Top
Hi
ohne den Fall im jetzigen aufgenommen zu haben: GPT (GUID Parttion Table) ist mit den meisten Tools die derzeit auf dem Markt sind nicht kompatibel, was aber recht gut klappt sind RAW Datensuche. Ich habe privat seit 7 Jahren GPT im Einsatz (auf einem sehr großen Netfinity mit etwa 15TB) und Windows kann damit ganz gut umgehen (da befinden sich etwa 17Mio Dateien drinnen und der Befülllungsgrad erreicht langsam 96%). Zum Glück mußte ich nie einen harten NTFS Crash mit chkdsk angehen. Meine Imagetools (HD Snapshot, Ghost, PQIMGCTR, Acronis können teils die HD sehen, aber meist falsche Größe (Acronis trumpft hier) oder brechen nach 2TB ab (Acronis...). Einzig ntbackup oder BackupExec (oder wohl andere Backupsysteme) läuft einwandfrei; umziehen mußte ich schon mehrfach (rsync oder robocopy).
Zuerst einmal würde ich mit einem tool wie filescavenger (im Long Modus) probieren; EZRec und die zahlreichen "ich helfe dir wenn ich kann" tools würde ich auslassen. Ich mache so einen HD/Volumen Fehlerfall etwa 1*die Woche, wodurch ich sehr viele Probleme kenne und bisher immer zum Ergebnis kam. Das die HDs OK sind nehme ich mal an (naja Samsung....), aber simpel offline an einem anderen Rechner mit den Samsung tools testen
Da du vermutlich keine Kapa hast um ein RAW Image von dem Konstrukt zu ziehen (evtl ist der Marvell einfach nicht in der Lage mit GPT umzugehen oder er hat wie viele SATA Chipsätze ein Problem mit Disks ab 2TB), oder?
Ich habe auf meinem ASUS P5WDG2 auch einen drauf und habe ihn zwar als Performanter als den ICH7 beobachtet aber die Tools sind eher drittklassig. Hast du mit dem neu erstellten Volumen schon ein paar Testboots durchgeführt? Ich hatte schon Kontroller die erst unter Win wunderbar alles erstellen ließen und danach die Krise mit dem Firmwareloader bekamen.
Schau mal ob drivesnapshot die HD richtig sieht; lt Support ist eine Unterstützung von Volumen >2TB (aber nur mit Sektorsize=512B) seit der V1.39 mit drinnen. Zur Erleichtertung: der RAID Eintrag ist vom NT aus nicht sichtbar und damit überschreibt dir ein volles Dateisystem sicher keine "RAID Konfig" (marvel, intel, SiI, Promise, NVidia, ATI bauen NUR SoftwareRAIDs). Wenn du die HD noch als einzelnes Volumen siehst passt das. Der MFT passt sich normal beim befüllen an (min 12.5% max ist afair 75%), außerdem steht da nicht so viel wie man denkt.

Gruß
Sam
Mitglied: bachelorffm
bachelorffm 13.07.2009 um 17:42:21 Uhr
Goto Top
@ SamvanRatt
Danke erstmal für die Antwort. Ich fasse mal zusammen: Deiner Meinung nach gibt es keine andere Möglichkeit als eine RAW Datensuche. Keine Möglichkeit das Volumen wiederzustellen? Es ist ja lediglich die Partition abgeschmiert! Die RAW Datensuche habe ich mit GetDataBack schon durchexerziert, ohne Ergebnis. FileScavenger habe ich auch, da gibt es auch spezielle Optionen für RAID5, werde ich dann nochmal testen.
Soviel zu Wiederherstellung, mich würde aber vielmehr interessieren, wie es zu dem Absturz bei ca. 1,5 TB kommt. Das Volumen läuft einwandfrei bis eben die genannte Datenmenge aufgespielt wurde!

@Jochem
Wenn ich das richtig sehe, bringt mir der Registry Eintrag aber nur etwas, wenn ich ihn vor dem Absturz erledige. In der jetzigen Situation trägt das wohl kaum zur Wiederherstellung des Dateisystems bei, richtig?

Von meinen wichtigen Daten besitze ich natürlich ein Backup, allerdings befinden sich auf dem Volume auch noch ungesicherte Daten, die ich wenn möglich wirklich gerne wiederherstellen würde, zumindest teilweise. Ein Verlust dieser Daten wäre zwar kein Weltuntergang, aber dennoch muss es doch eine Möglichkeit geben das Dateisystem einfach wiederherzustellen ohne den Weg über die RAW Datensuche zu gehen...
Mitglied: SamvanRatt
SamvanRatt 13.07.2009 um 17:58:16 Uhr
Goto Top
Hi
Die RAW Datensuche bringt dich an die Daten. Wenn drivesnapshot das Vol sieht und backupen kann kommst du wieder ans Volumen. Sofern du die Daten (noch wo) hast, vergiss dies und mache gleich ein SoftRAID5. Der NT Teil gilt als sehr stabil und performant und hatte ich auch schon mal. Wieso 1.5TB: evtl sind das die 25% Standard MFT (beim format Befehl) sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon). Mit 2*1.3TB HDs von Seagate habe ich das mit einem SiI RAID0 gehäuse schon mal ausprobiert. Nach etwa 2 Min kam ein Timeout und die HD wurde mit 0GB gefunden; im Linux wurde sie dann als Bigdisk mit 32Bit-1 512B Sektoren gefunden.
Da ich das Gerät nicht da habe kann ich nur Vorgehenstipps geben; wie gesagt wenn du spielen kannst/willst (SoftRAID unter w2k3 habe ich mit 6.3TB im Einsatz, da es mit SAN schwer alternativen gibt) findet sich sicher eine Lösung!
Gruß
Sam
Mitglied: SamvanRatt
SamvanRatt 13.07.2009 um 18:04:03 Uhr
Goto Top
GDB kann aber nicht mit GPT umgehen; FS ist da besser, mit DriveSnapshot kannst du auch einzelne Bereiche direkt zurückholen via mounten; wie gesagt würde ich erst mal sehen was geht und was nicht und dann einen Weg finden. Jedes Tool (wir haben hier in der Firma 5 verschiedene nur für Desaster Fälle) und jedes hat seine Stärken und schwächen, daher will ich keines Missen; irgendwann ist man doch froh drum.
Mitglied: bachelorffm
bachelorffm 13.07.2009 um 20:21:10 Uhr
Goto Top
Okay, das sind erstmal viele wertvolle Tipps!
Ich danke dir dafür! Werde alles mal ausprobieren und in ein paar Tagen meine hoffentlich erfolgreichen Ergebnisse mitteilen!
Mitglied: deltatango
deltatango 13.07.2009 um 21:59:00 Uhr
Goto Top
Eine Lösung habe ich nicht, aber vor einer Weile hat die c't RAID-Kisten (direct attached) getestet und ist unter Windows auf einen Bug in etlichen Windows-(E-)SATA-Treibern gestoßen: bei ca 2GB Füllstand gab es ein geschrottetes Filesystem.

Eventuell hast du genau das gleiche Problem, auch wenn du kein E-SATA verwendest (ist am Ende eh der gleiche Treiber)
Es war die 2/2009:
<http://www.heise.de/kiosk/archiv/ct/2009/2/54_kiosk>

Zitat:
An Southbridges von Intel (ICH10R sowie ICH9M) und AMD (780G mit SB700) sowie dem SATA-Chip JMicron 20363 erkannte Vista dagegen die Kapazität falsch, und zwar um genau 2048 GByte zu klein. Das deutet darauf hin, dass die Treiber intern mit 32-bittigen Sektornummern rechnen und größere Zahlen einfach abschneiden.

Das Prekäre daran: Hat man die 4big bereits formatiert und mit Daten bespielt, so taucht sie im Explorer und auch in der Datenträgerverwaltung von Vista mit der korrekten Kapazität auf; scheinbar ist alles in Ordnung.

Doch wehe, man überschreitet beim Befüllen die 2-Terabyte-Grenze. Dann werden Daten am Anfang der Platte überschrieben, die Partitionierung ist hinüber und alle Daten futsch, wie wir in mehreren nächtelangen Versuchen
zuverlässig reproduzieren konnten.
Zitat Ende.
Mitglied: SamvanRatt
SamvanRatt 13.07.2009 um 22:27:23 Uhr
Goto Top
Hi Deltatango
das klingt nach meinem Bericht oben:

"sofern das wirklich was mit den derzeitigen 2TB Grenzen zu tun hat. Wenn du spielen kannst lass doch mal mit bigfile oder ähnlichen große Daten dort erzeugen (2TB und warte bis er abbricht, BSOD, ...). Ich habe meinen Marvell noch nicht mit großen HDs getestet, daher kann ich keine TB Erfahrung geben, aber selbst Intel hat erst vor kurzem zugegeben (Bericht in der c't) das keine deren aktuellen SATA Chips mehr als 2TB verwalten kann als Endgerät (die Controller dank 64Bit teils schon)"
Mitglied: bachelorffm
bachelorffm 14.07.2009 um 08:08:23 Uhr
Goto Top
Ja, ich denke das scheint bei mir wirklich das Problem zu sein... Naja, werde dann wohl lieber auf ein SoftRAID umsteigen.

@SamvanRatt
Habe mir mal DriveSnapshot besorgt, er erkennt das Volume auch. Du sagtest doch es gibt auch die Möglichkeit ein Image von Teilbereichen zu ziehen? Kannst du mir eine kleine Erklärung hierzu geben? Komme leider nicht weiter... und für ein komplettes Image fehlt mir der Speicherplatz....
Mitglied: SamvanRatt
SamvanRatt 14.07.2009 um 08:57:08 Uhr
Goto Top
Hi
erkennt DS auch das dort ein Volumen liegt? Wenn ja gibt es laut Hilfe einen Kommandozeilen Parameter Zitat:

Ausschließen von Dateien aus dem Backup

In manchen Fällen kann es sinnvoll sein, gewisse Verzeichnisse und Dateien aus dem Backup auszuschließen.

Dies ist immer der Fall (und schon immer so implementiert) für Pagefile.sys und Hiberfile.sys, kann aber auch für temporäre Verzeichnisse, gesammelte gesaugte Filme etc. sinnvoll sein.

Technisch bedingt wird dabei lediglich der Inhalt der betroffenen Dateien nicht gesichert, die Verzeichniseinträge aber sehr wohl.

Deshalb sind nach einem Restore zwar sämtliche Dateien noch immer/wieder da, enthalten aber lediglich zufällige Daten.

Aus diesem Grunde wird im Image eine Datei 'SnapshotDeleteAfterRestore.BAT' angelegt; sie sollte nach einem Restore ausgeführt werden, um Irritationen zu vermeiden.

Dateien und Verzeichnisse können ausgeschlossen werden durch (Komma-separiert)

--exclude:\Temp,\Windows\Memory.dmp,\Windows\Minidump\*,"\Dokumente und Einstellungen",\Windows\$NtUninstall*

(\temp und \temp\* sind equivalent)
Leerzeichen im Dateinamen müssen durch `"` Hochkomma eingeschlossen werden

Dies umfasst immer auch Unterverzeichnisse

Gruß
Sam