braintester
Goto Top

Wann wird "täglich" defragmentieren ausgeführt? (Windows Server 2016)

Hallo,

seit diesem Jahr habe ich nun Server 2016 im Einsatz.
Bei zwei Servern ist es notwendig den Datenbestand täglich zu defragmentieren (oder neu: optimieren)
Wenn ich in der "Defragmentieren-GUI" die geplante Optimierung auf "EIN: Täglich" stelle, dann ändert sich in der klassischen Aufgabenplanung der Task "ScheduledDefrag" vom Status "deaktiviert" auf "Bereit".
Allerdings steht hier nun bei 'Nächste Laufzeit': "nichts" und bei 'Letzte Laufzeit': 30.11.1999'. Ergebnis: 'Die Aufgabe wurde noch nicht ausgeführt. 0x41303'

Wie steuert sich in Server 2016 die automatische 'tägliche' Optimierung und zu welcher Zeit läuft diese nun?
Der Aufgabenplaner scheint hier eine Teilrolle, aber keine ausschlaggebende zu spielen.

Gibt es hier Zusammenhänge mit den Wartungs- und Nutzungszeiträumen der neuen Server 2012 und 2016 Settings?

Gruß
Tobias

Content-Key: 350222

Url: https://administrator.de/contentid/350222

Printed on: April 25, 2024 at 20:04 o'clock

Member: sabines
sabines Sep 27, 2017 at 06:49:43 (UTC)
Goto Top
Moin,

deaktiviere das, zumindest Defragmentieren ist i.d.R absolut unnötig.
Beim Einsatz von SSD soll es die Lebensdauer verkleinern und auf Servern sind meist RAID Platten verbaut.

Und prüfe was sonst noch unter "Optimierung" läuft.

Gruss
Member: Braintester
Braintester Sep 27, 2017 updated at 06:57:55 (UTC)
Goto Top
Hallo sabines,

danke für den Einwand, allerdings trifft i.d.R. hier nicht zu und genau in dieser Konstellation muss ich defragmentieren.
Dies sollte mein obiger Satz ausdrücken:
Bei zwei Servern ist es notwendig den Datenbestand täglich zu defragmentieren (oder neu: optimieren)

Mich interessiert weiterhin, wie die Funktion "täglich optimieren" nun funktioniert/reagiert.

Gruß
Tobias
Member: Voiper
Voiper Sep 27, 2017 at 07:07:26 (UTC)
Goto Top
Moin,

laut dem Administration Guide 2016 (Windows Server 2016: The Administrator's Reference), wird der Job im Default Wöchentlich ausgeführt.

Zu sehen im Computer-Management->Storage Node auswählen->Disk Management Node auswählen. Im Tools Tab auf optimieren klicken und die Dialogbox mit deinen gesuchten Einstellungen taucht auf.

Gruß,
V
Member: Braintester
Braintester Sep 27, 2017 updated at 07:28:23 (UTC)
Goto Top
Hallo Voiper,

danke für die Hilfe, die Defragmentieren GUI aufzurufen.
Die von dir angesprochene Stelle in der Admin Reference lässt sich hier bei Google einsehen:
https://books.google.de/books?id=ePNODQAAQBAJ&pg=PT659&lpg=PT659&dq=#v=onepage&q&f=false

Diese GUI habe ich in meiner Thread Eröffnung angesprochen. Hier habe ich bereits auf "täglich" umgestellt.
Meine Frage bezog sich nun auf den Mechanismus im Server 2016.
Wann/Welche Uhrzeit bedeutet "täglich" und wo triggert Windows Server 2016 dies?
Der ScheduledDefrag Taks in der klassischen Aufgabenplanung wird automatisch modifiziert, wenn ich in der soeben genannten Gui die Funktion "Einschalte". Allerdings ergibt sich aus dem Task ScheduledDefrag noch keine Startzeit, da kein Trigger, kein Schedule sowie kein Zukünftiger oder Letzter Lauf eingestellt oder angezeigt wird.

Kann jemand etwas mehr zu der Textpassagen auf folgender Seite sagen?:
https://books.google.de/books?id=ePNODQAAQBAJ&pg=PT658&lpg=PT658&dq=#v=onepage&q&f=false
Welche 'automated Maintenance start time' ist gemeint. Wie wird der 'approximate start' bestimmt?
=> Wann läuft ein Defrag, wenn er auf täglich steht?

Gruß
Tobias
Member: Freak-On-Silicon
Freak-On-Silicon Sep 27, 2017 at 07:43:26 (UTC)
Goto Top
Blöde Frage, aber hast du schon einen Tag gewartet?
Member: sabines
sabines Sep 27, 2017 at 07:57:36 (UTC)
Goto Top
Wie kommst Du denn drauf, dass das notwendig ist?
Member: Penny.Cilin
Penny.Cilin Sep 27, 2017 at 08:07:42 (UTC)
Goto Top
Zitat von @Braintester:

Hallo,
Hallo,

seit diesem Jahr habe ich nun Server 2016 im Einsatz.
Ok.

Bei zwei Servern ist es notwendig den Datenbestand täglich zu defragmentieren (oder neu: optimieren)
Mit Verlaub, das ist Quatsch. Erkläre Dich, was Du damit genau damit erreichen willst.
Um welchen Datenbestand handelt es sich (SQL, ERP, CRM, was-auch-immer)

Da Du leider KEINE Informationen bzgl. der Hardware lieferst, kann man keine dedizierte Aussagen treffen.
Bei Verwendung von SSDs ist die Defragmentierung sogar kontraproduktiv, weil die Lebensdauer extrem verkürzt wird.
Zudem gibt es bei der Windows internen Defragmentation KEINE Parameter, wie man diese (Datenablage) steuert.
Damit meine ich, daß man zu DOS-Zeiten mit PC Tools Defrag zum Beispiel bei der Defragmentierung steuern konnte, ob man Programm, Daten oder anderes anordnen wollte. Das geht mit dem Bordeigenen Defrag NICHT.

Also nenne uns bitte weitere Details, damit wir wissen, was Du bezwecken willst. Ansonsten kommen keine aussagekräftige Kommentare bzw. Antworten.

Also
  • Welche Hardware wird eingesetzt, oder sind es VMs?
  • Wenn Hardware im Einsatz, werden SSDs genutzt? - Dann lasse die Finger davon
  • Um welchen Datenbestand handelt es sich, welcher täglich defragmentiert / optimiert werden muss? Mit sind diesbezüglich keine bekannt.

Gruß
Tobias

Gruss Penny
Member: Vision2015
Vision2015 Sep 27, 2017 at 08:21:39 (UTC)
Goto Top
moin...
Bei zwei Servern ist es notwendig den Datenbestand täglich zu defragmentieren (oder neu: optimieren)
türlich ist das mit dem defragmentieren/ optimieren unfug.... ich denke ein Systemhaus/ Softwareschuster hat da blödsin gesprochen.

ich denke aber eher, der TO redet von einer SQL Datenbank....

Frank
Member: sabines
sabines Sep 27, 2017 at 08:23:18 (UTC)
Goto Top
Zitat von @Vision2015:

ich denke aber eher, der TO redet von einer SQL Datenbank....

Frank

Selbst hier wird nicht damit gearbeitet, dafür gibt's Wartungspläne.
Member: Vision2015
Vision2015 Sep 27, 2017 at 08:27:27 (UTC)
Goto Top
Zitat von @sabines:

Zitat von @Vision2015:

ich denke aber eher, der TO redet von einer SQL Datenbank....

Frank

Selbst hier wird nicht damit gearbeitet, dafür gibt's Wartungspläne.
richtig...
ich denke aber der TO drückt sich etwas unglücklich aus... oder weiß nicht wie er sich ausdrücken soll/kann wegen fehlenden wissen!
da kann man leicht etwas durcheinander bringen face-smile

Frank
Member: Penny.Cilin
Penny.Cilin Sep 27, 2017 at 09:06:24 (UTC)
Goto Top
Zitat von @sabines:

Zitat von @Vision2015:

ich denke aber eher, der TO redet von einer SQL Datenbank....

Frank

Selbst hier wird nicht damit gearbeitet, dafür gibt's Wartungspläne.
Selbst diese Aussage ist unter Umständen nicht korrekt.
Wenn es sich um SQL handeln sollte und man schlechte Performance hat. Ist in sehr vielen Fällen die SQL-Abfrage zu optimieren.

Ich kann mich an ein Projekt erinnern, wo ich ein SQL-Cluster mit sehr guter hochperformanter Hardware aufgesetzt habe. Nach der Implementierung der SQL-Datenbank war die Performance der SQL-Abfrage absolut grottig. Die angeblichen Experten machten dafür die Hardware, die Installation auch das Chimney Protokoll, usw. verantwortlich.
Auch Microsoft war involviert und hatten KEINE Antwort, warum die Abfragen extrem ###e waren.

Man hat dann die Datenbank lokal auf einem Notebook installiert und die Abfragen wurden super schnell beantwortet. Ist ja logisch alles lokal. Bei Installation auf getrennte Systeme (Server / Client) ging die Performance in den Keller.

Zum Schluß hat ein SQL Spezialist, welchen ich kenne, herausgefunden, daß die SQL-Abfrage Optimierungsbedarf benötigt. Das wurde dann auch durchgeführt und damit war der Fall erledigt.

Gruss Penny
Member: sabines
sabines Sep 27, 2017 at 11:01:07 (UTC)
Goto Top
Zitat von @Penny.Cilin:

Selbst diese Aussage ist unter Umständen nicht korrekt.

Mooooment, wir sind ja erstmal nur bei HDD.
SQL Improvement kommt später face-wink
Member: Penny.Cilin
Penny.Cilin Sep 27, 2017 at 11:04:39 (UTC)
Goto Top
Zitat von @sabines:

Zitat von @Penny.Cilin:

Selbst diese Aussage ist unter Umständen nicht korrekt.

Mooooment, wir sind ja erstmal nur bei HDD.
SQL Improvement kommt später face-wink
Mooooment, das ist unsere Mutmaßung, weil sich der Beitragsersteller nicht weiter äußert.
Und somit nichts konstruktives zur Lösung seiner Frage beiträgt. face-wink
Member: Braintester
Braintester Sep 27, 2017 at 15:39:51 (UTC)
Goto Top
Hallo An Alle,

vielen Dank, dass Ihr euch Zeit genommen habt und mir ausführlich zu anderen Userbeiträgen und Teils bereits weiterführende Fragen antwortet.
->Nein es geht nicht um SQL Datenbanken.

Da es hier viele Interessiert, es geht um Veeam Backups auf ISCSI Luns an NetApp Storage Systemen.
Alles Plural. Es geht pro Server um ca. 50 TB verteilt auf 6 LUNs. Diese sind auf 2 NetApp Aggregate und 2 Volumes aufgeteilt.
Insgesamt liegen hier je Server weit über 100x 7,2K bzw. teils sogar 10K Festplatten an.
Das ganze Konstrukt spielt Durchlauferhitzer und verarbeitet und optimiert die Backups um Sie dann an die Langzeitarchivierung weiterzureichen.
Der ganze Bestand besteht aus Backups mit einem Maximalalter von 7 Tagen.
Zur Optimierung der Performance wird seit einiger Zeit mit 3rd Level sowie der Entwicklungs von Veeam sowie NetApp gearbeitet.
->Kein unwissendes Systemhaus beteiligt.
->Keine SSDs

Wir defragmentieren im OS und auf Ebene des Storage Systems die LUNs/Volumes mit Low Prio.
Defragmentieren wir nicht nach diesem Muster, fällt unser Datendurchsatz von 1GByte/s auf 100MByte/s und wir können den Service nicht erbringen.
-> Grund für Defragmentieren ist Erfahrung bzw. Ergebnisse aus Projekttests.

Das gesamte Problem steht hier aber überhaupt nicht zur Diskussion, da es aktuell gut läuft, wenn defragmentiert wird.

Meine Frage bezieht sich lediglich darauf, wie die "täglich Defragmentieren" von Windows 2016 eingeplant wird.
Wann wird dies durchgeführt? Wo ist der Trigger?
= Ziel 1 ist es den Trigger anzupassen, anstatt selbst Aufgaben oder Scripts einzuplanen.
= Ziel 2 ist es, ggfl. mehr über Windows Maintenance Funktionen des Servers 2016 zu erfahren, da er zum Beispiel auch regelmäßig die Defrag Analyse durchführt, die mich zu manchen Uhrzeiten einfach stört und auf die Performance drückt.
-> Ich habe bereits mehr als einen Tag gewartet, aber ich habe kein Muster gefunden. Zusätzliche Ergebnis: die Automatik defragmentiert eher unzuverlässig.
Member: Penny.Cilin
Penny.Cilin Sep 27, 2017 at 15:53:54 (UTC)
Goto Top
Hallo,

OK, zumindest wissen wir jetzt mehr. Wobei mir negativ auffällt, ist der schlechte Datendurchsatz, wenn NICHT defragmentiert wird.

Wie ist die Netzwerkverbindung, sprich welche NICs, wieviele NICs und mit welcher Geschwindigkeit ist das Konstrukt angeschlossen?
Wie wird gesichert, Dateibasiert oder Blockbasiert?

Nur so als Vergleich, ich kenne Unternehmen, die sichern 600 TB pro Tag. Und das innerhalb von wenigen Stunden.
Warum kein Fibrechannel?

Irgendwie habe ich das Gefühl, daß man sich bei den Projekttests verrannt hat.
Sorry, aber das ist nun mal meine Meinung.
Mal schauen, was andere Forumsmitglieder dazu sagen.

Gruss Penny
Member: XPFanUwe
XPFanUwe Sep 27, 2017 at 18:20:35 (UTC)
Goto Top
Hallo,

Deine Fragen kann ich nicht beantworten, ich defragmentiere seit 10 Jahren nicht mehr.

Allerdings pflichte ich bei, hier wird an der falschen Methode zur Lösung gearbeitet. Zumal das defrag einer solch Datenmenge auch beträchtlich dauert.

Auch ist es mir noch nie untergekommen, das man vor Backup defragt um das Backup zu beschleunigen.

Sorry, das hilft Dir jetzt nicht, aber ich weiß da keinen Rat.
Member: Braintester
Braintester Sep 27, 2017 at 19:04:26 (UTC)
Goto Top
Wenn ich das Backup Raw an einen Ort speichere ist das ganze eigentlich sehr schnell.
Da wir aber hier zweistufig arbeiten, die Daten optimiert werden und dann weitergereicht, fällt auf, dass dieser Prozess die klassische HDD Fragmentierung in nur 4 Wochen auf 100% hochtreibt. 100% Fragmentierung sind wohl jedem klar, dass dies extrem schlecht ist, wenn ich die Daten in selber Menge wieder lesen möchte.
Positiver Effekt: 30 Tage Daten aufheben benötigt trotz 2x Fullbackup File und vielen Increments nur 50% der einfachen Produktionsgröße.
Negativ: Massives Maintenance der Daten ist notwendig.

Btw. 10G LACP
Optimierungsmöglichkeiten:
Keine NetApp
Festplatten direkt im Server
Aber das Kind ist im Brunnen und ich muss damit leben.


Ich finde immer wieder Neuerungen am Server 2016 die entweder Sehr Gut oder verstörend undurchsichtig sind.
Gutes Highlight:
Wenn zwei Server 2016 mehrere Netzwerkinterfaces haben, prüft eine SMB/CIFS Verbindung, ob die Server auch über mehrere dieser Netzwerkkarten kommunizieren könnten. Ich starte einen Copy über 192.168.2.1 und Server 2016 Splittet die Daten und bündelt somit dann noch die möglichen Netze 192.168.10.1 und 192.168.20.1 .

Gegenbeispiel:
Wenn ich das Windows Defender Feature deinstalliere, dann funktionieren Windows Update nicht mehr richtig bzw. lässt sich das Windows Update log überhaupt nicht mehr ausgeben.


Kenn sich jemand mit den Maintenance Zeiten und den Defragmentierjobs aus?
Windows 2016 scannt auch regelmäßig die Fragmentierung, ohne das es gefragt wird.
Member: Penny.Cilin
Penny.Cilin Sep 28, 2017 at 08:28:13 (UTC)
Goto Top
Ok, so wie es scheint, nutzt Ihr Festplatten und keine SSDs.
Nur so als Hinweis, auch Festplatten werden sehr stark beansprucht durch die Defragmentierung.

Aber wir wissen immer noch nicht, ob Dateibasierend oder Blockbasierend gesichert wird.
Außerdem scheint Ihr ein Backup-Disk-to-Disk zu machen. Oder archiviert Ihr noch auf Tape?

Wenn allerdings hier keine Optimierungsmöglichkeiten bestehen und Du es nach dem bisherigen Verfahren weitermachen willst bzw. musst, dann bin ich raus aus dem Thema.

Gruss Penny
Member: Braintester
Braintester Sep 28, 2017 at 10:01:03 (UTC)
Goto Top
Änderungen am Konstrukt sind nicht vorgesehen.
Ich suche nur jemanden, der mich in die geheimisse von Server 2016 einweiht.
Member: Penny.Cilin
Penny.Cilin Sep 28, 2017 at 10:36:55 (UTC)
Goto Top
Dann schau Dir in der Aufgabenplanung ALLE Reiter an. Oder von andren geplanten Tasks deren Einstellungen, dann wirst Du fündig.