lhbl2003
Goto Top

SSD mit RAID 50

Hi,

in HP DL380 Servern passen Pro HDD Box 8 Festplatten hinein.
Jedes mal wieder stelle ich mir dabei die Frage welches RAID für z.B. 1TB SSDs wohl die bessere wahl ist.

Aktuell weiß ich das RAID1 eine gute Performance bietet.

Scheinbar ist RAID 5 nicht so richtig gut für SSDs, da dies die Lebensdauer einschränken soll, da die Paritätsschreiberrei die SDDs ermüdet.

Bei RAID 10 bekomme ich einen größeren Speicherpool und Kombiniere den vorteil aus Raid 0 und Raid 1.
Soviel ich gelesen habe, soll sich das auch nicht wirklich negativ auf die SSDs auswirken.

Aber wozu man kaum etwas findet ist zum Thema Raid 50.
Ja ich brauche 2 Platten für die Parität im gegensatz zu Raid 5, bekomme dafür aber:
- Eine höhere ausfallsicherheit im vergleich zu Raid 5
- Habe scheinbar etwa die gleiche Lesegeschwindigkeit wie bei Raid 5?
- Habe scheinbar eine höhere Schreibgeschwindigkeit als bei Raid 5?
- Und wie sieht es mit der Lebensdauer bei Raid 50 aus?

Vielen Dank für eure Ideen

Content-Key: 5501576095

Url: https://administrator.de/contentid/5501576095

Printed on: April 27, 2024 at 22:04 o'clock

Member: em-pie
em-pie Jan 20, 2023 at 08:46:06 (UTC)
Goto Top
Moin,

Ja ich brauche 2 Platten für die Parität im gegensatz zu Raid 5, bekomme dafür aber:
Streng genommen ist es die Kapazität von 2 Medien, brauchst insgesamt also mindestens 6 Speichermedien:
https://www.lacie.com/de/de/manuals/6big12bigtbolt3/raid/
Und ja, die Lese-Geschwindigkeit steigt "enorm", da ja die Daten von zwei MEdien angeliefert werden. Fraglich nur, ob dein Databus/ Controller die Daten auch schnellgenug bereitstellen bzw. dein Zielsystem diese schnell genug verarbeiten kann...
Schreiben ist auch geringfügig schneller, da die Daten ja jeweils zur Hälfte auf zwei Medien parallel geschrieben werden.

RAID 50 im Zeitalter von SSDs/ NVMes sehe ich mal als recht selten an.

Was hast du überhaupt mit der Performance vor?
Also wie viele IOPS erwartest/ brauchst du?
Member: it-fraggle
it-fraggle Jan 20, 2023 at 09:03:24 (UTC)
Goto Top
Mit RAID will man ja Ausfallsicherheit und Geschwindigkeit gegenüber einer Solo-Disk erreichen. Seid SSDs ist das aber alles noch mal neu zu überdenken. Und seit NVME ist das sogar wieder zu überdenken. Da reicht echt in den meisten Fällen ein Simples RAID-1 aus. Die Geschwindigkeit und Zugriffszeit ist derart irre, dass man sich komplizierte RAID-Konstellationen fast(!) schon sparen kann.

Darum jetzt die Frage von Interesse: Was hast du damit vor?
Member: radiogugu
radiogugu Jan 20, 2023 at 09:22:38 (UTC)
Goto Top
Morschen.

Außerdem sollte man beachten, dass sich die Lebenszeit der SSD durch die Paritätsbildung bei RAID 5(0) und 6(0) schneller verkürzt, als bei einem reinen Spiegel.

Ich würde hier @it-fraggle folgen und ein RAID 1 oder 10 bei mehr als zwei SSD konfigurieren.

Gruß
Marc
Member: ukulele-7
ukulele-7 Jan 20, 2023 at 09:34:45 (UTC)
Goto Top
Das Problem mit der Abnutzung durch Parität dürfte auf RAID50 genauso zutreffen wie auf RAID5.

Es gibt bei manchen Anbietern von Controllern oder SAN propritäre Verfahren die die Paritätsblöcke z.B. auf alle Platten verteilen als gezielt eine Platte mit Parität zu beschreiben, eventuell würde das einen Unterschied machen. Ich kenne das von NetApp mit dynamic disk pool DDP.
Member: em-pie
em-pie Jan 20, 2023 at 10:27:30 (UTC)
Goto Top
Zitat von @ukulele-7:

Das Problem mit der Abnutzung durch Parität dürfte auf RAID50 genauso zutreffen wie auf RAID5.

Es gibt bei manchen Anbietern von Controllern oder SAN propritäre Verfahren die die Paritätsblöcke z.B. auf alle Platten verteilen als gezielt eine Platte mit Parität zu beschreiben, eventuell würde das einen Unterschied machen. Ich kenne das von NetApp mit dynamic disk pool DDP.

RAID 5 und 6 verteilen die Paritäten immer auf allen Platten. RAID 3 + 4 hingehen schreiben auf eine dedizierte Disk.

Was du ggf. meinst, ist ein Distributed RAID. Hierbei wird die HotSpare nicht auf einem einzelnen Drive "ausgelagert" sondern alle Platten im Verbund halten Speicherblöcke frei, die dann im Falle eines Ausfalls beschrieben werden. Das Rebuild ist so um einiges schneller.
Member: DerMaddin
DerMaddin Jan 20, 2023 at 10:42:17 (UTC)
Goto Top
Ich habe in meinen rund 20 Jahren in der IT nur ein einziges Mal RAID50 gesehen. Im Laufe der Jahre und verbesserter Technologie wurde mehr und mehr auf RAID10 verändert, zumindest im Bereich Storage. RAID10 hat sich fast überall durchgesetzt, da die Redundanz und Performance am besten ist bei kritischen Anwendungen und Daten.

Wir haben ausschließlich RAID10 im Einsatz auf den Servern und SAN. RAID5 bzw. 6 kommt nur für das Backup-System zum Einsatz.
Member: ukulele-7
ukulele-7 Jan 20, 2023 at 10:50:41 (UTC)
Goto Top
Zitat von @em-pie:

Zitat von @ukulele-7:

Das Problem mit der Abnutzung durch Parität dürfte auf RAID50 genauso zutreffen wie auf RAID5.

Es gibt bei manchen Anbietern von Controllern oder SAN propritäre Verfahren die die Paritätsblöcke z.B. auf alle Platten verteilen als gezielt eine Platte mit Parität zu beschreiben, eventuell würde das einen Unterschied machen. Ich kenne das von NetApp mit dynamic disk pool DDP.

RAID 5 und 6 verteilen die Paritäten immer auf allen Platten. RAID 3 + 4 hingehen schreiben auf eine dedizierte Disk.
Stimmt das hatte ich falsch im Kopf.

Was du ggf. meinst, ist ein Distributed RAID. Hierbei wird die HotSpare nicht auf einem einzelnen Drive "ausgelagert" sondern alle Platten im Verbund halten Speicherblöcke frei, die dann im Falle eines Ausfalls beschrieben werden. Das Rebuild ist so um einiges schneller.
Nein ich bezog mich schon auf die Aufteilung der Parität. Im Fall von DDP gibt es glaube ich sogar immer 4 Paritätsblöcke und alles wird verteilt über einen Pool.

Mir ist allerdings auch nicht ganz klar warum ausgerechnet ein Paritätsblock die SSD mehr belastet als ein normaler Datenblock, wenn sich doch alles auf alle Datenträger gleichmäßig verteilt. Die Berechnung macht der Controller, der Block sollte keine anderen Eigenschaften haben als ein normaler Datenblock. Es fällt lediglich etwas mehr Speichervolumen an was zu etwas mehr Nutzung führt, oder wo sehe ich den Unterschied nicht?
Member: LHBL2003
LHBL2003 Jan 20, 2023 at 11:03:30 (UTC)
Goto Top
Danke schon mal für eure Antworten.

Generell geht es mir darum ein Großes Volumen für die Bereitstellung von VMs zu haben ohne das man schauen muss ob noch etwas Platz auf dem RAID 1 oder dem RAID 1 ist.
Zudem möchte ich recht viel Speicher zur Nutzung bereitstellen, da es sich hierbei um eine Testumgebung handelt wo die VMs kommen und gehen und nicht um eine Produktive umgebung.
Dennoch sollen nicht auf einmal alle VMs verlohren gehen, wenn eine Platte ausfällt.
Die Performenz mit RAID 5 und SSDs ist an der stelle auch garnicht so schlecht, zumindest ausreichend genug, so das dies nicht störend ist.

Der einzige Haken der mich daran stört, ist die genannte aussage von @radiogugu, die Lebenszeit soll von den SSDs damit stark reduziert werden.

Bei einem Raid 50 sind mindesten 6 Platten Pflicht, weil sozusagen je 3 zu einem Raid 0 zusammengefasst werden und sich die Parität auf 2x3 Platten verteilt. (Oder so ähnlich, wie auch immer)

Warscheinlich ist RAID 0, 1 und 10 für die SSDs das optimalste was die Lebensdauer angeht. Aber alle bringen nicht die anderen vorzüge mit.

Mir stellt sich also die Frage, ob sich die Lebensdauer der SSD verbessert wenn man Raid 50 statt 5 nutzt?
Da fehlen mir jegliche informationen zu.
Member: em-pie
em-pie Jan 20, 2023 updated at 11:45:55 (UTC)
Goto Top
Also mal als Referenz:
Wir haben seit nunmehr drei Jahren ein SAN mit 10x 2,92TB Enterprise SSDs laufen.
10 Disks im Distributed RAID5 - bislang musste ich noch keinen Ersatz bei IBM anfordern...

Das SAN wird mit 60VMs, darunter ein Exchange und anderen div. DBs "befeuert".
Member: LHBL2003
LHBL2003 Jan 20, 2023 at 11:20:31 (UTC)
Goto Top
Das ist schon mal etwas was ich interessant finde.
Ich kann aktuell nur auf etwa 1 Jahr SSD mit Raid 5 zurück blicken. :D

Danke schon mal für diesen hinweis @em-pie.
Member: C.R.S.
C.R.S. Jan 20, 2023 at 12:37:04 (UTC)
Goto Top
Zitat von @LHBL2003:

Aber wozu man kaum etwas findet ist zum Thema Raid 50.

Es ist unüblich, weil es ggü. RAID1(0) eine große Zahl von Datenträgern erfordert bzw. nur mit diesen wirtschaftliche Vorteile bietet. Gleichzeitig löst es aber die mit großen Volumes verbundenen Probleme nicht, da der Controller im Gegensatz zu RAID6 durch die einfache Parität kein Quorum zur Fehlerkorrektur gewinnt.
Also die bei RAID1(0) oder RAID5 aufgrund der Anwendungsfälle und begrenzten Kapazität meist nicht erforderliche und bei RAID6(0) schon anzuratende Integritätsprüfung auf Dateisystemebene wäre für ein RAID50 absolut erforderlich; und unter der Prämisse macht man heute kein Hardware-RAID mehr.

Grüße
Richard
Member: LHBL2003
LHBL2003 Jan 21, 2023 at 09:35:01 (UTC)
Goto Top
Danke euch,

Den Vergleich und die vor sowie Nachteile findet man ja auch hier.

https://ask-de.adaptec.com/app/answers/detail/a_id/17504/~/auswahl-des-b ...

Mir ging es nur darum zu wissen, ob die Lebensdauer von den SSDs sich bei einem RAID 50 verbessern würde gegenüber einen RAID 5.

Aktuell ziehe ich folgendes Fazit.

RAID 0, 1, 10 sind wahrscheinlich die Raids welche SSD am längsten durchhalten, da in allen Fällen keine Paritätsschreiberrei erfolgt.

Die Lebensdauer bei RAID 5, 50, 60 für SSDs sind Wahlmöglich vernachlässigbar. Immerhin halten es einige SAS die nicht SSDs sind auch keine 5 Jahre durch. Entweder Sterben die in den ersten Jahren oder sind nie tot zu kriegen. Und wenn man nach 5 Jahren ein Schwung neuer SSDs benötigt, sollte das vertretbar sein.


Aber da
Member: LHBL2003
LHBL2003 Feb 02, 2023, updated at Feb 03, 2023 at 07:25:31 (UTC)
Goto Top
Ich hab mir mal einen alten Server geschnappt und Ihn ein paar mal aufgesetztz mit einigen RAID konstellationen.
Dabei habe ich das Tool: AS SSD Benchmark immer mit 10 GB durchlaufen lassen.
In dem fall habe ich die alten SAS Platten gegen neue SATA SSD Platten antreten lassen.

HDD 900GB 10K SAS - EG0900FCVBL
SSD 1TB SATA - WD Red SA500
Server DL380 G9
RAID Smart Array P440ar
ESXi 7.0.3
VM Win Server 2022 (1 Sokets | 8 Thread | 32GB RAM)

Unten mal eine kleine Grafik vom Ergebnis. Falls es jemand interessieren mag.
Bei den SAS Konstellationen war ich etwas sparsammer unterwegs.

Dennoch hat es mich interessiert wie stark der Unterschied zwischen SAS HDD und SATA SSD ist.
Die Zeilen sind nach dem Score Ergebnis sortiert.

Das einzige was mir stark aufgefallen ist, ist der langsame Schreibzugriff.
Da muss ich noch mal schaun ob das generell an den SSDs liegt oder an einer einstellung im zusammehang mit dem Kontroller.

Weil dann wäre RAID 60 Besonders wegen den vielen Zugriffen wie bei 4K-64Threads iops zu sehen ja nicht schlecht auf eine alten Test-Kiste.

2023-02-03_08h24_18
Member: ukulele-7
ukulele-7 Feb 02, 2023 at 20:06:27 (UTC)
Goto Top
Wieso haben Zeile 11 und 12 nicht ähnliche Werte beim Schreiben, gabs da einen Unterschied im Setup?
Member: LHBL2003
LHBL2003 Feb 03, 2023 at 07:26:59 (UTC)
Goto Top
@ukulele-7 Danke für den Hinweis. hab die beiden Zeilen getauscht und richtig beschriftet.
Ich hatte das ergebnis für RAID 0 vergessen und hatte dann schlussendlich die Beschriftung nicht angepasst.
Das Bild habe ich oben aktualisiert.
Member: ukulele-7
ukulele-7 Feb 03, 2023 updated at 08:23:56 (UTC)
Goto Top
Wenn RAID 0 und RAID 10 über die selbe Anzahl an SSDs die selbe Leserate liefern dann scheint der Controller dort der Flaschenhals zu sein... Beim Schreiben ist der Unterschied ja deutlich erkennbar, wobei die Schreibraten deiner SSDs nicht so der Knaller zu sein scheinen face-wink
Member: LHBL2003
LHBL2003 Feb 03, 2023 at 08:32:50 (UTC)
Goto Top
Jap die Zugriffszeiten beim schreiben sind scheinbar gerade der Flaschenhals.
Ich werde noch schauen ob man das z.B. durch Aktivieren des Driver Caches verbessern kann.
Member: LHBL2003
LHBL2003 Feb 03, 2023 updated at 14:30:42 (UTC)
Goto Top
So jetzt bekommt man bei einem alten G9 mal etwas grinsen ins gesicht.
Dafür das es nur einfache WD Red SSD platten sind.
Um das Problem zu finden hatte ich ein Server2022 ohne ESXi aufgesetzt, da ich hier die Einstellungen schneller anpassen konnte.

In meinen Fall war der erste Treffer gleich das was ich im Verdacht hatte.
Bei der HP Smart Array P440ar - Raid Karte muss bei einfachen WD RED SATA SSDs der "Schreib-Cache-Status für physische Laufwerke" aktiviert sein. Das macht beim Schreiben enorm viel aus.

HP SSD Smart Path habe ich übrigens nicht Disabled. Von den habe ich gehört, dass den einige deaktiviert haben, aber den habe ich erst nach löschen des Windows gefunden :D Der Butto ist in keinem Untermenü, sondern den findet man wenn man ein Raid angelegt hat und auf das Raid klickt.

Hier ein paar erfreuliche bilder:

Konfiguration:
2023-02-03_14h17_12

Ohne Cache (nur 1 GB Test - mit 1er SSDs und mit 4 SSDs als RAID 0)
2023-02-03_13h57_32

Mit Cache (nur 1 GB Test - mit 1er SSDs und mit 4 SSDs als RAID 0)
2023-02-03_13h16_01

Mit Cache (10GB Test - mit 7 SSDs als RAID 0)
2023-02-03_14h34_20
Member: LHBL2003
LHBL2003 Feb 05, 2023 at 17:17:02 (UTC)
Goto Top
Also ich habe ja aktuell ein RAID 5 mit 8 SSDs direkt auf Server 2022 konfiguriert.
Es ist schon interessant wie sich die Leistung stark verändert, wenn man ein paar klicks bei der Smart Array P440ar durchführt. Im entefekt habe ich durch 3 kleine Anpassungen die Schreibleistung bei Raid 5 mit SSDs mehr als Verdoppeln können.

Weiß jemand welche Strip Size Konfiguration bei SSDs für durchschnittliche Windows Server Systeme sinnvoll ist? Die Anpassung von 256KiB auf 64KiB hat auch einiges an Leistung gebracht. Soviel ich gelesen habe ist das ein guter wert für ESXi System. Hat es irgend welche Auswirkungen für die SSDs?
Mals sehn was passiert wenn man auf 8KiB runter stellt. Das teste ich gerade...

417 MB/s Schreibend bei
- Physikalischen Cache = inaktiv
- HP SSD Smart Path = Aktiv
- Strip Size = 256KiB
2023-02-04_09h19_07

528 MB/s Schreibend bei
- Physikalischen Cache = inaktiv
- HP SSD Smart Path = Aktiv
- Strip Size = 256KiB
2023-02-04_11h03_47

788 MB/s Schreibend bei
- Physikalischen Cache = Deaktiv
- HP SSD Smart Path = Deaktiv
- Strip Size = 256KiB
2023-02-04_13h04_07


952 MB/s Schreibend bei
- Physikalischen Cache = Deaktiv
- HP SSD Smart Path = Deaktiv
- Strip Size = 64KiB
2023-02-05_17h40_17
Member: ukulele-7
ukulele-7 Feb 07, 2023 at 09:32:38 (UTC)
Goto Top
Im Zusammenhang mit SATA HDDs wird der Drive Cache ja i.d.R. als best practice abgeschaltet. Ich glaube auch wegen Datenverlust bei Stromausfall, wobei dafür ja die BBU eigentlich da ist. Wie ist denn das mit Drive Cache bei SSDs, gibt's da eine best practice von HPE für?
Member: LHBL2003
Solution LHBL2003 Jun 09, 2023 updated at 11:11:52 (UTC)
Goto Top
So ich habe es hinbekommen die Leistung zu steigern.
Danke an alle, die mir den einen oder anderen Tipp gegeben haben.


Folgendes System wurde für die Screenshots verwendet:
- ProLiant DL380 Gen9
- 2x Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz
- 160GB ECC DDR4 RAM
- 6 x WD RED SSD als RAID 10
- Smart Array P440ar Controler mit 2GB RAM
- Windows Server 2019 (ohne zusätzliche Treiberinstallation)

2023-06-09_13h04_32


Die Option Schreib-Cache-Status für physische Laufwerke aktiviert.

Bei einem 1 GB Test merkt man keinen Unterschied. Bei einem 10 GB Test ist die Schreibleistung etwas höher.

2023-06-09_13h05_24


Einer von zwei sehr wichtigen Punkte befindet sich in den Einstellungen der logischen Geräte. Hierzu muss in der Mitte das jeweilige Array X angeklickt werden. Im rechten Bereich befindet sich ein Button. Auf diesen muss folgender Text stehen: "HPE SSD Smart Path aktivieren" sollte dort "HPE SSD Smart Path deaktivieren" stehen, so muss dieser gedrückt werden. Es muss also so sein, dass diese Funktion deaktiviert ist.

Achtung: Dieser Button hat Auswirkungen auf den Cache Manager. Sobald man HPE SSD Smart Path aktiviert, werden alle Einstellungen im Cache Manager zurück gesetzt und die Funktion deaktiert. Deaktiviert man HPE SSD Smart Path wieder, bleiben die Einstellungen im Cache Manager dennoch auf Werkseinstellung. Dies führt aber zum drastischen performance verlust, wenn man dort bereits die Einstellung durchgeführt hatte.


2023-06-09_13h06_15


Regler 100% Schreiben:

Der Regler am Chache-Verhältnis muss nach links gestellt werden, sodass das Ergebnis 100 % Schreiben steht. Dies sorgt dafür, dass die Schreibrate stark nach oben geht. Besonders bei einem 1 GB Test fällt dies auf. Dies liegt daran, dass der RAID Controller 2 GB RAM hat und somit 1 bis 2 GB Tests stark abfangen kann.
Ein 10 GB Benchmark Test bringt nicht wirklich etwas, da der Cache überflutet wird und die Daten nicht so schnell auf die SSDs bekommt.
Das Regeln auf 100 % Lesen ist nicht sinnvoll, da dies kaum bis keine Verbesserung bringt. Es fällt nur die Schreibleistung drastisch.
Siehe auch Testergebnisse weiter unten.
Logische Laufwerke aktivieren

Damit das Chache-Verhältnis greift, muss in der Mitte der Haken beim logische Laufwerk gesetzt werden.
Schreib-Cache bei keiner/schwachen Pufferbatterie deaktivieren

Die Funktion Schreib-Cache aktivieren, wenn Akku/Kondensator nicht vorhanden oder nicht vollständig aufgeladen ist, sollte deaktiviert bleiben. Da dies beim Stromausfall zu Datenverlust und somit zu Beschädigung der Betriebssysteme führen kann. Auch wenn es eine USV gibt, bei der die Server automatisch heruntergefahren werden, würde ich dennoch nicht darauf vertrauen, dass alles gut geht!
2023-06-09_13h07_25
Member: testtomat
testtomat Sep 13, 2023 at 14:34:33 (UTC)
Goto Top
... ohne Ausfälle im Einsatz:

zusätzlich zum RAID 1 Systembereich folgende Datenbereiche:

RAID 5 aus 5 x Samsung SSD PM883 seit 4 Jahren als Web- und DB-Server (hohe Last)

RAID 5 aus 4 x Samsung SSD SM863 seit 3,5 Jahren als Web- und DB-Server (geringe Last)
Member: ukulele-7
ukulele-7 Sep 14, 2023 at 06:58:16 (UTC)
Goto Top
Zitat von @testtomat:

... ohne Ausfälle im Einsatz:

zusätzlich zum RAID 1 Systembereich folgende Datenbereiche:

RAID 5 aus 5 x Samsung SSD PM883 seit 4 Jahren als Web- und DB-Server (hohe Last)

RAID 5 aus 4 x Samsung SSD SM863 seit 3,5 Jahren als Web- und DB-Server (geringe Last)

An was für einem Controller und mit was für einem Durchsatz?
Member: testtomat
testtomat Sep 14, 2023 updated at 07:42:42 (UTC)
Goto Top
Bei beiden Arrays der Megaraid SAS 9271-8.

Beim PM883-Array kommen jeden Tag ca. 50-100 GB in Form von bis zu 100000 Dateien neu dazu ( Altdaten werden gelöscht ). Array ist zu 80% belegt. Die eigentliche Last entsteht dann aber erst durch die Verarbeitung der Dateien auf dem System. Durchsatz am Controller habe ich nicht parat. Dem gegenüber ist bei der PM883 TBW mit 1.4PB angegeben...