Top-Themen

AppleEntwicklungHardwareInternetLinuxMicrosoftMultimediaNetzwerkeOff TopicSicherheitSonstige SystemeVirtualisierungWeiterbildungZusammenarbeit

Aktuelle Themen

Administrator.de FeedbackApache ServerAppleAssemblerAudioAusbildungAuslandBackupBasicBatch & ShellBenchmarksBibliotheken & ToolkitsBlogsCloud-DiensteClusterCMSCPU, RAM, MainboardsCSSC und C++DatenbankenDatenschutzDebianDigitiales FernsehenDNSDrucker und ScannerDSL, VDSLE-BooksE-BusinessE-MailEntwicklungErkennung und -AbwehrExchange ServerFestplatten, SSD, RaidFirewallFlatratesGoogle AndroidGrafikGrafikkarten & MonitoreGroupwareHardwareHosting & HousingHTMLHumor (lol)Hyper-VIconsIDE & EditorenInformationsdiensteInstallationInstant MessagingInternetInternet DomäneniOSISDN & AnaloganschlüsseiTunesJavaJavaScriptKiXtartKVMLAN, WAN, WirelessLinuxLinux DesktopLinux NetzwerkLinux ToolsLinux UserverwaltungLizenzierungMac OS XMicrosoftMicrosoft OfficeMikroTik RouterOSMonitoringMultimediaMultimedia & ZubehörNetzwerkeNetzwerkgrundlagenNetzwerkmanagementNetzwerkprotokolleNotebook & ZubehörNovell NetwareOff TopicOpenOffice, LibreOfficeOutlook & MailPapierkorbPascal und DelphiPeripheriegerätePerlPHPPythonRechtliche FragenRedHat, CentOS, FedoraRouter & RoutingSambaSAN, NAS, DASSchriftartenSchulung & TrainingSEOServerServer-HardwareSicherheitSicherheits-ToolsSicherheitsgrundlagenSolarisSonstige SystemeSoziale NetzwerkeSpeicherkartenStudentenjobs & PraktikumSuche ProjektpartnerSuseSwitche und HubsTipps & TricksTK-Netze & GeräteUbuntuUMTS, EDGE & GPRSUtilitiesVB for ApplicationsVerschlüsselung & ZertifikateVideo & StreamingViren und TrojanerVirtualisierungVisual StudioVmwareVoice over IPWebbrowserWebentwicklungWeiterbildungWindows 7Windows 8Windows 10Windows InstallationWindows MobileWindows NetzwerkWindows ServerWindows SystemdateienWindows ToolsWindows UpdateWindows UserverwaltungWindows VistaWindows XPXenserverXMLZusammenarbeit

Hyper-V Cluster - Empfehlungen für bezahlbares NAS oder SAN?

Frage Virtualisierung Hyper-V

Mitglied: maikmueller

maikmueller (Level 1) - Jetzt verbinden

10.01.2014 um 12:23 Uhr, 5613 Aufrufe, 27 Kommentare, 7 Danke

Hallo!

Ich bin auf der Suche nach einer Empfehlung für ein bezahlbares NAS oder SAN um dort die virtuellen Maschinen für ein Hyper-V Cluster abzulegen. Das sich der Preis durch die Anzahl der Platten ergibt ist mir durchaus bewusst. Will heißen ich möchte eigentlich nur eine Empfehlung über das Storage selber. Die Anzahl der Platten werde ich dann selbst entscheiden.

Aktuell habe ich hier ein QNAP TS-419P II mit 2 x 1 GBit/s Netzwerkanbindung. Hat jemand Erfahrung mit diesem Storage in Verbindung mit einem Hyper-V Cluster?

Mit bezahlbar meine ich übrigens nicht günstig.

Für weitere Infos wäre ich dankbar.

Viele Grüße
27 Antworten
Mitglied: certifiedit.net
10.01.2014 um 12:26 Uhr
Hallo,

wie groß ist die Umgebung?
Wie viele Benutzer? Was für (und wie viele?) Server sollen darüber versorgt werden?

Zum QNAP: Hab ich bisher schlechte Erfahrungen in Bezug auf virtuelle Umgebungen mit gemacht. Kann sich zwar mittlerweile gebessert haben, muss aber nicht.

Beste Grüße,

Christian
Bitte warten ..
Mitglied: keine-ahnung
10.01.2014 um 13:10 Uhr
Zitat von maikmueller:

Hi,
mal abgesehen von der Frage von Christian (ohne Antwort darauf kann man solche Fragen nicht beantworten) ...
Mit bezahlbar meine ich übrigens nicht günstig.
Sondern? Billig? Teuer? Viel zu billig oder viel zu teuer?

Einige Sachen musst Du uns hier schon kundtun: Umgebung, Umgebungsgrösse, Budget ...

LG, Thomas
Bitte warten ..
Mitglied: maikmueller
10.01.2014 um 13:20 Uhr
Hallo!

Ihr habt Recht! Ein paar Informationen mehr wären wahrscheinlich hilfreich. Anfangs wird das Cluster erstmal aus zwei Servern bestehen. Mir schweben da zwei HP Proliant DL380 G8 Server mit 96 oder 128 GB RAM vor. Anfangen möchte ich mit 10-20 virtuellen Maschinen welche von der Leistung her serverseitig problemlos versorgt werden könnten.

Vom Budget her möchte ich für das Storage (ohne Platten) nicht mehr als 2.000 Euro investieren.

Beginnen möchte ich im Storage selber mit 4 oder mehr Platten um diese als RAID10 zu betreiben.

Als Betriebssystem wird übrigens Windows Server 2012 R2 Datacenter zum Einsatz kommen.

Ich hoffe Ihr könnte mit diesen Informationen etwas mehr anfangen.

Viele Grüße
Bitte warten ..
Mitglied: Dobby
10.01.2014, aktualisiert um 13:44 Uhr
Hallo,

vorab mal so ein paar allgemeine Fragen zu dem ganzen Beitrag, einiges hat @certifiedit
ja schon angesprochen, aber das ist irgend wie als wenn Du uns nach neuen Reifen fragst
und nicht dazu erzählst was für ein Auto Du fährst!

- Welche Protokolle und Dienste werden denn dort angeboten?
- Wie sieht denn die restliche Netzwerkinfrastruktur aus? Router, Switche,....
- Wie viele Server sollen denn darauf laufen und wie viele Benutzer bedienen die dann?

QNAP
Aktuell noch etwas zu den QNAP Geräten, man sollte sich nicht täuschen was die alles zu leisten
vermögen, und ja die können so etwas, nur das ist eben wie mit einem MikroTik Router, dort bietet
das RouterOS auch tausend Funktionen an und wenn man die "alle" in Benutzung hat merkt man
erst das der ausgewählte Router eben zu schwach ist!!! Ich würde dass lieber lassen wollen und in ein
vernünftiges SAN investieren, was man auch eventuell noch im Hinblick auf CPU, RAM und NICs
upgraden kann, das finde ich sinnvoller als dann ein NAS nach dem anderen zukaufen und immer
wieder schnell festzustellen, dass die kleinen Atom CPUs es einfach nicht bringen!

Hardware
- Einen echten Prozessor würde ich nehmen wollen also keine kleinen Atom CPUs
Eventuell einen Intel Xeon-E3
- RAM, RAM, und noch mal RAM und zwar ECC RAM.
Einige SANs und NAS Geräte nutzen den RAM als Zwischenpuffer um danach auf die HDDs zu schreiben
- In einige NAS Geräte kann man mitunter auch schon 10 GBit/s Netzwerkkarten einbauen
Dann hat man wenigstens schon hier eine Reserve falls es einmal eng wird

Preis
Leider immer wieder das leidige Thema und meist noch dazu zu kurz gedacht, zumindest so wie
ich das sehe, denn es gibt ja auch die Möglichkeit Sachen in raten abzuzahlen bzw. anzuschaffen,
aber dann hat man wenigstens etwas was zum Einen etwas taugt und zum Anderen was den Bedarf
deckt. Also hier sollte man noch einmal genau überlegen was man wirklich braucht und nicht was der
Chef genehmigt.

Man geht mit dem Auto ja auch nicht in die Werkstatt zur Inspektion und sagt dann mehr als 100 €
darf es eben nicht kosten.

Aktuell habe ich hier ein QNAP TS-419P II
Wie sieht es dort mit dem Durchsatz aus, den IOPS, Thin-Provisioning, wie skalierbar ist das TS-419PII,
was für eine Notfallwiederherstellung hat das.

Was die Hersteller alles so schön vollmundig versprechen und was real dann dabei herum kommt
ist meist nicht das selbe und laufen soll bzw. muss es doch auch, oder?

Also ich kenne jetzt Eurer Budget nicht wirklich nur das TS-418PII halte ich da um Längen zu klein
und zu schwach für. Aber gut wenn Du nur 5 Mitarbeiter hast und ein oder zwei VMs..........
Aber ich glaube ich würde selbst dann ein kräftigeres Gerät nehmen wollen.

Schau Dir mal das TS-1079 oder TS-870 an das wäre wohl bei mir die Untergrenze und wie gesagt nicht
für 50 - 100 Benutzer und 8 - 10 VMs.

Gruß
Dobby


P.S.

Vom Budget her möchte ich für das Storage (ohne Platten) nicht mehr als 2.000 Euro investieren.
Wie gesagt ich will Dir das hier nicht mies reden, nur ich würde mir das an Deiner Stelle noch einmal
gut überlegen wollen und auch über die Anbindung nachdenken wollen, und am besten vorher.

Anfangen möchte ich mit 10-20 virtuellen Maschinen welche von der Leistung her serverseitig
problemlos versorgt werden könnten.
Ich würde dann gleich mit einem LAG (LACP) und zwei 10 GBit/s starten wollen oder je einem
10 GBit/s Port an je einem Switch, falls das ganze redundant ausgelegt wird.
Das mag zwar zuerst ein wenig geprahlt klingen, aber ist auf jeden Fall um Längen besser als
sich im Nachhinein nach dem Aufsetzen von einem LAG (LACP) mit mehreren 1 GBit/s Ports
zu erkundigen.
Bitte warten ..
Mitglied: keine-ahnung
10.01.2014 um 13:43 Uhr
Hi nochmal,

das ist für meine Spielwiese eine Nummer zu gross . Dein vorhandenes NAS wirst Du IMHO für das geplante setup vergessen können, aus dem laienhaften Bauch heraus möchte ich nicht nur sagen, das die mögliche Anbindung an den Hypervisor zu dünn sein dürfte, selbst wenn Du die NICs "teamst", die Festplatten nebst fakecontroller sollten auch zu langsam sein.

Aber wie gesagt, nicht meine Kragenweite ... Christian weiss da sicher mehr.

LG, Thomas
Bitte warten ..
Mitglied: certifiedit.net
10.01.2014, aktualisiert um 14:22 Uhr
Ich kann mich da Thomas nur anschliessen. Für deine Range (was ist das für ein Zusammenhang 128GB Ram Boliden und dann so eine NAS/PseudoSAN? )

Wir können uns gerne mal über das Sizing unterhalten. Für dein Szenario schmeisst du, wenn du >so< 2k € hinlegst definitiv 2k € aus dem Fenster.

Für eine kleine Teststellung oder ein SB mit 1-2 Hauptservern, und 2-3 kleinen Linuxservern mag das OK sein, aber du schreibst sogar von "anfangen" - du überdimensionierst jetzt schon die IO Nehmerseite - was passiert, wenn mal noch ein System dazu kommt?
Bitte warten ..
Mitglied: tkr104
10.01.2014 um 14:25 Uhr
Zitat von maikmueller:

Hallo!


Moin,

Ihr habt Recht! Ein paar Informationen mehr wären wahrscheinlich hilfreich. Anfangs wird das Cluster erstmal aus zwei Servern
bestehen. Mir schweben da zwei HP Proliant DL380 G8 Server mit 96 oder 128 GB RAM vor. Anfangen möchte ich mit 10-20
virtuellen Maschinen welche von der Leistung her serverseitig problemlos versorgt werden könnten.
Die Server sind schon gut für den Einstieg, du solltest aber davon ausgehen das du, wenn du jetzt mit 10-20VMs planst eher kurz- als mittelfristig bei 30 - 40 VMs landen wirst. Bei den Servern wirst du auch keine Wachstumsprobleme haben, mehr RAM rein und gut.

Vom Budget her möchte ich für das Storage (ohne Platten) nicht mehr als 2.000 Euro investieren.

2000 EUR für ein leeres Gehäuse ist auch in Ordnung, du solltest aber gerade beim Storage von der Heimwerkerschiene weg. Das Storage würde ich inkl. Platten als Einheit kaufen.

Beginnen möchte ich im Storage selber mit 4 oder mehr Platten um diese als RAID10 zu betreiben.
Ohne die genauen IO Anforderungen der VMs zu kennen - 4 Platten für 10 VMs geht eher gar nicht, unter 10 SAS Platten + HotSpare solltest du so ein Projekt gar nicht erst starten. Bei Dell gibts z.B. gerade ne Equalogic 4100X Promo mit 24x 300GB SAS 10k inkl. 3 Jahre Pro Support 4h für 8000 EUR netto. Da hast du mit RAID10 dann etwa 3,5TB Platz und die IOPS sollten auch für 30 VMs ausreichen.

Als Betriebssystem wird übrigens Windows Server 2012 R2 Datacenter zum Einsatz kommen.

Ist das Projekt intern oder stellst du VMs für Kunden bereit?

Ich hoffe Ihr könnte mit diesen Informationen etwas mehr anfangen.

Viele Grüße

VG,

Thomas
Bitte warten ..
Mitglied: psannz
10.01.2014, aktualisiert um 22:00 Uhr
Sers,

wie die Kollegen schon richtig festgestellt haben wirst du in der Umgebung mit ner kleinen QNAP Lösung nicht glücklich werden.
Nachdem du dir Server von HP angeschaut hast könntest du dir mal die MSA P2000 G3 Serie zu Gemüte führen. Das ist ein nettes Storage dass im HP Renew Sektor zu netten Preisen vertickt wird. Oft auch als Bundle wie etwa von MCL.

Grüße,
Philip
Bitte warten ..
Mitglied: Dobby
10.01.2014 um 23:30 Uhr
Hallo nochmal,

man, man, man, man, ihr seit echt die Rettung, ich habe schon die ganze Zeit überlegt ob ich nicht,
wenn es denn unbedingt ein QNAP sein soll zu dem TS-EC1279U-SAS-RP rate, aber irgend wie
dachte ich dann drehen hier alle durch!

Das hat;
- einen Intel Xeon-E3
- 8 GB ECC RAM
und kann bis auf;
- 32 GB ECC RAM und
- vier 10 GBit/s Netzwerkanschlüsse
aufgerüstet werden und kostet ohne HDDs ~6800 €

Klar dafür sollte man dann aber auch die richtigen Switche sein Eigen nennen
und das wiederum ist dann wohl wieder ein anderes Problem.

Schönes WE an alle Gruß
Dobby
Bitte warten ..
Mitglied: Dani
10.01.2014, aktualisiert 11.01.2014
Moin Dobby,
die Hardware ist heute doch nur die halbe Miete oder?
Beispiel: Weder die HP noch die QNAP Büchse können Datenduplizierung auf Blockebene auf CIFS und iSCSI durchführen - egal ob VMWare, Hyper-V oder Datenbanken. Festplatten sind zwar nicht teuer und aufgerüstet ist gleich, aber denkt bitte an Strom, Klimaanlage, Wartung, Folgekosten, etc... Genauso sollte ein Storage Snapshots auf Blockebene durchführen und nicht geänderte Blöcke SymLink setzen um Speicherplatz zu sparen.

Wir geben für solche Funktionen gerne ein bisschen mehr Geld aus. Gerade die Servervirtualisierung, wo nicht mehr wegzudenken ist, ist ein guter Anfang. Wir erzielen auf 1TB Volumens von ca. 68%. Natürlich wär dieser Wert noch besser, wenn es nur 2008R2 und 2012R2 VMs wären, aber das ist eben nicht realistisch.

Weiter geht es mit Thin provisioning kann heute noch nicht jedes Storages. Obowohl es indirekt freien Speicherplatz eines Volumes freigibt. Ich gebe zu, gefährliches Werkzeug aber wenn man weiß was man macht, gute Sache.

aufgerüstet werden und kostet ohne HDDs ~6800 €
Leg ein paar Euro drauf und du kriegst ne Netapp mit Festplatten dafür.

@psannz
Korrigiere mich bei der HP, wenn die das inzwischen können.


@tkr104
Da hast du mit RAID10 dann etwa 3,5TB Platz und die IOPS sollten auch für 30 VMs ausreichen.
Der Schuss kann auch gewaltig nach hinten losgehen. Fallen die zwei falschen Festplatten aus, steht ein Recovery an. Bei 3,5TB muss die Leistung des Backupmediums aber gut sein oder Zeit spielt keine Rolle. Ich würde bei 24 Festplatten, zwei als Sparedisks abstellen. Ob die IOPS reichen, wissen wir erst wenn der Fragesteller die Rahmendaten bekannt gibt.


Grüße,
Dani
Bitte warten ..
Mitglied: Dobby
11.01.2014 um 00:00 Uhr
....Thin provisioning
Soll zumindest die QNAP können, nur bei den anderen Sachen sieht es wohl eher
schlecht aus, das mit der NetApp werde ich mir mal merken. Danke!

Gruß
Dobby
Bitte warten ..
Mitglied: psannz
11.01.2014, aktualisiert um 00:46 Uhr
Zitat von Dani:

@psannz
Korrigiere mich bei der HP, wenn die das inzwischen können.


Grüße,
Dani

Snapshots & Thin Provisioning sind bei der P2000 G3 drin, wenn du allerdings Dedup willst musst in die größeren Gefilde wechseln. Da wären wir dann etwa bei der 3PAR. Und die sind - selbst als Renew und dann nur mit FC brauchbar - weit über dem genannten Budget.

Und wenn ne 3PAR ins Budget passt, dann muss ich dir @Dani, Recht geben: NetApp wäre auch meine Wahl.

Aber bei dem Budget von 2k für Chassis & Controller ist eben imo eine P2000 G3, optimalerweise als Bundle die passenste Wahl.


Alternative: Windows Storage Server 2012 R2 System mit nem SAS JBOD hinten dran. Anbindung der Clients kann dann via 10GE erfolgen. Der WSS 2012r2 bring Dedup (nicht in Echtzeit) und ThinProvisioning mit. Da wir von einem Hyper-V Cluster sprechen würde ich den WSS über 2 Server redundant aufs JBOD zugreifen lassen, wenn nicht sogar selbst das JBOD redundant halten. Bereitstellung des Storage geht dann entweder über Storage Spaces, oder über nen schicken auf redundante JBOD Anbindung ausgelegte LSI Controller. Die 2 WSS würde ich dann zum ScaleOut File Server clustern und die VMs via SMB3 Application Share den Hyper-V Clustern anbieten.
Das schöne daran: Da SMB3 werden sämtliche NIC Ports "echt" gebündelt und nicht nur à la LACP parallel geschaltet.
Aber da sind wir dann schon allein am Datenserver in nem Preissegment jenseits der 15-20k€ ohne Platten und Supportvertrag...

Grüße,
Philip

:Nachtrag:
@D.o.b.b.y: Warum statt der QNAP nicht ne Synology? Ne RS10613xs+ bring vergleichbare Leistung zur QNAP plus Active-Passive Clustering. [Korrigiert]
Bitte warten ..
Mitglied: Dani
11.01.2014 um 00:41 Uhr
@D.o.b.b.y: Warum statt der QNAP nicht ne Synology?
Synology ist technologisch gleich weit wie QNAP.

Ne RS10613xs+ bring vergleichbare Leistung zur QNAP plus Active-Active Clustering.
Active-Active, sicher? Wir hatten zwei RS3412RPxs als Active-Passive Konfiguration für unsere Programminstallationsablage. Beim letzten DSM Update folg uns der Cluster komplett um dir Ohren. Seitdem spiegeln wir die Volumes wieder alle 5 Minuten. Läuft einfach nicht stabil und zu verlässig.


Grüße,
Dani
Bitte warten ..
Mitglied: psannz
11.01.2014 um 00:45 Uhr
Zitat von Dani:
> Ne RS10613xs+ bring vergleichbare Leistung zur QNAP plus Active-Active Clustering.
Active-Active, sicher? [....]

Grüße,
Dani

Mein Fehler, ist Active-Passive. Aber immernoch ein Feature das QNAP meines Wissens noch nicht anbietet.
Bitte warten ..
Mitglied: Dobby
11.01.2014, aktualisiert um 01:14 Uhr
@psannz

Ich habe mit der QNAP nicht angefangen, mir war halt so als würde der TO sich dafür entschieden
haben und ich dachte wenn schon eine QNAP dann aber wenigstens ein die er nicht bereut und
die Ihre Geld auch wert war.

Die Synology RS10613xs+ kenne ich nicht, aber werde ich mir auch einmal ansehen,
danke für den Tipp.

Also das NetApp Bundle für ~6200 € macht für mich auch den besseren Eindruck denn dort
gibt es auch gleich eine Software dazu und die Hewlett-Packard HP P2000 G3 zu ~5400 €
ist da wohl auch ein klein wenig besser als die reinen NAS Versionen, das liest man schon
zwischen den Zeilen heraus, womit sich das mit dem NAS als SAN Ersatz auch einmal wieder
mehr hier im Forum abgezeichnet hat, dass man ab und an eben nicht zuerst schauen sollte was
man für Geld hat, was sicherlich auch wichtig ist, sondern erst einmal die Anforderungen des Betriebes
richtig ein- und ermitteln sollte.

Was nützt es denn wenn man Sicherheitsschuhe für das Baugewerbe braucht aber, nur Geld
für Hausschuhe (Pantoffeln) hat, da ist es wenigstens geregelt mit denn mit den Pantoffeln
kommt man nicht auch die Baustelle, im IT oder auch EDV Bereich ist das halt anders.

Gruß
Dobby
Bitte warten ..
Mitglied: tkr104
11.01.2014 um 10:39 Uhr
Zitat von Dani:

Der Schuss kann auch gewaltig nach hinten losgehen. Fallen die zwei falschen Festplatten aus, steht ein Recovery an. Bei 3,5TB
muss die Leistung des Backupmediums aber gut sein oder Zeit spielt keine Rolle. Ich würde bei 24 Festplatten, zwei als
Sparedisks abstellen. Ob die IOPS reichen, wissen wir erst wenn der Fragesteller die Rahmendaten bekannt gibt.

Bei der Equalogic hast du automatisch zwei Sparedisks, da hat man keine Wahl. Das Backupmedium muss natürlich auf seinen Datenbestand ausgerichtet sein, das müssen ja aber nicht zwangsweise 3TB sein. IO Leistung kommt nunmal nur mit reichlich Platten, aber da der TO sich nicht mehr äußert ist der Threat aber eh nur noch hätte wäre wenn...

VG,

Thomas
Bitte warten ..
Mitglied: certifiedit.net
11.01.2014 um 10:44 Uhr
Das ist er doch schon, seit wir sein Budgetplan zerrissen haben. #

LG,

Christian
Bitte warten ..
Mitglied: Dani
11.01.2014 um 12:13 Uhr
IO Leistung kommt nunmal nur mit reichlich Platten, aber da der TO sich nicht mehr äußert ist der Threat aber eh nur noch hätte wäre wenn...
Jein, inzwischen sind SSD-Cachepools (Read/Write) auf dem Vormasch bei Storages. Kostet ein bisschen mehr, aber auch hier spielen wieder die von mir oben genannten Faktoren eine Rolle. Wir setzten seit Anfang letzten Jahres nur noch auf SSD als Cache und SATA-Festplatten mit 3-4TB als Datengrab. Das ist aber keine kurzfristige Rechnung sondern eher 3-4 Jahresplan.

nur noch hätte wäre wenn...
Hätte, hätte Fahrradkette. Warten wir ab...

Grüße,
Dani
Bitte warten ..
Mitglied: certifiedit.net
11.01.2014 um 12:23 Uhr
Natürlich, aber jede wette, dass diese Testumgebung des TO auch eher eine Halbe Dekade halten soll als 1-2 Tests? ;) Er spricht ja selbst von "Ausbau".
Bitte warten ..
Mitglied: psannz
11.01.2014, aktualisiert um 16:21 Uhr
Zitat von Dani:

Jein, inzwischen sind SSD-Cachepools (Read/Write) auf dem Vormasch bei Storages. Kostet ein bisschen mehr, aber auch hier spielen
wieder die von mir oben genannten Faktoren eine Rolle. Wir setzten seit Anfang letzten Jahres nur noch auf SSD als Cache und
SATA-Festplatten mit 3-4TB als Datengrab. Das ist aber keine kurzfristige Rechnung sondern eher 3-4 Jahresplan.

[....]
Grüße,
Dani

Interessant. Habt ihr die SSDs nur als Cache im Einsatz, oder nutzt ihr auch welche exklusiv als Speicher e.g. für DBs?
Kannst du zu eurem System und der Auslastung ein paar Zahlen verraten?

MS verfolgt den Ansatz mit der 2012R2 Version seiner StorageSpaces ja auch. Geht immer mehr hin zu den JBODs voll einfacher (&großer) SATA Platten. HADOOP & HANA, Big Data, usw, usw, usw. Mittlerweile kommen ja immer mehr 1HE Lösungen mit 10 oder 12 3,5" HDDs auf den Markt. Die meissten davon passen recht gut in das ScaleOut File Server Modell von MS. 48TB auf 1HE.... bei den Speicherdichten fängt dir das Ohrenschlackern an.
Ist einiges in Bewegung auf dem Storage Markt.

SSD Caches sind schon recht mächtig. Gerade e.g. in Leseintensiven Umgebungen wie VDI kann es die Speichersysteme extrem entlasten. Im Einsatz habe ich das mit einem P2000 G3 SAS System gesehen. 12*600GB SAS Platten die 4 Server (2x e5-2670, 256GB, MS Hyper-V 2012 mit je 50 Desktops) problemlos angetrieben. In den Servern waren statt normalen HBAs normale SAS Controller von Adaptec mit MaxCache (v3 iirc) drin. Als SSDs wurden je 4 Stück 250GB SM-843T verwendet und als Raid 10 betrieben. IO Last auf dem Storage ab etwa 15 Minuten nach Start eines Servers waren zu 90% Nutzerdatenzugriffe.

Mit spezieller Caching Software ließe sich das sicherlich noch weiter verfeinern und auf andere Anbindungstechniken erweitern, etwa FC, FCoE oder iSCSI.
Noch besser wenn die Dedup von Storage mit dem lokalen Cache auf den Servern kommunizieren könnte.
Aber da wird es noch ein paar Jahre dauern bis hier der Einzug in den breiten Markt gefeiert werden darf.

Grüße,
Philip
Bitte warten ..
Mitglied: Dani
11.01.2014, aktualisiert um 16:48 Uhr
Hi Philip,
ins Detail möchte ich nicht gehen...

Wir setzen für eine kl.VDI-Plattform (200VMs) eine Netapp 2240-4 mit Write/Readcache ein. Der Flashpool hat eine Größe von 800GB. Als Datengrab nutzen wir 18x3TB SATA-Festplatten. D.h. es stehen knapp 20TB für Nutzdaten zur Verfügung. Sowohl Bootstorms als auch Windowsupdates sind kein Problem für das Storage. Die Last liegt im Schnitt bei 20%. Der Cachehit liegt bei 70%, was Mittelmaß ist. Liegt bei uns daran, dass wir keine Linked-Clone VMs nutzen sondern Dedicated.

Für unsere Servervirtualisierung setzen wir Netapp 3250 ein. Dort ist der Flashpool eben 2TB groß, um wirklich Bootstorms abzufangen. Der Regelbetrieb ist eher harmlos, da Datenbanken (SQL, Sharepoint, Exchange) grundsätzlich auf LUNs liegen. Diese wiederum liegen je nach I/O Anforderungen auf SAS oder SSD-Festplatten. Der Große Vorteil ist auch hier, dass der Cachehit auf Blockebene stattfindet und somit bessere Werte liefert als Dateiebene o.ä.

Mit spezieller Caching Software ließe sich das sicherlich noch weiter verfeinern und auf andere Anbindungstechniken erweitern, etwa FC, FCoE oder iSCSI.
Jein. Die Problematik ist, dass jeder Hersteller ein bisschen sein Süppchen kocht.

Noch besser wenn die Dedup von Storage mit dem lokalen Cache auf den Servern kommunizieren könnte
Damit gewinnst du aber keinen Speicherplatz auf dem Storage. Eher das die Netzwerkkommunikation zunimmt und somit die Last auf beiden Seiten.


Grüße,
Dani
Bitte warten ..
Mitglied: psannz
11.01.2014 um 17:03 Uhr
Zitat von Dani:

[...]

Danke dir für die Infos.

> Mit spezieller Caching Software ließe sich das sicherlich noch weiter verfeinern und auf andere Anbindungstechniken
erweitern, etwa FC, FCoE oder iSCSI.
Jein. Die Problematik ist, dass jeder Hersteller ein bisschen sein Süppchen kocht.

> Noch besser wenn die Dedup von Storage mit dem lokalen Cache auf den Servern kommunizieren könnte
Damit gewinnst du aber keinen Speicherplatz auf dem Storage. Eher das die Netzwerkkommunikation zunimmt und somit die Last auf
beiden Seiten.

Stimmt auch wieder. Da wäre ein lokaler Cache auf Dateiebene der selbst nochmal auf Blockebene dedupliziert fast nochmal besser. Zumindest wenn man von einer Linked-Clone (wie gern bei VDI genutzt) Umgebung ausgeht. Cachest die paar Masterimages (und kommst auf eine hohe Dedup-Quote) und entlastest damit die Verbindung zum SAN massiv. Der Cache müsste dann auch nur nach Veränderung eines Masterimages aktualisiert werden.


Grüße,
Dani

Grüße,
Philip
Bitte warten ..
Mitglied: maikmueller
13.01.2014 um 11:29 Uhr
Hallo!

Ich war am WE nicht da und hatte folglich keine Gelegenheit mir die Beiträge durchzulesen. Vielen Dank für die zahlreichen Antworten. Ich werde mir das mal anschauen und evtl. Fragen stellen oder beantworten.

Viele Grüße
Bitte warten ..
Mitglied: chfr77
13.01.2014 um 16:55 Uhr
Zitat von maikmueller:
Vom Budget her möchte ich für das Storage (ohne Platten) nicht mehr als 2.000 Euro investieren.
Beginnen möchte ich im Storage selber mit 4 oder mehr Platten um diese als RAID10 zu betreiben.
Was für Platten sind das denn wenn die die Lese/Schreibleistung von 40 Gästen wegpacken? Oder reicht es wenn die Gastsysteme 45Minuten zum booten brauchen und ab und zu für ein paar Sekunden einfrieren? Was für ein Storage?
Als Betriebssystem wird übrigens Windows Server 2012 R2 Datacenter zum Einsatz kommen.
Das kostet als EOpen 7TEURO und als OEM 3,5TEURO.

Klingt echt sehr unausgegoren. Wenn Du das mit 8G Fibrechannel machen willst dann kosten die HBA' schon 2TEURO, bei iSCSI 1G wird es abenteuerlich. Bei iSCSI 10G kostet die Switch mehr als Du insgesamt ausgeben willst. Beim Hypervisor und Ram haust Du voll rein, aber bei den Disk-IO's knausern? Da stimmt was nicht!!

Wenn Du da massiv sparen willst und echt nur 2 Server hast und haben wirst, dann nimm hochwertige Controller und eine SAS-Erweiterungsbox. (Direct Attach Storage) Wenn Du das irgendwann jemals erweitern willst würd ich Dir aber raten jetzt direkt auf 10G iSCSI zu gehen, Du kannst ja vorerst die Switch weglassen.
Bitte warten ..
Mitglied: Dani
13.01.2014 um 18:20 Uhr
@chfrwrz
bei iSCSI 1G wird es abenteuerlich
Das ist so nicht richtig. Wir haben eine kl. Plattform aus 3 ESXi und ca. 50 virtuellen Servern darüber am Laufen. Es hängt doch sehr stark davon ab wie viele Daten geschrieben/gelesen werden.


Grüße,
Dani
Bitte warten ..
Mitglied: chfr77
01.04.2014 um 16:24 Uhr
Zitat von Dani:
Wir haben eine kl. Plattform aus 3 ESXi und ca. 50 virtuellen Servern darüber am Laufen. Es
hängt doch sehr stark davon ab wie viele Daten geschrieben/gelesen werden.

Stimmt grundsätzlich.

Wir haben auch Abnahme-/Testanlagen wo 3 Server mit insgesamt bis 100 Gästen (nach dem Start) mit unter 200 IOPS auskommen. Die laufen aber trotzdem auf einem 4x10G iSCSI-Storage mit (einem Reservesystem) auf einem eigenen RAID 10 mit 12x 10K pro 1TB-Spindel, da haben beide Controller auch 8GB Cache usw... Sobald da mehr als 3 Live-Migrationen oder 10 Boots auf einmal laufen sind die IOs auf dieser Speichergruppe voll. Das ist wie gesagt eine Test-/Abnahme Umgebung und mehr als 2000/800 IOPS sind da Unsinn.

Aber: 50 produktiv genutzte Server, für alles außer verteilten Rechensystemen, benötigen mehr als 300/150 IOPS Lese-/Schreibleistung die man bestenfalls aus o.g. Raid 10 bekommt. Wer sowas von einer "Storagelosen Konfiguration" migriert hat auch Server dabei die vorher schon an der IO-Grenze waren, z.B. Domänencontroller, dedizierte Datenbankserver oder Proxies/Mailserver. Außerdem haben solche Kunden keine Ahnung wie man ein Storage bestücken sollte.

Das da oben ist keine Dimensionierung wenn man produktiv mit 3 Hosts und 40 Gästen arbeiten will und Erweiterungsmöglichkeiten haben will. Du brauchst schon viel mehr IO-Reserven für Migrationen bei Wegbröckelnden Hosts, Wartungen oder Notfällen als diese Anlage überhaupt hat. Das ist amateurhaft. und dann sind die 2000 Euro wirklich weggeworfen.

Dann kann er besser voll auf die Murkserschiene gehen und einen Billigserver mit 6x Billig-SSD im Raid 10 ausstatten und als iSCSI-Storage-Head nehmen. Das schafft man mit 2000EUR Nettopreis und hat immerhin die Leistung die er haben sollte. Weiterhin wäre das aber falsch ausgelegt. Ich würde immer lieber einen höherwertigen Storage-Head mit 2 Controllern/Netzteilen nehmen, der über SAS mit Erweiterungsboxen ausgestattet werden kann.
Bitte warten ..
Neuester Wissensbeitrag
Windows 10

Powershell 5 BSOD

(8)

Tipp von agowa338 zum Thema Windows 10 ...

Ähnliche Inhalte
Hyper-V
gelöst Storage für Hyper-V Cluster optimieren (5)

Frage von rssd1983 zum Thema Hyper-V ...

Hyper-V
Hyper-V mit iSCSI SAN, Performance-Probleme in den VMs (2)

Frage von hijacker99 zum Thema Hyper-V ...

Festplatten, SSD, Raid
12TB written pro SSD in 2 Jahren mit RAID5 auf Hyper-VServer (2)

Erfahrungsbericht von Lochkartenstanzer zum Thema Festplatten, SSD, Raid ...

Heiß diskutierte Inhalte
Microsoft
Ordner mit LW-Buchstaben versehen und benennen (21)

Frage von Xaero1982 zum Thema Microsoft ...

Netzwerkmanagement
gelöst Anregungen, kleiner Betrieb, IT-Umgebung (18)

Frage von Unwichtig zum Thema Netzwerkmanagement ...

Windows Update
Treiberinstallation durch Windows Update läßt sich nicht verhindern (17)

Frage von liquidbase zum Thema Windows Update ...

Windows Tools
gelöst Aussendienst Datensynchronisierung (12)

Frage von lighningcrow zum Thema Windows Tools ...