kfj-de
Goto Top

Backup in die Cloud

Hallo zusammen,

wir planen unsere Daten zusätzlich dauerhaft in die Cloud zu sichern, weil es immer mühsamer wird, das externe Lagern von Sicherungsfestplatten sicherzustellen.

Wer hat schon Erfahrungen damit gemacht, etwas größere Datenmengen (ca. 20 TB) auszulagern?

Mit welchen Schwierigkeiten muss man rechnen? Welche Software macht so etwas zuverlässig im Hintergrund?

Welche Kosten enstehen?

Auf den ersten Blick scheint z. B. Amazon Glacier sehr günstig zu sein (0,013$/GB/Monat). Wer hat Erfahrungen mit Amazon, Microsoft oder anderen Anbietern in diesem Umfeld?

Wir wären für jeden Input dankbar.

Content-Key: 258313

Url: https://administrator.de/contentid/258313

Printed on: April 19, 2024 at 08:04 o'clock

Member: SlainteMhath
SlainteMhath Dec 22, 2014 at 12:50:34 (UTC)
Goto Top
Moin,

größere Datenmengen (ca. 20 TB) auszulagern?
Mit welchen Schwierigkeiten muss man rechnen?
Abgesehen vom Datenschutz solltet ihr die Restore-Dauer berücksichtigen.

Und wie immer gillt: Nichts ist sicherer als ein paar (LTO-/RDX-) Medien im Bankschliessfach.

lg,
Slainte
Member: killtec
killtec Dec 22, 2014 at 13:00:56 (UTC)
Goto Top
Hi,
kann mich @SlainteMhath nur Anschließen.
Wir haben unsere LTO's im Bankschließfach.
Schneller, Sicherer, Datenschutz eingehalten face-smile

Gruß
Member: VGem-e
VGem-e Dec 22, 2014 at 13:00:57 (UTC)
Goto Top
Servus,

bitte an die deutschen Rechts- und Datenschutzvorschriften hierbei denken!

Schon der Gedanke, dass ich "meine" (meinte natürlich unsere) Behördendaten nicht mehr vor Ort bzw. bei einer Bank hinterlegen kann, lässt uns aktuell nicht daran denken, eine solche Möglichkeit zu prüfen!

Gruß,
VGem-e
Member: kfj-de
kfj-de Dec 22, 2014 at 13:13:25 (UTC)
Goto Top
Das ist nur die Katastrophen-Sicherung für Feuer etc.

Aber auch die sollte halt immer auf dem neuesten möglichen Stand. Und wenn ein Backup im Moment nur alle paar Wochen passieren kann, weil die Prozedur sonst zu aufwändig wird, ist das Verschieben in die Cloud da auf jeden Fall eine für uns bedenkenswerte Lösung.

Aber scheinbar haben sich hier da bisher noch nicht viele mit befasst, oder?
Member: killtec
killtec Dec 22, 2014 at 13:15:58 (UTC)
Goto Top
Hi,
schon mal was von Tape Librarys gehört? Da kannst du mehrere LTO's einlegen und der Schreibt dann automatisch auf die Tapes.
Alternativ: NAS im weiteren Brandabschnitt.
Ist alles Gängige Praxis.

Gruß
Member: SlainteMhath
SlainteMhath Dec 22, 2014 at 13:17:52 (UTC)
Goto Top
Aber scheinbar haben sich hier da bisher noch nicht viele mit befasst, oder?
Ich hab hier meine Storage (auf der alle Mission Critical VMs laufen) auf eine 2te gespiegelt die ~10km entfernt steht.

Datenverlust im K-Fall: 0 bis 1 Transaction face-smile
Member: jsysde
jsysde Dec 22, 2014 at 13:59:44 (UTC)
Goto Top
Moin.

Da ja mittlerweile alles, was "außerhäusig" betrieben wird, als "Cloud" bezeichnet wird - erst mal entwirren. face-wink
Amazon Glacier, Microsoft Azure & Co. sind tatsächlich Cloud-Dienste, die du prinzipiell von überall erreichen kannst - einerseits schön und praktisch, andererseits nicht mit dem deutschen Datenschutz vereinbar, weil die Daten Deutschland verlassen bzw. du das nicht verhindern oder gar deren Lagerort bestimmen kannst.

Es gibt aber sehr wohl seriöse Anbieter, die ein "Außer-Haus-Backup" anbieten, bei dem die Daten innerhalb Deutschlands bleiben, bei der Sicherung verschlüsselt werden (den Schlüssel behältst du) und bei denen auch der Transportweg selbst verschlüsselt ist; teilweise kannst du dir sogar aussuchen, ins welches Datacenter deine Daten gesichert werden und hast sogar die Option, dein Backup im Datacenter nochmals zu klonen (z.B. auf weiteren Storage in einem anderen Brandabschnitt).

Ich habe früher selbst mit einem Anbieter zusammengearbeitet, der die Software von Asigra eingesetzt hat - Marktführer in dem Bereich und zwar zu recht: Schnell, effizient, Retention-Policies nach meinen Wünschen, Agents für alle erdenklichen Backup-Quellen usw. Hat aber seinen Preis, mit 0,013$/GB wirst du da sicherlich nicht wegkommen (wobei der Preis pro GB natürlich mit wachsender Gesamtmenge der Daten fällt).

Was die Restore-Time betrifft:
Die Datacenter sind i.d.R. mit 10Gbit/s. oder mehr (redundant) angebunden, der Download von Daten kann also in Abhängigkeit der eigenen Internetanbindung vor Ort tatsächlich schneller sein wie das Hantieren mit Tapes/Platten. Selbst wenn keine Internetanbindung vor Ort besteht, kann der Anbieter die Daten innerhalb kürzester Zeit auf ne Platte kopieren (natürlich immer noch verschlüsselt) und per Kurier zu dir schicken/zur Abholung bereitstellen - auch einen solchen Fall habe ich schon hinter mir, hat seinerzeit prima geklappt.

Umgekehrt klappt das bei sehr großen Datenbeständen auch für das Initial-Backup, die Erst-Sicherung kann also auf Platten zum Dienstleister gebracht/von ihm abgeholt werden und über die Internet-Leitung laufen dann nur noch inkrementelle Backups; hier könntest du sogar ein Always-Incremental-Forever-Szenario realisieren, ebenso eine (revisionssichere) Langzeitarchivierung usw. Wie schon erwähnt, hat das seinen Preis, aber es funktioniert und erfüllt alle Standards, sowohl die der Banken als auch die der Datenschützer.

In meinem Fall hat ein solches Szenario das vorher dezentrale, lokale Backup verschiedener Standorte vollständig abgelöst: Keine Tapes und/oder Wechselplatten mehr, volle Kontrolle über eine zentrale Backup-Konsole über _alle!_ Backup-Jobs usw.

*Just my 5 Cent*

Cheers,
jsysde
Member: killtec
killtec Dec 22, 2014 updated at 14:00:37 (UTC)
Goto Top
@SlainteMhath:
Was hat du denn da für eine Verbindung?
Member: SlainteMhath
SlainteMhath Dec 22, 2014 at 14:15:23 (UTC)
Goto Top
@killtec
Das ist eine 10G Darkfibre Verbindung vom Rosa Riesen.
Member: killtec
killtec Dec 22, 2014 at 14:16:46 (UTC)
Goto Top
K, Danke für die Info. face-smile
Member: Dani
Dani Dec 22, 2014 at 18:56:25 (UTC)
Goto Top
Guten Abend,
alsooo 20TB ist nicht viel heutzutage... face-smile

Es hängt grundsätzlich vom Datenwachstum und der Anzahl der Wiederherstellungen ab. Meist scheitert solch ein Projekt an der Uploadgeschwindigkeit. Denn da langen ISP inzwischen richtig zu. Ihr solltet intern erst einmal definieren, wie lange ein Stillstand dauern darf bzw. ein Disaster-Recovery eurer Umgebung. Damit merkt ihr schnell wo es hin geht.

Wollt mir mit der "Cloud"-Sicherung nur euren Datenbestand sichern oder auch ein Hot-Standby Rechenzentrum? Heißt bei Ausfall Storage 1 übernimmt Storage 2 ohne längere Unterbrechungen. Wir machen es ähnlich wie @SlainteMhath. Wir spiegeln in Echtzeit die Daten auf Storage 1 und 2. Bei Problemen oder sogar Ausfall übernimmt Storage 2 ansatzlos die Arbeiten.


Gruß,
Dani
Member: kfj-de
kfj-de Dec 23, 2014, updated at Dec 25, 2014 at 09:54:48 (UTC)
Goto Top
@jsysde

Danke für das Teilen der Erfahrungen.

Welchen Preis Eure Lösung hat, magst Du aber nicht verraten, oder?
Member: kfj-de
kfj-de Dec 23, 2014, updated at Dec 25, 2014 at 09:54:05 (UTC)
Goto Top
@Dani

wir spiegeln auch, aber wir wollen halt zusätzlich alle Veränderungen pro Tag durchaus längerfristig im Zugriff behalten. Und hier überlegen wir halt gerade, ob das nicht besser in der Cloud aufgehoben wäre und ob man das mit der Disaster Recovery nicht gleich zusammen erledigen kann...