breichard
Goto Top

Einsatz externer Festplatten mit Veritas Backup Exec 10d

Hat jemand Erfahrungen mit dem Einsatz von externen Plattensystemen in Bezug auf die Nutzung in Symantec/Veritas Backup Exec 10d. Externe USB/S-ATA oder Maxtor OneTouch mit NIC?

Hallo,

wir haben 5 Windows Server 2003 im Einsatz und ca. 20 GB Exchangedaten, 70 GB File und 10 GB SQL Daten.

Ich suche eine Möglichkeit die in Backup Exec enthaltene Backup2Disk Variante sinnvoll zu nutzen. Mein Chef hat bei Maxtor eine externe Festplatte gesehen, welche es ermöglicht über die integrierte NIC direkt per LAN auf diese Zuzugreifen.

Bisher setzen wir ein klassisches Tape ein, welches jedoch an seine Grenzen angelangt ist.

Meine Bedenken liegen nun an folgenden Stellen:
1. Wird die Festplatte als Netzshare oder Laufwerk eingerichtet?
2. Ist die Performance überhaupt ausreichend für 15GB zu sichern(LAN hat 100GB / MAXTOR Festplatte hat 1GB NIC)
3. Was passiert, wenn ich zwei Platten rotieren möchte (Tausch, zwecks Auslagerung ausser Haus)

Hat hier jemand Erfahrungen bzw. diese Konstellation im Einsatz?

Es würde mich auch interessieren, welche "Plattenkonzepte" hier bevorzugt sind, sprich ob jemand USB-Festplatten am Server anschliesst oder es schon einmal mit externen S-ATA Platten probiert hat.

Wäre für jede Rückmeldung sehr dankbar.

Mfg

Björn Reichard

Content-Key: 29739

Url: https://administrator.de/contentid/29739

Printed on: April 20, 2024 at 00:04 o'clock

Member: halani01
halani01 Apr 05, 2006 at 06:43:45 (UTC)
Goto Top
Hallöle,

habe genau das realisiert! Ich habe externe USB-Platten und tausche diese täglich. In Windows habe ich der jeweils angeschlossenen Platte den Laufwerksbuchstaben E:\ zugeordnet. BackupExec sichert also immer auf E:\. Funktioniert wunderbar.

Im Vergleich zu einem DLT-Laufwerk ist der Spaß erheblich schneller. Bei mir hat sich die Dauer der Sicherung auf ca. 30 % reduziert. Die Geschwindigkeit hängt stark von der Netzwerk-Karte der anderen Server und deren Rechenleistung ab. Das variiert zwischen 5 GB und 40 GB in der Stunde inklusive Überprüfung. Außerdem spielt es noch eine Rolle, was du sicherst. Ich benutze auch die Agents (Exchange, Oracle, SQL).

Der Exchange braucht trotz besserer Hardware ca. doppelt so lange, wie der Oracle oder der SQL.

Ich glaube nicht, dass die Anbindung der Platte über LAN viel bringt, weil i.d.R. mit USB 2.0 der Datendurchsatz höher ist, als der der Platte.

Zur Zeit sichere ich nachts über 100 GB von 7 Servern und habe noch Luft in meinem Zeitfenster. Allerdings habe ich noch 3 alte Kisten dabei (Pentium 3, 100 Mbit), die zwar nur ca. 20 % der Datenmenge verursachen, aber 50 % der Zeit ausmachen. Ich mache jeden Tag ein Fullbackup.

Ich glaube, das war's, was mir dazu einfällt!

Ciao
Niko
Member: breichard
breichard Apr 05, 2006 at 07:07:35 (UTC)
Goto Top
Hi,

Vielen Dank, das hilft mir schon mal sehr viel weiter.

Wie sieht es mit der Zuordnung der Laufwerksbuchstaben aus?
Es ist also immer nur eine Festplatte angeschlossen und beide nutzen also nach einem Tausch immer den Laufwerksbuchstaben E:.
Das System ordnet das immer sauber zu und die Veritas bringt auch keinen Fehler, dass der Backup2Disk Datenträger offline ist?

Das wäre ja eine ideale Lösung! Wie siehst du den Einsatz von externen S-ATA Festplatten um Gegensatz zu USB 2.0? Ansonsten habe ich so ziemlich die identische Konstellation an Hardware (Alter und Performance), wie in deiner Antwort beschrieben. Aus diesem Grunde bin ich Dir sehr dankbar!

Mfg

Björn Reichard
Member: halani01
halani01 Apr 05, 2006 at 08:05:03 (UTC)
Goto Top
Genau so läuft's. Es ist immer nur eine Platte anschlossen. Ich stecke also täglich nur Netzteil und USB-Kabel um. BE ist damit glücklich! Es erkennt jede Platte als eigenständiges Medium und ordnet das angeschlossene automatisch als online zu und setzt die nicht angeschlossenen Platten offline.

Ich sehe keinen Grund, warum das mit S-ATA nicht genauso funktionieren sollte, war damals nur teurer, deshalb hab ich's nicht gemacht.
Member: tzippi
tzippi Apr 05, 2006 at 16:51:44 (UTC)
Goto Top
Mit sata sieht es noch schlecht aus, da die HDDS bei fast allen Controllern nur als interne HDD erkannt werden. Nur bei Nforce Mainboards und Nvidia Treibern kann man die Festplatten ohne heruntergefahrenen Rechner wechseln (leider). Bin selber auf der Suche nach einem zusätzlichen Satacontroller, der dies wie der Nforce kann. USB ist auch nicht soviel langsamer, wenn direkt am Server angeschlossen. Die 2. Alternative sind Schaltuhren, damit die HDDs automatisch ein und ausgeschaltet werden. Die billigen NAS Gehäuse taugen nichts, nur 3Mb/s und nur Fat32

mfg

tzippi
Mitglied: 13198
13198 Nov 15, 2006 at 13:34:10 (UTC)
Goto Top
Hallo, und dein Server bekommt da nie Probleme, wenn du oft die Festplatte aus und ein steckst?
Member: halani01
halani01 Nov 16, 2006 at 07:36:41 (UTC)
Goto Top
Ich sichere jetzt seit ca. 1 Jahr auf USB-Platten, habe 6 Stück im täglichen Wechsel im Einsatz und habe bisher noch kein Problem mit dem erkennen der Platte gehabt. Ausstecken, einstecken, geht. geht prima. Berücksichtigt man die Haltbarkeit von Magnetbändern, habe ich jetzt schon 2 Sätze gespart!
Mitglied: 13198
13198 Nov 16, 2006 at 08:51:41 (UTC)
Goto Top
Hallo, also USB am Server dauern ein und aus zu stecken ist mir doch ein wenig zu heiß. Ich bin auf der Suche nach einer Festplatte mit Netzwerkanschluss welche einen Gigaspeed Anschluss hat. Hat jemand so eine und kann darüber seine Erfahrungen berichten?
Member: halani01
halani01 Nov 16, 2006 at 08:56:17 (UTC)
Goto Top
Ich sehe zwar nicht den Grund, warum du Probleme siehst, wo keine sind, aber egal:

"Maxtor Shared Storage II" mit 300 oder 500 GB

Kenne ich selbst zwar nicht, habe aber Gutes gehört!
Member: muellinger
muellinger Feb 02, 2007 at 14:26:00 (UTC)
Goto Top
Hi.
Mal ein anderer Vorschlag von mir. Von der Sicherung auf USB-Platten halt ich eher wenig.
Wenn es ums Zeitfenster geht, dass zu eng ist, würde ich folgende Lösung bevorzugen.

1 externes RAID-5 SCSI-Plattensystem für einen Backup-to-Disk Job.
Anschließendes kopieren dieser Sicherung auf DLT, LTO oder ähnliches. Dies kann jeder Zeit ausserhalb des Sicherungsfensters geschehen.

So hat man die Vorteile beider Welten. Hohe Sicherungs-Geschwindigkeit der Festplatten, lange Archivierbarkeit der Magnetbänder.

Klar. Sowas ist natürlich etwas teurer als ne USB-Läsung ohne Bänder. Allerdings bezweifle ich dass eine Festplatte nach 30 Jahren im Schrank noch so läuft dass man die Daten wieder her kriegen könnte. Die Archivierungsvorschriften sollte man eben immer mit im Auge halten.

Auch mit ein Grund dass ich lieber eine "Overkill"-Lösung wähle ist der, dass ich was Datenverlust angeht, schon ein paar Kundenfirmen sterben gesehen habe weil die Chefs zu geizig waren und sich auf billige Lösungen verlassen haben.

Ist aber natürlich jedem selber überlassen. face-smile
Mitglied: 13198
13198 Feb 02, 2007 at 15:47:48 (UTC)
Goto Top
sei noch angemerkt, das Veritas Backup nicht auf ein Netzwerklaufwerk sprich einen Share oder ähnliches sichern kann. Bei USB Festplatten geht es bei Nic HDs hats bei mir nicht funktioniert...
Member: halani01
halani01 Feb 05, 2007 at 07:19:28 (UTC)
Goto Top
Klar ist ein externes SCRSI-RAID und ein LTO-Laufwerk dahinter eine technisch sehr gute Lösung zum Thema Datensicherung. Im Idealfall also ein NAS oder SAN.

Nur: In den Raum zu stellen, das sei nur "etwas" teurer ist ein schlechter Scherz! Ich lege ein vielfaches an Kohle auf den Tisch und habe dann noch nicht ein einziges Band.

Außerdem sehe ich eine Datensicherung als Lösung für den Notfall, also wenn's knallt. Ich lege keine USB-Platte und auch kein Magnetband meiner Datensicherung 30 Jahre in einen Tresor, sondern habe die im täglichen Wechsel im Einsatz. Raucht mir da eine Platte ab, dann merke ich das sofort. Bei einem Band bemerkt man genau das i.d.R. nicht (ich habe schon häufig erlebt, dass die Sicherungssoftware sagt: OK, aber auf dem Band dann doch nichts Brauchbares mehr drauf war, und das auch bei Bändern, die kein halbes Jahr alt waren) und nach einem halben Jahr sollte man die Bänder sowieso tauschen (und schon wieder zahle ich).

Die angesprochene Archivierung ist ebenso wichtig, wie die Datensicherung, ist aber m.E. ein anderes Thema, da hier nicht die Wiederherstellung von defekten oder verschwundenen Daten eine Rolle spielt, sondern die sichere, schnell wieder auffindbare Auslagerung und Aufbewahrung von im laufenden Betrieb nicht mehr benötigter Daten.

Auf die Datensicherung brauchen nur die IT-Verantwortlichen Zugriff, auf die Archivierung muss aber der Sachbearbeiter z.B. aus der Buchhaltung Zugriff haben. Sichern muss ich ganze Serversysteme, archivieren nur die entspechenden Fachdaten, so dass auch in der Art der Daten ein Unterschied besteht.