cheechchong 11 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 Hallo zusammen, ich bin auf der Suche nach einer neuen Backup Lösung. Bis jetzt haben wir einen Tandberg Bandwechsel Roboter in Verbindung mit Veritas Backup Exec 9.0 im Einsatz. Da das Tandberg demnächst so langsam seinen Geist aufgibt (ist halt aus dem Jahr 2000), und die Sicherungen von der Geschwindigkeit her ins Tagesgeschäft laufen, bin ich auf der Suche nach einer Backup-To-Disk-Lösung. Gesichert werden soll: Die Sever Systemplatten (AD, DNS, DHCP, IIS etc.) , Fileserver, SQL-Server und Oracle. Als Datenmenge bin ich bei ca. 1500 GB/Monat. Von diesen Möchte ich am Monatsende ca . 400 GB Archivieren (auf Band und ab in den Safe). Jetzt habe ich mir schon mehrere NAS Hardware Lösungen angeschaut. Leider habe ich in diesem Bereich keine Erfahrung und weiss nicht wirklich welcher Hersteller was taugt. Ich habe mir schon z.b. Buffalo Tera Station Buffalo Technology - Products - TeraStation Pro™ II Rackmount und easyRaid:easyRAID NAS - Die einfach zu administierenden NAS-Lösungen angeschaut. Taugen die was. Oder sollte ich mir doch lieber Gedanken in Richtung EMC Avamar (wie hier im Forum gelesen machen). Obwohl ich glaube, das diese hier ziehmlich teuer sein dürfte: EMC Disk Library 3D 1500 – LAN-Backup auf Platte mit Datendeduplizierung Als Software würde ich gerne eine aktuelle Veritas, ups. mittlerweile Symantec nehmen. Ich warte gespannt auf Antworten... Zitieren Link zu diesem Kommentar
phoenixcp 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 Gesichert werden soll: Die Sever Systemplatten (AD, DNS, DHCP, IIS etc.) , Fileserver, SQL-Server und Oracle.Als Datenmenge bin ich bei ca. 1500 GB/Woche. Von diesen Möchte ich am Monatsende ca . 400 GB Archivieren (auf Band und ab in den Safe). 1500 GB/Woche * 4 Wochen, macht nach Adam Riesling 6000 GB. Und davon willst du nur 400 GB aufheben? Was für ein Backup / Recoverymodell willst du denn fahren? Fullbackups und dann inkrementell ergänzen oder alles nur Fullbackups? Zitieren Link zu diesem Kommentar
cheechchong 11 Geschrieben 11. September 2008 Autor Melden Teilen Geschrieben 11. September 2008 Das ging ja schnell :) Ups, mein Fehler es sind 1500 Gig im Monat. Werde das schnell noch korrigieren. 1500 Gig: täglichles Backup ca. 340 Gig. Diese werden täglich überschrieben. Der Stand von ende der Woche wird aufbewahrt und auf ein anderes Medium weggesichert. Dann geht es die Woche drauf wieder von vorne los, und die Backups werden überschrieben. Am Ende des Montas wird dann ein Monatsbestand von ca.400 Gig. weggesichert und archiviert. Es sind alles Vollbackups. Zitieren Link zu diesem Kommentar
at2oo1 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 1500 GB/Woche * 4 Wochen, macht nach Adam Riesling 6000 GB. Und davon willst du nur 400 GB aufheben?Was für ein Backup / Recoverymodell willst du denn fahren? Fullbackups und dann inkrementell ergänzen oder alles nur Fullbackups? Wie jetzt gesichert wird und welches Volumen es umfasst ist erstmal nicht so wichtig. Am Wichtigsten ist die vorhandene Infrastruktur und wieviel man investieren will. Was spricht gegen iSCSI oder Fibre Channel? Wenn man gänzlich auf Tapes verzichten möchte sollte es schon ein passendes System sein! Z.B. eine NetApp... NetApp - Produkte - Storage Systems - FAS3000 - FAS3000 Serie Die Software Frage ist wieder eine Andere, BackupExec ist einfach zu bedienen und läuft auch sauber, aber man sollte zumindest mal auf die aktuelle 11er updaten... Nachtrag: Wenn schon dann bitte die Kiste mit SAS Platten: http://www.starline.de/TopRAID-TR1532/TopRAID-TR1532-iSCSI-to-SAS-RAID-System_eng.htm Ein HBA in die Backupkiste einbauen (muss ja kein Fibre Channel sein), via ISCSI ein Volume raufmounten und Backups auf das Ding schreiben... Damit habe ich es mit BackupExec 11 übrigends auch schon gemacht. Performance ist zwar noch nicht sooo berauschend, aber als Zusatz zu ner Library doch durchaus ausreichend. Zitieren Link zu diesem Kommentar
phoenixcp 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 Wie jetzt gesichert wird und welches Volumen es umfasst ist erstmal nicht so wichtig. Seh ich ein wenig anders. Weil sich die technischen Möglichkeiten den Datenmengen anpassen sollten... Zitieren Link zu diesem Kommentar
at2oo1 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 Seh ich ein wenig anders. Weil sich die technischen Möglichkeiten den Datenmengen anpassen sollten... Das erklärts evtl. besser ^^ Ich wähle immer erst die technologie entsprechend dem Segment (SMB, Enterprise, DC ...) und mache mir dann gedanken um die Parameter um das Sizing der Technologie zu definieren und erst dann treffe ich eine entscheidung für ein bestimmtes Produkt / Lösung. Anscheinend wurde noch nicht über iSCSI & FC nachgedacht, wollte somit nur ausrücken das es evtl. Sinn macht bei der Lösungssuche etwas weiter oben anzusetzen und nicht direkt mit Lösungsdetails anzufangen. Zitieren Link zu diesem Kommentar
cheechchong 11 Geschrieben 11. September 2008 Autor Melden Teilen Geschrieben 11. September 2008 @at2oo1: Danke erstmal für die Antwort. Die von dir angedachten Systeme sind bestimmt eine schöne professionelle Lösung. Aber: Wenn ich meinem Chef eine Backuplösung mit 84 TB vorschlage wird er mir sagen, das das für unsere Datenmengen bzw. Unternehmen etwas zu gross ist. Und damit hätte er wahrscheinlich sogar recht :( Ansonsten hatte ich auch schonmal an einen Storage Server gedacht. Ich denke auch wie phoenixcp die Lösung sollte sich den Datenmengen anpassen. Backup Exec würde ich wie gesagt ja auch ganz gerne einsetzen. War mit der V. 9 schon recht zufrieden. Zitieren Link zu diesem Kommentar
at2oo1 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 @at2oo1:Danke erstmal für die Antwort. Die von dir angedachten Systeme sind bestimmt eine schöne professionelle Lösung. Aber: Wenn ich meinem Chef eine Backuplösung mit 84 TB vorschlage wird er mir sagen, das das für unsere Datenmengen bzw. Unternehmen etwas zu gross ist. Und damit hätte er wahrscheinlich sogar recht :( Ansonsten hatte ich auch schonmal an einen Storage Server gedacht. Ich denke auch wie phoenixcp die Lösung sollte sich den Datenmengen anpassen. Backup Exec würde ich wie gesagt ja auch ganz gerne einsetzen. War mit der V. 9 schon recht zufrieden. Jetzt wird die Sache klarer :) Mit den virtuellen Librarys habe ich keine Erfahrung gemacht, zumindest würde ich falls es diese Lösung sein soll erstmal bei Symantec anfragen ob bzw. welche Geräte unterstützt werden da BackupExec ja ganz gerne einen eigenen Treiber zum Ansteuern der Librarys/Drives verwendet. Performance über das Ethernet muss ebenfalls vorhanden sein. Ein Gigabit Ethernet ist sicherlich nicht falsch. Falls es ein einfacher Netzwerkspeicher sein soll sind wohl die wichtigsten Parameter die Performance und die Datensicherheit / Stabilität des Produkts. Soweit ich weiß kann man jede CIFS fähige NAS auch an BackupExec anbinden. Das ist da nur noch eine Geschmacks- / Preißfrage. Wenn man etwas flexibler/schneller arbeiten möchte tuts auch z.B. eine Infotrend (Stor IT Back - herstellerunabhängige Beratung) mit entsprechender Bestückung mit SATA Platten oder wers noch teurer/schneller mag steckt dann SAS Platten rein. BackupExec kann dann sobald ein Volume via iSCSI angebunden wurde im Normalfall wie auf ein lokales Laufwerk schreiben/lesen. Ein performantes Gigabit Ethernet sollte hierzu allerdings vorhanden sein. Für den Fall das man überhaupt nichts investieren möchte habe ich mit BackupExec 10 auch schonmal in alte Hardware einen PCI Raid Kontroller 4 SATA Platten im Raid 10 angehängt, windows xp installiert und die Platten ganz simpel freigegeben und die Backups übers Netz darauf gespeichert. Das Update auf Backupexec 11 oder neuer würde ich dir aufjedenfall empfehlen, gibts für die 9er überhaupt noch Support/Updates? Wenn ihr bestimmten Archivierungsrichtlinien unterlegen seid (wie z.B. bei einer Bank/Anwalt/Steuern oder ähnliches) kommt ihr vermutlich um den Einsatz von WORM Medien nicht herum. WORM – Wikipedia Zitieren Link zu diesem Kommentar
LukasB 10 Geschrieben 11. September 2008 Melden Teilen Geschrieben 11. September 2008 Einfach ums auch noch kurz zu erwähnen. LTO4 schafft 120 MB/s. Das ist schneller als Gigabit-Ethernet. Ist also nicht so das Tapes automatisch langsam sind. Bandkapazitäten von 800GB sind auch genügend für die meisten kleineren Betriebe. Zitieren Link zu diesem Kommentar
dippas 10 Geschrieben 12. September 2008 Melden Teilen Geschrieben 12. September 2008 Ich sitze hier und denke "Wie kompliziert die Ideen alle sind" und treffe dann auf den Post von Lukas. Mache es dir einfach: Neuer Bandroboter mit LTO3 oder LTO4 Laufwerk drin. LTO3 macht 400/800 GB, LTO4 schafft 800/1600 GB (nativ/komprimiert). dazu die aktuelle BE 12 und gut is. Keine neue Technik im Sinne von "noch nie in der Hand gehabt, lernen müssen" a la NAS, SAN, FC usw., sondern bereits Bekanntes - lediglich die Kapazität ist erhöht und die Software aktualisiert. Hat den netten Nebeneffekt, dass das Band zum auslagern bereits fertig ist. Aber: Wer lernt nicht auch gerne neue Technologien kennen? :) grüße dippas Zitieren Link zu diesem Kommentar
substyle 20 Geschrieben 12. September 2008 Melden Teilen Geschrieben 12. September 2008 @dippas IBM TS3500 oder was? Da würde ich vor allem mal schauen wie stark man die Backupdaten noch schrumpfen kann. Viele Unternehmen sichern auch völlig "unwichtige" Daten. Vollsicherung schön und gut, aber nicht immer angebracht. Ansonsten sehr schönes Konzept: EMC Avamar - Backup und Recovery mit globaler Datendeduplizierung an der Quelle subby Zitieren Link zu diesem Kommentar
Sternenkind 11 Geschrieben 13. September 2008 Melden Teilen Geschrieben 13. September 2008 Ich wär da ja auch eher für folgendes: http://sp.fujitsu-siemens.com/dmsp/docs/ds_fibrecat_tx24_s2.pdf Berücksichtigt man, dass das Volumen wächst und dass man evtl. 2 Bänder archivieren muss, mehr als 400GB+ komprimierung braucht, macht das Sinn, einen 12 Fach Wechsler zu nehmen, den man per Softwarelizenz auf 24 hoch stufen kann und fix ist er :) Zitieren Link zu diesem Kommentar
cheechchong 11 Geschrieben 14. September 2008 Autor Melden Teilen Geschrieben 14. September 2008 war ne Zeit lang unterwegs, deshalb poste ich erst jetzt wieder @dippas: Richtig, neue Technologien kennen zu lernen macht ja auch Spaß :cool: Außerdem bietet das BackupToDisk natürlich auch ein paar Vorteile (wie z.B. die Geschwindigkeit bei der Wiederherstellung). Und überhaupt: (Kleinkind Modus ein) ICH WILL WAS NEUES (Kleinkind Modus aus) Zitieren Link zu diesem Kommentar
PadawanDeluXe 75 Geschrieben 14. September 2008 Melden Teilen Geschrieben 14. September 2008 Also hier mal ne Idee vom Finanzamt ;) &mir: Ausgangspositon: 5x Backupsession die Woche Datenvolumen: 400 Gig pro Tag Ich baue mit einen Backupserver (XP Pro) mit einem Wechselschacht+ 6 500Gig-Platten und mach mir nen kleines Script auf'm Command mittels Robocopy. Das ganze läuft inkrementell, weil so die Zeit die das Backup benötigt reduziert wird. So die Laufwerke werden jeweils einem Tag zugewiesen, außer nr.6 das ist die Sicherung die in den Safe geht. Bedeutet im Ganzen: 18 Platten, weil die 5 fest eingebauten Platten jede woche neu überschrieben werden & die eine im Wechselschacht wöchentlich gewechselt wird. Das ganze finde ich sehr kostenfreundlich & Variabel. Der Grundbaustein bleibt erhalten & ich kann ihn einfach auf ein größeres Datenvolumen aufstocken. lg CEeS Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.