Jochen Graf 10 Geschrieben 10. Oktober 2018 Autor Melden Teilen Geschrieben 10. Oktober 2018 die NAS steht in einem anderen Gebäude, da gibt es leider nicht mehr Speed Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 10. Oktober 2018 Melden Teilen Geschrieben 10. Oktober 2018 @Jochen Graf Danke. Nun ja, 100MBit ist natürlich 2018 schon etwas dünn. Ich würde schauen, ob Bacula auch Features wie Deduplication oder synthetische Backups (ForeverIncremental) unterstützt. Muss es denn wirklich jeden Tag ein Vollbackup sein? Evtl. reicht ja auch ein Vollbackup am Wochenende (z.B. Sonntag) und dann ein tägliches differentielles Backup aus. Das würde dann die Backupzeiten unter der Woche schon mal deutlich verkürzen. Ansonsten könnte man auch mal einen Test mit Veeam (Endpoint Protection) machen. Selbst in der kostenlosen Version bietet die Software schon eine ganz Menge (u.a. Deduplication). Wobei auch Veeam nicht hexen kann. 100 Mbit bleiben halt 100MBit. Zitieren Link zu diesem Kommentar
Jochen Graf 10 Geschrieben 10. Oktober 2018 Autor Melden Teilen Geschrieben 10. Oktober 2018 Es wird am Sonntag ein Vollbackup durchgefürt, unter der Woche ein Inkre. So, da ich mit Proxmox arbeite habe ich mal eben überlegt. ich lege auf dem Proxmox ein Dataset an rpool/wk2012_daten 874M 1.72T 874M /rpool/wk2012_daten für die VM selbst auch ein Dataset rpool/wk2012 4.71G 1.72T 4.71G /rpool/wk2012 Nun binde ich das Dataset "rpool/wk2012_daten " im Windows als Partition ein. Dann fahre ich nachts die VM runter, mache einen snapshot von rpool/wk2012_daten, fahre den Server wieder hoch. "dauert keine 2 Minuten". Dann erstelle ich einen Clone von rpool/wk2012_daten und mounte das qcow2 image. modprobe nbd max_part=8 qemu-nbd --connect=/dev/nbd0 db1_old.qcow2 # mount first partition mount /dev/nbd0p1 /mnt/ wieder freigeben: umount /mnt/ qemu-nbd --disconnect /dev/nbd0 QUELLE / https://www.netzkompetenz.ch/ubuntu/qcow2-disk-image-mounten/ root@backup-zfs:/rpool/wk2012_daten/images/212# ls vm-212-disk-1.qcow2 Dann lass ich Bacula rennen Bin gerade dabei dass zu Testen. Wobei der ZFS Snapshot nicht mal eine Sekunde braucht "hatte dass mit 500GB Daten getestet". Im zweiten Schritt würde ich dann einen Inkrementellen Snapshot erstellen und diesen auf einer externen Platte sichern. Muss aber noch alles getestet werden. Natürlich kann ich auch vom ganzen Server direkt einen Snapshot durchführen und diesen auf einen anderen Server einspielen "ZFS-Snapshots im Netz synchronisieren". ZFS ist echt supper genial. Kann ich hier keine Bilder einfügen? danke nochmal Achso, danke für den Tipp " Deduplication". Soweit ich das sehe, kann das bacula auch. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.464 Geschrieben 10. Oktober 2018 Melden Teilen Geschrieben 10. Oktober 2018 Ich würde an dem Standort vom Server entweder einen weiteren Backup-Server hinstellen und dahin mit Gigabit sichern, alternativ mit einem zweiten NAS, und nach erfolgreichem Backup auf das NAS im anderen Gebäude kopieren, wann spielt dann keine Rolle mehr. Zudem würde ich das Konzept überdenken, wer fährt denn einen Server runter? My 2 Cents Zitieren Link zu diesem Kommentar
Jochen Graf 10 Geschrieben 10. Oktober 2018 Autor Melden Teilen Geschrieben 10. Oktober 2018 Hallo, der Server wird per Script heruntergefahren, dass ist kein Problem. Bei Proxmox ist dass ein Befehl qm shutdown stop VM , das wars. Starten mit qm start VM . Ich habe vorhin mal geprüft, es ist doch ein Gigabit Netzwerk. Wir sind gerade dabei, den Flaschhals zu finden. Einen weiteren Server möchte ich nicht aufsetzen, dass mit dem ZFS Snapshot klappt wunderbar. Da habe ich ein Downtime vom Server fü+r max. 2 Minuten. Danach kann ich alles wegsichern. lieben gruss Zitieren Link zu diesem Kommentar
NorbertFe 2.015 Geschrieben 10. Oktober 2018 Melden Teilen Geschrieben 10. Oktober 2018 vor 1 Minute schrieb Jochen Graf: der Server wird per Script heruntergefahren, dass ist kein Problem. Doch, denn der ist dann offline. ;) Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 10. Oktober 2018 Melden Teilen Geschrieben 10. Oktober 2018 Bacula, Proxmox, 100 Mbit Links in andere Gebäude... der helle Wahnsinn. Zitieren Link zu diesem Kommentar
Jochen Graf 10 Geschrieben 11. Oktober 2018 Autor Melden Teilen Geschrieben 11. Oktober 2018 guten morgen, Mít Bacula sichere ich 4 Server und 2 Windows Clients insgesamt. Aus Sicheitsgrunden war es so gewollt. Da habe ich keinen Einfluss. Zumal es TYPO3 / Owncloud / Seafile und WIndows 2012 Server sind. Da ist Bacula perfekt, wobei es nichts kostet, denn dass wurde auch vorausgesetzt, dass ich eine Backuplösung finde, die heterogene Netze sichern kann. Der Bacula selbst ist auf dem Proxmox als VM eingerichtet und mit der NAS verbunden. So kann ich jeden TAG ein Vollbackup von der VM = Bacula machen, Die Kombinatiomn Proxmox / Bacula passt auf jeden Fall. SERVER OFFLINE! Wenn der Server Offline ist, dann wird eine Sicherung per ZFS durchgeführt. "Virtualisierung". Dann fährt der Server wieder hoch. Die SIcherung bleibt ja in form von einem Snapshot. Ich wollte eigentlich nicht soweit ausholen, jedenfalls hat sich dass mit dem SMB geklärt. Der Server ist nachts für zwei Minuten offline. Damit kann ich sehr gut leben. So kann ich auch Tagsüber noch die Daten Sichern ohne dass jemand darauf zugreift. Es geht hier nur um die Sicherung am Wochenende. liebe grüsse Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 11. Oktober 2018 Melden Teilen Geschrieben 11. Oktober 2018 (bearbeitet) vor einer Stunde schrieb Jochen Graf: Mít Bacula sichere ich 4 Server und 2 Windows Clients insgesamt. Aus Sicheitsgrunden war es so gewollt. Da habe ich keinen Einfluss. Zumal es TYPO3 / Owncloud / Seafile und WIndows 2012 Server sind. Da ist Bacula perfekt, wobei es nichts kostet, denn dass wurde auch vorausgesetzt, dass ich eine Backuplösung finde, die heterogene Netze sichern kann. Ruhig bleiben! Grundsätzlich kostet Backup Geld (bei Dir/Euch halt Deine Zeit, was ja auch Geld bedeutet!). Wir sichern hier täglich knapp 40 Server (Windows und Linux). Andere hier noch deutlich mehr! Funktioniert bei uns wunderbar mit Veeam B&R. Ja, hat etwas Geld gekostet Dafür funktioniert das Ganze 1a, performant und ich muss nicht im laufenden Betrieb einen Server runterfahren! Die Investition in ein Vernünftiges Backup/Restore war auf jedem Fall eine gute Investition. Und wenn ich die Kosten mal auf die problemlosen Jahre umrechne geradezu ein Witz! bearbeitet 11. Oktober 2018 von monstermania Zitieren Link zu diesem Kommentar
Jochen Graf 10 Geschrieben 13. Oktober 2018 Autor Melden Teilen Geschrieben 13. Oktober 2018 Hallo, ich bin doch Ruhig ! Ja, ein Backup kostet Geld keine Frage, aber dass hängt ganz vom Netzwerk ab. So kann ich mit ZFS Snapshots und Samba/Snapshost mit Bacula alles wegsichern, uns dass kostet mich nichts mit der Software. Ich habe keine 40 Server zu sichern, deshalb kommt dass Veeam B&R nicht in Frage. " Die Investition in ein Vernünftiges Backup/Restore war auf jedem Fall eine gute Investition. " Ich hatte auch nicht das Gegenteil behauptet, doch bin ich davon überzeugt, dass sich mit ZFS deine 40 Server sicheren lassen mit ZFS/ Snapshots inklusive Baula ohne Kosten der Software. ABER, man muss sich einarbeiten, dass kostet sehr viel Zeit,. "" Und wenn ich die Kosten mal auf die problemlosen Jahre umrechne geradezu ein Witz! " " Klar, aber meine Firma fragt nach den laufenden Kosten der Software und nicht danach, ob alles rund läuft und die Problemlosen Jahre, darf ich nicht mal Ansprechen!. Lange Rede, Ich wollte keinen Angreifen. Nur kann es nicht stehen lassen, dass Backup Geld ´Kostet in Bezug auf einer Software! Auch wenn es 60 Server sind.! OK, Lass und den Thread schliessen, ich hatte nicht vor, eine komplexe Sache ins Rollen zu bringen. Ich bedanke mich für euer Antworten liebe grüsse Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 14. Oktober 2018 Melden Teilen Geschrieben 14. Oktober 2018 Hast Du Dein Backup-Konzept auch mal verprobt? Ein Backup und nur so gut wie eine funktionierende Rücksicherung. Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 14. Oktober 2018 Melden Teilen Geschrieben 14. Oktober 2018 (bearbeitet) Ich verstehe die Aufregung hier nicht so ganz. Was ist an bacula verkehrt? Wo ist das Problem einen Server herunter zu fahren? Wenn es in die Verfügbarkeitsanforderungen passt ist doch alle ok. Was bitte hat das mit der Anzahl der Server zu tun? ZFS ist im übrigen eines der geilsten Dateisysteme überhaupt. Allerdings ist dedup sehr RAM-intensiv! Früher hat man mal gesagt: pro TB Storage 5-10GB RAM. bearbeitet 14. Oktober 2018 von magheinz Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 14. Oktober 2018 Melden Teilen Geschrieben 14. Oktober 2018 Ich habe das Produkt nicht bewertet sondern das Konzept des TO. Besonders weil er immer von "Wegsichern" schreibt. Ganz wichtig ist: Genügt meine Lösung den Anforderungen an gesetzliche Aufbewahrungsfristen? Kann ich Daten wiederherstellen? Kann ich Desaster-Szenarien überstehen? Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 15. Oktober 2018 Melden Teilen Geschrieben 15. Oktober 2018 @Jochen Graf Ich wollte Dich keinesfalls angreifen. Wenn Du das so empfunden hast, tut es mir leid!!! Du hattest in Deiner Antwort 'SERVER OFFLINE!' geschrieben. In Foren gelten GROSSBUCHSTABEN im allgemeinen als schreien. Und nein, einen Server (auch nur kurzzeitig) herunterzufahren ist m.E. 2018 eben keine 'Lösung', sondern schlichtweg gefrickel. Ist halt eine zusätzliche Möglichkeit mehr, dass etwas hakt. Justmy2ct Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 15. Oktober 2018 Melden Teilen Geschrieben 15. Oktober 2018 Ich finde es schwierig ein Konzept zu beurteilen ohne die Anforderungen zu kennen. Ob das was du für wichtig hältst auch für diese Firma wichtig ist entscheidet normalerweise die Geschäftsleitung und nicht der ITler. Da kommt nicht immer das logisch erwartbare Ergebnis heraus. Abgesehen davon: i Server müssen auch regelmäßig wegen Updates durchgebootet werden. Wer Verfügbarkeit besucht muss das sowieso für den Dienst, nicht für den Server planen. Von Energiesparkonzepten mal ganz abgesehen. Wozu sollen 20 Terminalserver durchlaufen wenn von Abend bis Morgen nur ein Bruchteil der Leute arbeitet? Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.