monstermania 53 Geschrieben 2. Juli 2013 Melden Teilen Geschrieben 2. Juli 2013 Hallo, wir setzten einen Backupserver mit Windows 2003x64 ein. Auf diesem Server werden alle Backups zunächst auf dem lokalen Storage abgelegt (B2D). Anschließend werden die Backupdaten per Backupsoftware auf Band gesichert. Nun mein Problem. Wir machen Backups auch von VM's. Die vmdks sind bis zu 600 GB groß. Leider ist es so, dass die Schreibperformance auf den Backupserver über das Netzwerk extrem einbricht, so Bald die Dateigröße ansteigt. Das geht so weit, dass sich die VM mit 600 GB überhaupt nicht sichern läßt, da die Sicherung 'ewig' läuft! Ich habe dazu mal diverse Test's mit einer Imagesoftware gemacht. Die Image-Software sichert aus Windows heraus über das LAN auf den Backupserver. Ich habe die Containergröße der Backupsoftware auf 500 GB gestellt -> Das Imageprogramm fängt mit ca. 3 GB/min an und wird dann stetig langsamer. Bei einer Größe von 100GB der Imagedatei auf dem Backupserver bin ich dann schon auf 0,8 GB/min runter... Ich habe dann mal die Größe der Containerdateien im Imageprogramm auf 4 GB umgestellt und die Imageerstellung dann nochmal gestartet. Jetzt läuft das Image komplett mit rund 2,7 GB/min Datenrate durch. Ich habe dann das gleiche nochmals mit einem anderen Rechner im Netzt geprüft. Hier bleibt die Datenrate auch bei großen Dateien konstant. Das Problem liegt daher definitiv an dem Backupserver. Die AV Software ist natürlich auf dem Backupserver deakiviert. Hat jemand eine idee, warum die Performance bei großen Dateien so drastisch einbricht!? Gruß Dirk Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 2. Juli 2013 Melden Teilen Geschrieben 2. Juli 2013 (bearbeitet) Wie sieht deine Raid-Config auf dem Backupserver incl. Controller und Cache und BBU aus? Bei Daten dieser Größe würde ich das Backup der VMs per SAN (SAS, FC etc.) machen. Das ist deutlich performanter als Netzwerk. bearbeitet 2. Juli 2013 von djmaker Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 3. Juli 2013 Autor Melden Teilen Geschrieben 3. Juli 2013 Hallo Thomas, natürlich ist der Backupserver per FC an das SAN angebunden. Es geht hier nicht um den Einsatz einer Imagesoftware! Die Imagesoftware habe ich nur genutzt um das Problem eingrenzen zu können! Konkret habe ich das Problem, dass die BackupExec-Sicherung mit dem VM-Agent bei größeren Maschinen extrem lange dauert bzw. überhaupt nicht durchläuft. Auf einem virtuellen Fileserver habe ich 650 GB zu sichern. Bei einer Vollsicherung ist das vmdk-File der Partition runde 500 GB groß. Hier läuft sich unser Backupserver einfach tot! Sprich die Schreibperformance auf dem Backupserver sinkt mit wachsender Dateigröße kontinuierlich ab. Irgendwann ist Sie so gering, dass nur noch der Abruch der Sicherung bleibt, da quasi nix mehr passiert.Das Problem liegt nicht an BE oder am Netzwerk, sondern definitiv am Backupserver selbst. Wenn ich die obige Imagesicherung z.B. auf ein an mein NB angeschlossenes USB Laufwerk mache, bleibt die Datenrate unabhängig von der Dateigröße der Imagedatei während des gesamten Imagevorgangs konstant. Der Backupserver ist ein HP380G5 mit einem P400 Raid-Controller und einem RAID5 mit SAS-Platten. Das Ganze läuft unter W2k3 64Bit. GrußDirk Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Das heißt das Backup findet auf localem Storage im Backup-Server satt? Kannst Du mehr zum RAID / Controller / Cache / BBU verraten? Seit wann tritt das Problem auf? Hat eventuell das SAN ein Performanceproblem mit den Snapshots? Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 3. Juli 2013 Autor Melden Teilen Geschrieben 3. Juli 2013 Jo, das Backup findet auf dem lokalen Storage des Servers statt (B2D). Nach erfolgreichem B2D erfolgt dann ein B2T auf einen Quantum SDLT Autoloader. Bei dem Raid-Controller handelt es sich um einen 8 kanaligen HP P400 Raid Controller mit 256MB Cache und BBU. 2 x 73GB SAS (Raid 1) für das BS des Servers 6 x 1 TB SAS (Raid 5) als Backupstorage Am SAN liegt es nicht. Auch nicht an der Netzwerkanbindung. Um das auszuschließen habe ich ja die Tests mit der Imagesoftware direkt aus der VM gemacht. Seit wann das Problem besteht, kann ich nicht sagen. Offenbar war sich mein Vorgänger des Problems aber schon bewusst. Das Backup der großen VM's war so eingestellt, dass BE die VM's per Betriebsystemagent gesichert hat (das läuft dann natüröich über das LAN). Die Größe der einzelnen Backupdateien war auf 6 GB eingestellt. Ich möchte jetzt das Backup aller VM's auf den VM-Agent von BE umstellen. Gerade weil das SAN per FC an den Backupserver angebunden ist habe ich mir davon einen Geschwindigkeitsvorteil versprochen... Gruß Dirk Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Wenn der Backup-Server die VmWare LUN-Ansprechen kann, kann man auch im SAN-Mode sichern. Ich würde zunächst dringend eine aktuelle Windows-Version empfehlen. Bei 2003 kann es passieren, dass Windows die Partition-Table der VMWare-LUNS überschreibt. Mit einer geeigneten Backup-Software mit VADP-Support kannst Du die Snapshot-Sicherungen direkt auf Band schreiben. Ob der SAN-Mode funktioniert hängt von vielen Faktoren ab: Herstellet des FC-Storage, FC-Controller usw. Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Welche Version von BE setzt du ein. Wie hast du den ausgeschlossen das es an der Software liegt? Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 3. Juli 2013 Autor Melden Teilen Geschrieben 3. Juli 2013 Welche Version von BE setzt du ein. Wie hast du den ausgeschlossen das es an der Software liegt? BE 2010R3 Wenn ich per Robocopy eine 100 GB große Datei auf den Backupserver kopiere verhält sich der Server wie beschrieben: Je größer die Datei auf dem Backupserver wird, umso langsamer wir die Übertragung. Bis 10 GB Dateigröße ist das verhalten kaum merkbar. BE hat damit also nix zu tun! Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Dann könnte die Schreibperformance zu gering sein. Passiert das auch, wenn Du solche großen Dateien innerhalb des Servers umkopierst ? Ist auf dem P400 der Schreibcache aktiviert ? Etwas mehr Cache könnte Sinn machen. Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Das Verhalten beim Kopieren großer Datenmengen deutet auf ein Performanceproblem mit deinem lokalen RADI am Backup-Server hin. Der Server liest die Dtaen aus dem Netz bzw. vom SAN und puffert diese im RAM. Da die Daten schneller ankommen als sie geschrieben werden können bricht die Performance ein wenn der RAM voll ist. Ich tippe darauf das der Server ca. 8 GB RAM hat. :-) Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Ich gehe runter auf 4GB Ram, am Anfang sollten die Platten das hinbekommen ;) Was sagt das HP Array Configuration Utility zum BBU Status und wie sind die Cache Settings? Desweiteren würde ich mal die Firmware des Controllers prüfen ob die aktuell ist. Jetzt mal etwas in den Nebel gestochen. Hast du evtl. HDDs mit 4k Sektoren im Einsatz? Die kann der P400 imho nicht. Und kannst du mal das Allignment checken: http://support.microsoft.com/kb/929491/en-us Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 3. Juli 2013 Melden Teilen Geschrieben 3. Juli 2013 Bei 4 GB RAM ist x64 aber sinnfrei. ;) Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 4. Juli 2013 Autor Melden Teilen Geschrieben 4. Juli 2013 (bearbeitet) Hi, irgendwie versteht Ihr die Problematik nicht richtig. Es geht nicht darum, dass die Performance bei einer großen Datei nach ca. 4 GB Dateiübertragung einbricht und dann aber auf diesem Level verbleibt und das kopieren dann langsam durchläuft. Es ist tatsächlich so, dass die Übertragung fast linear mit dem anwachsen der kopierten Datei auf dem Backupserver immer langsamer wird. Irgendwann tut sich dann fast gar nichts mehr (bei rund 300 GB Dateigröße). Da bleibt dann nur noch ein Abbruch des Kopiervorgangs. Ich frage mich jetzt nur noch, ob es sich dabei um ein Problem mit Windows oder direkt mit dem Raid-Controller handelt. Hat evtl.einer von Euch einen HP 400 Raid-Controller mit RAID-5 im Einsatz und kann dass mal testen? Wenn es woanders funktioniert, kann ich zumindest den Raid-Controller ausschließen. Hier mal der Link zum Controller: http://h18004.www1.hp.com/products/servers/proliantstorage/arraycontrollers/smartarrayp400/ Gruß Dirk bearbeitet 4. Juli 2013 von monstermania Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 4. Juli 2013 Melden Teilen Geschrieben 4. Juli 2013 Kannst du die FW mal checken? Und auch die Cache Settings wären mal interessant. Hatte dir dazu oben ja was geschrieben. Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 4. Juli 2013 Autor Melden Teilen Geschrieben 4. Juli 2013 So, nun komme ich der Sache näher. Offenbar handelt es sich um ein bekanntes Problem mit Windows 2003R2 64Bit. Siehe hier: http://social.technet.microsoft.com/Forums/windowsserver/en-US/111d8f9c-c497-4610-b7fd-94addafa9452/large-file-copy-degradation-to-and-from-win-2003-r2-64-bit-servers Muss man halt erst einmal finden... Ich habe übrigens zwischenzeitlich mal mit dem Tool TeraCopy eine 100GB-Datei auf den Backupserver kopiert (TeraCopy nutzt eigene Caching-Routinen). Und siehe da. Die 100 GB-Datei wurde in etwas über 48 min kopiert! Der Raid-Controller ist also in Ordnung. Jetzt muss ich nur noch ne Lösung für das Problem finden! Gruß Dirk Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.