mmih 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Hallo, zwecks Ausfallsicherheit soll ein bestehender Fileserver ersetzt werden. Auf dem jetzigen W2K3 Server werden lediglich Dateifreigaben benutzt, die für alle Benutzer im Unternehmen zugänglich sind - was auch gewünscht ist. Weitere Dienste werden von dem Server nicht angeboten. Es sollen nun 2 neue W2K8 Server angeschafft werden um die Aufgabe des alten Fileservers zu übernehmen. Die Benutzer sollen grundsätzlich den primären Server nutzen. Auf dem sekundären Server soll ständig eine möglichst aktuelle Kopie aller Daten des ersten Servers vorgehalten werden. Sofern der primäre Server ausfällt soll der sekundäre Server (innerhalb von max. 2 Stunden) die Funktion des primären Servers übernehmen können. Das täglich zu spiegelnde Datenvolumen hat eine Größenordnung von 5 - 8 GB, welches innerhalb von 14 Stunden kontinuierlich produziert wird. Die Vernetzung habe ich folgendermaßen angedacht: Anbindung des primären Servers an das LAN (1 GBit). Vorbereitung einer Anbindung des sekundären Servers an das LAN (1 GBit), welche aber nicht physikalisch verbunden wird. Verbindung der Server untereinander per Glasfaser (1 oder 10 GBit mit einer weiteren Netzwerkkarte, über 200m) Die Server sollen aus Sicherheitsgründen räumlich getrennt werden. Zur galvanischen Trennung soll eine Glasfaser (für den Datenabgleich) benutzt werden, die Kupferverbindung (zur Anbindung an das LAN) soll auf beiden Seiten (sekundärer Server, Switch) nur geschaltet werden, wenn der zweite Server den ersten ersetzen muss. Im Falle eines Ausfalls des primären Servers könnte eine Übernahme durch den sekundären Server aus meiner Sicht folgendermaßen ablaufen: Abschalten des primären Servers Anpassung des Namens und der IP des sekundären Servers an den primären Server Verbindung des sekundären Servers mit dem LAN. Ich benötige dann 'lediglich' noch eine Software, die es ermöglicht alle gespeicherten Daten vom primären Server auf den sekundären Server zu kopieren. Optional, aber wünschenswert wäre es, wenn diese Software auch inkrementelle Sicherungen auf einem anderen Laufwek bzw. einem weiteren Server erstellen kann. Kennt jemand eine hierfür geeignete Lösung? Danke, Martin Zitieren Link zu diesem Kommentar
Drew 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Hallo, benutz doch Boardmittel von Windows, zur Replizierung DFS und nutz diese Freigabe. So hast du auch das Problem mit der Übernahme bei einem Ausfall gelöst. Gruß Zitieren Link zu diesem Kommentar
DAUjones 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Hast Du die Vernetzung mit Glasfaser usw. schon durchgeführt? Sind diese 5 - 8 GB an Daten die täglichen Änderungen oder das absolute Volumen an Daten? Mit einer intelligenten Software kann man die beiden Fileserver praktisch gleichzeitig praktisch identisch halten und dazu muss man keine Glasfaserverbindung einrichten, da nur die Änderungsdaten blockinkrementell über das Netz gehen. Geht sogar über WAN, wenn das Volumen nicht zu gewaltig ist. CA XOsoft WanSync File Replicaton wäre so eine Software. Die kann imo auch auf Knopfdruck per DNS-Redirection alle User nahtlos von Server 1 auf Server 2 lenken. In der HA-Version sogar automatisch. Dürfte halt so 3 bis 5 K Euros kosten. Aber vielleicht tut's in Deinem Fall auch eine "Bastellösung" mit robocopy. Kommt darauf an in welcher Form die Daten sind. Zitieren Link zu diesem Kommentar
mmih 10 Geschrieben 11. November 2008 Autor Melden Teilen Geschrieben 11. November 2008 Die Vernetzung zum zweiten Standort ist noch nicht durchgeführt. Der gegenwärtige Datenbestand ist etwa 4 TB groß, die täglich veränderten sowie neuen Daten haben einen Umfang von etwa 5-8 GB. Die Server werden etwa 13 TB Gesamtkapazität haben. Zitieren Link zu diesem Kommentar
DAUjones 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Das wäre Durchaus ein Szenario für das von mir bereits erwähnte WanSync. Die Glasfaserstrecke könnte man sich sparen, da die 8 GB Änderungsdaten über 14 Stunden verteilt in einem Gigabit-Ethernet nicht weiter auffallen sollten. Hätte auch noch die Möglichkeit mit geringem Speicherplatzmehraufwand viele Revisionen der Dateien vorzuhalten (Rewind CDP). Hier mal die Webseite dazu: Hochverfügbarkeit und kontinuierlicher Datenschutz: CA Zitieren Link zu diesem Kommentar
mmih 10 Geschrieben 11. November 2008 Autor Melden Teilen Geschrieben 11. November 2008 Ich hab mir gerade einen Artikel zum DFS durchgelesen - wenn ich es richtig sehe hilft mir das nur begrenzt weiter. Das Netzwerk ist heterogen, es gibt Windows-, Mac-, Linux und Unix-Clients in allen Bauweisen. Das DFS "verbiegt" scheinbar die Zeiger zu den Freigaben über den DNS-Dienst. Ist halt nen Grafikbüro. WanSync ist nicht mit W2K8 kompatibel. Kann ich auf den neuen Servern mit Dual Xeon 5345 (2,33 GHz Quad *2), 12 GB RAM, 250GB Sys HDD + 13TB Daten HDD Windows 2003 Standard Server x64 ohne Probleme einsetzen? Kann robocopy als sinnvolle Lösung angesehen werden? Wie lange dauert es, bis robocopy bei einem Datenbestand von 6 TB mit einer durchschnittlichen Dateigröße von 1 MB "einmal durch ist", also von vorne beginnen kann? Wie sollte der Programmaufruf erfolgen, damit eine fortlaufende Aktualisierung gegeben ist? Martin Zitieren Link zu diesem Kommentar
DAUjones 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Kann ich auf den neuen Servern mit Dual Xeon 5345 (2,33 GHz Quad *2), 12 GB RAM, 250GB Sys HDD + 13TB Daten HDD Windows 2003 Standard Server x64 ohne Probleme einsetzen? Mit an Sicherheit grenzender Wahrscheinlichkeit ja. Das Ding ist reichlich fett für einen reinen Filer. Schadet aber nicht. Kann robocopy als sinnvolle Lösung angesehen werden? Wie lange dauert es, bis robocopy bei einem Datenbestand von 6 TB mit einer durchschnittlichen Dateigröße von 1 MB "einmal durch ist", also von vorne beginnen kann? Wie sollte der Programmaufruf erfolgen, damit eine fortlaufende Aktualisierung gegeben ist? robocopy kopiert halt nur die Dateien, die sich verändert haben. Das könntest per Taskplaner in beliebigen Intervallen durchführen. So 1 bis 2 Gigabyte in einem Gigabit-Netz sollte im Bereich von Minuten erledigt sein. Zitieren Link zu diesem Kommentar
mmih 10 Geschrieben 11. November 2008 Autor Melden Teilen Geschrieben 11. November 2008 Mit an Sicherheit grenzender Wahrscheinlichkeit ja. Das Ding ist reichlich fett für einen reinen Filer. Schadet aber nicht. In Anbetracht der Nebenkosten für das 'Lampertz-Gehäuse' und die sonstigen Redundanz-Optionen betrachte ich die Zusatzkosten für CPU- und RAM-Upgrade als nebensächlich. robocopy kopiert halt nur die Dateien, die sich verändert haben. Das könntest per Taskplaner in beliebigen Intervallen durchführen. So 1 bis 2 Gigabyte in einem Gigabit-Netz sollte im Bereich von Minuten erledigt sein. Folglich fehlt nur noch der Sicherheitsaspekt. Wenn ich robocopy alle 10 Minuten aufrufe um etwa 100 - 200 MB zu sichern sollte der Verlust im Zweifelsfall gering sein. Selbst wenn robocopy 'mittendrin' einmal abstürzt wird das kein Beinbruch sein. Vom Server aus werden alle Freigaben auf einem Volume liegen. Das robocopy-Skript muss also 'nur' ein Volume (oder halt etwa 20 Ordner der Reihe nach) kopieren. Deshalb abschließend die Frage: lohnt sich WanSync überhaupt für diesen Einsatzzweck - schließlich kostet die Software auch ein paar T€. Zitieren Link zu diesem Kommentar
DAUjones 10 Geschrieben 11. November 2008 Melden Teilen Geschrieben 11. November 2008 Fuer Deine Anforderungen durfte robocopy ausreichen. WanSync wuerde ja noch weitergehende Funktionalitaet bieten fuer seine Kosten. Vergiss aber nicht, dass Du immernoch Backups brauchen wirst, da auch korrupte Dateien kopiert werden wuerden. Zitieren Link zu diesem Kommentar
mmih 10 Geschrieben 12. November 2008 Autor Melden Teilen Geschrieben 12. November 2008 Ich habe gestern abend robocopy hier auf einem Rechner installiert und eine Sicherung vom Datenlaufwerk gemacht. Das ging auch sehr gut. Eben habe ich die Erstellung einer neuen Sicherung begonnen. Als Befehl habe ich robocopy E:\ \\EXT_RAID\ROBOCOPY\E /MIR auf dem Server angegeben. Aus einem mir unverständlichen Grund kopiert er auch jede Menge PHP-Dateien, die auf dem internen Apache-Server liegen und die garantiert 2 Monate nicht angefasst wurden. Irgend eine Idee, weshalb die Dateien trotzdem kopiert werden? Wenn nämlich später bei jedem Durchgang nen TB sinnfrei übers Netz geschoben werden muss... Danke, Martin Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.