DeeGey 10 Geschrieben 31. August 2005 Melden Teilen Geschrieben 31. August 2005 Hallo Zusammen! Ich hab ein Problem. Ich habe, um eine höhere Redundanz zu erreichen, ein DFS eingerichtet, der die Daten und die Profile der Nutzer speichert. Ziel ist, das wenn ein Server ausfällt, das der Zweite nicht nur alle Serverrollen übernimmt, sondern auch alle Daten besitzt und die Nutzer weiterarbeiten können. Nun mein Problem: Microsoft hat sich gedacht, das man bei DFS auch gleich eine Lastverteilung mit integrieren könnte. Dies hat aber nun zur Folge, wenn ein Nutzer Daten auf Server A speichert und nach einem Neustart wieder auf sein DFS-Netzlaufwerk zugreift und auf Server B verwiesen wird, das die Daten nicht da sind(weil die noch nicht repliziert wurden). Noch problematischer wird es, wenn der Nutzer eine Datei (Zum Beispiel eine Tabelle) ändert, und nach dem Neustart an einer anderen Stelle wieder ändert. Dann existieren zwei verschiedene Versionen von der Datei und keine enthält alle Änderungen. DFS löscht dann die ältere Version und es kommt zum Datenverlust. Was kann man dagegen tun? Könnte man eine Replikation bestimmter Teile des DFS von Hand anschieben? Oder könnte man die Lastverteilung deaktivieren? Danke im Vorraus! mfg DeeGey Zitieren Link zu diesem Kommentar
lefg 276 Geschrieben 1. September 2005 Melden Teilen Geschrieben 1. September 2005 Hallo, hat DFS denn etwas mit Redundanz und Loadbalancing zu tun? Ich habe von diesen Gedanken schon öfters gehört, kann den aber nicht nachvollziehen. Für Rundundanz gibt es den Cluster. Der Gedanke hinter DFS ist doch ein anderer. Es ist das Bilden eines Verzeichnisbaumes aus den Ressourcen aller Server(der Domäne?). Der User muss also nicht mehr wissen, auf welchen Server ein Datensatz liegt. Er muss den Platz im Verzeichnisbaum kennen. Gruß Edgar Zitieren Link zu diesem Kommentar
grizzly999 11 Geschrieben 1. September 2005 Melden Teilen Geschrieben 1. September 2005 Korrekt, der Ansatz von DFS ist ein anderer, nicht der Hochverfügbarkeit der Daten, besodners nicht sich häufig ändernder Daten oder großen dynamischen Datenmengen. Wie lefg es schon sagte, ist die Intention vom Verteilten Dateisystem (man beachte den Namen!) im Netz verteilte aber zusammengehörige Freigaben in wenige Einstiegspunkte zusammenzufassen und von Servernamen in UNC-Pfaden unabhängig zu werden. Es bietet daneben auch Replikation an, aber eben nicht um ............ ;) @lefg: Eine Quasi-Loadbalancing gibt es schon, wenn mehrere redundante DFS-Links sich am selben Standort befinden. Die Lösung hatte lefg auch schon präsentiert: Clustering grizzly999 Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.