kwakS 10 Geschrieben 27. Februar 2009 Melden Teilen Geschrieben 27. Februar 2009 Hallo zusammen, ich habe eine vielleicht etwas merkwürdige Frage aber mich interessiert es wie andere Admins dem Fileserver des Unternehmens umgehen. Unser RZ ist vollkommen virtualisiert und haben ein SAN als Storage. Wir haben hier einen virt. Fileserver mit 9 Platten a 100 GB. Unser Datenwachstum ist so enorm, dass ich mir so langsam Gedanken mach muss, wie ich die Dateienflut in den Griff bekomme. Ich habe mir vorgestellt, einen zweiten Fileserver aufzustzen und nur "aktive" Daten (mit denen die Benutzer kürzlich gearbeitet haben) zu übernehmen. Den Rest würde ich auf dem alten Fileserver belassen als read only Archiv Auf dem neuen Fileserver würde ich dann Quotas pro Abteilung einrichten. Wie handelt ihr das mit dem Datenvolumen? Nutzt ihr irgendwelche Tools um die last and most recently files zu monitoren (außer die storage reports managment fkt. des w2k3 r2) ?? Wie hoch sind die Quotas? Die Frage ist vielleicht etwas merkwürdig aber ich versuche dadurch nur ein paar Erfahrungen zu sammeln. Zitieren Link zu diesem Kommentar
BrainStorm 10 Geschrieben 27. Februar 2009 Melden Teilen Geschrieben 27. Februar 2009 Hallo kwakS, Quotas sind sicherlich hilfreich, aber vielleicht solltest du analysieren woher deine "Datenflut" kommt und dort optimieren? Zitieren Link zu diesem Kommentar
Dukel 457 Geschrieben 27. Februar 2009 Melden Teilen Geschrieben 27. Februar 2009 Unser Kunde hat sehr viele Daten, welche nach einem bestimmten Alter auf Band ausgelagert werden. Zitieren Link zu diesem Kommentar
zahni 559 Geschrieben 27. Februar 2009 Melden Teilen Geschrieben 27. Februar 2009 Stichwort ist hier HSM : Hierarchical storage management - Wikipedia, the free encyclopedia Einfach mal etwas lesen. -Zahni Zitieren Link zu diesem Kommentar
RealJoe 10 Geschrieben 28. Februar 2009 Melden Teilen Geschrieben 28. Februar 2009 Hallo und Vorsicht. Dein Plan, den Datenaltbestand auszulagern, wird dein Datenwachtum erhöhen. Sobald die User heraus finden, das sie eine kopierte Datei wieder bearbeiten können, wirst du tausende Dubletten bekommen. Es gibt aber ganz brauchbare Archivsysteme, mir fällt athok kein Name ein, da wird sich aber sicher jemand finden. Das mit den Quotas ist generell eine gute Idee. Allerdings muß das dann auch durchgezogen werden. Sonst hast du nur höheren Auswand und kein benefit. Dem Datennutzer muß klar gemacht werden, das SAN Speicher ****** teuer ist. Das einzige was da zieht, ist die Kohle. Versuch einfach mal eine Abteilungsgebundene Abrechnung durch zu kriegen. Erfahrungsgemäß ändert sich nur dann etwas, wenns ans eigene Budget geht. Kann ich aber auch Nachvollziehen, mir wär es auch egal, wenn ich einfach immer weiter speichern kann, und es nichts extra kostet. Zitieren Link zu diesem Kommentar
Userle 145 Geschrieben 28. Februar 2009 Melden Teilen Geschrieben 28. Februar 2009 Quotas werden in der Praxis kaum durchzusetzen sein. Wenn ich mal von mir auf andere schließen darf, wird das kläglich scheitern. Ich hatte mal die Idee mit Hilfe eines Tools, sämtliche Dateien zu filtern und zu verschieben, die länger als 12 Monate nicht angefasst wurden. Wohlgemerkt: nicht löschen nur auslagern, also dem direkten Zugriff entziehen. Bei konkreten Bedarf hätte man eine Datei jederzeit wieder bereitstellen können. Da war kein Durchkommen. Weder bei den Anwendern noch bei der GL. Auch versuche ich schon ewig meine Anwender im Hinblick auf Dateiformate, hier insbesondere bei Bilddateien zu beraten. Der Erfolg ist wohl eher als mäßig zu bezeichnen. Ich verrate an dieser Stelle mal nicht wieviel doppelte Dateien so existieren :D. RealJoe´s Idee mit der abteilungsgebundenen Abrechnung hat was - wobei auch hier fraglich ist, ob das umsetzbar ist. Als Fazit kann man sagen: Auch ich suche noch die zündene Idee den Datenbestand zu optimieren, auf einem Weg, den Alle im Unternehmen mittragen. Greetings Ralf Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 28. Februar 2009 Melden Teilen Geschrieben 28. Februar 2009 Moin, das Problem hat jedes Unternehmen, Lösungsansätze gibt es hunderte, eine allgemeingültige Lösung nicht. Quota oder Abrechnungssysteme sind ein Hilfskonstrukt, das die Verantwortung und die Last auf den User überträgt. Gefahr: Der User löscht etwas, was er nicht löschen darf und verursacht damit Aufwand oder rechtliche Probleme. Nachteil: Der User verschwendet in beträchtlichem Maß Arbeitszeit mit Aufräumen. HSM- oder Auslagerungssysteme entlasten den User vom Aufräumen und die Primärsysteme von der Datenlast. Je nachdem wie pfiffig die Systeme vorgehen, halten sie auch das Problem der Dublettenbildung im Zaum. Nachteil: Recht erhebliche Kosten und keine Lösung des eigentlichen Problems. Intelligente Speichersysteme (z.B. NetApp, aber natürlich auch andere) bieten selbst Mechanismen wie Deduplizierung, um die Vergeudung teuren Speicherplatzes einzugrenzen. Nachteil: Je nach Implementierung teuer, langsam oder riskant. Außerdem wird auch hier das Problem nicht gelöst, sondern nur seine Auswirkung gemildert. Bei allen Ansätzen muss man eine Wirtschaftlichkeitsrechnung aufmachen: Sind Aufwand und Risiko von "Aufräumprozessen" insgesamt günstiger als der Ausbau der Speicherkapazität? Viele Unternehmen beantworten die Frage mit "Nein", aber weder gilt das für alle, noch ist gesagt, dass dieselben Unternehmen die Frage auch künftig so beantworten. Gruß, Nils Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.