Weingeist 159 Geschrieben 27. Januar 2014 Melden Teilen Geschrieben 27. Januar 2014 Hallo Leute, Kennt jemand eine Möglichkeit, mit welchem man ein USN-Journal vorfertigen könnte? Habe dazu irgendwie keine Flags gefunden. Ziel: Von Anfang an die unglaubliche Fragmentierung des USN-Journals verhindern. 1. Ich weiss nicht ob das USN-Journal wenn es voll ist, wieder in die gleichen Sektoren schreibt, einfach am Anfang 2. An und ausschalten für eine Neuerstellung hat zu viele Nebeneffekte die man beachten muss. (Datensicherung, Replikationen etc.) Jemand ne Idee oder sogar ein fertigs Script? Ein Ansatz, allerdings keine Ahnung ob und wie das klappt: Solange Files in einen hohen Bereich der Festplatte schreiben, bis die gewünschte Max-Grösse des Logs erreicht ist. Allerdings müsste man dazu mit der Windows API schreiben, welche wiederum irgendwo schreibt. Das heisst vor den Kopiervorgängen muss ein wenig Platz vorhanden sein durch eine Datei die man wieder rauskippt, die gleich gross oder gröser ist, wie die Menge um die das USN-Journal jeweils vergrössert wird oder zumindest kleiner als das File das man kopieren möchte. Nützt aber natürlich alles nur, wenn anschliessend die bestehenden Sektoren überschrieben werden. Über den Sinn oder Unsinn soll hier nicht diskutiert werden, sondern lediglich ob es technisch geht oder nicht. Falls es geht, wie es eben geht. Grüsse und vielen Dank für Inputs Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 27. Januar 2014 Melden Teilen Geschrieben 27. Januar 2014 Wenn ich den Hintergrund der Frage verstehen würde, könnte ich vielleicht was schreiben. Aber so ? Das USN-Journal habe ich bisher noch nie als Problem angesehen. Löschen kann man es auch. Dann macht die Datensicherung halt ein Full-Backup und erstellt ein neues USN-Journal. Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 27. Januar 2014 Autor Melden Teilen Geschrieben 27. Januar 2014 Wie gesagt: Ziel wäre das Fragmentieren des USN-Journals zu verhindern bzw. sehr in Grenzen zu halten. Auf grösseren Volumes mit vielen Änderungen hatte ich da schon über 1000 Fragmente gesehen. Wenn nun das Journal tatsächlich effektiv rotierend in den selben Blöcken ist, könnte man es doch genügend gross anlegen und es bleibt dabei. Stören würde es auf alle Fälle nicht. Vielleicht gäbe es sogar ein kleiner Performance-Vorteil? Von daher würde es mich interessieren, was evtl. Wege wären, die zum Ziel führen könnten. Zitieren Link zu diesem Kommentar
Dr.Melzer 191 Geschrieben 27. Januar 2014 Melden Teilen Geschrieben 27. Januar 2014 Vielleicht beschriebst du mal was du damit erreichen möchtest. Du wirst das ja wohl kaum aus Selbstzweck machen. Zitieren Link zu diesem Kommentar
zahni 550 Geschrieben 27. Januar 2014 Melden Teilen Geschrieben 27. Januar 2014 Es kann Übriges sein, dass es bei einem chkdsk /f defragmentiert wird. Sicher bin ich mir aber nicht. Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 27. Januar 2014 Autor Melden Teilen Geschrieben 27. Januar 2014 Erwarte bessere 1. Performance, da HD-Köpfe weniger springen müssen (Fragmentierte Files, sowohl für das Log als auch die anderen Files die so automatisch fragmentiert werden) 2. Bessere, schnellere oder weniger Rechenintensives Dedupe, dabei dürften wenig fragmentierte Files auch eher vorteilhaft sein 3. Bessere Recovery-Voraussetzungen schaffen (versehentlich gelöschte Files z.B.) Vor allem bei letzterem habe ich die Erfahrung gemacht, dass dies deutlich einfacher ist mit einem defragmentierten System. Eine auf eine grosse Fläche verteiltes USN-Journal verhindert eine einfache und saubere Defragmentierung. Zudem ist die Defragmentierung deutlich zeitaufwendiger und braucht mehr Schreiboperation. Wenn das mit verhältnissmässig einfachem Aufwand möglich ist, dann wären diese Dinge quasi umsonst zu haben, ohne dass man irgendwas beachten muss. Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.