manny4566 10 Geschrieben 17. Juni 2011 Melden Teilen Geschrieben 17. Juni 2011 Hallo, ich glaube das Thema gab es eventuell schon das ein oder andere Mal, aber ich möchte trotzdem gerne Mal eine aktuelle Diskussion zum Thema Auslagerungsdatei startet. Ich persönlich handhabe es so, dass ich ab einer RAM Ausrüstung von 6 GB, die Pagefile auf 2048 MB ( MIN und MAX ) fest einstelle. Ich kenne zwar die MS Fausregel, dass die Pagefile das 1,5 fache des RAMs haben soll, aber macht das heutzutage überhaupt noch Sinn ??? Meine Empfindung ist, dass diese Fausregel aus einer Zeit kommt, wo RAM noch teuer und wenig war. Ergo wurde mehr ausgelagert. Wenn ich heutzutage einen Server mit 12 GB, 24 GB oder sogar 128 GB RAM habe, kann ich ja kaum so viel Festplattenspeicher für eine Pagefile verschwenden oder nicht? Da kann ich ja gleich ne eigene Platte einbauen so nach dem Motto, zumal bei uns die System Partition standardmäßig 50 GB groß ist. Meiner Meinung nach sollte das eher so betrachtet werden, dass wenn ein Server seinen RAM schon so vollschreibt, dass er viel auslagert, schon etwas anderes gundlegend falsch läuft und der Server eher eine RAM Aufrüstung erhalten muss. Man kann ja nicht akzeptieren, dass der Server auf das langsame Medium auslagert und man ihn somit langsamer macht als er in Wirklichkeit ist oder nicht ?? P.S.: Hintergrund ist, dass ich heute einen Server bei mir gefunden hab, der 12 GB Ram hat ( 6 GB belegt ) und eine Pagefile von 24 GB eingestellt hat, wovon gerade mal ca. 50 MB ( 0,2 % ) belegt sind. Die Leistungsindikatoren habe ich bereits gestartet um mal die Auslastung des RAM und der Pagefile für paar Tage zu loggen ;) Danke für eure Meinungen. Zitieren Link zu diesem Kommentar
Poison Nuke 10 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 hui, keine Antwort hier, hätte mich eig. auch interessiert. Wobei mich mehr interessiert, warum z.B. Windows Server von Haus aus überhaupt soviel Auslagerungsspeicher erstellt. Denn letztens hatte ich einen 2008R2 Datacenter auf einem Server mit 128GB RAM installiert... Systemfestplatte war eine 160GB SSD (die eigentliche Datenpartition ist ein SAS RAID) Das tolle war, ich wollte nach der Windows-Installation ein wenig Software installieren und recht bald kam die Meldung "nicht genügend freier Speicher auf C:" ... WTF ??? geschaut: ahja super, eine 128GB pagefile.sys macht echt Sinn. Ok eine SSD ist nun nicht mehr unbedingt soo langsam. Aber 128GB Swap ist ja nun doch erheblich übertrieben. Und was ist bei einem Server mit 1TB RAM oder gar 2TB? Solche gibt es ja auch, wenn auch ich diese bisher nur mit Linux gesehen habe. theoretisch könnte man ja nun die Auslagerungsdatei komplett deaktivieren. Wobei das leider unter Windows auch erhebliche Probleme macht, wenn man doch mal an der Speichergrenze nagt. Und die Grenze ist interessanterweise ein paar Prozentpunkte unterhalb der realen Speichermenge. Nehmen wir ein System mit 16GB, da kommt die Meldung "kein RAM..." schon bei einer Auslastung von 15GB, obwohl laut Taskmanager noch 800MB als explizit frei markiert waren. Und das interessante ist, sobald man das Speicherlimit erreicht, verreckt der Windows Server komplett. Es stürtzt nicht nur der Prozess ab, der den meisten RAM verbuchen wollte, sondern sämtliche Prozesse killt es mehr oder minder auf irgendeine Weise und am Ende bleibt einem nix anderes übrig als den Server neu zu starten. Verbunden mit einigen Fehlermeldungen nach dem Start wegen Fehler in der Auslagerungsdatei usw. Ich persönliche stelle daher unabhängig der installierten Speichermenge eine feste Auslagerungsdatei von 4GB ein. Das sollte IMHO normalerweise reichen um zu verhindern das Windows zumindest komplett unbrauchbar wird und man eventuell noch ohne Neustart Maßnahmen einleiten kann. wie macht ihr das? Zitieren Link zu diesem Kommentar
blub 115 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 Hi, Bei Systemproblemen benötigt man manchmal einen MemoryFullDump und dafür muß die Auslagerungsdatei etwas mehr als der RamSpeicher groß sein. Mit 1.5-fach ist man dann auf der sicheren Seite. Zusätzlich braucht man für einen Fulldump auch noch genügend Platz auf c:\. (gut das Doppelte des RAMs) blub Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 Das wird bei 512 GB RAM interessant . . . . :D Zitieren Link zu diesem Kommentar
Poison Nuke 10 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 Was sind in dem Fall eig. Systemprobleme? Und wer kann mit dem Dump etwas anfangen außer Microsoft selbst? Ist halt die Frage in welchen Situationen kommt das überhaupt vor. Weil das impliziert ja dass man bei großen Servern eine eigene Festplatte dediziert für die Auslagerungsdatei einbaut. Und das ist technisch nur bedingt realisierbar je nach Situation. Zitieren Link zu diesem Kommentar
blub 115 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 Hi, Systemprobleme, bei denen ein Fulldump helfen kann, sind z.B: Serverabstürze mit Bluescreens, wenn sich also verschiedene Komponenten in den Systemtiefen in die Quere kommen. Mit einem Fulldump können neben Microsoft auch andere Soft- und Hardwarehersteller etwas anfangen. Es gibt auch Kurse, Tools und Artikel darüber, wie man Dumps analysiert. Bischen habe ich da mal reingeschnuppert, dort beginnt das fortgeschrittene Level unter Windows :-) Wenn man zuwenig Platz hat, um einen Fulldump zu erzeugen, fehlt einem unter Umständen ein bzw. das entscheidende Werkzeug zur Lösung eines Problems. Die Frage kann man ja mal dem HW-Hersteller seiner 512 GB Maschine stellen. blub Zitieren Link zu diesem Kommentar
Poison Nuke 10 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 ok zum Glück hatte ich bisher konnte ich bei allen Bluescreens auch ohne Dump eindeutig das Problem identifzieren. Und wenn es denn doch mal Probleme gab (z.B. zwischen LSI Controller und Supermicro Mainboard) war die Lösung recht schnell auf anderen Wegen gefunden, zumindest wurde ich von den Herstellern noch nie nach einem Dump gefragt ^^ Aber zumindest danke für die Info. Sollte es doch mal zu so einem schwerwiegenden Problem kommen werde ich daran denken und dann einen Testaufbau machen mit entsprechend extra HDD für Swap. Allerdings für den alltäglichen produktiven Einsatz kann man sich dann doch solch exorbitant großen Auslagerungsdateien ersparen. Zitieren Link zu diesem Kommentar
blub 115 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 Wenn du auf Fulldumps verzichtest, sind 500 MB mehr als genug. Zitieren Link zu diesem Kommentar
Poison Nuke 10 Geschrieben 23. Dezember 2011 Melden Teilen Geschrieben 23. Dezember 2011 bei nem Server der 128GB RAM hat ist das aber auch ein Hauch von Nichts oder? Zumindest bei 4GB wäre ich noch der Hoffnung, dass man einen klitzekleinen Moment noch Zeit hat das zu registrieren bevor es zu spät ist. Wobei ich auch hier schon überlege nicht 8-16GB zu nehmen. Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.