Tim Claus 10 Geschrieben 26. August 2005 Melden Geschrieben 26. August 2005 Hallo! Ich habe hier einen W2k-Server, der als Fileserver fungiert und dabei sporadisch langsam wird. Nun habe ich mich mal an das Auffinden des Problems gemacht. Ich habe den Systemmonitor angeworfen und Werte gesammelt. Nun sagt er mir, dass er für das betreffende Laufwerk (Raid5 mit 5 SCSI Platten à 10.000rpm ) 56.492.128.249.854.900 Bytes/sec an Daten geschrieben hat. Das halte ich für arg enorm. Denn das wären immerhin 52.612.394 GByte/sec. Man, hab ich hier ne Maschine... Warum wird mir so ein unsinniger Wert angezeigt? Und nochmal generell: Hat jemand eine Auflistung für die Interpretation 'sämtlicher' Leistungsindikatoren gefunden oder sogar erstellt? So grobe Richtwerte wie CPU-Dauerlast bei 50% wäre Maximum, oder so. Ich habe zwar im Forum schon etwas gefunden, aber so richtig befriedigend war das nicht. Danke ! Zitieren
blub 115 Geschrieben 28. August 2005 Melden Geschrieben 28. August 2005 Hi, Ich kann dir die neue 2003-er technische Referenz empfehlen. Da gibt es einen Band "Leistungsoptimierung". Das ist das beste, was ich bisher über Performanceanalyse gelesen habe. Der Unterschied hier zwischen 2000 und 2003 ist in dem Bereich meines Erachtens eher gering http://www.amazon.de/exec/obidos/ASIN/3860639366/qid=1125257737/sr=1-1/ref=sr_1_0_1/028-3827037-6958917 Wenn du dieses Buch durchliest, wirst du verstehen, warum es keine allgemeingültige Interpretation "sämtlicher Leistungsindikatoren" gibt, sondern eine durchdachte, auf dein System/ deine Umgebung zugeschnittene individuelle Interpretation von gar nicht mal so vielen "primären" und "sekundären" Indikatoren der zielführende Weg ist. cu blub Zitieren
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.