Moeki Geschrieben 21. Juni 2012 Geschrieben 21. Juni 2012 Hallo. Die IT-Infrastruktur ist in den von uns verantworteten Bereichen durchschnittlich ausgelastet. Vereinzelte Spitzen in der Auslastung und daraus resultierende Performanceprobleme können wir derzeit lediglich auf die Beobachtung (Symptom) zurückführen, dass die Durchschnittliche Warteschlangenlänge des für das DFS relevanten physikalischen Datenträgers E: („Die durchschnittliche Anzahl der Lese- und Schreibanforderungen, die für den gewählten Datenträger während des Abtastintervalls in der Warteschlange aufgenommen wurden.“) auf dem entsprechenden Server während dieser Spitzen überaus lang ist (z.B ~ 40 anstatt 6). Die Ursache für die überdurchschnittliche Anzahl der Lese- und Schreibanforderungen können wir derzeit nicht genau ermitteln, sondern allenfalls vermuten. Hierzu benötigen wir entsprechende Tools bzw. Monitoringstrategien (sowohl live als auch rückwirkend). Der Process Monitor ist mir auf dem ersten Blick zu mächtig und müsste wohl durch entsprechende Filter angepasst werden. Hat hier schon jemand Erfahrungen gemacht und kann mir ggf. weiterhelfen? Viele Grüße, Marko. Zitieren
SilentDemise Geschrieben 21. Juni 2012 Geschrieben 21. Juni 2012 Hi, was mir damals sehr geholfen hat war folgendes Buch: The Art of Capacity Planning: Being Ready for the Big Growth Spurt: Amazon.de: John Allspaw, Andy Oram, Robert Romano: Englische Bücher Dort werden gerade was Strategien und Metriken angeht sehr viel beschrieben, wie man mit solchen Problemen umgehen kann. Zitieren
Moeki Geschrieben 22. Juni 2012 Autor Geschrieben 22. Juni 2012 Vielen Dank für den Hinweis. Bis das Buch durch die Beschaffung gegangen ist, ich es gelesen und mit den Administratoren abgestimmt habe, dauert es aber zu lange. Viele Grüße, Marko Gührke. Zitieren
SilentDemise Geschrieben 22. Juni 2012 Geschrieben 22. Juni 2012 Okay verstehe ich. Über was für eine Infrastruktur reden wir hier? Wieviele User greifen zu, was ist das für eine Platte? RAID? SAN? Was für eine Anbindung? Sind es vielleicht einfach zu viele Zugriffe, so dass die Platte(n) mit den I/O nicht hinterherkommen? Welches Betriebssystem? Festplattenhersteller haben für ihre Platten oft gute Tools. Da würde ich ansetzen. Dann würde ich mit den Windows Boardmitteln prüfen, wieviele Dateien und Zugriffe gerade erfolgen. Zitieren
Moeki Geschrieben 22. Juni 2012 Autor Geschrieben 22. Juni 2012 Windows Server 2003 R2 angebunden bei 1 GB/s Bericht Defragmentierung E:\ Volume DATEN (E:) Volumegröße = 271 GB Clustergröße = 4 KB Belegter Speicherplatz = 213 GB Freier Speicherplatz = 58,37 GB Freier Speicherplatz (%) = 21 % Volumefragmentierung Fragmentierung gesamt = 24 % Dateifragmentierung = 48 % Speicherplatzfragmentierung = 1 % Dateifragmentierung Gesamtanzahl der Dateien = 1.517.817 Durchschnittliche Dateigröße = 194 KB Fragmentierte Dateien insgesamt = 120.762 Auslagerungsdateifragmente insges. = 1.607.374 Durchschnittl. Fragmente pro Datei = 2,05 In der Computerverwaltung kann ich live die geöffneten Dateien und aktuelle Sitzungen sehen. Das nützt mir nichts, um rückwirkend eine Spitze auszuwerten. Mit Perfmon allgemein kann ich Peaks bei der durchschnittlichen Warteschlangenlänge des für das DFS relevanten physikalischen Datenträgers E: (RAID5 mit 5 physischen Festplatten)feststellen. Über den Defragmentierungsbericht habe ich heraus gefunden, da es mitunter riesige, ziemlich alte Logfiles gibt. Ich bin der festen Überzeugung, dass unser System durchschnittlich i.O. ist und leistungstechnisch das Ende der Fahnenstange erreicht ist. Aber das Problem sind meiner Meinung nach die Spitzen. Dann hängen in der Regel alle Anwendungen, die irgendwie mit den Netzlaufwerken zusammenhängen. Ich möchte zwingend herausfinden, was diese Spitzen verursacht. Eine bestimmte Anwendung oder eine Häufig von Sitzungen bzw. I/O. Viele Grüße, Marko. Zitieren
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.