PowerShellAdmin 169 Geschrieben 21. März 2019 Melden Teilen Geschrieben 21. März 2019 (bearbeitet) Moin, mich würde hier mal eure Meinung zu folgenden Szenario interessieren. Wir haben hier ein solides Blech (20 Core, 256GB RAM), hier sollen etwa 20VMs (mitunter auch MS SQL, SharePoint, Exchange 2019) auf einem lokalen Speicher laufen, auf denen etwa 30Mitarbeiter rumwerkeln. Der Storage besteht aus einem PERC H740P mit 8 einfachen Enterprise SSDs (MLCe - sollten Samsung 883er sein) Das ein größeres Raid 10 punktuell mehr Leistung bietet ist soweit klar, meine Befürchtung ist, dass allerdings bei höheren Auslastungen dort auch massive Performance-Einbrüche für alle betroffenen Gäste entstehen, die man bei der Trennung in 2 Raid 10 dann doch besser gekapselt hat und womöglich auch teilweise vorbeugen kann - da geringer maximale Gesamtlast. So wie ich das aber derzeit lese, ist meine Annahme nicht richtig und "One Big Raid 10" in jedem Fall die bessere Wahl. Ein weiterer Vorteil ist natürlich die bessere Ausnutzbarkeit des Speicherplatz. Die Raid-Policy würde ich wie folgt avisieren: No Read Ahead Write Through Viele Grüße PSAdmin bearbeitet 21. März 2019 von PowerShellAdmin Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 21. März 2019 Melden Teilen Geschrieben 21. März 2019 Meiner Meinung nach sollte ein RAID 10 bei SSDs reichen, ich tendiere hier eher noch zu einem RAID5. Zitieren Link zu diesem Kommentar
v-rtc 88 Geschrieben 21. März 2019 Melden Teilen Geschrieben 21. März 2019 Wir haben ne V5000 von IBM als Flash Storage und haben da auch ein RAID5 gemacht und jeweils 4TB Volumes heraus geschnitzt Zitieren Link zu diesem Kommentar
PowerShellAdmin 169 Geschrieben 21. März 2019 Autor Melden Teilen Geschrieben 21. März 2019 (bearbeitet) Guten Abend zusammen, also von der Kapazität haben wir keine Probleme, entsprechend wurde ein Raid 10 ausgewählt. Da sind bereits Puffer und weitere Systeme berücksichtigt. Hinzu kommt der Sachverhalt, dass ich bei Bedarf einfach weitere 8 Disks einbauen kann, da haben wir also genügend Kapazitäten. Grundlegend ist besteht die Frage ob 2xRaid10 mit je 4 Disks oder 1 Raid10 mit 8 Disks. Vor einigen Jahren bin ich mit kleinen Raid1 Clustern gut gefahren - SAS HDD != SSD. Wenn ich mir die Erfahrungen aber so durchlese, macht hier das Splitting aber kein sinn. Raid60 ist bei 8 Disks natürlich auch raus - zwar realisierbar, aber kein mehrwert gegenüber Raid10 bei 8 Disks. VG PSADMIN bearbeitet 21. März 2019 von PowerShellAdmin Zitieren Link zu diesem Kommentar
djmaker 95 Geschrieben 22. März 2019 Melden Teilen Geschrieben 22. März 2019 Dann mache ein RAID10. Zitieren Link zu diesem Kommentar
PowerShellAdmin 169 Geschrieben 22. März 2019 Autor Melden Teilen Geschrieben 22. März 2019 (bearbeitet) Die Performance der Test-VM war erstmal schlechter als erwartet. Ich gehe davon aus, dass hier ein falsches Alignment und der Thinmodus des Gast Ursache war. Auch der VM Disk Controller ist hier erstmal auch schlecht für einen Test...- womöglich noch Mal auf Paravirtual prüfen. Am Montag gibt's erstmal eine Klärung mit dem Dell Support. Habe hier auch von schlechter Raid10 Skalierung von 8 gegen 4 Disks gelesen. bearbeitet 22. März 2019 von PowerShellAdmin Zitieren Link zu diesem Kommentar
v-rtc 88 Geschrieben 22. März 2019 Melden Teilen Geschrieben 22. März 2019 Wo hast du denn deine Infos? Geb sie gerne mal an Zitieren Link zu diesem Kommentar
Chomper 3 Geschrieben 22. März 2019 Melden Teilen Geschrieben 22. März 2019 Am 3/21/2019 um 09:38 schrieb PowerShellAdmin: Der Storage besteht aus einem PERC H740P mit 8 einfachen Enterprise SSD... Die Raid-Policy würde ich wie folgt avisieren: No Read Ahead Write Through Wieso bitte Write Through? Das Ding hat 8GB Cache, die so quasi brach liegen. Zitieren Link zu diesem Kommentar
PowerShellAdmin 169 Geschrieben 22. März 2019 Autor Melden Teilen Geschrieben 22. März 2019 Also write back ist nicht immer in der Konstellation empfohlen und war hier auch nicht die Ursache. Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen. Ich werde denke ich nochmal die Stripesize prüfen, die scheint mit 256kb nicht optimal zu sein. Zitieren Link zu diesem Kommentar
v-rtc 88 Geschrieben 22. März 2019 Melden Teilen Geschrieben 22. März 2019 Noch mal, woher hast Du denn die Infos immer her? Du erwähnst es immer, belegen leider nicht. Das wäre nett und interessant Zitieren Link zu diesem Kommentar
Chomper 3 Geschrieben 24. März 2019 Melden Teilen Geschrieben 24. März 2019 Am 22.3.2019 um 23:56 schrieb PowerShellAdmin: Mindestens ein Teil der Ursache ist die Thindisk, die Thickdisk ist beim seq q32t1 und 4 KB q8t8 deutlich gestiegen. Die Angaben schauen nach CrystalDiskMark aus. Meiner Meinung nach nicht geeignet, um die Performance eines Raid-Verbunds im Bezug auf Datenbank und Exchange zu messen. Versuche es doch mal bitte mit Iometer: http://vmktree.org/iometer/ Z.B. Referenzwerte eines SAN: https://vmware-forum.de/viewtopic.php?t=32249 als SATA SSD ist die 883DC auch mit V-NAND (3D-TLC) und nicht eMLC ausgestattet. https://www.anandtech.com/show/13704/enterprise-ssd-roundup-intel-samsung-memblaze/2 Zitieren Link zu diesem Kommentar
PowerShellAdmin 169 Geschrieben 24. März 2019 Autor Melden Teilen Geschrieben 24. März 2019 (bearbeitet) Guten Abend, richtig wurde mit CrystalDiskMark geprüft. Lasse hier morgen nochmal das IOMeter drüber laufen. Die Thematik ist nicht mein täglich Brot aber das ist mein Verständnis: Read Policy: Bei SSD Raids wenig sinnvoll, geht wohl auf die Timings und die Synergie ist hier wenig gegeben. Write Policy:Der Performancegewinn von Zurückschreiben besteht zwar auch bei SSD Raids, allerdings ist der Vorteil hier deutlich überschaubarer. Es ist eine Abwegung des Risikos - auch mit BBU und UPS (beides vorhanden) Strip Size: Mein altes Verständnis war hier, dass der SweetPoint bei 64KB für gemische Umgebungen ist. Die 256KB kamen aufgrund der 4x SchreibSpindeln ( 8 Disk Raid 10) = 1 MB Die Annahme ist aber scheinbar nicht richtig, da die 1MB auch wieder in 4KB Blöcke aufgespalten werden. Fallback auf 64KB ? Disk Cache: Hier hilft weder die BBU und UPS - daher je nach Risikobewertung zu deaktivieren. Zusammenfassend: Da das Risiko in der kleinen Umgebung überschaubar ist, bleibt Zurückschreiben nun aktiviert, eine Risikobewertung zum DiskCache schaue ich mir aber nochmal an. Ein Vorteil vom Zurückschreiben scheint hier auch eine Entlastung der Schreibzugriffe der SSD, da sich diese hier reduzieren. Das Thema Fastpath werde ich mir aber nochmal anschauen, dass ist ausschließlich bei Durchschreiben und keinen Vorauslesen verfügbar. https://www.dell.com/support/manuals/de/de/dedhs1/poweredge-rc-h840/perc10_ug_pub/fastpath?guid=guid-107ce12d-6522-4716-a9a4-ec0a92c1130d&lang=en-us Hier profitieren aber ausschließlich Pakete < Strip Size. bearbeitet 24. März 2019 von PowerShellAdmin Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.