Admini2017 0 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Morgen, ich würde gerne meine heimische Testumgebung erweitern. Meine Absicht ist es, bis zu 6 VMs virtuell zu betreiben. Momentan funktioniert dies zwar, aber eher schleppend. Im Momemt habe ich jeweils 2 VMs auf eine normale HDD gepackt. Wie sieht es aus, wenn ich diese einfach durch SSDs ersetze. Ist es merklich schneller 2x VMs auf eine SSD zu packen? Oder bin ich auch dort aufgrund diverser Spezifikationen (gleichzeitige Zugriffe, Latenzen etc.) eingeschränkt. Gruß Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Moin, definiere schleppend. Was für ein CPU mit wieviel Cores ist in der Maschine, wieviel RAM, wie ist der Takt? SSD sind kein Allheilmittel, wenn der Rest nicht passt. ;) Zitieren Link zu diesem Kommentar
mwiederkehr 373 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Der Unterschied von SSD zu HDD ist eigentlich sofort spürbar: beim Booten, beim Öffnen des Servermanagers etc. Habe den direkten Vergleich: einmal HP ProLiant ML30 mit 3x SATA HDD im RAID 5, einmal Intel NUC mit i7 und Samsung SSD. Das war mein letzter Server, auf dem ich SATA-Disks für VMs einsetze... Ich denke mit einer SSD wirst Du die Performance massiv verbessern können. Zitieren Link zu diesem Kommentar
Admini2017 0 Geschrieben 9. Januar 2018 Autor Melden Teilen Geschrieben 9. Januar 2018 (bearbeitet) es ist ein I7 930@4,3 GHz 4 Kerne 8 Threads, 24GB Ram auch wenn die CPU schon 7 Jahre alt ist, rennt diese wie die Hölle :). Bei den VMs langweilt sie sich eigentlich die meiste Zeit. Schleppend fühlt es sich an, weil die Eingabe in den VMs teilweise sehr zaghaft ist und die HDD LED quasi dauerthaft leuchtet. Meines Erachtens sind es einfach zuviele Zugriffe für herkömmliche SATA Platten. bearbeitet 9. Januar 2018 von Admini2017 Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Hört sich für mich klassich nach zu wenig Arbeitsspeicher an. Dann greifen die VMs auf die (virtuelle) Festplatte zu um Arbeitsspeicher zu emulieren. Was dann bei HDDs nochmal ein ganzes Stück langsamer ist als bei SSDs. Aber auch da wird man nicht wirklich glücklich. Wir haben unsere produktiven Server eigentlich alle noch auf HDDs. Bis auf das booten sehe ich da jetzt auch nicht die enormen Vorteile im normalen Betrieb da man ja selten entsprechende IOPs Spitzen haben sollte Zitieren Link zu diesem Kommentar
Admini2017 0 Geschrieben 9. Januar 2018 Autor Melden Teilen Geschrieben 9. Januar 2018 (bearbeitet) ich habe im Moment max 4VMs, da sind 24GB zu wenig? Probleme treten auf, sobald 2 VMs auf einer HDD gleichzeitig laufen. bearbeitet 9. Januar 2018 von Admini2017 Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Ich habe zuhause SATA Disks und SSD's als Cache im Server. Bin zufrieden mit der Performance. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 ich habe im Moment max 4VMs, da sind 24GB zu wenig? Probleme treten auf, sobald 2 VMs auf einer HDD gleichzeitig laufen. Kommt drauf an, wieviel du jeder VM zugewiesen hast. Meist neigt man dazu, zuviel RAM zuzuweisen. Ich starte inzwischen immer mit 2GB, mehr geht ja schnell. Ich habe in meiner Umgebung zu Hause für die 9 VM auch keine SSD´s, allerdings near-line SAS und dafür 12 Stück - mehr Spindel, mehr IO Und mein Host hat 128GB RAM ;) Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 9. Januar 2018 Melden Teilen Geschrieben 9. Januar 2018 Moin, für mich klingt das auch, als sei die HDD der Engpass. Als ich noch HDDs im Notebook hatte, machte es auch weniger Spaß, sobald mehr als eine VM lief. Wenn ich dann noch "im Host" was gemacht habe (z.B. Outlook - ist ja ein Notebook, die VMs fast nur für Lab- und Demozwecke), dann konnte man alles ziemlich vergessen. Seit ich mit SSD arbeite, ist es völlig OK. (Nota bene: für den Lab-/Testgebrauch; für einen Server wäre eine Consumer-SSD nicht OK.) Zu viel RAM kann man mit Hyper-V technisch betrachtet nicht vergeben, dann würde der Hypervisor irgendwann die VMs nicht mehr starten. Es könnte natürlich sein, dass eine VM "innen" nicht genug RAM hat, dann muss das Gast-OS swappen, und das dauert bei einer HDD natürlich auch. Gruß, Nils Zitieren Link zu diesem Kommentar
Chomper 3 Geschrieben 10. Januar 2018 Melden Teilen Geschrieben 10. Januar 2018 Kann auch nur Pro SSD stimmen. Die sind bei sowas wirklich der größte Turbo. Aus eigener (NESTED) VM Erfahrung: Vmware Workstation 12 Host mit I7 3770 und 16GB RAM. Virtueller ESXi 6 mit 9GB Ram und 2-3vcpu. Im ESXI dann 7 VM's mit je 1vcpu und in Summe 8GB belegt. Bei den VMs muss man halt den Anforderungen entsprechend ram vergeben. Bei den VMs 1x dc, 3x server mit SQL/Oracle, 1 vm mit 2GB zum arbeiten. Virtuelles Homelab. der 2012er DC hat dann halt nur 700MB :-) . Auf HDD: 45-60 Minuten nur bis der boot fertig ist. Eventuell etwas weniger wenn ich jede VM einzeln für 5 minuten starten lasse. Auf lokaler wie USB3.0 SSD: 5 Minuten, und alles ist durch. Und auch das arbeiten ist deutlich besser. 1-2 VM von Platte mag gerade so gehen, aber alles andere ist nur unnötige Qual auch bei den etwas gestiegenen SSD Preisen. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 10. Januar 2018 Melden Teilen Geschrieben 10. Januar 2018 Untern Strich wird das ein Mix sein, so meine Erfahrung. Man muss halt bedenken, das man eine Consumer-SSD mit einem Hyper-Visor schnell an die Wand fahren kann. Ich meine, Jan Kappen von Rachfahl hat mal was auf dem Blog dazu geschrieben. Das Ergebnis würde mich schon interessieren. ;) Zitieren Link zu diesem Kommentar
mwiederkehr 373 Geschrieben 10. Januar 2018 Melden Teilen Geschrieben 10. Januar 2018 Im Gegensatz zu produktiven Servern haben Testserver im Homelab meist viel weniger zu tun. Deshalb sollten Consumer SSD recht lange halten. Habe gerade auf meinem Server mit einer Samsung SSD EVO nachgeschaut, in Betrieb seit Herbst 2015. Auf dem Server laufen um die fünf VMs, Windows und Linux, einmal SQL, einmal Exchange. Total geschrieben wurden bisher 23 TB. Samsung nennt keine Disk Writes per Day, aber gibt eine Garantie bis 75 TB. Demnach sollte die SSD noch 5 Jahre halten. In einem MSA P2000 G3 haben wir mal drei Samsung SSD installiert und darauf eine Kopie der produktiven Umgebung für Testzwecke laufen lassen. Die hatte mehr Last und nach knapp drei Jahren sind zwei der drei SSD fast gleichzeitig ausgefallen. Im Gegensatz zu den teuren SSD von HP natürlich ohne Vorwarnung. Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.