Blase 15 Geschrieben 31. Juli 2017 Melden Teilen Geschrieben 31. Juli 2017 Hallo in die Runde, ich würde mich über ein paar Meinungen und Gedanken aus eurer Praxis freuen. Es geht einfach darum, dass ich bisher eigentlich immer bei der Planung eines Hyper-V Systems ein kleines RAID 1 bestehend aus zwei kleinen SAS Platten für das Host System genutzt habe. Und dann ein anderes/weiteres RAID System für die virtuellen Maschinen - also zB ein weiteres SSD @RAID 1 oder auch ein weiteres SAS @RAID 10. Ich habe bisher immer "gerne" das Hostsystem komplett vom virtuellen System getrennt, auch "physikalisch". Die Frage, die sich mir grade zunehmend stellt, ist halt, ob man das überhaupt (noch?) so machen muss bzw. sollte. Wenn ich zB ein SSD RAID 1 bestehend aus zwei Platten habe - und das RAID 1 laut Planung genügend Reserven bezüglich Plattenplatz bietet - was spricht dann dagegen, damit zwei Partitionen zu bilden und auf der ersten (kleinen) dann ganz normal das Host System zu installieren und auf der anderen dann die virtuellen Maschinen? Mir ist klar, dass das Host System jetzt nicht zwingend auf viel IO Performance angewiesen ist. Aber umgekehrt könnte man sich das zusätzliche Geld für die beiden kleinen SAS Platten ja auch sparen - und dafür ggfs. ne Nummer "Größer" bei den SSDs kaufen...?! Ich würde mich wie geschrieben einfach über ein paar Meinungen diesbezüglich freuen. Wie macht ihr das? Spricht was grundsätzlich dagegen, das Hostsystem und die Gastsysteme auf die selben Platten zu installieren? Gruß Björn Zitieren Link zu diesem Kommentar
mwiederkehr 373 Geschrieben 31. Juli 2017 Melden Teilen Geschrieben 31. Juli 2017 Es spricht aus meiner Sicht nichts gegen ein RAID für OS und VMs. Was ich aber empfehle, ist eine separate Partition für die VMs. Damit man das Host-OS einzeln wiederherstellen, neu installieren, upgraden etc. kann. Zitieren Link zu diesem Kommentar
Nimral 12 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 (bearbeitet) Eigene physikalische Platten für das OS hat man traditionell aus (mindestens) drei Gründen gemacht, die sich gerade aufdrängen: - vor allem wenn der RAM Speicher mit zunehmender Nutzung des Servers langsam zur Neige geht, steigt der Druck auf die Platte, welche die Paging-Datei halten muss, überproportional an. - Dasselbe gilt, wenn eine Platte ausfällt und das RAID neu aufgebaut werden muss. Ein einzelnes großes dauert länger aufzubauen. Von separaten RAIDs für OS und Datenplatten versprach man sich also eine gewisse Risikostreung für den Ausfall/Recovery Fall. - Mehr Flexibilität. Das OS unabhängig von den Daten als selbständiger "Klotz" nehmen können konnte durchaus nützlich sein bei Tests, Migrationsszenarien, Ausfall-Recovery Szenarien, usw. - Ein gewisses Maß an zusätzlicher Betriebssicherheit. RAID Controller waren mal richtig komplexe Dinger. Durch Fehlbedienung der ebenso komplexen Steuersoftware, Firmwarefehler und andere unliebsame Effekte, die es nicht hätte geben dürfen aber trotzde gab, kam es durchaus vor, dass ein komplettes RAID auf einmal abgeschmiert ist. Deshalb war es sogar durchaus üblich, zwei RAID Controller im Server zu haben. Der Gedanke: triffts dann die OS Platten, kann man die noch intakten Datenplatten an einen anderen Server hängen. Trifft es die Datenplatten hat man ein intaktes OS um hochzufahren und Fehlersuche zu betreiben. Es gab aber nur extrem wenige Fälle, außerhalb von Labor- und Entwicklungsumgebungen, wo ich mich erinnern kann, dass damit im größeren Stil gearbeitet wurde. Eigentlich keinen. Im Labor wars dagegen oft nützlich. Trotzdem wurden Server fast immer so angeboten und auch bestellt. Inwiefern das damit zu tun hatte, dass man damit noch zwei von den sündteuren Serverplatten mehr anbieten konnte, mag ich nicht beurteilen, ebenso wenig inwiefern das angesichts der technischen Weiterentwicklung noch alles Sinn macht. Ich machs in manchen Umgebungen nach wie vor so, jedenfalls bei "universellen" Servern. Immerhin kann ich dadurch als Datenplatten über die Jahre ein wildes Sammelsurium an alten, neuen, schnellen, langsamen und SSD Speichern betreiben und damit jonglieren, ohne das Betriebssystem unnötig zu gefährden. Ich hätte aber auch ohne überleben können. Armin. bearbeitet 1. August 2017 von Nimral Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 Hatte das bei Standalone Hosts immer auf den selben Platten aber meistens durch eine Virtual Disk abgetrennt. SAS RAID 5/6. Einfach um ggf. den Host bei Probleme schnell neu installieren zu können, kam aber bisher nur einmal vor. Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 Die Frage ist: wo liegen die VMs? falls auf einem FC oder ISCSI Storsge, warum dann nicht eine LUN fürs Host-OS nutzen? ESXi wird auch gerne auf SD-Karten oder USB-Sticks installiert. Funktioniert das mit HyperV auch? Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 Theoretisch können OEMs das mit besonderen USB "Sticks" machen - in der Praxis habe ich das aber noch nirgends gesehen. Und ob das bei VMWare immer so toll ist wie alle behaupten wage ich mal zu bezweifeln. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 Moin, Das diskutieren wir hier ja alle paar Tage ... Auch bei VMware nimmt man keine USB-Sticks, sondern ein SATA DOM. Ganz andere Kategorie. Mit Hyper-V geht das nicht, macht aber nix, macht man bei VMware in der Praxis nämlich auch praktisch nie. Die Frage nach der Disk-Konfiguration ist zu 100% abhängig von den Anforderungen, und von denen hat hier noch niemand gesprochen. Gruß, Nils Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 zumindest IBM hat die bladecenter e und h mit USB-Sticks verkauft. Hatten wir jahrelang im Einsatz. Cisco verkauft SD-Karten, auf Wunsch gespiegelt mit ESX vorinstalliert. Als Flexpod ist das booten von einer LUNs vorgesehen. Wie du schreibts: alles eine Frage der Anforderungen an Geschwindigkeit, Verdügbarkeit und eventueller Lizenzen. Ich hätte mir das für HyperV jetzt ähnlich vorgestellt. Eventuell als core-installation oder wie das heisst? Zitieren Link zu diesem Kommentar
NorbertFe 2.034 Geschrieben 1. August 2017 Melden Teilen Geschrieben 1. August 2017 Also bei Hyper-V Server 2008R2 gabs mal die offizielle Aussage: https://technet.microsoft.com/en-us/library/ee731893(WS.10).aspx ;) Obs das neuer gibt, keine AHnung. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Moin, USB-/Flash-Setup ist mit Windows 2016 nicht mehr supported. Es hat sich gezeigt, dass es zu wenig zuverlässig ist (wegen der Flash-Technik, nicht wegen Hyper-V) und zu wenige Kunden es wirklich einsetzen. Abgesehen von ein paar enthusiastischen Versuchen in der Frühzeit der Technik ist das Bild bei VMware ähnlich. Und die Supportaussagen beziehen sich m.W. dort eben auch nur auf ganz bestimmte Lösungen, nicht auf "irgendein" Flash. Wie auch? Am Ende ist die Diskussion doch auch müßig. Es ist eine Frage des Designs, das auf den Anforderungen beruht. Wenn ernsthaft der Kostenunterschied zwischen Flash und einem kleinen RAID-1 ein Thema ist, dann ist man vielleicht mit falschen Erwartungen unterwegs. Alle anderen haben die ganze Bandbreite von "ein großes RAID für alles" über "Host lokal, Daten im SAN" bis zu Hyperconverged. Gruß, Nils 1 Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Unser Cluster hat mit den hosts und dem SAN ein paar zehntausend Euronen gekostet, da machen es ein paar Euronen für 2 kleine RAID1 Boot Festplatten jetzt auch nicht aus. Selbst wenn man VMWare auf irgendwelche USB Sticks installiert und Hyper-V auf extra Festplatten. Ich würde meine Entscheidung welchen Virtualisierer ich nehme jetzt nicht davon abhängig machen was man auf einen USB Stick installieren kann. Vor allem ist Hyper-V vermutlich trotz extra Festplatten immer noch günstiger :p Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Abgesehen von ein paar enthusiastischen Versuchen in der Frühzeit der Technik ist das Bild bei VMware ähnlich. Und die Supportaussagen beziehen sich m.W. dort eben auch nur auf ganz bestimmte Lösungen, nicht auf "irgendein" Flash. Wie auch? vSphere SSD and Flash Device Support (2145210) Installation auf einem USB Stick oder einer SD Card ist überhaupt kein Problem, ist supported und das schon seit vielen Jahren. Da dort keine Logs geschrieben werden, halten die auch eine halbe Ewigkeit (ich hatte da noch keine Ausfälle). SD Card/ USB Stick kamen immer mit dem Server mit, also vom Hersteller. Mware strictly recommends that customers who do not have a preinstalled system either obtain a USB flash drive directly from their OEM vendor or purchase a model that has been certified for use with their server. Zitieren Link zu diesem Kommentar
testperson 1.677 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Die Realität zeigt allerdings, dass genau dein letztes Zitat äußerst häufig ignoriert wird. Allerdings bin ich dann der Meinung "Selber Schuld!". Zitieren Link zu diesem Kommentar
monstermania 53 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Auch bei VMware nimmt man keine USB-Sticks, sondern ein SATA DOM. Ganz andere Kategorie. Mit Hyper-V geht das nicht, macht aber nix, macht man bei VMware in der Praxis nämlich auch praktisch nie. Hmm, also mit der Aussage praktisch nie wäre ich etwas vorsichtig. Lt. unserem VMware DL werden im Gros der durch Ihn verkauften VMWare-Hosts keine Platten mehr verbaut. Der ESXi läuft auf einem RAID-1 aus 2 SD-Karten (Dell). Haben wir hier auch im Einsatz. Funktioniert 1A. Bei HP kann man das im Übrigen in der tat per USB-Stick realisieren. Die verkaufen einem für viel Geld einen Marken USB-Stick zu den Servern. Das betrifft natürlich VM-Hosts die ohnehin an einem SAN hängen. Wenn ich eh ein lokales RAID verbaue hab ich den Hypervisor immer mit auf das Array gepackt. Bei ESXi. braucht es dafür ja auch nur ein paar GB... Unser Cluster hat mit den hosts und dem SAN ein paar zehntausend Euronen gekostet, da machen es ein paar Euronen für 2 kleine RAID1 Boot Festplatten jetzt auch nicht aus. Selbst wenn man VMWare auf irgendwelche USB Sticks installiert und Hyper-V auf extra Festplatten. Ich würde meine Entscheidung welchen Virtualisierer ich nehme jetzt nicht davon abhängig machen was man auf einen USB Stick installieren kann. Vor allem ist Hyper-V vermutlich trotz extra Festplatten immer noch günstiger :p Geht auch weniger um irgendwelche Kosten. Ein keines 2 Platten RAID-1 verbrät halt mehr Energie als ein Flash-Speicher. Macht bei einigen Hosts im Rack dann schon was aus. Zumal die Abwärme ja auch wieder per Klimaanlage entsorgt werden muss! Bei Teil 2 Deiner Aussage stimme ich Dir aber 100%ig zu. Entscheidend sind die Anforderungen und das persönliche KnowHow. Die Kosten spielen natürlich auch eine Rolle, sind aber in m.E. in kleinen Umgebungen vernachlässigbar. Auf die 500€ für eine vSphere-Essentials-Lizenz kommt es zumeist auch nicht an! Und wenn es dann richtig groß wird kostest Hyper-V auch Geld. Hyper-V mag für einen reinen Windows-Admin "einfacher" zu handeln sein, da man sich in seinem gewohnten Umfeld bewegt. Nach 10 Jahren VMWare-Einsatz bin ich natürlich diesbezüglich vorbelastet und sehe das naturgemäß etwas anders. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 2. August 2017 Melden Teilen Geschrieben 2. August 2017 Boot-from-SAN ist doch einfach nur PITA. Das war vor 20 Jahren mal hip, aber heute einfach nur unnötig. Schaut euch den Preis pro GB an, und welche Infrastruktur zwischen Server und OS notwendig ist, damit das Ding bootet. Total sinnfrei. 1 Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.