Tauchsieder89 0 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 Hallo zusammen, ich wurde auf Arbeit mit dem Thema betraut, einen Hyper-V Failover Cluster zu erstellen und hätte da einige Fragen. Momentan stehen mir zwei ältere Server zum Testen zur Verfügung auf denen ich Windows Server 2008 R2 Datacenter aufgesetzt habe. Beide Server sind in unsere Domain eingebunden und heißen "srv-hyperv1" und "srv-hyperv2". In beiden Servern habe ich effektiv zwei Festplatten (eigentlich vier, die über Hardware-Raid 10 zu zwei Festplatten zusammengefasst sind), eine kleine für das Betriebssystem und eine große für die Nutzdaten. Folgendes Konzept habe ich mir überlegt: Ich würde gerne beide Server zu einem Failover Cluster zusammenfassen und darauf Hyper-V laufen lassen. Das ist auch kein Problem und lässt sich ohne Probleme umsetzten. Mein Problem ist der Storage. Ich würde gerne die jeweils zweite Festplatte (die für die Nutzdaten) von beiden Servern "spiegeln" und im Cluster einbinden. Wenn dann ein Server ausfällt, sind die Daten genauso auf dem Failover Node des Clusters vorhanden und es kommt zu keinem Gesamtausfall. Um das Konzept umzusetzten habe ich mir sowohl DFSN und iSCSI-Ziele angeschaut. Mit beiden kann ich Storage erstellen, den ich in den Cluster einbinden könnte. Das Problem ist allerdings das mit der Spiegelung. Hat hier jemand auf diesem Gebiet Erfahrung und kann mir einen Tipp geben? Als Anmerkung: Grundsätzlich wäre das ganze auch über unsere NetApp via iSCSI umsetzbar. Allerdings handelt es sich hier um eine massive Menge an Daten, die dann Sekündlich über unser Netzwerk transportiert werden müsste und daher halte ich meinen Ansatz für sinnvoller. Vielen Dank schonmal für eure Hilfe! LG, Tauchsieder Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 So mit Windows Server 2008r2 nicht umsetzbar. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 (bearbeitet) Moin, so auch nicht mit Windows Server 2012 R2 umsetzbar. So gar nicht sinnvoll umsetzbar. Abgesehen von speziellen Hardware-Systemen sind für VM-Cluster sowohl unter Hyper-V wie auch unter vSphere und allen anderen Hypervisoren immer zentrale Storage-Systeme nötig. Warum genau willst du das nicht mit eurem NetApp-System umsetzen? Genau sowas nutzt man in der Regel dafür. Und warum soll es ein veraltetes Betriebssystem sein? Gruß, Nils bearbeitet 18. Mai 2015 von NilsK Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 Bei VMWare gibt es http://www.vmware.com/de/products/virtual-san Allerdings sind da die Hardware-Anforderungen so hoch (u.a. sollten die auch in der Kompatibilitätsliste stehen), dass man sich auch gleich einen externen Storage kaufen kann. Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 (bearbeitet) Für eine Testumgebung tut es evtl. ein drittes Gerät mit einem iSCSI Target, sei es das in 2008r2 eingebaute oder Starwind Virtual San Free. Falls irgendwie möglich, würde ich das Ganze auch besser mit 2012r2 umsetzen, Hyper-V hat sehr viele coole Features dazubekommen. Shared Nothing Migration und Live Storage Migration möchte ich nicht mehr missen. bearbeitet 18. Mai 2015 von Doso Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 (bearbeitet) Moin, geht das hier um einen reinen Test, oder soll das Konstrukt 1:1 in die Produktion übernommen werden? Zum reinen Testen: Starwind Virtual SAN free https://www.starwindsoftware.com/starwind-virtual-san-free Produktiv: siehe die Antworten oben Edit: Mal wieder zu langsam :( bearbeitet 18. Mai 2015 von Dunkelmann Zitieren Link zu diesem Kommentar
Tauchsieder89 0 Geschrieben 18. Mai 2015 Autor Melden Teilen Geschrieben 18. Mai 2015 Vielen Dank für eure Antworten. @NilsK: Da die Datenmenge die auf die NetApp geschrieben und somit über das Netzwerk gejubelt wird sehr hoch ist, wollte ich das Ganze lokal auf dem Server lösen. Mit alt meinte ich die Server, nicht das Betriebssystem. :) @zahni: Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung. @Dunkelmann: Es soll nach dem Test produktiv umgesetzt werden. Nachdem meine "Lösung" wohl keine ist, weil nicht umsetzbar, wäre dann die Lösung mit der NetApp die Beste? Gibt es noch eine anderen "bessere" Vorschlag? Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 @NilsK: Da die Datenmenge die auf die NetApp geschrieben und somit über das Netzwerk gejubelt wird sehr hoch ist, wollte ich das Ganze lokal auf dem Server lösen. Mit alt meinte ich die Server, nicht das Betriebssystem. :) @zahni: Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung. Hm, was glaubst Du, worüber die Daten bei Deiner Wunschlösung synchronisiert werden müssten? Eine Netapp ist, wenn man die Anbindung richtig macht, performant. ISCSI ist hier nicht unbedingt die beste Wahl. Seit 2012 müsste man die VHDs auch auf SMB 3.0 Freigaben legen können, was eine Netapp auch kann. In jedem Fall sollten aber dedizierte NICs oder HBAs (FC) verwendet werden. Ach ja, eine Netapp müsste man kaufen ;) Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 Nachdem meine "Lösung" wohl keine ist, weil nicht umsetzbar, wäre dann die Lösung mit der NetApp die Beste? Gibt es noch eine anderen "bessere" Vorschlag? NetApp ist ok. Bei nur zwei Nodes und wenn keine Skalierbarkeit erforderlich ist, ginge auch ein shared SAS. Wir wollen das Ganze mit vorhandenen Mitteln umsetzten und keine neue Software dazukaufen. Danke trotzdem für die Anregung. Du schreibst von Hochverfügbarkeit, willst aber nichts ausgeben - finde den Wiederspruch. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 18. Mai 2015 Melden Teilen Geschrieben 18. Mai 2015 Moin, vielleicht zäumen wir das Pferd einfach mal von vorn auf ... was soll denn genau erreicht werden? Bislang ist das "Problem" (im Sinne der Anforderung) ja noch nicht beschrieben worden, also können wir auch schlecht eine Lösung finden. Gruß, Nils Zitieren Link zu diesem Kommentar
Tauchsieder89 0 Geschrieben 19. Mai 2015 Autor Melden Teilen Geschrieben 19. Mai 2015 Hallo NilsK, wir haben momentan einen Server, auf dem zwei Anwendungen laufen. Diese zwei Anwendungen mögen sich nicht. Deshalb wollen wir die Anwendungen via Hyper-V statt auf einem phyiskalischen Server auf zwei Virtuellen Servern laufen lassen, damit sich die Programme "frei entfalten" können. Später sollen dann auch noch ein paar andere Anwendungen auf dem Server mit eigenen Hyper-V Instanzen laufen. Damit das Ganze auch eine High Availability Lösung ist, wollen wir uns einen zweiten Server kaufen und diesen zu einem Failover Cluster zusammenschließen.Da wir bereits zwei Windows Server 2008 R2 Datacenter Lizensen haben, wollen wir es mit Windows umsetzten. Siehst du eine andere Lösung, als einen Failover Cluster? LG, Tauchsieder Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 19. Mai 2015 Melden Teilen Geschrieben 19. Mai 2015 (bearbeitet) Moin, welche Anforderungen bestehen genau an die Verfügbarkeit? Welche Ausfallzeiten sind für das Unternehmen tolerierbar? (Damit meine ich nicht: Wann wird es unbequem, sondern: Wann entsteht ein gravierender Schaden?) Eine Antwort wie "es soll immer laufen" oder "es darf halt nicht ausfallen" ist hier nicht zielführend. Failover-Clustering wird häufig deutlich unterschätzt, das scheint mir auch hier der Fall zu sein. Damit ein Cluster wirklich das leistet, was man (üblicherweise) von ihm erwartet, muss er sorgfältig aufgebaut werden und ist alles andere als ein preisgünstiges Konstrukt. Für einen Hyper-V-Cluster braucht es neben den Hosts ein zentrales Storage und eine Netzwerk-Infrastruktur. Beide müssen so beschaffen sein, dass sie selbst nicht zum Ausfallpunkt werden. Und selbstverständlich wird zwischen den Hosts und dem Speichersystem erheblicher Netzwerktraffic entstehen - nicht zuletzt deshalb braucht es dafür ein separates Netzwerksegment. Windows Server 2008 R2 ist bereits aus dem Mainstrem-Support gelaufen - das ist ungünstig für ein System, auf das ihr euch künftig verlassen können wollt. Zudem hat 2008 R2 sowohl für Hyper-V als auch fürs Clustering einige Einschränkungen, die heute nicht mehr zeitgemäß sind. Wenn das Budget begrenzt ist, lassen sich die Anforderungen ja vielleicht auch ohne Cluster erfüllen, etwa durch ein gut aufgebautes Recovery-Konzept oder Cold-Standby-Konstrukte. Gruß, Nils bearbeitet 19. Mai 2015 von NilsK Zitieren Link zu diesem Kommentar
Tauchsieder89 0 Geschrieben 19. Mai 2015 Autor Melden Teilen Geschrieben 19. Mai 2015 Hallo NilsK, danke für die ausführliche Antwort. Das Budget ist in der Tat sehr begrenzt, sonst hätte ich von vorn herein Windows Server 2012 R2 genommen. Da es sich bei dem Ganzen, um nur intern verwendete Programme handelt, wäre eine Ausfallzeit von maximal 30 Minuten denkbar. Länger sollte es allerdings definitiv nicht sein. Ich sehe folgende Möglichkeiten: 1. Man verwendet einen Failover Cluster und speichert die HyperV Images auf unserer NetApp. Vorteil: Extrem schnelle Disaster Recovery Nachteil: Hohe Kosten wg. Kauf eines zweiten Servers und vielleicht sogar "zu schnelle" Disaster Recovery, weil wir ja ca. 30 Minuten Zeit haben. 2. Man verwendet den vorhandenen Server als Hauptserver und installiert auf einem zweiten Server ebenfalls die HyperV Rolle. Die .vhd's der HyperV Instanzen speichert man komplett auf der NetApp. Fällt dann ein Server aus, bindet man die Images von der NetApp auf dem Backup Server ein und lässt sie dort laufen, bis der Hauptserver wieder zur Verfügung steht. Vorteil: Geringe Kosten Nachteil: Vielleicht zu langsame Disaster Recovery? 3. Man verwendet den vorhandenen Server als Hauptserver und installiert auf einem zweiten Server ebenfalls die HyperV Rolle. Die .vhd's der HyperV Instanzen speichert man Lokal auf dem Hauptserver und zieht alle fünf Minuten einen Snapshot auf die NetApp. Vorteil: Geringe Kosten Nachteil: Extrem hohe Belastung des Netzwerks weil alle fünf Minuten mehere Terrabyte an Daten übers Netzwerk geschleust werden. So vermutlich nicht umsetzbar, weil unser Netzwerk dafür zu langsam ist. Das wären meine Ansätze. Siehst du noch weitere? Danke schonmal für die Antwort. LG, Tauchsieder Zitieren Link zu diesem Kommentar
Daniel -MSFT- 129 Geschrieben 19. Mai 2015 Melden Teilen Geschrieben 19. Mai 2015 Wie wäre es, wenn Du den kostenlosen Hyper-V Server 2012 R2 nimmst zum Virtualisieren und dann Hyper-V Replika nutzt, um die VMs auf dem zweiten Server ausfallsicher vorzuhalten? Achte bei den Lizenzen darauf, dass Du Lizenzmobilität auch für die Anwendungen brauchst, falls die z.B. eine SQL Server Datenbank beinhalten. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 19. Mai 2015 Melden Teilen Geschrieben 19. Mai 2015 Moin, Das Budget ist in der Tat sehr begrenzt, sonst hätte ich von vorn herein Windows Server 2012 R2 genommen. Da es sich bei dem Ganzen, um nur intern verwendete Programme handelt, wäre eine Ausfallzeit von maximal 30 Minuten denkbar. Länger sollte es allerdings definitiv nicht sein. hm, irgendwie hatte ich mit so einer Antwort gerechnet. Das ist sozusagen prototypisch. Nimm es mir nicht übel, aber: Das ist völlig illusorisch. Ich hatte nach der maximal tolerierbaren Ausfallzeit gefragt. Wenn du sagst, die liegt bei 30 Minuten - dann heißt das: Ab Minute 31 beginnt der Schaden für euer Unternehmen so groß zu werden, dass das Unternehmen in seiner Existenz bedroht sein könnte. Wirklich? Wenn das so ist, wie kommt es dann, dass für eine Vorkehrung dagegen kein ausreichendes Budget zur Verfügung steht? Ist euer Unternehmen weniger wert als ein paar 10.000 Euro? Hier passen also ein paar Dinge nicht zusammen. Um es deutlich zu sagen: Eine Ausfallzeit von unter 30 Minuten ist absolute Königsklasse. Dafür geben Unternehmen, die sowas brauchen, siebenstellige Summen aus. Wir verlassen hier den Bereich, den man in einem Forum sinnvoll behandeln kann. Meine Empfehlung ist: Lass dir einen kundigen Berater kommen, der mit euch in Ruhe die Anforderungen entwickelt und Möglichkeiten und Grenzen aufzeigt. Gruß, Nils Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.