jochen35 10 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 (bearbeitet) Hallo, für das Management eines Hyper-V Stretched-Cluster soll SCVMM 2012 R2 zum Einsatz kommen. An beiden Standorten des Clusters (A und B ) ist hierfür, unabhängig vom eigentlichen Cluster, ein extra Server (Blech) vorgesehen, auf denen ebenfalls Hyper-V laufen wird. Am Standort A werden in jeweils eigenen VMs der DC für den Cluster, ein SQL, der SCVMM, der Library-Server und ein WSUS auf diesem Host laufen. Mittels Hyper-V Replica sollen die VMs für ein DR zum Standort B gespiegelt werden. Die Netzanbindung der Cluster-Notes sieht wie folgt aus. NIC1 - 10 GbE - VLAN10 - 192.168.10.0/24 - iSCSI NIC2 - 10 GbE - VLAN20 - 192.168.20.0/24 - iSCSI2 NIC3 - 01 GbE - VLAN30 - 192.168.30.0/24 - CSV NIC4 - 01 GbE - VLAN40 - 192.168.40.0/24 - Livemigration NIC5 - 01 GbE - VLAN50 - 192.168.50.0/24 - VM NIC6 - 01 GbE - VLAN60 - 192.168.60.0/24 - Management Die beiden Host für das Management sollen dabei möglichst unabhängig vom Cluster und von der Storage sein und daher sollen die VMs auch auf den lokalen Platten liegen. Die Netzanbindung der beiden Server habe ich mir wie folgt vorgestellt. NIC1 - 10 GbE - VLAN50 - 192.168.50.0/24 - VM NIC2 - 10 GbE - VLAN60 - 192.168.60.0/24 - Management Ist das ausreichend oder braucht der SCVMM auch noch eine Anbindung an die anderen Netze? Gruß Jochen bearbeitet 15. März 2015 von jochen35 Zitieren Link zu diesem Kommentar
NilsK 2.957 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 Moin, das Konzept leuchtet mir nicht ein. Zunächst finde ich die beiden separaten Hosts und die Replica-Funktion nicht einleuchtend. Und dann finde ich die Netzwerkanbindung etwas seltsam geplant: Zweimal 10 Gbit für iSCSI und für alles andere nur je 1 Gb ohne Redundanz? Ihr wolt also eure Hosts mit jeweils 24 Gbit in Summe ausstatten und alle VMs durch eine einzige, nicht redundante Gigabit-Leitung zwängen? Ich schlage als Alternative zum Nachdenken mal vor, die beiden 10-GbE-Adapter zu einem Team zusammenzufassen, über das ihr mit einem vSwitch alles laufen lasst. Die vier Gigabit-Adapter würde ich schon fast brachliegen lassen. Natürlich kann man dies ohne nähere Analyse nicht planen - mir geht es hier um eine deutlich anders gebaute Alternative, damit ihr euer Konzept noch mal prüft. Gruß, Nils Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 15. März 2015 Autor Melden Teilen Geschrieben 15. März 2015 Wo würdest Du den DC und den SCVMM platzieren? Ein extra Blech schien mir eigentlich die sinnvollste Lösung. Mittels Replica der VMs (DC, SQL, SCVMM, Library und WSUS) zu Standort B soll ja nur eine Redundanz für ein eventuell erforderliches Disaster Recovery verfügbar gemacht werden. Im Regelfall würden die VMs daher immer am Standort A laufen. Die beiden 10 GBit Adapter sind ja für den Storage, denn alle VMs liegen mit Ihren Daten auf einem SAN und bei einer entsprechenden Anzahl von VMs pro Host dürfte sicher einiges an I/O über iSCSI-Verbindungen laufen. Mittel MPIO können die I/O-Operationen auf beide Adapter aufgteilt werden, was beim Teaming so leider nicht funktioniert, denn hier läuft der I/O-Strom über jeweils einen Adapter. Für die Anbindung der Storage scheint mir MPIO daher die bessere Wahl und zudem wurde es genau dafür konzipiert. Die 1 GBit für die VMs sind in der Tat nicht viel, daher überlege ich nun, ob ich eventuell die Livemigration mit auf den Adapater für das Management lege und den so frei gewordenen Adapter mit dem Adapter für die VMs in einem Team zusammenfasse. Gruß Jochen Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 Stellt sich nur die Frage, wie sich 10gbit an i/o durch 1gb lan quetschen sollen. ;) Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 15. März 2015 Autor Melden Teilen Geschrieben 15. März 2015 Stellt sich nur die Frage, wie sich 10gbit an i/o durch 1gb lan quetschen sollen. ;) Welche 10 Gbit I/O meinst Du? Die Anbindung der Storage hat ja nicht direkt etwas mit der I/O-Last auf dem VM-Adapter zu tun. Gruß Jochen Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 Eben. ;) aber ein gewisser Zusammenhang zwischen Clients und storage io der vms besteht ja zweifellos :) Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 15. März 2015 Autor Melden Teilen Geschrieben 15. März 2015 (bearbeitet) Eben. ;) aber ein gewisser Zusammenhang zwischen Clients und storage io der vms besteht ja zweifellos :) Natürlich, aber sicher nicht im Verhältnis 1:1. Wenn zum Beispiel ein User auf eine Webseite zugreift und dadurch im Hintergrund auch noch verschiedene Datenbankabfragen laufen, ist der Traffic, der über den VM-Adapter läuft, sicher nur ein Bruchteil von dem der gesamten Operation. Einzig beim Fileserver dürfte das bei entsprechender Anzahl von gleichzeitigen Zugriff ein Problem werden. Daher auch die Überlegung mit dem Teaming des Adapters, der eigentlich für Livemigration vorgesehen war. Die Frage war ja aber eigentlich auch, Netze der Cluster-Umgebung der SCVMM braucht. Gruß Jochen bearbeitet 15. März 2015 von jochen35 Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 Ja, deswegen ist Nils gedanke ja sicher eine Überlegung deinerseits wert. ;) Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 15. März 2015 Autor Melden Teilen Geschrieben 15. März 2015 Ja, klar. Aber an der iSCSI-Anbindung mittels MPIO will ich erstmal nichts ändern. Wieviel Traffic ist den auf dem CSV-Adapter zu erwarten bzw. auf welche dedizierten Adapter würdet Ihr zu Gunsten des VM-Teamings am ehesten verzichten? So, und welche Netze braucht nun SCVMM? Gruß Jochen Zitieren Link zu diesem Kommentar
Necron 71 Geschrieben 15. März 2015 Melden Teilen Geschrieben 15. März 2015 NIC1 - 10 GbE - VLAN50 - 192.168.50.0/24 - VM NIC2 - 10 GbE - VLAN60 - 192.168.60.0/24 - Management Ist das ausreichend oder braucht der SCVMM auch noch eine Anbindung an die anderen Netze? Gruß Jochen Hi, mal abgesehen davon was Nils schon angedeutet hat. In welchem Netz läuft der DC Management oder VM? Denn in genau dieses Netz muss der VMM rein. Wenn der VMM das iSCSI SAN verwalten soll, dann braucht er entsprechend noch die Verbindung dort hin. Aber auch nur wenn der SMI-S Provider nicht auf irgendeiner Proxy VM läuft, sondern auf dem SAN selber. Hast du dir auch schon über die Abbildung der Netze im VMM Gedanken gemacht? Logical Networks, Network Sites, Logical Switch, VM Networks etc.? Das nur als weiterer Gedankenanstoß und Hinweis. :) Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 16. März 2015 Autor Melden Teilen Geschrieben 16. März 2015 Also die Cluster-Nodes und die beiden Management-Systeme, sollen in ein gesondertes AD - der DC soll daher auch ins Management-Netz. Das eigentliche Firmen-AD mit dem DC im Hyper-V Cluster wird im VM-Netz laufen. Das der SCVMM daher auch ins Management-Netz muss ist klar, ich bin mir nur unsicher, ob der SCVMM auch auf das Livemigration- und CSV-Netz Zugriff haben muss. Gruß Jochen Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 16. März 2015 Melden Teilen Geschrieben 16. März 2015 (bearbeitet) Moin, wenn Du schon einen Stretch Cluster hast, warum dann Hyper-V Replika und keinen zweiten Stretch Cluster für die Verwaltungssysteme? Falls Du vorhast, Dein Storage per VMM zu verwalten, benötigt der VMM u.U. noch eine Verbindung zum iSCSI. Ich habe das Gefühl, dass vieles in Deiner Umgebung noch nicht wirklich 'gar' ist. Anhand der Häppchen aus diversen Fragen, lässt sich erahnen, dass Du noch nicht so viel Erfahrung mit dem Thema hast. Auch wenn es ein ehrenwerter Ansatz ist, möglichst alles selber machen zu wollen, empfehle ich für das Thema externe Unterstützung einzukaufen. Für den Anfang vielleicht 11/2 bis 2 Tage als Workshop, in dem das Basislayout der Umgebung erörtert und festgelegt wird. bearbeitet 16. März 2015 von Dunkelmann 1 Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 16. März 2015 Melden Teilen Geschrieben 16. März 2015 Hyper-V Replica für DCs - geht das überhaupt? Bei SQL Server muss man hier ein paar Sachen beachten. Hyper-V Replica lässt sich auch nur schlecht, bis gar nicht, über den VMM verwalten. Ob sich der Aufwand für eigene Management-Umgebung überhaupt lohnt oder ob man nicht lieber auf die Hochverfügbarkeit des Clusters setzt und damit auch die Mangement Umgebung hochverfügbar hat? Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 17. März 2015 Autor Melden Teilen Geschrieben 17. März 2015 (bearbeitet) Nach dem was ich bisher so gelesen habe, sollte Hyper-V Replica für DCs mit 2012 R2 kein Problem mehr sein und gemäß Unterstützungsrichtlinie wird auch SQL supportet. Da die beiden Management-Hosts möglichst unabhängig von der Cluster-Infrastruktur laufen sollen, um im Worst Case (z.B. Ausfall der Storage) nicht auch noch das komplette Management zu verlieren, liegen die VMs (DC, SCVMM, SCOM etc.) der Management-Hosts auf den lokalen Platten, weshalb sie natürlich auch nicht geclustert werden können. Hyper-V Replica soll daher ein schelles Disaster Recovery der Management-Systeme ermöglichen, wenn einer der Standorte ausgefallen ist. Gibt es eigentlich eine einigermaßen aktuelle Übersicht, was unter Hyper-V Replica 2012 R2 supportet wird? Gruß Jochen bearbeitet 17. März 2015 von jochen35 Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 17. März 2015 Melden Teilen Geschrieben 17. März 2015 Ob die Anwender dafür Verständnis haben, dass die DR Priorität bei den Verwaltungssystemen liegt? Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.