Markus. 0 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 Hallo Zusammen, ich habe mal eine Verständnisfrage zum Hyper-V Cluster 2012R2. Und zwar handelt es sich um einen zwei Node Cluster auf dem jeweils die VMs verteilt sind. Da jeder Node zur Zeit ziemlich ausgelastet ist es nicht ohne weiteres möglich einen Failover aller Maschinen auf einen Node durchzuführen. Nun zur eigentlichen Frage. Wenn an einem Node die externe Netzwerkverbindung unterbrochen wird, machen dann die VMs auf diesem Node einen Failover zum dem Node der noch eine externe Netzwerkverbindung hat oder läuft der Traffic dann über die Heartbeat- oder Livemigration-Verbindung weiter ? Dann wäre ja ein Failover erstmal nicht nötig... Für Infos wäre ich euch dankbar.. gruß Markus Zitieren Link zu diesem Kommentar
Nobbyaushb 1.485 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 Bei einem Ausfall der Netzwerkverbindung macht der Knoten einen Schwenk. Bist du over-committed kann es dir passieren, das der 2te Knoten sich auf die Seite legt und alle VM down gehen. Nils hat dazu mal einen prima Beitrag geschrieben. Da sollte man ASAP über ein anderes Sizing oder einen weiteren Knoten im Cluster nachdenken. Was hast du denn als Storage drunter? ;) Zitieren Link zu diesem Kommentar
Markus. 0 Geschrieben 16. November 2016 Autor Melden Teilen Geschrieben 16. November 2016 Hallo Norbert, also als Storage ist einen HP MSA direct attached SAS hinter den Knoten. Das Sizing wird kurzfristig geändert. Gruß Markus Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 Moin, bei 2012R2 gibt es einen Failover, wenn ein Host nicht integer ist. Eine Netzwerkverbindung sollte im Zeitalter von Teaming eigentlich kein single point of failure sein. Falls doch, habt ihr eine Schwäche im Design. Ergänzend zu Norbert: Über die Priorität der Clusterrolle "VM" kann man bei einem überbuchten Cluster etwas gegensteuern und wenigstens die wichtigsten Systeme im Fehlerfall am Leben erhalten. Es ist aber keinesfalls als Dauerlösung zu empfehlen. Zitieren Link zu diesem Kommentar
Markus. 0 Geschrieben 16. November 2016 Autor Melden Teilen Geschrieben 16. November 2016 (bearbeitet) Die Priorisierung habe ich durchgeführt. "Overcomitted" ist er eigentlich nicht. Der Arbeitsspeicher scheint im Endeffekt ein Problem zu werden in naher Zukunft da 83 GB den VMs zugewiesen sind und 96GB hat der Host selber. Gruß Markus bearbeitet 16. November 2016 von Markus. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.485 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 Unsere beiden großen Knoten haben je 512GB und im Wartungs/Schwenkfall sind auf dem einen Host dann noch 12GB frei. Bei 83/96GB hast du doch kein Problem, der Host braucht max. 8GB ;) Zitieren Link zu diesem Kommentar
Markus. 0 Geschrieben 16. November 2016 Autor Melden Teilen Geschrieben 16. November 2016 wie sieht es denn mit der CPU Verteilung/Zuweisung aus? Kann man da "Überlasten"? Jeder Knoten hat 2x8 Kerne........ Gruß Markus Zitieren Link zu diesem Kommentar
Nobbyaushb 1.485 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 (bearbeitet) Moin, das kann man aus der Ferne nur schlecht beurteilen. Ich würde z.B. mal mit Veeam schauen, wie hoch die Lasten wirklich sind. Teilweise sind VM auch zu großzügig ausgestattet. Wir haben da auch ein deutliches over-commitement, aber die Last passt unterm Strich. Man muss natürlich aufpassen, da hilft in der Regel beobachten und probieren. Ich meine, Nils hat da mal was geschrieben, finde ich gerade nicht. Kannst auch zusätzlich mal bei Carsten gucken: http://www.hyper-v-server.de ;) bearbeitet 16. November 2016 von Nobbyaushb Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 16. November 2016 Melden Teilen Geschrieben 16. November 2016 Moin, ob der Cluster beim Verlust einer Netzwerkverbindung schwenkt, hängt vom konkreten Einzelfall ab. Es gibt durchaus Situationen, in denen das nicht passiert. Nicht zuletzt aus dem Grund hält man Netzwerkverbindungen in einem Cluster auch redundant. Kann man so also leider nicht beantworten. Ein Cluster ist dann richtig ausgestattet, wenn die verbleibenden Nodes alle VMs ausführen können. Bei einem 2-Knoten-Cluster müssen die RAM-Ausstattungen aller VMs in Summe also unterhalb der RAM-Ausstattung eines der Hosts sein, der Host braucht 4 GB oder mehr frei für sich selbst. Die CPU darf man durchaus überbuchen, das ist ja der Witz an der Virtualisierung. In der Praxis ist ein Verhältnis von 5:1 oder sogar höher meist problemlos. Es gibt aber Software, die in den VMs läuft, die dort Einschränkungen setzt. Exchange etwa ist nur supported, wenn das Überbuchungsverhältnis bei maximal 2:1 liegt. (Es läuft auch prima, wenn es "enger" ist, aber dann kann Microsoft im Supportfall verlangen, dass man andere VMs abschaltet.)= Gruß, Nils Zitieren Link zu diesem Kommentar
Markus. 0 Geschrieben 16. November 2016 Autor Melden Teilen Geschrieben 16. November 2016 super Danke euch für die vielen Infos!! Gruß Markus Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 17. November 2016 Melden Teilen Geschrieben 17. November 2016 Ein vernünftiges Sizing sehe ich bei Clustern eigentlich n+1. Will heißen du hast 2 Nodes voll genutzt, und dann einen zusätzlichen extra. Nachdem ein Cluster unter 2 Nodes jetzt nicht so viel Sinn ergibt, wären das dann halt 3 Nodes. Wenn das nicht geht, müssen die Nodes so dick sein das sie zumindest grundlegend alle VMs ausführen können. Wenn ihr viele Windows Server habt, kann das auch mit notfalls mit Dynamic Memory etwas abgefangen werden. Zitieren Link zu diesem Kommentar
Markus. 0 Geschrieben 17. November 2016 Autor Melden Teilen Geschrieben 17. November 2016 Ich weiß, der 3. Node war ja auch vorgesehen. Aber ..naja.. halt Managemententscheidung..nach dem Motto warum 3 wenns auch mit 2 funktioniert :-) Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 17. November 2016 Melden Teilen Geschrieben 17. November 2016 Moin, ein dritter Knoten kostet ja auch recht erheblich - neben der Hardware schlägt die Datacenter-Lizenz zu Buche. Um so wichtiger, dass man das Sizing und die Redundanzen (auf allen Ebenen!) richtig plant. Gruß, Nils Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.