Spackenheimer 3 Geschrieben 5. November 2019 Melden Teilen Geschrieben 5. November 2019 (bearbeitet) Hallo, wir setzen einen Cluster aus 3 identischen Hosts sein, auf denen insgesamt ca. 25 VMs verteilt sind (gleichmäßig verteilte Last). Die Hosts sind untereinander mit 10Gbit Karten an 10Gbit Switches mit guten Kabeln verbunden. Ich habe das Problem, dass einige VMs nur 1Gbit Geschwindigkeit bekommen, obwohl der VMXNET3 Adapter konfiguriert ist und in den Eigenschaften der Netzwerkverbindung auch 10Gbit angezeigt werden. Die VMs hängen pro Host jeweils an denselben vSwitches in denselben VM-Netzwerken. Das Problem betrifft nur einzelne VMs pro Host. Andere VMs desselben Hosts bekommen mit denen auf anderen Hosts die vollen 10Gbit, also liegt es nicht an den Hosts oder der physischen Verkabelung. Die betroffenen VMs bekommen mit anderen VMs desselben Hosts volle 10Gbit, nur eben nicht zu einem anderen Host. VM1 auf Host1 zu VM2 auf Host1: 10Gbit VM1 auf Host1 zu VM3 auf Host2: 1Gbit VM2 auf Host1 zu VM3 auf Host2: 10Gbit Die Geschwindigkeit teste ich mit NetIO 1.33, die Ergebnisse sind reproduzierbar. An den VMware Tools und somit den Treibern der VMXNET3 scheint es nicht zu liegen, denn auch VMs mit älteren Versionen von 2015 kriegen die volle Geschwindigkeit. Außerdem kriegen die betroffenen VMs ja zu welchen auf demselben Host die volle Geschwindigkeit. Auch das OS scheint keinen Einfluss zu haben. Ich finde auch in den Eigenschaften der vSwitches oder der VMs keinerlei Einstellungen, die zum Problem passen würden. Die Tests im anhängenden Beispiel (192.168.3.32 ist eine betroffene langsame VM) gingen von Host 2 -> Host 3 Host 2 -> Host 1 (langsam) Host 2 -> Host 1 (schnell) Hier noch ein Schaubild meiner Tests, worin zu sehen ist, dass einzelne VMs betroffen sind, nicht aber die Hosts untereinander. Alle VMs haben den VMXNET3 Adapter und zeigen 10Gbit an. Rot = 1Gbit Grün = 10Gbit bearbeitet 5. November 2019 von Spackenheimer Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 5. November 2019 Melden Teilen Geschrieben 5. November 2019 Vielleicht mit den resource scheduler rumgespielt oder mit Traffic Shaping? Zitieren Link zu diesem Kommentar
Spackenheimer 3 Geschrieben 5. November 2019 Autor Melden Teilen Geschrieben 5. November 2019 (bearbeitet) Habe es zwischenzeitlich gefunden. Die Hosts sind über zwei unterschiedliche physische NICs angebunden, die interne 1Gbit Karte und eine gesteckte 10Gbit. Der Lastausgleich der vSwitche war auf "Anhand der ursprünglichen ID des virtuellen Ports routen" gestellt. Habe auf "Ausdrückliche Failover-Reihenfolge verwenden" gestellt, damit passiert laut Doku kein Lastausgleich und da die 10Gbit Karte in der Failover-Reihenfolge oben steht wird nun nur sie genutzt. Alle vorher langsamen VMs sind nun schneller. bearbeitet 5. November 2019 von Spackenheimer 1 Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 5. November 2019 Melden Teilen Geschrieben 5. November 2019 Schade, dass Du ursprünglich nichts von einer 1GB NIC geschrieben hast. Verschiebe die NIC in Richtung "Standby-Adapter". Dann wird die nur genommen, wenn die Aktive NIC ausfällt. Zitieren Link zu diesem Kommentar
Spackenheimer 3 Geschrieben 6. November 2019 Autor Melden Teilen Geschrieben 6. November 2019 (bearbeitet) Ja, das hätte ich dazuschreiben können, zumal es im Nachhinein damit eigentlich auch offensichtlich war. :) Das Umstellen der 1Gbit auf Standby sollte im laufenden Betrieb ohne Ausfall möglich sein oder? EDIT: Mut zur Lücke - erwartungsgemäß keine Ausfälle beim Umstellen der 1Gbit Karte als standby. bearbeitet 6. November 2019 von Spackenheimer Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.