wola 0 Geschrieben 20. Februar 2016 Melden Teilen Geschrieben 20. Februar 2016 Hallo und Guten Abend,bei der Konfiguration einer iSCSI MPIO Anbindung stehe ich gerade vor der Frage, welche Einstellungen im Netzwerkkartentreiber vorgenommen werden solltenDie Aktivierung der Hyper-V Rolle hat VMQ und SR-IOV in den Treibereinstellungen eingeschaltet.Bisher habe ich dazu, weder beim Hersteller noch an anderer Stelle Informationen gefunden.Windows Server 2012 R2 - Hyper-V1 Netzwerkkarte mit 2 x 10 GB Ports Intel X-540 für iSCSi Die Anbindung erfolgt in der Parent PartitionSollten bestimmte Einstellungen vorgenommen werden ?VMQ und SRV-IO würde ich auf diesen Karten deaktivieren, oder ?Welche Erfahrungen liegen vor ?Ein weiterer Punkt, der mich beschäftigt ist die Konfiguration der Pfade.Die zwei Ports auf einer Netzwerkkarte würden mit Round Robin eingestellt werden.Wenn die Verbindung bzw. Karte verloren geht, ist der Kontakt zum Storage nicht mehr vorhanden.Wie würde sich ein weiterer Pfad mit 1GB, um zumindestens die Verbindung nicht zu verlieren als Failover verhalten ?Wann schaltet dieser sich zu bzw. wie kann das beeinflusst werden ? Der dritte Punkt, welcher nicht mit der iSCSi Anbindung zusammenhängt und mir Gedanken bereitet, ist die Konfiguration von VMQ. Hier scheinen unterschiedliche Meinungen zur Stabilität zu existieren. Sollte VMQ im Netzwerkkartenteam deaktiviert werden ? Vielen Dank im vorausGrüßewola Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 20. Februar 2016 Melden Teilen Geschrieben 20. Februar 2016 Wir haben bei den Netzwerkkarten bei den Netzwerk-Einstellungen alles aus, außer IPv4. Die Einstellungen direkt auf den Netzwerkkarten in den Treibern habe ich nicht angefasst. Soweit ich weiß sollten bei MPIO alle Adapter die gleiche Geschwindigkeit haben, sonst läuft alles mit der langsameren Geschwindigkeit. Kann sein das ich mich da irre. Noch ein Tipp, wenn es für euer iSCSI Target (z.B. SAN) eigene MPIO Treiber gibt (DSM) sollte man diese verwenden. Wir haben ein IBM SAN und dafür gibt es ein DSM, was gewisse Sachen erheblich einfacher macht. So geht der Failover ggf. schneller und man muss sich keine Gedanken mehr machen über welchen Controller man eine LUN ansteuert. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 21. Februar 2016 Melden Teilen Geschrieben 21. Februar 2016 Sind das deine einzigen Adapter oder ist der nur für iSCSI? Was für ein Switch ist dahinter? ;) Zitieren Link zu diesem Kommentar
wola 0 Geschrieben 21. Februar 2016 Autor Melden Teilen Geschrieben 21. Februar 2016 Vielen Dank für die Antworten.DSM und die Einstellungen der Netzwerkkarte zu belassen helfen mir weiter.Bei den Netzwerkkarten stehen noch2 x 1 GB, soweit ich mich erinnere ohne die Möglichkeit VMQ einzustellen und4 x 1 GB mit VMQ Einstellungzur Verfügung.Die 2 x 10 GB sollen nur für iSCSi genutzt werden. An einem Switch wird die 10 GB Verbindung aktuell nicht betrieben und direkt mit einem Kabel verbunden. Die 1 GB Verbindungen sollen auf zwei Switche aufgeteilt werden, die als Stack konfiguriert sind. Ein eigener IP Bereich und VLAN steht für die Parent Partition zur Verfügung.Viele Grüßewola Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 21. Februar 2016 Melden Teilen Geschrieben 21. Februar 2016 Hier ein guter Guide zum Thema: https://www.hyper-v-server.de/management/aufbau-und-einrichtung-eines-failovercluster-unter-windows-server-2012/ Zitieren Link zu diesem Kommentar
NilsK 2.936 Geschrieben 21. Februar 2016 Melden Teilen Geschrieben 21. Februar 2016 Moin, ich würde das Design noch mal überdenken. Bei der Kartenkonfiguration und deinem Plan kannst du den VMs ja nur Gigabit bereitstellen. Ich würde zumindest erwägen, sämtlichen Traffic softwaredefined über ein Team aus den beiden 10-GbE-Karten zu leiten. Die Gbit-Karten würde ich dann gar nicht nutzen. Gruß, Nils 1 Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 22. Februar 2016 Melden Teilen Geschrieben 22. Februar 2016 Das würde ich auch so überlegen. Separierung durch VLANs. Setzt allerdings Switche mit 10G-ports voraus! Die 1G-Ports könnte man dann für spezielle Dinge verwenden wie z.B. VMotion,. Clusterinterconnects, Fallback für irgendwas wichtiges, Management etc. Zitieren Link zu diesem Kommentar
NilsK 2.936 Geschrieben 22. Februar 2016 Melden Teilen Geschrieben 22. Februar 2016 Moin, Die 1G-Ports könnte man dann für spezielle Dinge verwenden wie z.B. VMotion,. Clusterinterconnects, Fallback für irgendwas wichtiges, Management etc. wie gesagt, tendenziell würde ich die gar nicht verwenden. Live Migration kommt auch auf das Team - wenn da mal was anfällt, soll es schnell laufen, und wenn nichts anfällt, nimmt es nichts weg. Auf die Weise braucht man ein einziges Team und zwei Kabel/Ports pro Server. Die 1-Gig-Ports bleiben frei, auch auf dem Switch. Das allerdings jetzt nur prinzipiell ohne Blick auf die tatsächliche Umgebung. Gruß, Nils Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 22. Februar 2016 Melden Teilen Geschrieben 22. Februar 2016 deswegen schrieb ich "könnte man" und nicht "würde ich" o.ä. An sich hast du Recht, nur falls aus irgendwelchen Gründe ein extra Netzwerkpfad gefordert wird wollte ich diese Möglichkeit nicht unerwähnt lassen. Zitieren Link zu diesem Kommentar
Smalltalk 3 Geschrieben 3. März 2016 Melden Teilen Geschrieben 3. März 2016 Zwei Fragen hätte ich noch: - Läuft LAN und iSCSI über den gleichen Switch? Oder gibt es mehrere? @Nils: Warum nicht die 1GBit Ports für die LiveMigration nutzen, um diesen Traffic vom normalen zu trennen? Immerhin nutzt die Migration allen Traffic den sie über die Leitung schaufelt und im Extremfall nunmal Max. So reisse ich die laufenden VMs nicht runter. Immerhin wissen wir nicht welche Maschinen laufen und evtl. Datendurchsatz benötigen. Genauso würde ich die 1GBit Ports für die normale Kommunikation mit dem Host nutzen. Um diesen ebenfalls zu separieren. Bei einem ESXi prügel ich normalerweise auch nicht alles über die gleichen Karten und ziehe die Priorisierungsdienste über weitere Anbindungen auseinander. Zitieren Link zu diesem Kommentar
NilsK 2.936 Geschrieben 3. März 2016 Melden Teilen Geschrieben 3. März 2016 (bearbeitet) Moin, @Nils: Warum nicht die 1GBit Ports für die LiveMigration nutzen, um diesen Traffic vom normalen zu trennen? Immerhin nutzt die Migration allen Traffic den sie über die Leitung schaufelt und im Extremfall nunmal Max. So reisse ich die laufenden VMs nicht runter. kann man natürlich machen. Finde ich aber unnötig und tendenziell zu komplex - neben den vNICs gibt es in dem Fall noch die pNICs, die zu verwalten sind. Wenn man die vNICs mit Bandbreitensteuerung einrichtet, tritt der von dir beschriebene Effekt gerade nicht auf. Man weist jedem Netzwerk ein Minimum zu, unter das es von anderen Netzwerken nicht gedrückt werden kann, sofern es selber Traffic hat. Wenn dann im Netzwerk aber nichts anderes los ist, laufen die Migrationen sehr schnell. Und da man in einem normalen Netzwerk ja nur selten migriert, belegt das LM-Netzwerk im Normalbetrieb gar nichts. Wenn aber mal ein Host evakuiert werden soll, ist es schon von Vorteil, mehr als 1 oder 2 Gbit zur Verfügung zu haben. Zudem: Schon die beiden 10-GbE-Karten belasten die Host-CPUs erheblich. Wenn sie sich dann auch noch um die anderen Karten kümmern müssen, die eigentlich aber keinen Nutzen ergeben, dann ist das eher von Nachteil. Gruß, Nils bearbeitet 3. März 2016 von NilsK Zitieren Link zu diesem Kommentar
Smalltalk 3 Geschrieben 3. März 2016 Melden Teilen Geschrieben 3. März 2016 Einverstanden. Aus der Sicht hatte ich es noch nicht betrachtet. :thumb1: Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.