henryy 12 Geschrieben 8. Juni 2011 Melden Teilen Geschrieben 8. Juni 2011 Hallo, die Planung der Netzwerkkarten in einem Hyper-v Failover Cluster ist ja nicht gerade zu vernachlässigen und einiges ist zu beachten wie zb Heartbeat, iSCSI, Muiltipath I/O oder teaming. Wie läuft das bei einem Intel modular server? Hier werden ja die Server nicht wie bei einem externen SAN über die NICs mit dem SAN verbunden. Wie werden hier die Netzwerkkarten konfiguriert / verteilt und was gilt hier besonders zu beachten? Danke und Gruß Henry Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 8. Juni 2011 Melden Teilen Geschrieben 8. Juni 2011 Gucke einfach mal in die anderen Threads, die Du zu diesem Thema seit anfang des Jahres aufgemacht hast... Zitieren Link zu diesem Kommentar
henryy 12 Geschrieben 8. Juni 2011 Autor Melden Teilen Geschrieben 8. Juni 2011 Eigentlich achte ich darauf das dies nicht passiert, aber falls mal ein Thread eine gewisse Redundanz wiederspiegelt, dann bitte ich dieses zu verzeihen;) Der Verweis auf meine anderen Threads hat mich leider nicht weitergebracht. Gruß Henry Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 8. Juni 2011 Melden Teilen Geschrieben 8. Juni 2011 Ich gehe mal davon aus, dass der Serverhersteller eie Anleitung liefert, wie man dessen Server in div. Umgebungen optimal konfiguriert. Hast Du mal bei Intel geschaut ? Zitieren Link zu diesem Kommentar
Drew 10 Geschrieben 9. Juni 2011 Melden Teilen Geschrieben 9. Juni 2011 Ich habe mich an bei unserem Intel Modular Server an die Empfehlungen von Microsoft gehalten Hyper-V: Live Migration Network Configuration Guide. Nur das halt Network Adapter 3 nur für den Cluster da ist, da das Cluster Shares Volume ja nicht über eine NIC angesprochen wird. Zitieren Link zu diesem Kommentar
henryy 12 Geschrieben 9. Juni 2011 Autor Melden Teilen Geschrieben 9. Juni 2011 (bearbeitet) Danke, der Link hat mir schonmal sehr geholfen. Dann braucht man also 4 Adapter pro Host. 1 Adapter für die VMs, 1 Adapter fürs Host Mangemant, 1 Adapter für den Cluster und 1 Adapter für die Live migration. Macht in Summe 8 Netzwerkadapter für den Cluster. Plus 1 für den physichen DC. Macht neun benötigte Adapter. Der Intel modular besitzt 10 externe an seinem Switch. Wobei ich mir noch nicht ganz klar bin, wie ich diese für den Cluster nutzen kann bin und wie das mit den 12 internen ports funktioniert. Jeder Server Einschub hat 2 interne Ports (also auch nur zwei Netzwerkkarten). Brauche ich also zwingend 2 Switch Module im IMS? Die Subnetzfrage stellt sich mir natürlich auch. Sicherlich brauche ich ein management Subnetz für die Hosts. Ein weiteres für die VMs und eins für den Cluster. Macht minimum drei seperate Subnetze, wenn ich nicht irre. Bin natürlich immer dankbar für weitere Anregungen oder Vorschläge bearbeitet 9. Juni 2011 von henryy Zitieren Link zu diesem Kommentar
henryy 12 Geschrieben 9. Juni 2011 Autor Melden Teilen Geschrieben 9. Juni 2011 Moin, Für alle die es interessiert. Es ist ein zweiter Switch für den Cluster notwendig, denn sonst haben die Hostserver in der Tat nur zwei NICs. Das wiederum scheint zwar möglich aber wird nicht supportet, jedenfalls für die Live Migration. @Drew thanks für den Link und die guten Tipps. Zitieren Link zu diesem Kommentar
tSh-Floyd 10 Geschrieben 21. Juni 2011 Melden Teilen Geschrieben 21. Juni 2011 HI. Also du kannst den IMS ohne Probleme im Cluster Betrieb fahren wenn nur ein Switch eingesetzt wird. Wir machen die Konfigurationen meistens so: 2. Switch mit den Mezzanine Karten auf den Blades. Jeweils eine NIC der onBoard und der Mezzanine Karte als Switch Fault Tolerance Team. Auf dem vSwitch habe ich die Gemeinsame Verwendung für das Host System zur Verwaltung aktiviert. DIe beiden übrigen Netzwerkkarten habe ich jeweils für Clusterkommunikation verwendet, Somit hast du 2 Netze die für die CLusterkommunikation da sind, sonst passiert dir wenn du den Switch ziehst, wo die CLusterkommunikation drüber läuft, das der Cluster wild anfängt die Maschinen umzuziehen und zu starten, da er seine Knoten nicht mehr erreicht. Bei Fragen kannst du mich gerne ansprechen, wir machen sehr viele Installationen mit IMS und HyperV im Cluster Gruß Philipp Zitieren Link zu diesem Kommentar
aeigb 11 Geschrieben 12. Juli 2011 Melden Teilen Geschrieben 12. Juli 2011 Hallo Philipp, ich kapere diesen Thread weil ich das gleiche Problem habe wie Henry. Ich habe hier einen ModularServer mit einem Switch-Modul und einem D-Link-Switch DGS-1210-48. Im ModularServer sind zwei Einschübe mit MS Hyper-V R2 Server im Cluster. Nun habe ich vier Kabel vom Switch-Modul zum D-Link-Switch gelegt und im ModularServer laut Intel® Modular Server Systems — Creating a multi-port trunk with an external switch die LACP konfiguriert. Ferner habe ich die beiden Netzwerkkarten in den Einschüben jeweils als 802.3ad (LACP) konfiguriert (es wird lediglich eine Netzwerkkarte im Hyper-V R2 Server angezeigt). Für die internen Netzwerkkarten habe ich keine Möglichkeit gefunden, LACP im Switch-Modul zu konfigurieren. Im D-Link-Switch habe ich zwar LACP gefunden, aktiviere ich das aber, geht die Verbindung zwischen D-Link-Switch und ModularServer-Switch-Modul komplett schief. Gibt es da eine Anleitung, die das einfach erklärt? Gruß aeigb Zitieren Link zu diesem Kommentar
henryy 12 Geschrieben 13. Juli 2011 Autor Melden Teilen Geschrieben 13. Juli 2011 Moin, warum genau brauchst bzw willst du denn LACP konfigurieren? Die internen NICs kannst du meines Wissens nicht mit LACP konfigurieren, sondern nur die externen "Ausgänge" des Switches. Kuck dir mal diesen link an Link Aggregation beim Modular Server Für den IMS stehen da viele gute Erklärungen drinne. Zitieren Link zu diesem Kommentar
aeigb 11 Geschrieben 13. Juli 2011 Melden Teilen Geschrieben 13. Juli 2011 Hallo Henry, mein Gedanke war folgender: ich gehe mit beiden Netzwerkkarten der Einschübe als "1" Netzwerkkarte auf den internen Switch. Und von dort gehe ich mit 4 Kabeln in den D-Link-Switch. In der Anleitung steht, wie ich den ModularServer an einen externen Switch anschließen kann, nicht aber, wie es für die internen Netzwerkkarten geht. Ersteres werde ich aber jetzt mal ausprobieren. Ich hätte halt gerne beide Karten der Einschübe mit dem internen Switch verbunden, damit ich eine höhere Bandbreite und eine Ausfallsicherheit habe. Gruß aeigb Zitieren Link zu diesem Kommentar
Innuendo 10 Geschrieben 14. Juli 2011 Melden Teilen Geschrieben 14. Juli 2011 Die NICs auf den IMS Blades können via MPIO verbunden werden. Innu Zitieren Link zu diesem Kommentar
aeigb 11 Geschrieben 18. Juli 2011 Melden Teilen Geschrieben 18. Juli 2011 Hallo Innu, wie kann ich denn MPIO bei Intel-NICs machen? Habe die Seite Network Connectivity — How do I use Teaming with Advanced Networking Services (ANS)? durchgeforstet, komme aber nicht so richtig dahinter. Gruß aeigb Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.