hingsn 0 Geschrieben 17. März 2014 Melden Teilen Geschrieben 17. März 2014 Einen schönen Guten Tag zusammen! ich habe leider ein etwas kniffliges Problem und ich komme einfach nicht weiter. Vielleicht fällt ja jemanden hier etwas dazu ein... Oder hatte bereits ein ähnliches Problem. Kurz zur verwendeten Hardware: 1x HP DL380 G8 mit Hyper-V 2012 R2 Server und 4 NICS (1x Mgmt, 1x Für die Gäste, 2x iSCSI in getrennten Subnetzen) 2x HP Procurve Switches (zwecks der redundaten Verkabelung) 1x IBM v3700 SAN mit 2 Controller Es wurde am Hyper-V Server alles eingerichtet. MPIO installiert, konfiguriert. Pfade wurden mittels iscsicpl.exe und über den Punkt Multipath eingerichtet. Richtlinie ist RR mit Teilmenge. Soweit so gut... Es funktioniert auch das Failover. D.h. wenn ich einen Link töte, läuft es nach der mittels Regedit und MPIO Parametern definierten Zeit über den anderen Pfad. Weiters wurde auch mittels Regedit der Parameter PatchVerifyEnabled auf 1 (enabled) gestellt. Jetzt kommt der Punkt wo ich meine der Hase liegt begraben... Wenn ich mir die Konfiguration mittels mpclaim -s -d # ansehe, sehe ich das nur ein Pfad active/optimized ist. Der zweite Pfad ist active/nicht optimiert. Ich bekomm den auch nicht auf optimiert. Habe das ganze Szenario auf einen Win 2012 R2 Standard nachgestellt. Und dort funktionierte das ganze mit der selben Konfiguration. Der einzige unterschied ist das ich bei dem grafischen Server noch einmal in der Datenträgerverwaltung in den Eigenschaften der MPIO Disk nochmal die MPIO Policy ausgewählt habe. Alternativ dazu habe ich das am Core natürlich mit mpclaim auch schon versucht. Performance mit dem 2012R2 Standard war bei 197mb/s und bei dem Hyper-V bei ca. 90mb/s Vielleicht fällt jemanden etwas ein! Vielen Dank im Voraus! Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 17. März 2014 Melden Teilen Geschrieben 17. März 2014 (bearbeitet) Jetzt kommt der Punkt wo ich meine der Hase liegt begraben... Wenn ich mir die Konfiguration mittels mpclaim -s -d # ansehe, sehe ich das nur ein Pfad active/optimized ist. Der zweite Pfad ist active/nicht optimiert. Ich bekomm den auch nicht auf optimiert. Das sollte auch so sein. Es gibt immer nur einen optimierten Pfad. Auf deiner Storage gibt es ja 2 Interfaces / 2 Storage Controller. Normalerweise (es kann sein, dass es bei der IBM anders ist (was ich aber nicht glaube), ich kenne nur andere Storages) geht ein Interface zu einem Teil der Disks und das andere Interface zu einem anderen Teil der Disks. Optimized heisst, dass die Verbindung direkt ist und non-optimized heisst, dass die Verbindung intern über einen Interconnect (zwischen beiden Controllern) geht. EDIT: Mit immer nur einen optimierten Pfad meinte ich das letzte Stück am Storage Controller, wenn man unterwegs mehrere Pfade hat (z.B. mehrere Switche zwischen Server und Storage) sind mehrere Pfade optimiert (z.B. 2x optimized, 2x non-optimized). bearbeitet 17. März 2014 von Dukel Zitieren Link zu diesem Kommentar
hingsn 0 Geschrieben 17. März 2014 Autor Melden Teilen Geschrieben 17. März 2014 erstmal vielen Dank für die Antwort... Ja die IBM hat 2 Controller a 2 Interfaces. Für die Redundanz. Also habe ich insgesamt 4 ISCSI Interfaces auf 2 Controller! Es sind ja auch 2 nodes.... Node1 = Controller1 und Node2 = Controller2 Ich verbinde natürlich die beiden Pfade mit denen ich RR machen will zu derselben Node. Es sind auch beide Pfade vorhanden und beide aktiv. Ich verstehe nur nicht warum dann kein Load Balancing gemacht wird. Der Traffic läuft nur über 1e NIC. Es wäre natürlich gerade bei dem Hyper-V Server nett wenn man doch die doppelte Bandbreite und auch fast doppelt so viele IOs schaffen würde. Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 17. März 2014 Melden Teilen Geschrieben 17. März 2014 Nutze einmal jeweils eine NIC auf einem Storage Controller. Round Robin macht es meines Wissens immer nur auf den Optimierten Pfaden. Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 17. März 2014 Melden Teilen Geschrieben 17. März 2014 Moin, hast Du schon versucht das DSM für die v3700 zu installieren? Lt. IBM wird als MPIO Policy 'Least Queue Depth' bevorzugt. SDDDSM uses a load-balancing policy that attempts to equalize the load across all preferred paths. If preferred paths are available, SDDDSM uses the path that has the least I/O at the time. If SDDDSM finds no available preferred paths, it tries to balance the load across all the paths it does find and uses the least active non-preferred path. http://pic.dhe.ibm.com/infocenter/storwize/v3700_ic/index.jsp?topic=%2Fcom.ibm.storwize.v3700.710.doc%2Fsvc_w2kmpio_21oxvp.html Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 17. März 2014 Melden Teilen Geschrieben 17. März 2014 Wir haben ein IBM DS3500. Falls nicht schon geschehen solltest du das DSM installieren, ist beim Paket des DS Storage Manger mit dabei. Bei meinen Test lief das ganze Multipathing mit dem DSM runder, zB. ging der Failover schneller. Zitieren Link zu diesem Kommentar
Necron 71 Geschrieben 19. März 2014 Melden Teilen Geschrieben 19. März 2014 Hi, grundsätzlich sollte man, wenn der Storagehersteller den Treiber zur Verfügung stellt, den DSM Treiber des Herstellers verwenden. Wie es ja bereits von meinen beiden Vorgängern gesagt wurde. :) Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.