FETT 10 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Hallo, ich kenne mich im FC Umfeld nicht wirklich gut aus und habe diesbezüglich ein paar Fragen. Da unser Dienstleister mir Sachen empfiehlt die sich mir nicht erschließen. Wir haben eine DataCore SAN. Diese ist mit FC Switchen angeschlossen. Unsere ESX Hosts an den FC Switchen. Alles ist redundant ausgelegt in verschiedenen Räumen. Wir haben 2 Datacores und 4 FC Switche die zu 2 Fabrics zusammen laufen. Jetzt die Frage. Schließe ich die ESX Hosts an allen 4 FC Switchen an? Oder nur an 2? Ich sage an allen 4. Der Dienstleister sagt es reichen 2 und das wäre "Standard" San Layout. "Wie schon vor Ort besprochen raten wir davon ab die ESX Hosts an alle 4 Switches anzuschließen. Der SAN Traffic ist bei einem solchen Layout völlig undefiniert und belastet unnötig die ISLs der FC-Fabrics." Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Wieso habt Ihr vier Switche? Für Retundanz reichen zwei Switche. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Moin, ist die Grafik das Design, das der Dienstleister empfiehlt? Oder das, was du willst? Ich krieg das hier grad nicht zusammen. Gruß, Nils Zitieren Link zu diesem Kommentar
FETT 10 Geschrieben 21. März 2017 Autor Melden Teilen Geschrieben 21. März 2017 (bearbeitet) Die Grafik ist was ich möchte. 2 Switche RZ1 und 2 Switche RZ2. Diese hier ist die Empfehlung. bearbeitet 21. März 2017 von FETT Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Moin, ohne das Gesamtdesign zu kennen, lässt sich das von hier aus schwer beurteilen. Die Grafik des Dienstleisters scheint mir auf eine Fabric-Redundanz hinzudeuten, denn auf zwei Verbindungen sind nur die Switches miteinander verbunden. Ich würde erst mal davon ausgehen, dass sich der DL was dabei gedacht hast. Wie wäre es denn, wenn du dir das noch mal in Ruhe erklären lässt? Ich würde da jetzt nicht aufgrund irgendwelcher Schnellschüsse eine Beurteilung abgeben. Gruß, Nils Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 In eurem Aufbau ist es korrekt, die ESXi Hosts an zwei Switches, nämlich die im gleichen RZ, anzuschließen. Pro RZ hast du zwei Switches, jeder Switch ist in einer der beiden Fabrics - die Fabrics erstrecken sind also über beide RZs. Fällt dir ein Switch aus, haben die Hosts eine Verbindung über den anderen Switch. Erst beim Ausfall von beiden Switches im RZ verlieren die Hosts ihre Anbindung an das SAN. Eurer Dienstleister hat Recht. Ich würde das auch so lösen. Zitieren Link zu diesem Kommentar
FETT 10 Geschrieben 21. März 2017 Autor Melden Teilen Geschrieben 21. März 2017 (bearbeitet) Das Problem ist nur das wir den Schrank in dem die FC Switche im RZ1 sind, erneuern werden. Sowohl Stromzufuhrtechnisch sowie der Schrank selber. Wir legen quasi RZ1 tot, außer die ESX Hosts. Das gleiche kommt dann noch im RZ2. Daher erschließt mir das nicht. Warum auch nicht an allen anschließen hab dann halt 8 Pfade zu den Datastores statt jetzt 4. Aber vielleicht gibt es Gründe die ich nicht verstehe. Vor allem der Satz: Der SAN Traffic ist bei einem solchen Layout völlig undefiniert und belastet unnötig die ISLs der FC-Fabrics Das verstehe ich nicht! bearbeitet 21. März 2017 von FETT Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Ja dann migriert ihr die VMs ins andere RZ und fahrt die Hosts herunter. Wenn du die Hosts auch alle an die Switches im anderen RZ anbinden willst, dann brauchst du viel mehr Fasern zwischen den RZs und du brauchst einen weiteren Dual Port HBA pro Host. Macht überhaupt keinen Sinn. Zitieren Link zu diesem Kommentar
FETT 10 Geschrieben 21. März 2017 Autor Melden Teilen Geschrieben 21. März 2017 Nun, ich habe ich jeden Host zwei Dual Port FC Karten. Dies Fasern habe ich auch. Angeschlossen ist es auch schon es geht eigentlich nur noch ums Konfigurieren auf den FC Switchen. Wir haben die ESX Host nur in einem RZ. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 DataCore in beiden RZs, aber die Hosts nur in einem RZ? Dann ist euer Design Murks. Wenn die ESXi Hosts IO machen, dann machen sie das über alle zur Verfügung stehenden aktiven und optimierten Pfade. ESXi verwendet bei DataCore das SATP ALUA. Du kannst bei DataCore pro Host einen preferred Host angeben. Damit steuerst du welcher DataCore Storage Server "aktiv und optimiert" ist. Im Zweifel hast du auf den ISLs eben nicht nur den Mirror-Verkehr der Storage Server, sondern auch den IO der Hosts. Klar kannst du dann statt den Verkehr über die ISLs zu schicken die zusätzlichen Fasern verwenden. Aber wozu?! Du schaffst es eh nicht die zusätzlichen Pfade zu sättigen. Du machst dein Setup nur komplizierter. Nicht alles was technisch geht ist auch sinnvoll. Dein Dienstleister hat, meiner Ansicht nach, Recht. Zitieren Link zu diesem Kommentar
FETT 10 Geschrieben 21. März 2017 Autor Melden Teilen Geschrieben 21. März 2017 Super ich danke dir für deine Einschätzung. Dann werde ich es so aufbauen, das jeweils eine FC Karte an jeweils eine Fabric angeschlossen wird in RZ1 und RZ2. Dann habe ich beide Fabrics und beide Standorte. So kann ich jeweils einen Schrank umbauen und habe keinen Ausfall. Über das vorhandene Design kann ich nichts sagen, das war vor mir hier. Ich versuche das beste daraus zu machen und zu optimieren wo ich kann. Daher auch meine Frage, da ich mich damit nicht wirklich auskenne. Jede vertraue ich dem DL nicht zu 100%. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 Mit deiner Idee die Hosts an alle Switches anzuschließen optimierst du nichts. Du machst es nur kompliziert. Vor allem wenn du das für den Fall machst, dass du die Schränke umbauen kannst. Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.