jochen35 10 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Hallo,wir haben einen 2012 R2 Hyper-V Failovercluster der auf zwei RZ's verteilt ist. In jedem RZ stehen 10 Hyper-V Hosts und ein dediziertes Storagesystem (keine Metro-Cluster), dass über Fiberchannel auf allen Host im Cluster eine LUN bereitstellt. Auf jedem der insgesamt 20 Hosts stehen somit zwei FC-LUN's als CSV zur Verfügung. Das Management dieser Umgebung erfolgt über eine dedizierte Managementumgebung auf Basis von SCVMM 2012 R2.Da es sich hier also nicht um einen vollwertigen Metro-Cluster handelt, ist natürlich das Storage-System der SPOF in dieser Umgebung. Hochverfügbarkeit ist aber auch nicht gefordert, doch für Wartungsarbeiten an den Storage-Systemen muss das jeweils betroffene CSV natürlich offline geschaltet werden und die dort platzierten VMs stehen für diese Zeit natürlich nicht zur Verfügung.Die Frage ist nun, ob man bei geplanten Wartungsarbeiten die VMs im laufenden Betrieb auf ein anderes CSV verschieben kann? So könnten wir alle VMs, die sich auf dem CSV von Standort A befinden, auf das CSV von Standort B verschieben und dann das CSV und die Storage an Standort A für die Wartung offline schalten.GrußJochen Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 metrocluster heisst netapp? Habt ihr keine zwei controller in den beiden Geräten? Damit gibt es kaum Wartungsarbeiten die eine Downtime erfordern. gibts bei HyperV kein StorageVmotion? Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 14. Mai 2016 Autor Melden Teilen Geschrieben 14. Mai 2016 Es sind keine FAS-SYSTEME, sondern zwei E2712 mit Dual FC-Controller, die trotz synchronem Mirror leider kein transparentes Failover können. Mit dem verschieben der VMS auf das jeweils andere CSV wären wir auch in der Lage einen Standort komplett vom Netz zu nehmen. Die Frage ist eben nur, ob das mit SCVMM so einfach geht. Gruß Jochen Zitieren Link zu diesem Kommentar
testperson 1.676 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Hi, mit SCVMM 2012 R2 kannst du eine Storage Migration machen: https://technet.microsoft.com/en-us/library/jj860433%28v=sc.12%29.aspx Gruß Jan Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 kann man nicht wie auf den FAS Wartungsaufgaben pro controller in einem Gerät machen und so ständig online sein? Das ist spannend weil das wäre für mich ein ko-criterium. Gut das wir auf FAS und nicht auf E-Serie setzen... Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 14. Mai 2016 Autor Melden Teilen Geschrieben 14. Mai 2016 Danke, genau das habe ich gesucht.Gibt es da Erfahrungswerte bezüglich von Downtimes? kann man nicht wie auf den FAS Wartungsaufgaben pro controller in einem Gerät machen und so ständig online sein? Das ist spannend weil das wäre für mich ein ko-criterium. Gut das wir auf FAS und nicht auf E-Serie setzen... Man kann natürlich auch Wartungsaufgaben pro Controller machen, aber es gibt eben auch Szenarien, wo die ganze Storage oder auch der gesamte Standort offline genommen werden muss. Zitieren Link zu diesem Kommentar
testperson 1.676 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 https://technet.microsoft.com/en-us/library/jj860433%28v=sc.12%29.aspx: If the virtual machine is running, you can perform a quick storage migration, which results in little or no service outage for users of the virtual machine. Zitieren Link zu diesem Kommentar
jochen35 10 Geschrieben 14. Mai 2016 Autor Melden Teilen Geschrieben 14. Mai 2016 Das hab ich auch gelesen, aber Erfahrungswerte würden mich mehr interessieren. Denn was ist schon "little" - 5s, 30s, 60s...? Im Betrieb macht das einen erheblichen Unterschied. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 kann man nicht wie auf den FAS Wartungsaufgaben pro controller in einem Gerät machen und so ständig online sein?Das ist spannend weil das wäre für mich ein ko-criterium.Gut das wir auf FAS und nicht auf E-Serie setzen... Und genau das ist die Krücke an NetApp: Ein Controller pro Site heißt immer, dass ein Controllerausfall zu einem Site-Failover führt. Wenn ich da z.B. mit einer HPE 3PAR konkurrieren muss, kann ich mit NetApp nur verlieren. NetApp Metro Cluster ist nichts anderes als ein durchgeschnittenes Dual-Controller System, bei dem unter jedem Controller Speicher steht. Das kann ich mit Dual-Controller Systemen und ALUA (was den transparenten Failover ermöglicht) besser machen. NetApp war mit ihrer Technik mal gut dabei, aber die haben den Anschluss verloren. Allein das Gefrickel mit Aggregat, Volume, LUNs, Reserven etc... Als Filer für CIFS und NFS super, der Rest ist Müll... Die können eben nur file-basierten Storage (da kommen sie her...). NetApp war vom Konzept her schon immer mau, mit Clustered ONTAP ist es nicht besser geworden. Der Kauf von LSI war Mist. Die sind technisch gewaltig am Schwimmen. Aktuell habe ich zwei Projekte bei Kunden, die NetApp Metro Cluster migieren: Einer auf HPE 3PAR mit Peer Persistence, der andere auf Nutanix. Und ja: Ich kenne NetApp sehr lange und sehr gut. Lange genug an der Uni, am Institut und bei Kunden implementiert, betreut und ausrangiert... Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Moin, Storage Live Migration kann Hyper-V auch nativ, SCVMM braucht man dafür nicht. In 2012 R2 auf jeden Fall, in 2012 glaube ich auch. Das geht dann ohne Downtime für die VMs. Auch cluster-übergreifend (nennt sich dann "Shared-Nothing Live Migration"). Gruß, Nils 1 Zitieren Link zu diesem Kommentar
NorbertFe 2.034 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Ja ging ab 2012. Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Und genau das ist die Krücke an NetApp: Ein Controller pro Site heißt immer, dass ein Controllerausfall zu einem Site-Failover führt. Wenn ich da z.B. mit einer HPE 3PAR konkurrieren muss, kann ich mit NetApp nur verlieren. NetApp Metro Cluster ist nichts anderes als ein durchgeschnittenes Dual-Controller System, bei dem unter jedem Controller Speicher steht. Das kann ich mit Dual-Controller Systemen und ALUA (was den transparenten Failover ermöglicht) besser machen. NetApp war mit ihrer Technik mal gut dabei, aber die haben den Anschluss verloren. Allein das Gefrickel mit Aggregat, Volume, LUNs, Reserven etc... Als Filer für CIFS und NFS super, der Rest ist Müll... Die können eben nur file-basierten Storage (da kommen sie her...). NetApp war vom Konzept her schon immer mau, mit Clustered ONTAP ist es nicht besser geworden. Der Kauf von LSI war Mist. Die sind technisch gewaltig am Schwimmen. Aktuell habe ich zwei Projekte bei Kunden, die NetApp Metro Cluster migieren: Einer auf HPE 3PAR mit Peer Persistence, der andere auf Nutanix. Und ja: Ich kenne NetApp sehr lange und sehr gut. Lange genug an der Uni, am Institut und bei Kunden implementiert, betreut und ausrangiert... ok, das du der hyperconvergenz-fanatiker bist weiss ich ja. Aber: 1. betreibt man FAS-Systeme nicht als singlecontroller. Das macht nur in wenigen Szenarien Sinn. 2. Der Vorteil ist eben NAS und SAN in einem Gerät zu haben. Das kann weder HP noch nutanix. 3. cDOT löst einige Probleme die 7mode hatte, das es der Weissheit letzter Schluss ist denkt nicht mal Netapp. 4. Selbst HP sagt das sie ihre 3PAR in vielen Bereichen Netapp nicht gewachsen ist. In anderen sind sie besser. Welche Bereiche/Kriterien jetzt ausschlaggebend sind muss jeder selber entscheiden. Uns hat HP gesagt das unsere Anforderungen von Netapp eher erfüllt werden und wir mit einer 3PAR da einen Rückschritt machen würden. Aussage der zuständigen Leute direkt bei HP, nicht bei einem Partner! Diese Integrationstiefe Backup, Storage, Application kann HP einfach nicht bieten. NAS-Funktionalitäten gibts auch nicht. Die haben einfach "dummen" SAN-Speicher. Alleine die Lizenzkosten für eine Backupsoftware sind teurer als eine weitere netapp. 5. Nutanix skaliert in vielen Fällen einfach nicht gescheit. Da wo Man viel wenig Rechenleistung, aber viel Speicher braucht ist nutanix einfach nur teuer. Ich kuf doch keine teuren SAN-Speicher um da dann einen Fileserver zu installieren. Das soll das Speichersystem doch bitte direkt machen. 6. HP geht gerade den Weg den IBM vor 5-6 Jahren gegangen ist. Ich würde da keine Summen mehr investieren... Wenn ichs meinen Chefs erklären könnte würde ich Storage nur noch selber bauen: günstige Server und GFS o.ä. oder halt Solaris mit QFS. Dummerweise gibts halt keinen Stempel von VMware, Microsoft etc. Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 14. Mai 2016 Melden Teilen Geschrieben 14. Mai 2016 Das hab ich auch gelesen, aber Erfahrungswerte würden mich mehr interessieren. Denn was ist schon "little" - 5s, 30s, 60s...? Im Betrieb macht das einen erheblichen Unterschied. ~2-3 Pings waren es bei mir. Verschieben von VMs in einer Testumgebung von einem CSV auf das andere, Backend waren hier normale Server mit lokalen Platten die als iSCSI Target gedient haben (Starwind SAN free). Da zuckt kurz der Remotedesktop und das wars. Zitieren Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 15. Mai 2016 Melden Teilen Geschrieben 15. Mai 2016 Moin, bei der Storage Live Migration ist i.d.R. keine signifikante Unterbrechung zu erwarten. Die VM wird einmal kurz angehalten um die letzten Datenblöcke zu synchronisieren und den Schwenk auf den neuen Speicherpfad vorzunehmen. Es kann vorkommen, dass die VM kurz eingefroren wirkt oder ein ping verloren geht. Das Ganze spielt sich im Bereich von wenigen Millisekunden ab. Falls Gast Cluster eingesetzt werden, sollten diese gesondert betrachtet werden. Bspw. unterstützen shared vhdx aktuell keine Storage Live Migration. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 15. Mai 2016 Melden Teilen Geschrieben 15. Mai 2016 Moin, ok, das du der hyperconvergenz-fanatiker bist weiss ich ja. möglich, aber davon redet er hier gar nicht. 2. Der Vorteil ist eben NAS und SAN in einem Gerät zu haben. Das kann weder HP noch nutanix. Ja, das ist die typische NetApp-Argumentation. Habe ich auch jahrelang behauptet. Und die immanenten Nachteile gegenüber einer sauberen Trennung beider Ansätze (Performance, Komplexität, Funktionsverluste) geflissentlich vom Tisch gewischt. Welche Bereiche/Kriterien jetzt ausschlaggebend sind muss jeder selber entscheiden. Und das ist der wichtigste Satz in deinem Beitrag. Gruß, Nils Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.