floho 50 Geschrieben 15. März 2017 Melden Teilen Geschrieben 15. März 2017 Hallo zusammen, hat jemand bereits Erfahrungen gemacht mit dem neuen Feature "Storage Spaces Direct" in Windows Server 2016 ? Muss der 2-Node Cluster zwingend in der Domain sein? Reicht hier auch dieselbe Workgroup? Danke und Grüße Florian Zitieren Link zu diesem Kommentar
NilsK 2.968 Geschrieben 15. März 2017 Melden Teilen Geschrieben 15. März 2017 Moin, S2D erfordert eine Domänenintegration. Das gilt für nahezu alle Cluster-Konstrukte. Workgroup-Cluster, neu in Windows Server 2016, sind nur für wenige Applikationen zugelassen und für noch weniger empfohlen, S2D gehört nicht dazu. https://blogs.msdn.microsoft.com/clustering/2015/08/17/workgroup-and-multi-domain-clusters-in-windows-server-2016/ Du willst dir vielleicht den Webcast von Carsten Rachfahl ansehen: [Webinar Storage Spaces Direct Deep Dive am 20. März 2017 - Hyper-V Server Blog]https://www.hyper-v-server.de/webinar/webinar-storage-spaces-direct-deep-dive-am-20-maerz-2017/ Gruß, Nils 1 Zitieren Link zu diesem Kommentar
Net Runner 2 Geschrieben 20. März 2017 Melden Teilen Geschrieben 20. März 2017 2-node Storage Spaces Direct ist aber ein Setup, das Ich nie machen würde. Der Grund ist ganz einfach – es ist überhaupt nicht redundant. Im dem Fall, wenn jede Node zusammen eine disk-fehler hat, geht das ganze Cluster runter zusammen mit alle Daten. Das habe Ich schon erlebt :-( Für einen 2-node VSAN braucht Mann eine Lösung die mit Hardware RAID umgehen kann. Das sind nämlich solche wie Starwind http://www.starwindsoftware.com/starwind-virtual-san-free oder Storevirtual http://www.hpe.com/emea_europe/en/storage/storevirtual.html 1 Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 @Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? Das ist technisch sehr ausgereift ob nun das neue Direct oder "klassisch". Wenn man das überhaupt bereits als klassisch betiteln kann. Ist ja noch nicht viel mehr als 1-2 Computergenerationen alt. =) Ausserdem hindert Dich niemand daran anstelle einzelner Discs Volumes die auf einem Hardware-RAID liegen zu Verfügung zu stellen. Das ist sicher kein Argument. Macht bei Magnetplatten unter Umständen sogar durchaus noch Sinn weil der Write-Cache den klassischen Storage-Systemen nach wie vor etwas hinterherhinkt. Des weiteren kannst Du mit Storage Spaces problemlos Mehrfachfspeicherungen vornehmen. Es gibt nicht viele Speichersysteme mit einer solchen Flexibilität. Warum das bei Storage Spaces Direct nicht so sein soll erschliesst sich mir jetzt nicht wirklich. Kannst Du gerne näher ausführen. Nichts desto trotz sind 2 Nodes anfälliger als 3 oder 4 Nodes und die Einstiegskosten sind enorm weil für Direct erstens spezifische Hardware benötigt wird und bei den Lizenzen für SS Direct Datacenter gefragt ist. Denke hier will MS verhindern, dass SMB-Kunden die Cloud-Pläne von sich selber und allfälligen Partnern mittelfristig zunichte machen sobald der benötigte Hardware-Kram günstiger wird. Dürfte ein Schulterschluss sein. Dann wäres es noch sinnvoll neben Starwind noch den aktuellen Platzhirsch zu nennen: Datacore Zitieren Link zu diesem Kommentar
NilsK 2.968 Geschrieben 21. März 2017 Melden Teilen Geschrieben 21. März 2017 (bearbeitet) Moin, @Net Runner: Verstehst Du wie die Storage Spaces funktionieren bzw. hast es bereits eingesetzt? . kein Grund, ihn so anzugehen. Erstens hat er selbst gesagt, dass er schon Erfahrung damit hat, was durchaus auch zu dem Inhalt seines Posts passt. Zweitens hat er schlicht Recht: Ein 2-Node-S2D ist keine gute Wahl. Eigentlich wollte Microsoft so ein Design auch gar nicht supporten, aber da war wohl der Wunsch des Marketing stärker als die technische Expertise. Ich rate entschieden von so einem Aufbau ab. Auch zu dem "ausgereift" würde ich noch ein Fragezeichen stellen, ein großes. Die Technik ist nagelneu und alles andere als ausgereift. Davon zeugen auch die Erfahrungen derjenigen, die schon intensiver damit arbeiten. Mein vorläufiges Fazit dazu lautet: Kann man machen, aber nur wenn man bereit ist, sich damit intensiv zu beschäftigen, es selbst in der Tiefe zu supporten und Ausfälle hinzunehmen. Das wird sich sicher in den nächsten Monaten verbessern, keine Frage. Aber bis dahin ist es noch ein teils sehr steiniger Weg. Und wenn wir schon dabei sind, sollten wir auch zwei Namen nennen, bei denen es wirklich Erfahrungen mit Hyperconverged gibt: Nutanix und Simplivity. Da bekommt man das alles aus einer Hand und von vorn bis hinten supported. Ein Vorteil, der nicht zu unterschätzen ist. Und eine Korrektur: S2D arbeitet gerade nicht mit RAID ... Gruß, Nils bearbeitet 21. März 2017 von NilsK 1 Zitieren Link zu diesem Kommentar
Net Runner 2 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Nils hat vollkommen recht. Ich habe beides 2-node und 3-node Konfigurationen ausprobiert (auch mit 3-weg Replikation) und das Problem mit fehler-toleranz ist ganz klar hier. Es gibt noch viele Fragen mit der Leistung und vor allen Dingen mit Management auch, aber das wird sich sicherlich mit der Zeit noch verbessern. ReFS ist auch noch sehr jung. Nutanix und Simplivity sind tolle Produkte, ohne Zweifel. Ich habe diese aber nicht gelistet, weil meine Idee war eine richtige Alternative zu erwähnen die anstatt S2D direkt auf bestehende Windows OS installiert werden kann und selbe (oder die meisten) features anbietet. Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Liest sich je nach Interpretation doch etwas forscher als beabsichtigt, korrekt. Nicht in meinem Sinne. ReFs ist meines erachtens technisch ausgereift, ebenso wie die Storage Spaces. Waren sie bis auf einen wirklich misslichen Bug eigentlich von Anfang an. Klar fehlen ein paar Features, hat aber mit der Zuverlässigkeit meines Erachtens nichts zu tun. Setze das schon seit es das gibt produktiv ein. Da war Software RAID bei vielen noch mehr als verpöhnt. Aber egal anderes Thema. ;) Klar ist 3-Nodes besser als 2. Ist alles eine Frage der Logik. Wenn ich Stripes über mehrere bzw. alle verfügbaren Platten konstruiere, dann ist logisch, dass wenn in Stripe 1 auf Host A und Stripe 2 auf Host B ne Platte defekt ist, unter Umständen alles am ars*** ist. Ist aber - wenn es dumm läuft - in jeder normalen SAN nicht anders. Da hat man zudem noch das Mainboard als gemeinsame Komponente, raucht die ab, ist auch alles tot. Ausserdem heulen die meisten ja bereits rum, wenn zwei SSD's für nen Spiegel gekauft werden muss. Bei dreien hört es dann meist ganz auf. Aber auch ein 2-Node Cluster lässt sich so aufbauen, dass dieser Fall nicht eintritt. Insofern kann man auch gut mehrere Pools à 2 Discs machen um das Striping von Anfang an zu verhindern. Die Performance ist dadurch gerade bei etwas günstigeren Enterprise Platten nicht schlechter sondern sehr oft sogar besser. Im Endeffekt ist es wie bei vielem, irgend einen Tod muss man sterben und Designfehler bleiben Designfehler. Konventionelle RAID-Discs: Klar kannst Du konventionelle RAID-Volumes als Basis verwenden. Würde ich bei Magnet-Discs auch in jedem Fall so machen sonst ist die Performance absolut unterirdisch. Da nutzt unter Umständen auch der Cache nicht mehr so viel. Von Rebuilds bei nem Discfehler will ich gar nicht erst sprechen (evtl. wurde das aber verbessert, keine Ahnung). Wie auch immer, die Hauptfragezeichen punkto Performance mit Storage Spaces stehen nach meiner Erfahrung im direkten Zusammenhang mit den verwendeten SSD's. Wird top Ware verwendet, gibts ein Top Ergebnis. Skaliert auch nahezu linear. Bei mässiger Ware ein verhältnissmässig schlechtes bis sogar sehr schlechtes. Mittelmass ist leider eher schwer möglich, je mehr Discs im Stripe, desto schwieriger wirds (Latenz-Problematik). Zitieren Link zu diesem Kommentar
NilsK 2.968 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Moin, naja. Sowohl an Storage Spaces als auch an ReFS würde ich noch ein Fragezeichen machen. Qualität und Reifegrad lassen Zweifel zu. Was RAID betrifft: Die Idee hinter S2D ist, dass die Software die Kontrolle übernimmt. Meines Wissens ist RAID an der Stelle zwar möglich, aber nicht supported, also nur für Tests usw. gedacht. Bei der Performance gilt grundsätzlich "viel hilft viel", aber spätestens an der Stelle sollte man sich schon über die Kosten Gedanken machen. Die konzeptionellen Nachteile von S2D gegenüber anderen Hyperconverged-Lösungen tun ihr Übriges - so kennt S2D keine "Data Locality", ist also abhängig von Hochleistungs-Netzwerkverbindungen. Nicht umsonst drängt Microsoft auf RDMA-Karten, was der ursprünglichen Idee, ein leistungsfähiges System aus (günstigen) Standardkomponenten zu bauen, doch deutich widerspricht. Und um noch mal den 2-Knoten-Cluster zu stressen: Wie gesagt, eigentlich war das vom Hersteller nie vorgesehen. Und das auch aus gutem Grund. Die "etablierten" Hyperconverged-Hersteller sehen aus solchen Gründen drei Knoten als Minimum an. Gruß, Nils Zitieren Link zu diesem Kommentar
testperson 1.729 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 ... was der ursprünglichen Idee, ein leistungsfähiges System aus (günstigen) Standardkomponenten zu bauen, doch deutich widerspricht. ... https://blogs.technet.microsoft.com/filecab/2016/10/14/kepler-47/ SCNR Zitieren Link zu diesem Kommentar
NilsK 2.968 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Moin, warum wusste ich, dass das kommt? :D Gruß, Nils 1 Zitieren Link zu diesem Kommentar
testperson 1.729 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Das macht die jahrelange Erfahrung ;) Um aber auch zumindest etwas zum Thema beizutragen, würde ich schon eine gewisse Daseinsberechtigung für den 2-Node S2D Cluster sehen. Ohne RDMA NICs ggfs. als Backup-Ziel ansonsten eben mit RDMA NICs und ohne Switch verkabelt evtl. für Fillialen oder kleinere Unternehmen. "You get what you pay for" dürfte es hier aber auch treffen. Wenns allerdings den Anforderungen genügt, wieso nicht. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Why?!!!? Zwei Server, eine MSA 2040/ 2042 mit SAS und Ende. Macht es doch nicht komplizierter als notwendig. Zitieren Link zu diesem Kommentar
now3 0 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 (bearbeitet) Why?!!!? Zwei Server, eine MSA 2040/ 2042 mit SAS und Ende. Macht es doch nicht komplizierter als notwendig. S2D ist halt flexibler und billiger. Da reichen für den Anfang bereits die 2 Server. Eine nackte SAS-MSA2040 verursacht bereits ca. 1-5k€ Mehrkosten, braucht mehr Platz im Rack und mehr Strom. Und ist unflexibler, wenn die mal voll ist. bearbeitet 22. März 2017 von now3 Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 22. März 2017 Melden Teilen Geschrieben 22. März 2017 Soweit zu den Aspekten die das Marketing verspricht... Zitieren Link zu diesem Kommentar
NilsK 2.968 Geschrieben 24. März 2017 Melden Teilen Geschrieben 24. März 2017 Moin, in dem ROBO-Szenario (kleine Filiale) ist S2D in aller Regel aber schon wegen der Lizenzen zu teuer. Zweimal Datacenter - wegen der dort laufenden VMs würde die Filiale das ganz sicher nicht brauchen. Scheidet also faktisch auch aus. Gruß, Nils 1 Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.