Weingeist 159 Geschrieben 18. Oktober 2016 Melden Teilen Geschrieben 18. Oktober 2016 Hallo Leute, Hat das schon jemand ausprobiert? Habe ich das richtig verstanden, dass dies auf einem zusätzlichen Layer unterhalb der eigentlichen Discs angesiedelt ist? Sprich den Dingern isses wurscht was drauf läuft, also z.B. NFS, iSCSI oder sonst was? Schade das MS wieder zur alten Praxis zurückgeht und coole Features nur in Datacenter einbindet und nicht in Standard obwohl man vor kurzem noch gross geblufft hat, dass dies nun der Vergangenheit angehört. Nun braucht man aber eine DC Lizenz oder gar mehrere bei mehr Cores für eine (physische) Instanz auf einem Storage-Server. Grosses Kino. *kopfschüttel* Grüsse und Danke Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 18. Oktober 2016 Melden Teilen Geschrieben 18. Oktober 2016 Lokale SATA, SAS oder NVMe Drives werden als Basis verwendet. 10 GbE zwischen den Servern für die Datenübertragung zwischen Storage Servern. Sieht billig aus, ist es aber nicht. Und wer das Geld für die HW hat, der hat es auch für die SW. Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 18. Oktober 2016 Autor Melden Teilen Geschrieben 18. Oktober 2016 (bearbeitet) Jo klar, aber selbst Entry-Level SAN's sind alles andere als billig. Gespiegelte. Auch wen mans nicht vergleichen kann. Aber wie ist der Aufbau technisch? Ist es so wie auf den schicken Bildern, dass es tatsächlich die unterste Storage-Spaces Stufe ist und was drauf kommt ist wurscht? Also werden sämtliche Cluster-Varianten (auch die alten) unterstützt? Also keine Beschränkung wie der Storage zu Verfügung gestellt wird? Also z.b. iSCSI, NFS etc. EDIT: Auf alle Fälle sieht es sehr interessant aus, vor allem der Hyper-Converged Teil. Evtl. kann ich dann doch wieder von VmWare zu MS wechseln. ;) bearbeitet 18. Oktober 2016 von Weingeist Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 18. Oktober 2016 Melden Teilen Geschrieben 18. Oktober 2016 You get what you pay for... mehr mag ich dazu nicht sagen. Storage Spaces stellen Volumes zur Verfügung. Daraus kannst du z.B. Cluster Shared Volumes für einen SOFS machen. Damit geht aber nur SMB3. Evtl. kann man da noch was mit Failover Cluster und iSCSI Target machen. Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 19. Oktober 2016 Melden Teilen Geschrieben 19. Oktober 2016 Moin, S2D ist eine Implementierung der aktuellen Hyperconverged-Technik. Die beiden Szenarien, für die es m.W. unterstützt ist, sind Hyper-V und SQL Server. Auch wenn das Marketing behauptet, dass das eine günstige Technik sei, wird man schon ziemlich viel ausgeben müssen. Schon deshalb, weil für produktiven Support RDMA-Netzwerkverbindungen empfohlen sind. DocDatas Hinweis trifft also zu. Gruß, Nils 1 Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 19. Oktober 2016 Autor Melden Teilen Geschrieben 19. Oktober 2016 OK, Dankeschön. Ne billig ist das sicher nicht, vor allem wenn zwischen Storage und den eigentlichen Server unterschieden werden soll. Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 19. Oktober 2016 Melden Teilen Geschrieben 19. Oktober 2016 Wenn man da unterscheiden will, warum kauft man nicht gleich ein gescheites Storagesystem? Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 19. Oktober 2016 Autor Melden Teilen Geschrieben 19. Oktober 2016 Gscheit ist immer relativ. Ich kann es nur wiederholen, ich persönlich halte Storage Spaces mit entsprechender Hardware technisch durchaus für gscheit. Andere sind da zwar anderer Meinung aber meine Erfahrungen könnten besser fast nicht sein. Allerdings ist da der grösste Vorteil schon im Value for the Bucks. Wenn nun durchs Band Datacenter benötigt wird, schränkt das schon arg ein wie ich finde. Ansonsten: Da ich von den bisherigen SS Funktionen absolut überzeugt bin und mittlerweile auch schon einige Jahre bei verschiedenen Installationen im Einsatz habe, traue ich MS zu, dass auch diese neue Erweiterung technisch 1 A funktioniert. Fragezeichen habe ich ausschliesslich beim Support wenn mal was vergeigt wird. Der ist bei den klassischen Storage-Herstellern in aller Regel sehr kompetent. Auch als kleiner Kunde. Das kann ich von MS in letzter Zeit nicht unbedingt behaupten. Da ist es viel schwieriger geworden kompetente Leute an den Draht zu kriegen. Vor 10 Jahren kam man fast direkt ran. Aber diese Diskussion wurde schon x-mal geführt, auch von mir. Diese wollte ich jetzt nicht wieder aufflammen lassen. Mich interessiert im Moment alleine der technische Hintergrund und was darauf läuft. Der ist mir bei diesem Feature noch nicht so 100%ig klar. Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 19. Oktober 2016 Melden Teilen Geschrieben 19. Oktober 2016 Moin, die Idee bei S2D ist Hyperconverged: Storage und Compute in derselben Box, davon mehrere, mit automatischer Replikation und Auto-Tiering. Rein technisch betrachtet ist das z.B. bei Nutanix besser gelöst (die haben z.B. ein Konzept von Data Locality, das S2D fehlt, und brauchen daher kein RDMA). In dem Szenario ist Datacenter auch kein Problem, weil man das für die VMs ohnehin braucht. Wenn du Storage und Compute trennen willst, ist S2D nicht die richtige Technik. Dann könnte Storage Replica interessant sein - und da schlägt die Datacenter-Lizenz schon eher ins Budget. Gruß, Nils Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.