DocData 85 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Dafür bekomme ich ein Nutanix Block aus der NX-1000 Serie... Zitieren Link zu diesem Kommentar
testperson 1.676 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Klar, es gibt da sicherlich diverse Möglichkeiten. Es bleibt allerdings auch dabei, dass sich damit einer auskennen sollte (zumindeset der Dienstleister) ;) Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Moin, für das bislang diskutierte Szenario hat vSphere exakt null Vorteile. Dafür den Nachteil von vierstelligen Euro-Summen als Zusatzkosten. Man braucht bei Aufbau mit Hyper-V nicht zwingend einen separaten DC. Es ist trotzdem zu empfehlen, und das gilt mit vSphere exakt genauso - nicht wegen des Clusters (der startet seit Windows 2012 auch ohne erreichbaren DC), sondern wegen der allgemeinen Abhängigkeit der Infrastruktur von AD. Ein Recovery geht meist erheblich schneller, wenn man sich nicht erst um das AD kümmern muss, weil es auf dem physischen DC bereits läuft. Exchange und DC auf derselben Server-Instanz ist ein No-go. POP-Connectoren sind das heute auch. "Verfügbarkeitslösungen", die auf Batches beruhen, sind niedlich, manchmal auch pfiffig, aber in den meisten Situationen kaum ernst zu nehmen. Und im Übrigen wird hier wieder mal das Pferd von der falschen Seite aufgezäumt: Zuerst wäre zu klären, was denn überhaupt die Anforderungen sind. EIn Wort wie "ausfallsicher" reicht da bei Weitem nicht aus. Gruß, Nils 2 Zitieren Link zu diesem Kommentar
mchgbh 0 Geschrieben 21. Januar 2016 Autor Melden Teilen Geschrieben 21. Januar 2016 Danke für die rege Diskussion. Insbesondere NilsK, dem ich jetzt antworten möchte: Ziel: Ausfälle außerhalb von Stromausfällen sollen so unwahrscheinlich sein, dass sie eigentlich nicht auftreten (99,95+). Ich würde ungerne in genaue Berechnungen einsteigen, da ich so eine Kalkulation mal für möglichen Datenverlust machen durfte und die genauen Berechnungen sind imo bei diesem Szenario overkill. Wenn zwei Maschinen sich gegenseitig durch HA im Fehlerfall vertreten und automatisch unter 15 Minuten umschalten, ist das ausreichend. Die Ersatzmaschine sollte dann aber bis zu 14 Tage "höchstwahrscheinlich" durchlaufen können. Soeben habe ich gelesen, dass es bei der Kombination Exchange + DC wohl mehr technische Probleme gibt, die zu Zeiten von SBS (derzeit SBS 2011 im Einsatz) nicht relevant waren. Bis jetzt habe ich aber noch kein "Killerargument" gefunden, dass mir eine Genehmigung von einem weiteren Server mit Lizenzen erbringt. Ich würde noch mal gerne auf eine meiner grundlegenden Fragen zurück kommen: 3.A) Wenn ich einen DC und ein Exchange auf einem (oder zwei) virtualisierten Server/n habe und der darunter liegende Hyper-V Server geclustert ist, wird die VM/s dann bei Ausfall einer Maschine ordnungsgemäß übergeben? Zitieren Link zu diesem Kommentar
zahni 554 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Bei einem Ausfall wird die VM nicht übergeben, sondern auf dem anderen Cluster-Teilnehmer neu gestartet. So als Ob die den Stecker gezogen hast. 1 Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Bei den Windows Server 2012R2 Standard Lizenzen ist es erlaubt zwei Virtuelle Instanzen zu installieren. Daher kommen keine weiteren Kosten hinzu wenn du jeweils eine VM mit einem DC und Exchange erstellst. Zitieren Link zu diesem Kommentar
mchgbh 0 Geschrieben 21. Januar 2016 Autor Melden Teilen Geschrieben 21. Januar 2016 Bei einem Ausfall wird die VM nicht übergeben, sondern auf dem anderen Cluster-Teilnehmer neu gestartet. So als Ob die den Stecker gezogen hast. Damit wären die 15 Minuten ja realistisch. Das klingt super! Nun zur Lizenfrage, ob ich das richtig verstehe: Wenn ich zwei Hyper-V Knoten habe und somit 2x 2012 R2 Standard und dadrauf die beiden "echten" Server (DC und Exchange), dann reichen also die beiden Server Lizenzen aus. Für den DC nun noch die CALs für den Fileserver und den Exchange die CALs für Exchange drauf und gut ist. Richtig? Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 21. Januar 2016 Melden Teilen Geschrieben 21. Januar 2016 Moin, dass das "Overkill" sei, stelle ich in Abrede. Wenn das so ist, gibt es keine Anforderung an Hochverfügbarkeit. Zu dem Konstrukt ist hier schon ausreichend gesagt worden. Wenn man es ordentlich macht, kann es einfache Hardware-Ausfälle so überbrücken, dass man nur geringe Ausfallzeiten hat. Man mache sich aber nichts vor: Eine empfindliche fünfstellige Summe wird es immer kosten, und dabei gibt es dann noch viele Szenarien, die eben doch lange Ausfallzeiten bedeuten können. Damit wären wir dann wieder bei den Anforderungen ... Auch zu den Lizenzen ist das Wichtigste gesagt. Zwei Hosts mit je einer Standard-Lizenz reichen für zwei geclusterte VMs aus. Für Exchange braucht es dann noch SA, damit die VM den Host wechseln darf ("License Mobility"). Gruß, Nils Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 24. Januar 2016 Melden Teilen Geschrieben 24. Januar 2016 Dafür bekomme ich ein Nutanix Block aus der NX-1000 Serie... Und was soll man damit? Leider ist mir noch immer kein hyperconvergentes System untergekommen das im Bereich Massenspeicher ordentlich skaliert. NX-1000 /node, max 4 nodes: 1x SSD* [480 GB, 800 GB, 1.2 TB or 1.6 TB] 2x HDD* [2 TB, 4 TB or 6 TB] Da passen also grade mal nutzbare 6TB rein bei was für IO-Werten? Kann das die SSD wieder retten? Sinnvoll betsückt hat das Teil also 2TB+SSD nutzbar. Bei 4nodes sind das dann 8TB+SSDs. Zwei Pizzaboxen und ein ISCSI-Filer sind flexibler und sollten auch für 25K zu finden sein. Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 24. Januar 2016 Melden Teilen Geschrieben 24. Januar 2016 (bearbeitet) 2 Pizzaboxen sind aber ein bis zwei Nodes weniger als in einer NX-1xxx. Zudem sind das bis zu 1,6 TB SSD und 12 TB (roh) pro Node. Da geht schon ganz ordentlich was rein. Den Rest erledigen Dedup, Compression und EC. Kalte Daten landen auf NL, heiße Daten auf SSDs. Workloads kann man auch direkt auf SSD pinnen, wenn man Spaß daran hat. Aus der Praxis kann ich sagen: IO Probleme hatte keiner meiner Kunden mit Nutanix, auch nicht bei fetten Exchange Installationen (die siet 2007 eh deutlich entspannter sind was IO angeht), noch bei SAP oder Baan. Speicher reicht doch nicht? Pack eine NX-6035c dazu (Storage-only). Ein Block der NX-3000 Serie löst nicht selten ein ganzes Rack mit Servern und Storage bei Kunden ab. Und die freuen sich immer wie die Schneekönige wie schön einfach der Kram auf einmal ist. So gewinne ich auch die Projekte: Man stellt ihnen eine NX-1000 hin, lässt sie mit dem Hypervisor ihrer Wahl testen, wirft mal einen Workload rüber und die Kunden wundern sich wo die Leistung auf einmal herkommt. Dann plant man die neue HW, liefert sie und bringt die PoC HW zum nächsten Kunden. Zwei Pizzaboxen + iSCSI Filer können ein ziemliches Gefrickel sein, wenn Nutanix Prism und Acropolis der Maßstab sind. Am Ende ist die HW aber egal, denn es geht um das Design und vor allem um die Betriebskosten. Nur CAPEX zu betrachten ist zu kurz gedacht. Und gerade wenn es um OPEX geht, ist Nutanix derzeit ganz weit vorne. Ich werde von Kunden dafür bezahlt schlanke, skalierbare und automatisierte Infrastrukturen zu bauen. In den letzten Jahren habe ich einige Projekte mit Nutanix gehabt, unter anderem wurden zwei Flexpods abgelöst (hattest du mal in einem anderen Thread erwähnt). Gerade die operativen Kosten sind in allen Fällen gesunken. Kunden die erweitert haben, waren geradezu entsetzt wie einfach das war. Box ins Rack und nach spätestens weiterne 30 Minuten bin ich vom Hof geritten. Und am Ende hatten sie mehr Compute und Storage. Die typische Nutanix-Installation dauert i.d.R. nicht länger als drei bis vier PT. Oft bekommen die Marktbegleiter dann den kalten Angstschweiß auf der Stirn und faseln was von "unseriös" und "Nutanix kennt doch keiner, Vendor Lock-in...bla bla bla". Bei Interesse, mal bei dem Kollegen querlesen: http://www.joshodgers.com/category/nutanix/. Auch sehr empfehlenswert: http://nutanixbible.com/ bearbeitet 24. Januar 2016 von DocData Zitieren Link zu diesem Kommentar
mchgbh 0 Geschrieben 25. Januar 2016 Autor Melden Teilen Geschrieben 25. Januar 2016 Noch ein Nachtrag zu diesem Thema: Ich habe ja je 2012 Standard 2 Virtualisierungen frei, könnte also im Falle eines Failover Clusters aus 2 Servern 4 VMs starten. Nun fällt ein Knoten aus und es ist nur noch einer da... laufen dann alle 4 VMs weiter? Dank im Voraus. Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 26. Januar 2016 Melden Teilen Geschrieben 26. Januar 2016 Moin, wenn der Cluster macht was er soll, werden die VM auf dem 2ten Knoten gestartet. Lizenztechnisch bist dann aber unterlizensiert, zumindest meiner Meinung nach. Technisch ist das egal. ;) Zitieren Link zu diesem Kommentar
NorbertFe 2.034 Geschrieben 26. Januar 2016 Melden Teilen Geschrieben 26. Januar 2016 Noch ein Nachtrag zu diesem Thema: Ich habe ja je 2012 Standard 2 Virtualisierungen frei, könnte also im Falle eines Failover Clusters aus 2 Servern 4 VMs starten. Nun fällt ein Knoten aus und es ist nur noch einer da... laufen dann alle 4 VMs weiter? Dank im Voraus. Falsch, wenn du zwei Knoten und für jeden Knoten nur eine Lizenz hast, darfst du nur zwei vms nutzen.. Für 4 benötigst du 4 Lizenzen. Zitieren Link zu diesem Kommentar
Smalltalk 3 Geschrieben 5. Februar 2016 Melden Teilen Geschrieben 5. Februar 2016 Korrekt. Die einzige Lösung, wenn auch inzwischen deutlich teurer als in der Anfangszeit von Win2012, ist eine Datacenter Lizenz. Und die wirft einem Finanztechnisch direkt einen Knüppel zwischen die Beine. @Nutanix-Thema SaaS hat Vor- und Nachteile. Für so kleine Umgebungen ist es in meinen Augen zuviel Geld. Wenn ich es richtig mache nehme ich 10G Switche und die tun in der Anschaffung weh. Dazu Netzwerkkarten etc. Dann wird das "normale" Netz nicht vom iSCSI getrennt und im Fehlerfall reisst es mir alles auseinander. Sorry - too much. Zitieren Link zu diesem Kommentar
NilsK 2.934 Geschrieben 5. Februar 2016 Melden Teilen Geschrieben 5. Februar 2016 Moin, Die einzige Lösung, wenn auch inzwischen deutlich teurer als in der Anfangszeit von Win2012, ist eine Datacenter Lizenz. Und die wirft einem Finanztechnisch direkt einen Knüppel zwischen die Beine. naja, es ist doch einfach ein Rechenspiel. Schon seit mehreren Jahren liegt bei fast allen Rechenmodellen der Break-even zwischen Datacenter und Standard bei um die 12 VMs. Betreibe ich also eine bis 12 VMs in meinem Cluster, reicht die Standard-Edition (eine oder mehrere). Betreibe ich mehr VMs, ist die Datacenter Edition günstiger. Man kann sich nun darüber beschweren, dass die Windows-Lizenzierung immer an die Hardware gebunden ist, man also für "dieselbe" VM "mehrere" Lizenzen vorhalten muss. Aber dass Datacenter einem "direkt einen Knüppel zwischen die Beine" werfe, ist dann doch arg übertrieben. @Nutanix-Thema SaaS hat Vor- und Nachteile. Für so kleine Umgebungen ist es in meinen Augen zuviel Geld. Wenn ich es richtig mache nehme ich 10G Switche und die tun in der Anschaffung weh. Dazu Netzwerkkarten etc. Dann wird das "normale" Netz nicht vom iSCSI getrennt und im Fehlerfall reisst es mir alles auseinander. Da geht jetzt was durcheinander. Nutanix hat mit SaaS nichts zu tun. Und Nutanix arbeitet auch nicht mit iSCSI, das ist ja gerade der Witz. Gerade für kleinere Umgebungen können die Nutanix-Boxen durchaus auch finanziell interessant sein. Aber das würde jetzt hier zu weit führen. Gruß, Nils 1 Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.