Lampe2010 10 Geschrieben 9. Dezember 2012 Melden Teilen Geschrieben 9. Dezember 2012 Hallo, ich habe die Aufgabe bekommen eine Server Infrastruktur in einem LAB zu Virtualisieren und dazu soll ich mir ein paar Gedanken machen und der GF vorlegen um zu prüfen ob es kostenmäßig in das Budget passt. Dazu habe ich nach einigem lesen folgendes gedacht : Als Beispiel 1x HxperV Host ( Win2012 ) welcher die CPU und Speicher Ressourcen für die VM bereit stellt. 1x Win Storage Server 2012 auf dem die VHDs liegen. Das ganze soll später als Cluster laufen, aber für das LAB sollte das erst mal reichen. Nun ist die frage der Anbindung vom HyperV Host an den Storage Server noch ungelöst. Wie wird der HyperV Host an den Storage Server angebunden ? Wenn ich richtig gelesen habe gibt es mehrere Möglichkeiten, ich hatte mir FC und ISCSI gedacht. Die frage ist nun brauche ich einen Switch zwischen den Servern oder kann ich auch die Server 1-1 verbinden. Welche Bandbreite brauche ich bei der Anbindung des HyperV Host zum Storage Server ? Brauche ich 1 GBit oder 10 GBit, ist FC oder iSCSI besser und sinnvoller ? Was kostet ungefähr die benötigte Hardware, welche brauche ich wenn wir später Clustern wollen ? Wie funktioniert das überhaupt in der Praxis mit einem HyperV Host und einem extra Storage Server, hat damit jemand Erfahrungen sammeln können ? Was sind die Stolpersteine und wie würdet Ihr es aufziehen ? Ev. kann mir hier jemand tipps geben, da ich hierbei bis auf Standalone HyperV Server Installationen noch nicht viel Erfahrung habe. Bin für jede Hilfe dankbar. Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 9. Dezember 2012 Melden Teilen Geschrieben 9. Dezember 2012 Vielleicht solltest du dir dafür einen Dienstleister ins Haus holen, der entsprechende Projekterfahrungen hat und das vernünftig einrichten wird. Das klingt alles etwas unbedarft von dir und kann relativ schnell in die Hose gehen. Zitieren Link zu diesem Kommentar
Lampe2010 10 Geschrieben 9. Dezember 2012 Autor Melden Teilen Geschrieben 9. Dezember 2012 Nun ja ich verstehe ja deine Einwände und du brauchst Dir da auch keine Sorgen machen. Hierbei geht es erst einmal um ein LAB bei dem wir intern ein paar Sachen zur grundlegenden Funktion ausprobieren und verstehen wollen. Dies ist also nur die Spielwiese für uns um zu lernen. Jeder hat mal klein angefangen und bei solch einer Umgebung hat niemand von uns so richtig Ahnung. Deshalb brauchen wir ja ein LAB. Später ist es dann geplant die "Echte" Umgebung mit einem Spezialisten durchzuführen. Mir ist auch klar das dort dann Netzwerk Optimierung angesagt ist und das iSCSI ein getrenntes Netz sein muss / sollte. Und dies lassen wir dann schon den Profi in solchen Sachen machen. Nur für eine Spielwiese ist das eindeutig zu hoch gegriffen. Wir wollen erst einmal das grundlegende lernen und verstehen hierbei. Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 9. Dezember 2012 Melden Teilen Geschrieben 9. Dezember 2012 Für sowas kannst du dir doch einfach nen potenten 08/15 PC nehmen (gut RAM rein evtl.) und erst mal testen. Zitieren Link zu diesem Kommentar
Lampe2010 10 Geschrieben 10. Dezember 2012 Autor Melden Teilen Geschrieben 10. Dezember 2012 Halo NeMIX, 2 Server für das LAB habe ich, es sind nicht verwendete alte Server. Ausstattung wie folgt : Server 1 : 1 Intel Xeon 2,5 Ghz, 8 GB Ram, 3 x 250 GB HDDs im Raid 5 Server 2 : 1 Intel Xeon 2,5 Ghz, 16 GB Ram, 6 x 250 GB HDDs in 2x Raid 5 ( je 3 HDDs ) Jeder der Server hat 2 Onboard NICs mit je 1 GBit und 2 PCIe NICs mit je 1 GBit Die PCIe Karten unterstützen : Intel® Virtualization Technology for Connectivity (VT-c): VMDq und Intel® Virtualization Technology for Directed I/O (VT-d): Ja Nun ist die Frage ob dies für den HyperV Host und für das Storage ausreichend ist um aussagekräftige Tests zu bekommen. Für mich stellt sich auch die Frage ob ich noch einen 10 GBit Switch dazwischen schalten sollte und die 1 GBit Intel Karten gegen 10 GBit austausche, davon hätte ich sogar 2 Karten von Intel im Hause ( War mal eine Falsch Bestellung :D ) Reicht es die HyperV Host mit 1 GBit an den Storage Server anzubinden oder sollten es zwingend 10 GBit sein ? Ach ja, die Frage FC oder Ethernet steht noch im Raum, wie sind die vor bzw Nachteile, was würdet Ihr einsetzen oder was habt Ihr im Einsatz? Gruß Lampe2010 Zitieren Link zu diesem Kommentar
bla!zilla 10 Geschrieben 10. Dezember 2012 Melden Teilen Geschrieben 10. Dezember 2012 Fibre-Channel erfordert eine dedizierte Fibre-Channel INfrastrktur bestehend aus HBAs, Switches und passenden Storagesystemen. Das wird bei dir also nicht funktionieren. Zitieren Link zu diesem Kommentar
Lampe2010 10 Geschrieben 10. Dezember 2012 Autor Melden Teilen Geschrieben 10. Dezember 2012 Aktuell stimmt das, jedoch sollen später teile der Komponenten aus dem LAB ( Netzwerk ) für die spätere Produktiv Umgebung genutzt werden. Dafür habe ich bereits die Freigabe bekommen die benötigten Komponenten zu bestellen. Die Frage ist mehr eine Kosten / Nutzen frage für die Planung und Entscheidung was nun eingekauft werden soll. Fibre-Channel erfordert eine dedizierte Fibre-Channel INfrastrktur bestehend aus HBAs, Switches und passenden Storagesystemen. Das wird bei dir also nicht funktionieren. Zitieren Link zu diesem Kommentar
RHaneberg 10 Geschrieben 11. Dezember 2012 Melden Teilen Geschrieben 11. Dezember 2012 Wenn die Infrastruktur nur aus wenigen Servern besteht würde ich persönlich nicht unbedingt zu FC raten, da die Anschaffung doch relativ teuer ist. Da würde ich lieber auf iSCSI setzen. HBAs Switch und Storagesystem können da schnell kostenintensiv werden. Hat man wirklich die Last um 8Gbit Dual-Port HBAs, zwei FC Switche und nen Storage mit zwei Controllern zu rechtfertigen oder nicht? Ich würde den Vorschlag mit dem externen Berater aufgreifen. Holt euch einen nen halben Tag oder Tag ins Haus um die Fahrtrichtung zu bestimmen und dann könnt ihr in diese Richtung testen. Es macht sicherlich keinen Sinn jetzt Hardware zu beschaffen, damit zu testen und am Ende kommt jemand und sagt "na das sollte man vielleicht besser komplett anders realisieren" Zitieren Link zu diesem Kommentar
bla!zilla 10 Geschrieben 11. Dezember 2012 Melden Teilen Geschrieben 11. Dezember 2012 Im Entry Level tun sich 10 GbE und FC preislich nichts, aber 8 GB FC ist schneller als 10 GbE. Zitieren Link zu diesem Kommentar
Dukel 455 Geschrieben 11. Dezember 2012 Melden Teilen Geschrieben 11. Dezember 2012 Arbeitet der Windows (Storage) Server auch als FC Target? Wenn nein, hat sich die Frage sowieso erledigt. Wir benutzen teilweise NFS für ESX Datastores. Daher könnte man sich NFS (für ESX) oder SMB 3.0 (für Hyper-V) auch als alternative zu FC / iSCSI anschauen. Zitieren Link zu diesem Kommentar
bla!zilla 10 Geschrieben 11. Dezember 2012 Melden Teilen Geschrieben 11. Dezember 2012 Der Storage Server macht nur iSCSI Target. NFS bzw. SMB 3.0 sind keine echten Alternativen. Eher der Versuch kostengünstige filebasierte Übertragungsprotokolle nutzen. Wenn du NFS im VMware Umfeld nutzt, dann kennt du ja Pro und Contra und weißt sicherlich auch, dass NFS nur in bestimmten Fällen eine Alternative ist. Zitieren Link zu diesem Kommentar
Dukel 455 Geschrieben 11. Dezember 2012 Melden Teilen Geschrieben 11. Dezember 2012 Der Storage Server macht nur iSCSI Target. Dann hat sich die Frage des TO nach iSCSI oder FC ja sowieso erledigt. NFS bzw. SMB 3.0 sind keine echten Alternativen. Eher der Versuch kostengünstige filebasierte Übertragungsprotokolle nutzen. Wenn du NFS im VMware Umfeld nutzt, dann kennt du ja Pro und Contra und weißt sicherlich auch, dass NFS nur in bestimmten Fällen eine Alternative ist. Von der Performance ist das kaum ein Unterschied zu den FC ESX Farmen mit 10Gbit NFS. Wobei wir jetzt auch keine high-end Workloads haben und der TO mit einer Testumgebung sicher auch nicht (je nachdem was er testen mag). Die Pro's und Con's kann man sich aber trotzdem anschauen. Zitieren Link zu diesem Kommentar
Necron 71 Geschrieben 12. Dezember 2012 Melden Teilen Geschrieben 12. Dezember 2012 Als Beispiel 1x HxperV Host ( Win2012 ) welcher die CPU und Speicher Ressourcen für die VM bereit stellt. 1x Win Storage Server 2012 auf dem die VHDs liegen. Das ganze soll später als Cluster laufen, aber für das LAB sollte das erst mal reichen. [/Quote] Mach 2x Hyper-V raus, dann kannst du auch direkt das Failover Clustering testen. Für die Knoten im Cluster sollten immer baugleiche CPUs verwendet werden, sprich also auch das gleiche Stepping. Daher am besten direkt zwei identische Server anschaffen, die als Hyper-V Hosts dienen. Nun ist die frage der Anbindung vom HyperV Host an den Storage Server noch ungelöst. Wie wird der HyperV Host an den Storage Server angebunden ? Wenn ich richtig gelesen habe gibt es mehrere Möglichkeiten, ich hatte mir FC und ISCSI gedacht. [/Quote] Wie schon gesagt wurde der Windows Storage Server unterstützt nur iSCSI, daher fällt FC schon mal raus. Als Alternative könnte man wirklich noch SMB3.0 in Betracht ziehen. Die frage ist nun brauche ich einen Switch zwischen den Servern oder kann ich auch die Server 1-1 verbinden. [/Quote] Am besten zwei Switche zum Storage, um eine höhere Verfügbarkeit zu garantieren. Welche Bandbreite brauche ich bei der Anbindung des HyperV Host zum Storage Server ? Brauche ich 1 GBit oder 10 GBit, ist FC oder iSCSI besser und sinnvoller ? [/Quote] Ich würde 10 Gbit zum Storage nehmen sowie 10 Gbit für Live Migration. Am besten dann die Hyper-V Hosts auch mit Windows Server 2012 installieren und die NICs teamen. Zum LAN reicht auch ein Team aus 2x 1 Gbit NICs. -> Aufbau und Einrichtung eines Failovercluster unter Windows Server 2012 « Hyper-V Server Blog der Rachfahl IT-Solutions GmbH & Co. KG Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.