GTRDRIVER 17 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 (bearbeitet) Hallo zusammen ich habe hier einen fertig konfigurierten 2012R2 der auch als Hyper-V Host agiert. Dieser hatte per Hardware 2 NIC´s welche ich mittels Teaming an einem LACP fähigen Switch gehängt habe - soweit kein Problem die config des TEamings läuft ja per Wizzard eigentlich kinderleicht ab und der Switch war auch schnell konfiguriert (bin ich von Linux als Client her soweit gewohnt). Nun bekommt der Server noch eine weitere Intel NIC Karte verpasst, welche dem bestehenden Team hinzugefügt werden soll. Leider finde ich zwar im Netz jede Menge Anleitungen wie man ein NIC Team einrichtet - aber nicht wie man ein bestehendes Team erweitert. Kann mir hier jemand einen Tipp geben ? Da die Kiste Produktiv läuft hab ich ein wenig panik da was zu vermasseln und das ding ist offline... CU GTR bearbeitet 16. Dezember 2015 von GTRDRIVER Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 Server Manager, Nic Teaming, Team wählen - Karte hinzufügen. Ist eigentlich ziemlich selbsterklärend. LACP macht übrigends nur selten Sinn bei Hyper-V NIC Teaming. Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 16. Dezember 2015 Autor Melden Teilen Geschrieben 16. Dezember 2015 Hallo Vielen Dank für für die Info - könntest du das mit dem "Mach sinn" genauer ausführen ? Ich beschreibe am Besten mal was ich vor habe: 2 Identische Server (einer hat ein stärkers SSD Raid) - ansonsten alles gleich. Auf beiden läuft HyperV Server1 spielt auf DB Server und Fileserver - zudem läuft im HyperV als Gast ein 2012R2 als RDS Server (für diese File und Datenbankanwendungen) Server2 - hier läuft nur in dem HyperV als Gast ein 2012R2 als RDS Server (greift auf Server1 (File und Datenbank) zu Da hier auch große Datenmengen geschaufelt werden ist hier das NIC die Engstelle - daher hatte ich an Teaming gedacht. Oder sagst du (ihr) das ist murks und ich soll auf 10 GBE gehen CU GTR Zitieren Link zu diesem Kommentar
NeMiX 76 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 Läuft auf Server1 die DB und der Fileserver nativ auf dem Host oder als VM? Falls auf dem Host, weg damit. Der VM Host macht nichts anderes außer VM Host. Oder installierst du auf einem ESXi mal eben einen Webserver?! Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 16. Dezember 2015 Autor Melden Teilen Geschrieben 16. Dezember 2015 Hallo So war das mal angedacht - aus Performance Gründen - da aber keine weitere Physikalische Maschine her soll würde das bedeuten ich lege auf Server1 einen weiteren Gast an und lasse auf diesem File + DB Server laufen. Ich bin zugegeben neu bei HyperV und hatte bisher nur mit ESXi zu tun - und nein - ich würde auf dem ESXI Host keinen Web-Server installieren :-) CU GTR Zitieren Link zu diesem Kommentar
NorbertFe 2.098 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 Und wo ist das Problem mit einer weiteren vm? Hyper-v kann mehr als eine vm pro Host. Genau wie Esx. Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 16. Dezember 2015 Autor Melden Teilen Geschrieben 16. Dezember 2015 Hallo Ich habe niemals behauptet dass es ein Problem ist ! In diesem Fall brauche ich einfach maximale Performance für den Datenbankserver - schlicht weil die Datenbank für den Firebird Server zu groß ist - aber ich kann leider weder das Datenbank Format noch das Design beeinflussen sondern muss nur versuchen das maximale raus zu holen. Daher dachte ich daran den FB Server auf dem Host laufen zu lassen - aber gut - wenn das keine gute Idee ist - ich bin auf jeden Fall lernfähig ! Zitieren Link zu diesem Kommentar
NorbertFe 2.098 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 Ein hyper-v host macht nur hyper-v. Mehr gibt's dazu eigentlich nicht zu sagen. Denn die volle Performance hast du in deinem Fall ja auch nicht zur Verfügung. Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 16. Dezember 2015 Autor Melden Teilen Geschrieben 16. Dezember 2015 Hallo Ok. Habs verstanden und gespeichert. Kommen wir zum eigentlichen Thema teamimg zurück. Ist das so wie ich beschrieben habe machbar und sinnvoll (abgesehen von dem nun besprochenen Thema ) Cu gtr Zitieren Link zu diesem Kommentar
NorbertFe 2.098 Geschrieben 16. Dezember 2015 Melden Teilen Geschrieben 16. Dezember 2015 LACP macht die ganze Sache nur komplexer und bringt im Allgemeinen wenig bis keine Vorteile in dem Szenario. Da gibt's einige detaillierte Blogeinträge. Kannst ja mal auf die Suche gehen. Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 17. Dezember 2015 Melden Teilen Geschrieben 17. Dezember 2015 Moin, es sollte problemlos sein, die neue Karte nachträglich hinzuzufügen. Allerdings gilt dabei wie immer: Der Konjunktiv wurde für die IT erfunden - es sollte gehen ... Bei unterschiedlichen NICs habe ich im Windows-Teaming hier und da leider schon gesehen, dass es nicht reibungslos lief (was es eigentlich sollte). Ich würde da also ausreichend Vorsichtspuffer einbauen. Gruß, Nils Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 17. Dezember 2015 Autor Melden Teilen Geschrieben 17. Dezember 2015 (bearbeitet) Hallo Nilsk Das sind onboard Intel NICs und dann komtm eine Intel Quad NIC rein (da sind ja definitiv alle Ports gleich) Notfalls nehme ich halt die Quad als hauptkarte und definiere die beiden Onboard ports als REserve Werde das mal testen. Ich wollte eigentlich 10GBe machen - aber die Switche kosten ja ein vermögen... (zumindest für einen kleineren Mittelständler) Nachtrag: (auch wenn es hier schon erwähnt wurde) Was ist an LACP eigentlich so schlecht oder Kritisch ? Ich setzte das bisher auf 2 ESXI (in Verbindung mit DLink Switches) ein - zudem in Verbindung zwischen mehreren Linux Servern und ebenfalls DLink Switches Zudem in verschiedenen Firmen wo mehrere Dlink Switches per Glasfaster miteinandere verbunden wurden (jeweils 4 Glasfaster Ports als 1 Trunk mit LACP) Das läuft alles teilweise seit jahren absolut stabil und zuverlässig. Von da her hatte ich an LACP irgendwie nie gezweifelt - wenn man aber alleine in diesem Board nach LACP sucht findet man viele Einträge die eher dagegen sprechen. bearbeitet 17. Dezember 2015 von GTRDRIVER Zitieren Link zu diesem Kommentar
NilsK 2.969 Geschrieben 17. Dezember 2015 Melden Teilen Geschrieben 17. Dezember 2015 Moin, die Switch-Kosten relativieren sich, wenn man genau schaut, wieviele Ports man braucht. Mit 10 GbE reichen 2 Ports pro Server i.d.R. aus. Aber ist schon richtig, ein Kostenfaktor ist es, und da muss man dann schauen, was man wirklich benötigt. Es ist allerdings kein sinnvoller Weg, 10 GbE durch Teaming von 1-GbE-Adaptern quasi nachzubauen. Komplexität, Fehlerquellen und Overhead steigen zu schnell an. Gruß, Nils Zitieren Link zu diesem Kommentar
Doso 77 Geschrieben 17. Dezember 2015 Melden Teilen Geschrieben 17. Dezember 2015 LACP is jetzt nicht schlecht oder so. Nur ist es mit 2012R2 Hyper-V eigentlich nur selten notwendig dies zu nutzen. Ist halt eine komplizierte Sache mehr die man konfigurieren muss und so wirklich Vorteile hat es nur in speziellen Szenarien. Zitieren Link zu diesem Kommentar
GTRDRIVER 17 Geschrieben 17. Dezember 2015 Autor Melden Teilen Geschrieben 17. Dezember 2015 Hallo zusammen erstmal danke für die Beiträge - ich denke ein Stichwort ist 'overhead" .. - das klingt durchaus logisch. Ich werde jetzt trotzdem mal einen Test mit LACP und Teaming machen - dazu dann mal einfach Tests mit div. Benchmark Tools - mal sehen ob das in der Umgebung in der ich es einsetzen will den gewünschten Effekt bringt - wenn nicht habe ich mich inzwischen bei 10GBE soweit fortgebildet dass ich hie rmal einen Versuch starten kann ... CU GTR Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.