Chris_30 10 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 Hallo, mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben. Wenn man die NIC's jetzt an einen 1GBit Switch anschliesst (die NIC ist natürlich abwärtskompatibel, eine HPE 535T) ist dann intern immer noch 2x10GBit Bandbreite vorhanden? Geht einfach darum sich einen neuen Switch zu sparen, nach extern spielt die Bandbreite keine Rolle, es wird eh nur per RDP von Remotestandorten aus darauf zugegriffen. Danke schon mal vorab. Chris Zitieren Link zu diesem Kommentar
NorbertFe 2.050 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 Wenn du 10g an 1g anklemmst hast du auch nur 1g. Zitieren Link zu diesem Kommentar
mwiederkehr 373 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 Falls Du die Kommunikation zwischen VMs auf dem gleichen Host meinst: die ist unabhängig von den physischen Adaptern und deren Geschwindigkeit. Zitieren Link zu diesem Kommentar
MurdocX 952 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 (bearbeitet) vor 26 Minuten schrieb Chris_30: Hallo, mal eine "blöde" Frage zum Thema NIC`s. Geplant ist eine dual Port 10Gbit Nic in einem Hyper-V zu verbauen um intern zwischen den VM`s maximale Bandbreite zu haben. Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen. bearbeitet 19. August 2020 von MurdocX Zitieren Link zu diesem Kommentar
Chris_30 10 Geschrieben 19. August 2020 Autor Melden Teilen Geschrieben 19. August 2020 vor 5 Minuten schrieb mwiederkehr: Falls Du die Kommunikation zwischen VMs auf dem gleichen Host meinst: die ist unabhängig von den physischen Adaptern und deren Geschwindigkeit. Top, danke für die Info. Dann spare ich mir die NIC komplett und mache nur ein Team aus den vorhandenen 1GBit NIC's des DL380 Gen10 Zitieren Link zu diesem Kommentar
testperson 1.682 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 Hi, wenn es dir nur um die Netzwerkkommunikation der VMs untereinander auf einem einzelnen HyperV Host geht, dann ist die physikalische NIC irrelevant (solange es nicht um SR-IOV geht). vor 2 Minuten schrieb MurdocX: Intern wird 10G kommuniziert. Das ist erstmal nur eine "Anzeige". Da geht i.d.R. alles was der "VMBus hergibt". An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :) Gruß Jan Zitieren Link zu diesem Kommentar
Chris_30 10 Geschrieben 19. August 2020 Autor Melden Teilen Geschrieben 19. August 2020 (bearbeitet) vor 16 Minuten schrieb MurdocX: Dazu benötigst du keine externe Netzwerkkarte. Intern wird 10G+ kommuniziert. Da kommt’s dann auf deine Hardware an. Das kannst du auf der vNetzwerkkarte in den Einstellungen in der VM sehen. Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ... Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein. bearbeitet 19. August 2020 von Chris_30 Ergänzung Zitieren Link zu diesem Kommentar
NilsK 2.940 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 Moin, wie Jan schon richtig sagt: vor 30 Minuten schrieb testperson: Das ist erstmal nur eine "Anzeige". Da geht i.d.R. alles was der "VMBus hergibt". Gruß, Nils 1 Zitieren Link zu diesem Kommentar
MurdocX 952 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 vor 24 Minuten schrieb Chris_30: Hm, im Vswitch von unseren alten 2016 Host Kiste steht die HP 331 1GBit NIC drin - und die VM's zeigen bei Ihrer virtuellen NIC aber auch nur 1GBit an ... Heisst ich sollte einen zweiten vSwitch als internen konfigurieren damit dieser nicht hardwareabhängig mit voller Bandbreite läuft? Der bestehende ist als extern konfiguriert, die VM's müssen per RDP erreichbar sein. Mein Post bezog sich auf die gleiche Thematik wie @mwiederkehr bzgl. der internen Kommunikation unter den VMs. Alles was zum Host oder raus vom Host geht, unterliegt der Geschwindigkeit der Netzwerkarte(n) und deren Konfiguration (Team). vor 50 Minuten schrieb testperson: An der Stelle ist mir neulich aufgefallen, dass nach "der Migration" von LBFO + vSwitch auf SET 20G angezeigt wird. :) OT: Dann lass ich mich mal überraschen. Bekomme drei neue Knoten für S2D und HyperV. (: 1 Zitieren Link zu diesem Kommentar
Nobbyaushb 1.473 Geschrieben 19. August 2020 Melden Teilen Geschrieben 19. August 2020 OT/ seit Server 2016 und auch bei Server 2019 wird in den virtuellen Karten der Clients nur noch das angezeigt, was die Physik im Host macht. Hast du ein Team mit zwei 1G Karten, zeigt die virtuelle NIC die ja auch dem vSwitch basiert 2Gbit an. Gerade bei uns geschaut, die 2*10G wird im Gast zu 20Gbit /OT Zitieren Link zu diesem Kommentar
Nobbyaushb 1.473 Geschrieben 18. Oktober 2020 Melden Teilen Geschrieben 18. Oktober 2020 vor 2 Minuten schrieb Wolke2k4: 1. Bei früheren Hyper-V Installationen ist es mir oft vorgekommen, dass die VMs 10GBit an den virtuellen NICs der VMs angezeigt haben. Das ist mir zuletzt kaum noch vorgekommen... Weiß jemand, womit das zusammenhängt? Seit Hyper-V von Server 2016 und neuer wird nur noch der physische Speed angezeigt, davor waren es immer 10G, egal was die Physik drunter konnte. Ich habe die Erfahrung gemacht, das „echte“ Serverkarten mit eigener CPU alles wesentlich beschleunigen. Zitieren Link zu diesem Kommentar
Wolke2k4 11 Geschrieben 18. Oktober 2020 Melden Teilen Geschrieben 18. Oktober 2020 Was sind für Dich "echte" Serverkarten? In besagter Maschine laufen Fujitsu Emulex Karten. Zitieren Link zu diesem Kommentar
NilsK 2.940 Geschrieben 18. Oktober 2020 Melden Teilen Geschrieben 18. Oktober 2020 Moin, Der VMBus läuft sozusagen unterhalb der VM. Er ist die Kommunikations-Infrastruktur des Hosts, die immer genutzt wird. Bei einer Kommunikation zu einer VM, die auf einem anderen Host läuft, leitet der Host den Traffic hinaus ins physische Netzwerk. Läuft die Ziel-VM auf demselben Host, dann muss er das ja nicht tun. Oder kurz: laufen die VMs auf denselben Host, dann kannst du nicht verhindern, dass sie über den VMBus kommunizieren. Selbst wenn sie auf verschiedenen Hosts laufen und das Netzwerk beteiligt ist, dann spielt der VMBus eine entscheidende Rolle. Dass der Netzwerkadapter Auslastung zeigt, liegt daran, dass der Traffic aus Sicht des Betriebssystems ja über das Netzwerk geht. Wie dieses beschaffen ist, spielt an der Stelle keine Rolle. Gruß, Nils Zitieren Link zu diesem Kommentar
Wolke2k4 11 Geschrieben 21. Oktober 2020 Melden Teilen Geschrieben 21. Oktober 2020 Danke Nils für die Erläuterung! Ich möchte noch mal auf meine Problemkonstellation zurückkommen: Ich muss aktuell Troubleshooting betreiben, weil ich eine Umgebung mit einer Anwendung habe, bei der alle Server virtualisiert sind. Eine bestimmte Anwendung benötigt auf den virtuellen Terminal Servern (1x 2008R2 und 1x 2016) ca. 30 bis 45 Sekunden zum starten. Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden... Wir haben es hier mit einem einzigen Hyper-V Server zu tun. Die besagte Anwendung startet auf den Terminal Servern deutlich langsamer als auf dem PC, für den der VMBus ja nicht zur Verfügung steht. Während die TS VMs damit volle VMBus Bandbreite nutzen können, kräpelt der Anwendungsstart bei über 30 Sekunden herum. Die Anwendung ist, was die Runtime und Startumgebung anbelangt, m.E. recht altbacken: Es wird auf eine Batch verwiesen, die dann wiederum verschiedene Aktionen startet um die Laufzeitumgebung zu initiieren. Soweit ich das verfolgen konnte, werden hier viele kleine Dateien aus dem über ein DFS Laufwerk bereitgestellten Anwendungsordner gezogen. Die Netzwerkauslastung ist gering, es sind aber viele kleine Dateien. Bei dem besagten PC spielt sich haargenau der gleiche Start ab: Viele kleine Datein, hier nur 1GBit Netzwerk zur Verfügung... und trotzdem startet diese Maschine die Anwendung in unter 15 Sekunden. Wenn es nur der Anwendungsstart wäre, OK. Leider sind noch später innerhalb der Anwendungen andere Funktionen im Spiel, die ebenfalls eine schlechte Performance zeigen. Daher gehe ich davon aus, dass alles irgendwie zusammen hängt. Übrigens haben wir die gleiche Anwendung noch in anderen Umgebungen laufen, auch unter ESXI/VMWare... dort geht der Anwendungsstart auf Terminal Server (auch mit Citrix VA) auch deutlich schneller... Zitieren Link zu diesem Kommentar
NorbertFe 2.050 Geschrieben 21. Oktober 2020 Melden Teilen Geschrieben 21. Oktober 2020 vor 5 Minuten schrieb Wolke2k4: Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden... Das ist fast immer ein Problem der Terminalserver mit fairshare usw. Ich kenne solche grottigen Programme auch, aber es liegt nicht an der Netzwerkgeschwindigkeit, sondern da kommt dann tatsächlich die CPU Taktung (viele Cores mit relativ geringer Frequenz = 2,1Ghz usw. gegen PCs die inzwischen 3,4Ghz haben) zum Tragen. Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.