TheBiker006 1 Geschrieben 25. Juni 2016 Melden Teilen Geschrieben 25. Juni 2016 (bearbeitet) Ja das mit den Zügen hab ich auch schon gelesen und in Videos gesehen. Aber hier kommt ja die Balancing funktion zum Einsatz. Der Datenstrom läuft ja über mehrere Karten gleichzeitig. Aber insgesamt halt nicht mehr als 1000 Mbit/s (ca. 104 MB/s). Intern können das die HDDS. Eine SATA Platte hat 200MB/s schreibgeschwindigikeit.Und im Raid 0 Verbund sind es ca. 350MB/s ohne eine SSD. Wenn jetzt noch der WB Cache hinzu kommt von den Storage spaces, rechne ich mit ca. 400 echten MB/s intern. Das muss jetzt nur über die Netzwerkkarten verteilt werden. Lt. der SMB Multichannel technik sollte das funktionieren. Herr Rachfahl hat dazu schöne Youtube Videos des neuen SMB3 Protocoll erstellt indem er bei einem Datenstrom zusätzliche Netzwerkkarten einschaltet. Da es sich erst einmal um eine Testumgebung handelt, möchte ich aber keine Antworten mit erhobenen Finger, welche sagen ja die MB/s sind unwichtig was zählt sind nur die I/O s oder ich soll mir doch ein 5000 euro SAN kaufen. :-) und nein ich nutze auch keine 200 euro/Stück RDMA Karten. Vielleicht liege ich ja auch falsch. In dem Fall kann ich ich ja auch ganz einfach die Karten mit LACP Teamen und auf dem Mikrotik Cloud Router ein Bond mit LACP einrichten. Dann bräuchte man die SMB Multichannel Funktion garnicht. bearbeitet 25. Juni 2016 von TheBiker006 Zitieren Link zu diesem Kommentar
DocData 85 Geschrieben 25. Juni 2016 Melden Teilen Geschrieben 25. Juni 2016 Du überschätzt die Leistung einer einzelnen Platte. Du solltest mal darüber nachdenken wie eine Festplatte arbeitet. Die Mehrheit der Zugriffe in einer Virtualisierungsumgebung ist zufällig. Für ein Stück drehenden Rost ist random IO die Hölle. Zudem: MB/s = IOPS x IO Größe. Also, MB/s sind das Produkt aus Ein-/ Ausgabeoperationen pro Sekunde und der Größe einer einzelnen Operation. Eine typische SATA Platte kommt auf 75 bis 90 IOPS. Im Schnitt ist ein IO in einer Virtualisierungsumgebung so 16 bis 32 KB. Und schwupps... bringt deine Platte nicht 200 MB/s, sondern nur noch irgendwas zwischen 2 und 5 MB/s. Zitieren Link zu diesem Kommentar
Necron 71 Geschrieben 4. Juli 2016 Melden Teilen Geschrieben 4. Juli 2016 Wenn man richtig Datendurchsatz haben möchte, dann muss man auch das nötige Geld in die Hardware investieren. Es hängt halt auch von vielen einzelnen Faktoren, wie performant die Umgebung im Endeffekt ist. PS. Wenn ich so schnell wie ein Porsche fahren möchte, kaufe ich mir ja auch keinen Fiat 500. Zitieren Link zu diesem Kommentar
magheinz 110 Geschrieben 5. Juli 2016 Melden Teilen Geschrieben 5. Juli 2016 Man kauft 4 Fiat 500 und baut einen trink...;-) Zitieren Link zu diesem Kommentar
TheBiker006 1 Geschrieben 5. Juli 2016 Melden Teilen Geschrieben 5. Juli 2016 DocData du hast in Bezug auf die in der VM liegenden Daten Recht. Ich möchte ja nur bei 2 HV-Hosts die physikalischen Daten von einem Rost auf den anderen Bringen und das ziemlich zügig :cool: Kurzes Zwischenergebnis. Also aktuell bin ich soweit, dass wenn ich mir den Routerdatendurchsatz bei einer Livemigration anschaue, die Daten schön per SMB Multichannel auf 2 physikalische NICs verteilt werden. Schalte ich bei der Übertragung 1 LAN Port aus, übernimmt der andere sauber die arbeit ohne Abbruch des Datenstromes. Was mir auffällt ist, wenn 2 NICs arbeiten verteilt sich der Durchsatz auf ca 500 Mbit/s pro Karte. Deaktiviere ich eine arbeitet die andere Karte mit vollem Datendurchsatz. Ich sehe noch keine Hardwaregrenze wo da der Flaschenhals sein könnte. Es ist halt sehr auffällig, dass egal was ich mache immer exakt 1Gbit/s übertragen werden. Ich muss mal schauen ob da ein Queueing irgendwo reinhaut. Aber da habe ich nichts definiert. Wären es jetzt bei beiden LAN Karten 150 MB/s Datendurchsatz wäre ich auch schon zufrieden. Das würde zeigen, das SMB Multichannel sauber arbeitet. Aber bei Exakt immer um die 110 MB/s liegt es halt nahe das noch was nicht ganz stimmt. Ich bleibe da dran und schreibe immer mal die Fortschritte. :thumb1: Zitieren Link zu diesem Kommentar
testperson 1.682 Geschrieben 5. Juli 2016 Melden Teilen Geschrieben 5. Juli 2016 Du überschätzt die Leistung einer einzelnen Platte. Du solltest mal darüber nachdenken wie eine Festplatte arbeitet. Die Mehrheit der Zugriffe in einer Virtualisierungsumgebung ist zufällig. Für ein Stück drehenden Rost ist random IO die Hölle. Da steht doch quasi die Antwort auf die Frage nach der Bremse? Zitieren Link zu diesem Kommentar
TheBiker006 1 Geschrieben 5. Juli 2016 Melden Teilen Geschrieben 5. Juli 2016 (bearbeitet) Testperson. Dann aber ein anderes Scenario. Ich habe 2 HV-Hosts auf jeweils einen, lege ich eine 10 GB Testdatei. Diese möchte ich auf den anderen HV-Host rüberschieben. Gleiches Bild. wie von mir oben beschrieben. Hier sind keine auf mehrere Festplatten verteilten Daten vorhanden. Die vorhandene Seagate leistet 200 MB/s schreibgeschwindigkeit. Wie gesagt, wenn wenigstens 130 MB/s an Datendurchsatz wären, ist es ok aber immer exact nur soviel wie 1 GBit/s Port liefern würde. Der Router ist auch nicht ausgelastet. Ich habe schon von CPU lastigem Bridge auf Switch Betrieb umgeschaltet. Auf dem Router ist kein Bonding oder LACP aktiviert. Hier soll rein das SMB Multichannel von Server 2012R2 greifen. Wenn es sein muss baue ich auch 2 SSDs ein. Wenn dann immer noch genau der gleiche Wert ist, dann kann es nicht an den Platten liegen. Bei der Netzwerkkarte kann ich noch RSS aktivieren und auch Warteschlangen von 1-4 einstellen. Aktuell ist RSS auf aktiv und 1 Warteschlange in den NIC einstellungen. Das habe ich als vorraussetzung für SMB Multichannel gelesen. bearbeitet 5. Juli 2016 von TheBiker006 Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.