Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.580
  • Registriert seit

  • Letzter Besuch

1 Benutzer folgt diesem Benutzer

Profile Fields

  • Member Title
    Expert Member

Letzte Besucher des Profils

7.238 Profilaufrufe

Fortschritt von mwiederkehr

Veteran

Veteran (13/14)

  • 5 Jahre dabei!
  • Immens engagiert Rare
  • Engagiert
  • Erste Antwort
  • Erster eigener Beitrag

Neueste Abzeichen

388

Reputation in der Community

49

Beste Lösungen

  1. Traumhaft! Muss St. Peter-Ording unbedingt auf die Liste für unsere nächste Reise in den Norden nehmen. Letzten Sommer sind wir von Föhr direkt nach Hamburg. Wer hat jetzt alles Appetit auf einen Fischteller und einen Pharisäer zum Dessert? Gute Reise!
  2. Nicht kostenlos, aber günstig, ist PDQ Deploy. Da bezahlt man pro Admin und Jahr 1575 $ und die Anzahl Clients ist unbeschränkt. Die Verteilung erfolgt per "Push", sobald ein Client erreichbar ist. VPN ist grundsätzlich kein Hindernis. Wenn ein Client während der Übertragung des Installers die Verbindung trennt, bricht die Installation ab und beginnt beim nächsten Versuch wieder von vorn.
  3. Vielleicht geht es ganz simpel mit vier iFrames? Mit etwas JavaScript könnte man noch vier Reload-Buttons hinzufügen, falls sich die Seiten nicht automatisch aktualisieren.
  4. Ja, es ist komplizierter geworden. Ein Kunde hat kürzlich einen DL380 Gen10 mit NVMe ausgestattet. "Die leuchten nicht und werden nicht erkannt, dabei haben sie reingepasst!"
  5. Es gibt NVMe-SSDs für Server. Die haben Anschlüsse vom Typ U.3 und nicht M.2 und passen in die gleichen Einschübe wie SATA und SAS.
  6. Hallo zusammen Einige VMs auf einem Hyper-V-Cluster verlieren in unregelmässigen Abständen die Netzwerkverbindung. VMs und Hosts laufen auf Windows Server 2022. Der Unterbruch passiert pro VM etwa einmal im Monat. Es kann aber auch schon nach zwei Wochen sein oder erst nach zwei Monaten. Die Netzwerkkarte ist dann weg. Es hilft nur noch, die VM aus- und wieder einzuschalten. Eine Live-Migration auf einen anderen Host hilft nicht, ein normaler Neustart scheitert, weil er beim Herunterfahren hängen bleibt. In der Ereignisanzeige sind vor einem Unterbruch keine Fehler zu sehen. Es lässt sich auch nicht eruieren, dass die Benutzer etwas Spezielles gemacht hätten. Wenn der Unterbruch passiert, wird nur eine Meldung vom Typ "Information" erzeugt: Quelle "Hyper-V-Netvsc", ID 10, Text "Die Miniport-NIC 'Microsoft Hyper-V Network Adapter" wurde unterbrochen. Die betroffenen Server waren bis jetzt ausnahmslos Terminalserver und haben Benutzerprofildisks über FSlogix eingebunden. Bei den VMs mit anderen Rollen ist das Problem noch nie aufgetreten. Ich habe im Internet ein paar Meldungen zu Netzwerkproblemen bei Azure-VMs mit FSlogix gefunden, aber leider keine Lösung. Das Problem scheint schon mehrere Jahre zu bestehen, aber es wird nur unter seltenen Umständen auftreten, sonst wäre es längst behoben. Kennt jemand eine Lösung?
  7. Der Extremfall waren 273 zugeteilte vCPUs auf einem Host mit 32 Cores. Das ergibt eine Überbuchung von 8.5:1 bzw. 4.3:1, wenn man HT einberechnet (was ja bekanntlich nicht "voll" zählt). Auf diesen VMs konnte man zeitweise kaum arbeiten, obwohl die Auslastung weder in den VMs noch auf dem Host über 20 % war. Die "CPU Wait Time Per Dispatch" war extrem hoch (habe mir den Wert leider nicht notiert). Als man die zugeteilten vCPUs massiv reduziert hat (zwei für DCs, einen pro zwei bis vier Benutzer auf den Terminalservern etc.), war das System erheblich schneller. Wobei zu erwähnen ist, dass der Host auf Windows Server 2016 lief, bei dessen Scheduler immer alle vCPUs einer VM gleichzeitig Ausführungszeit bekommen mussten. Da dauert es halt schon, bis 24 Cores für den TS frei sind, wenn jeder Webserver auch schon 16 Cores hat... Zudem wurde durch das Überschreiten der NUMA-Grenzen Performance verschenkt.
  8. Ich finde die Geräte interessant. Als "Heimserver" habe ich bisher auf Intel NUCs gesetzt. Der MS-01 könnte dank SFP+ und mehreren M.2-Slots ein guter Nachfolger sein. Als Hypervisor für Kunden würde ich ihn nicht einsetzen. Da fehlen mir das redundante Netzteil, Hot-Swap der SSDs, ein bewährter RAID-Controller... Und wer liefert zeitnah Ersatzteile? Horizontal zu skalieren und einen Cluster zu bauen, ist eine Möglichkeit. Der kurze Unterbruch (Neustart) der VMs bei einem Ausfall würden die Kunden wahrscheinlich akzeptieren. Das Gerät fällt hoffentlich nicht jeden Monat aus. Aber welcher kleinere Kunde bezahlt Dir die Windows-Lizenzen für einen Clusterbetrieb? Und Dir die Mehrarbeit für die Updates? Es gibt Beispiele, wie Unternehmen "Billighardware" erfolgreich professionell einsetzen. Backblaze verwendet normale SATA-Disks und die ganzen Anbieter von "Root-Servern" bauen ihre Kisten selbst zusammen. Das geht aber nur, wenn man genug gross ist, um selbst für Ersatzteile zu sorgen, also immer genügend Ersatzgeräte an Lager zu halten.
  9. Wie Du inzwischen selbst nachgelesen hast, kann der Hyper-V mittlerweile die vCPUs nacheinander "ausführen". Jede vCPU ist ein eigener Thread. Leider halten sich die (öffentlich zugänglichen) Informationen über den Scheduler in Grenzen, so dass ich nicht weiss, wann genau das eingeführt wurde. Das "Problem" bleibt, dass die VM nicht weiss, was der Hyper-V macht. Je nach Anwendung läuft eine Berechnung auf zwei Threads, die das Gastbetriebssystem auf zwei vCPUs verteilt und weil der eine Thread auf das Resultat des anderen angewiesen ist, dauert die Berechnung länger, als wenn sie nacheinander auf einer vCPU ausgeführt worden wäre. Wobei das in den meisten Fällen eher theoretische Überlegungen sind. Bei massiver CPU-Überbuchung habe ich schon Probleme in der Praxis gesehen. Terminalserver waren so langsam, dass sogar Eingaben verzögert erschienen sind. Dabei hat der Task Manager nur wenige Prozent Auslastung angezeigt. In der Panik wurden denn noch mehr vCPUs zugeteilt...
  10. Bei den vCPUs gilt "so wenig wie möglich, so viel wie nötig". Ich konnte mich aber nie dazu durchringen, eine VM mit nur einem Core zu betreiben. Wenn die Maus während Windows Updates ruckelt, bekommt man ein ungutes Gefühl. Zudem platziert der Core-Scheduler, der seit Server 2019 standardmässig aktiv ist, keine vCPUs unterschiedlicher VMs auf dem gleichen Core. Dies zur Verhinderung von Spekulations-Angriffen. Deshalb wohl auch die Empfehlung, immer eine gerade Zahl zu verwenden. DCs bekommen bei mir deshalb zwei vCPUs. Zwar müssen nicht mehr alle vCPUs gleichzeitig laufen, aber der Scheduling-Overhead wächst mit deren Anzahl. Zudem stösst man irgendwann an die NUMA-Grenze. Ist man zu grosszügig, überschreitet man je nach Umgebung die Empfehlungen zum Overcommit. Da schreibt Microsoft von 4:1 als empfohlen und bis 8:1 unterstützt, wobei das natürlich keine fixe Grenze ist. Bei Kunden habe ich mehrmals gesehen, dass jede VM so viele vCPUs hatte wie der Host Cores. Das ist gut gemeint, aber kontraproduktiv. Man sollte keine Angst vor CPU-Auslastung haben, schliesslich soll die CPU arbeiten. Wenn ein Datenbankserver im Tagesmaximum zu 80 % ausgelastet ist, ist das gut und kein Warnsignal für "der braucht viermal mehr Cores".
  11. Das wusste ich noch nicht. Ich bin davon ausgegangen, dass Veeam nur auf denselben Hypervisor restoren kann. So ist es noch einfacher und geht ohne Umweg über Agents in den VMs. Habe eine kurze Demo gefunden:
  12. Mit Starwind habe ich schon viele Migrationen erfolgreich erledigt. Aber V2V ist nichts, was man im Stress nach einem Hardwareausfall machen will. Jedenfalls nicht, wenn man es sauber machen will: VMware Tools vorgängig deinstallieren, nicht mehr vorhandene virtuelle Hardware entfernen etc. Die IP-Adressen muss man neu setzen und es gibt Software, die danach eine neue Aktivierung über die Hotline des Herstellers verlangt. Falls es nur wenige VMs sind und das Szenario sich nicht ändern lässt, würde ich eher noch in jeder VM den Veeam Agent installieren und aus dem laufenden OS heraus sichern. Solche Sicherungen sollten sich auch auf Hyper-V wiederherstellen lassen. Dann sparst Du Dir die Konvertierung.
  13. Defekte RAID-Controller im erweiterten Sinn hatte ich erst zweimal: Einmal ist ein Mainboard mit Onboard-Controller ausgefallen und einmal ein Controller in einem MSA (SAN-Speicher). Ich empfehle, die Server von einem Markenhersteller zu kaufen und dessen RAID-Controller zu verwenden. Dann fällt das Problem "baugleichen Controller suchen" weg, weil erstens die Garantie den Controller einschliesst und zweitens die Controller untereinander kompatibel sind. Zumindest bei HP kann man einfach die Disks/SSDs in einen anderen Server stecken und dessen Controller erkennt das RAID.
  14. Ja, genau das meinte ich. Die Fritzbox darf sich nicht per Router Advertisement oder DHCPv6 als DNS-Server ankündigen. Neuere Windows-Versionen bevorzugen IPv6 und lösen die Namen dann über IPv6 auf. Falls der Internetzugang IPv6 kann, wäre die saubere Lösung, das auf dem Server zu konfigurieren, damit die Auflösung intern und extern funktioniert. Falls IPv6 nicht benötigt wird, kann man per Registry IPv4 präferieren: https://learn.microsoft.com/en-us/troubleshoot/windows-server/networking/configure-ipv6-in-windows Das funktioniert selbst dann, wenn sich auf der Fritzbox die Ankündigungen nicht vollständig deaktivieren lassen (habe ich bei anderen Routern schon erlebt).
  15. Kündigt sich die Fritzbox über IPv6 als DNS-Server an? Was sagt "ipconfig /all" gleich nach dem Start und nach einiger Zeit (wenn die Auflösung falsch ist)?
×
×
  • Neu erstellen...