Jump to content

Squire

Expert Member
  • Gesamte Inhalte

    4.259
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Squire

  1. Also die Konvertierung durch den StarWind ist gar nicht mal so schlecht. Was ich oben vergessen habe war, dass ich die VMs heruntergefahren hatte. Keine einzige VM verlor übrigens ihre Aktivierung! Also waren die virtuelle Hardwareänderung nicht so gewaltig. Was die Umgebung angeht - das sind meine Systeme zu Hause - nenn es Spielumgebung/Lab mit ein paar produktiven Funktionen. Im größeren Umfeld hätte ich natürlich vorher getestet. Bei mir zu Hause ... egal! Außerdem sind ja die VMs noch unverändert auf dem ESX - die sind ja nicht weg. Somit gibt/gäbe es "a way back" und ich könnte immer noch ESX7 drauf ziehen wenn es mich überkommt und die Kisten per Storage VMotion schubsen ... und in der ESX StoreOnce liegen auch noch die Backups ... Der DC wird eh demnächst neugemacht und wie gesagt, nach dem ich "meinen" Weg gefunden hatte, hat keine VM mehr gehustet und die Eventlogs sind sauber ... Für mich die Erfahrung .. ja kann man so machen und manchmal muss man es sogar so machen, wenn Du in einer Firma "Altlasten" hast, die Du anders nicht umziehen kannst.
  2. Na Nils … "alles falsch gemacht" ? Findest wirklich? Ja die Konvertierung war Trial&Error aber da findest in der Doku halt auch nix. Wie auch immer - ich steh zu meinen Fehlern und nur durch Ausprobieren lernt man was (das begleitet mich u.a. durch mein ganzes IT Leben). Außerdem ... wenn jemand der Bericht hilft meine gemachten Fehler oder Umwege zu vermeiden .. dann passt das so!
  3. Hallo zusammen, ich wollte mal einen kurzen Erfahrungsbericht posten. Meine bisherige Umgebung lief auf einem HP Proliant ML350G6 (6x300GB SAS und 2x 1TB SAS) mit 96GB Ram. Darauf sammelten sich im Laufe der Jahre einige VMs unter ESXi 6 und dann 6.5 (unsupported) an ... (DC, DB, File/Print, Exchange, Sharepoint, Application ... unter Windows 2012R2 und Win 2016/2019, sowie ein paar Linux Kisten (Ubuntu bzw. Appliances) ... was man halt so zum Spielen und im Nebenerwerb so braucht ... Ich hatte nun in den letzten Tagen über Ebay Kleinanzeigen einen sehr günstigen Dell PowerEdge R730 geschossen (4x400GB SSD, 4x600GB SAS) mit 128GB Ram ... diesen noch mit einer zweiten Drivebay und entsprechender Backplane, sowie zusätzlichen 4x600GB SAS 12G Platten bestückt ... nettes Spielzeug! (sau schnell (die SAS Platten im Raid6 sind schneller als die SSDs im Raid5 ... bis zu 3.6GB/sec!) und braucht deutlich weniger Strom als der HP) ... Zuerst war die Überlegung .. machen wir es einfach ... klatschen ESXi 7 drauf und schieben die VMs einfach mit Storage VMotion rüber. ESX7 auf den Dual SD Cards installiert, wobei mich dann gleich die Warnung von VMware gestört hat, dass die CPU ggf. in zukünftigen Versionen nicht unterstützt wird ... kurz überdacht ... ok ... dann versuchen wir Windows 2022 mit Hyper-V! Windows Installation durchgeführt, Rolle hinzugefügt, dann die ersten "Stolpersteine" ... der Netzwerkkram ist schon anders als bei VMware, vor allem wenn man wie ich mit VMware seit der Version 3 rumhantiert ... der Dell hat 6 Netzwerkkarten, diese wollte ich natürlich vernünftig nutzen .. also Teaming ... 2 Nics Managementnetzwerk, 2 Nics VMs (LAN), 2 Nics (WAN). Also ... Servermanager und Team für Mangement erstellt ... passt .... dann warum braucht die Kiste eigentlich auf den VM Netzwerkkarten auch IPs? Brauch ich doch bei ESX auch nicht ... naja egal ... also Team erstellt .. im Switchmanager ausgewählt (Microsoft Multiplex irgendwas ...) ... Fehler! Depreciated .. Geht nicht! Was zur Hölle ... kurz gegoogled ... ah toll .. Hyper-V Teamadapter geht nicht über GUI muss per Powershell erstellt werden ... Danke Microsoft für die "durchgängige" Administration und Bedienführung! (Nervt mich auch bei Exchange ... wenn GUI, dann doch bitte auch für alle Funktionen!). Nach ner Weile war dann die Konfiguration durch ... dann ... wie krieg ich die VMs jetzt rüber ...? Mehrere Möglichkeiten ... Microsoft hatte einen Converter ... (Betonung liegt auf hatte - wird nicht mehr zum Download angeboten!) ... Also gut Veeam ... Hyper V in Veeam hinzugefügt ... wird angezeigt ... perfekt. Migration ... nö geht nicht. Dazu muss eine Agentsicherung der VMs gemacht werden. Diese kann dann auf dem Hyper-V wiederhergestellt werden ... Ach nö ... nochmal alle Kisten per Agent sichern ... muss das sein? Gibts vielleicht einen anderen Weg? Ja gibt es und der ist sogar kostenlos! Nennt sich StarWind Converter V2V. Das V2V muss man noch mit P2V, V2C und P2C ergänzen ... Also ... Download ... 39MB ... wie das ist alles? Da sind ja fast alle Druckertreiber heute größer! Also gut, installiert und aufgerufen ... Migration von ESX Host ausgewählt, Zugangsdaten eingegeben und die VMs werden aufgelistet ... Zu erst gleich mal eine Linux Kiste ausgewählt. Warum? Weil die von den Ressourcen (mit 15GB HDD) schön klein war ... also Zielsystem Hyper-V ausgewählt .. Zugangsdaten eingetragen, ... und Konvertierung läuft. Nach zwei Durchgängen war er fertig. neugierig wie ich nun mal bin ... VM gestartet ... und ... läuft kommt ohne Probleme hoch ... freu! Aber kein Netzwerk ... bisserl gegoogled ... und auch schnell den Grund gefunden ... auf dem ESX hieß das Netzwerk Interface ens160 (warum auch immer) ... auf dem Hyper-V heißt das Device im Ubuntu nun eth0 ... wie sieht man das? ifconfig -a zeigt alle Netzwerkinterfaces an ... ifconfig eth0 up und das Interface ist gestartet ... IP nö ... immer noch nicht ... also die Netzwerk Config unter /etc/netplan anschauen .. und siehe da .. da steht noch ens160 drinnen .. durch eth0 ersetzt ... Kiste neugestartet .. alles fein. Fazit: Das war ja einfach ... dann muss Windows ja noch leichter gehen ... Äh ... theoretisch! Als Nächstes schubs ich mal den DC ... Snapshot wird erstellt, der Converter macht seine Arbeit (nicht gerade rasend schnell, aber egal). VM ist drüben. Also DC auf dem ESX runtergefahren ... auf dem HyperV gestartet ... läuft an .. hey schaut gut aus ... bootet ... nähert sich dem Anmeldebildschirm und ... nö helblauer Schirm ... Reboot ... Abgesichert probiert, ... nö ... das kann doch nicht wahr sein! Ist doch eigentlich nur ein 2012R2 ... ne ... der will nicht ... andere Kiste versucht ... konvertiert ... geht. Häh? Der 2016er geht der 2012er nicht? Neuer Versuch mit dem DC ... GEN1 Version VM ... nö ... Gen2 Version VM ... nö. So langsam bin ich angefressen. Also wieder Tante Google ... was ich da so finde .. ja müsste eigentlich gehen ... irgendwann stoß ich auf einen Artikel, der dazu rät nicht die komplette VM zu migrieren, sondern nur die VMDK ... also gut ... dann halt auf diesen Weg ... GEN1 mit VHD ... gefällt mir nicht .. ich will VHDX Format .. also GEN2 ... die Disk wird übertragen ... neue VM erstellt (Gen2) Disk eingebunden ... Fehlermeldung! Kein UEFI Boot .. na toll ... also VM erstellt .. GEN1 und VHDX eingebunden .. und Kiste bootet durch und alles ist hübsch!. Anmelden, IP Adresse neu vergeben (Gateway steht interessanterweise drinnen) ... IP reingeklopft ... Netz geht ... Internet nicht! Wie bitte? Reboot! Geht immer noch nicht ... wieder in die Netzkonfig .. Gateway ist weg! Manchmal liebe ich Windows! Also Gateway reingeklopft .. So alles ist hübsch und funktioniert! Im Gerätemanager dann noch die Hidden Devices anzeigen lassen und die VMware "Hardware" entfernen ... VMware Tools deinstallieren ... Stop! Das geht nicht! Installer bricht ab. Übliche Versuche wie setup64.exe /c klappt auch nicht ... na gut, zuerst quick & dirty ... Devices im Gerätemanager entfernt und die VMware Dienste auf deaktiviert gesetzt .. irgendwann später wird das dann manuell bereinigt ... Auf diesen Weg hab ich an einem Samstag all meine VMs rüber bekommen ... die Appliances hab ich neu installiert - das ist einfach der schnellere Weg ... der Sophos SUM ist in 5min installiert und im internen SUM Backup ist alles drin - von Lizenz über Zertifikat bis Config ... nach nicht mal 10min war der fertig (geht schneller als 60GB zu konvertieren!). Dell OpenManage und HPE StoreOnce lassen sich auch ziemlich schnell installieren und konfigurieren!. Eine offene Baustelle ist zur Zeit Veeam ... in der Version 11 mag Veeam den Hyper-V 2022 noch nicht so richtig. Man kann ihn hinzufügen und auch Jobs erstellen, die Sicherung geht aber nicht. Fehler ein Objektverweis zeigt auf ein Objekt .. da braucht es wohl V11a (soll Ende September kommen) Ja wie sicher ich nun meinen ganzen Kram? Robert Du hast doch ein QNAP NAS ... da gibt es doch Nakivo ... kurz mal geguckt ... ja gibt Testversion und ja gibt eine frei auf 10VMs limitierte Lizenz ... also ausprobiert ... Fazit ... schaut ganz passabel aus ... Sollte man einen Kunden haben, der ein QNAP (mit Intel oder AMD) hat und ESX oder HyperV, dann kann man die Software sehr gut hernehmen ... Preislich liegt sie in einem erschwinglichen Rahmen (wird nach CPUs oder Workload) lizenziert. So bis auf ein paar Nacharbeiten (VMTools) ist die Migration durch und lief dann nach den ersten Hürden relativ geräuschlos durch ...
  4. Also keinen Trunk auf dem Switch einrichten ... nebenbei .. Guten Morgen Kollege!
  5. Ah ok ... über New-VMSwitch -Name VM-WAN -NetAdapterName "WAN1","WAN2" wird ein SET Switch angelegt. Im Moment hab ich je nur einen Uplink am Switch aktiv ... LB Mode hab ich auf Dynamic gestellt .. würdet ihr Switch Independend oder eher LACP verwenden? Geht hier bei mir zu Hause nur auf einen Switch drauf ... PS C:\Users\Administrator> Get-VMSwitchTeam -Name VM-LAN | Format-List Name : VM-LAN Id : 92d09e47-2993-4c40-a332-b105e5f21f67 NetAdapterInterfaceDescription : {Broadcom NetXtreme Gigabit Ethernet #3, Broadcom NetXtreme Gigabit Ethernet #6} NetAdapterInterfaceGuid : {79454867-8e96-416d-8b63-ed47a66ec7e2, 6643c7de-0342-4d72-81d2-c3e981d6696d} TeamingMode : SwitchIndependent LoadBalancingAlgorithm : Dynamic PS C:\Users\Administrator> Get-VMSwitchTeam -Name VM-WAN | Format-List Name : VM-WAN Id : fcde649b-9b27-4a06-acfe-b93765ceb132 NetAdapterInterfaceDescription : {Broadcom NetXtreme Gigabit Ethernet #4, Broadcom NetXtreme Gigabit Ethernet} NetAdapterInterfaceGuid : {802b9e64-2dfc-475f-99cd-723ed3f71ee4, b1eefcc3-78a4-4c62-a71e-0fd925f02052} TeamingMode : SwitchIndependent LoadBalancingAlgorithm : Dynamic
  6. Hallo, ich betreibe und administriere bisher nur VMware ESX Hosts ... jetzt hab ich mir privat eine "neue" Kiste gegönnt und Windows 2022 draufgezogen. Meine bisherigen VMs vom ESX hab ich mit dem StarWind V2V rübergezogen ... das hat soweit auch ganz gut geklappt. Nun zu meinem "Problem" ... so vollständig versteh ich das Netzworking im Hyper V noch nicht mein Poweredge 730 hat insgesamt sechs Netzwerkkarten (4 auf dem Board und 2 auf einer Steckkarte). Ich wollte diese jeweils als Team im Hyper-V verwenden. Den Teaming Adapter im OS anlegen - das ist mir klar. Mein Swich kann LACP und ist/wird auf den entsprechenden Ports so konfiguriert. Wenn ich im Hyper V einen neuen virtuellen Switch anlege, dann motzt dieser, das das beim Teaming Adapter "depreciated" sei und bei Azure SET statt LBFO genommen werden soll ... was macht man denn nun bei Blech? Ich bin leicht verwirrt ... auch ... warum braucht der zwei IPs ... Hat hier jemand eine Hyper-V Networking Guide for Dummies? Irgendwie ist der Netzwerkkram doch sehr verschieden zum ESX!
  7. wir haben einen NoSpamProxy vor unseren Exchange Servern ... da gibt es keine Quarantäne! Die Mails werden nicht angenommen, wenn sie als Spam eingestuft werden. Der Absender erhält eine klar verständliche Meldung warum die Mails nicht durchgehen (z.B. bei unzulässigen Dokumentanhängen, abgelaufenen Zertifikaten etc.). Die Verantwortung für die gesendeten EMails liegt beim Absender. Wir haben das System jetzt seit einem halben Jahr im Einsatz - am Anfang war es für viele ungewohnt, weil es eben keine Quarantäne mehr gibt. Einige unserer Lieferanten haben wir "erzogen", damit sie ihre Mailsysteme richtig konfigurieren (angefangen von fehlenden SPF Record, fehlende PTRs oder hartnäckigen Senden alter Office Formate). So was setzt halt immer auch ein bisschen Rückhalt und Verständnis der GF voraus.
  8. Ich würde die Kiste virtualisieren! (P2V) mit dem Standalone VMware Converter abziehen und in eine VM gießen. Nach dem der Quell Server ja nicht gerade üppig mit Plattenplatz bestückt ist kannst Du die Vm auf einen normalen PC unter VMware Workstation reinziehen. Dort die Platte virtuell vergrößern und das inplace upgrade probieren. Damit kannst herumspielen bis das Licht ausgeht und du machst nix am Originalsystem kaputt
  9. ich würde eher mal checken, ob die Einträge im DNS für SPF, DKIM oder auch DMARC passen. Für mich hört es sich so an, dass es für den lokalen Exchange (Mailgateway) keinen SPF und PTR Record gibt
  10. Danke Nils, werde ich am Montag ausprobieren ... jetzt geht es ins Wochenende! Ciao Robert
  11. Hi, vielleicht hat jemand was rumliegen ... Cheffe will fürs SAM eine Liste aller User die sich in den letzten 90 Tagen angemeldet haben und keine Email Adresse haben. Das Ganze über alle Domänen hinweg. (Das Ganze wird eh ungenau wegen Unterschied LastLogon und LastLogonTimestamp, welcher ja mit Zeitversatz repliziert wird) Warum kann ich nicht sagen - ich bin da eigentlich nicht involviert und es ist auch nicht meine Baustelle (fällt mir nun auf die Füße, weil der Kollege Urlaub hat)
  12. in den NVidia Einstellungen kann man doch die Bildgröße (Pixelzahl) / Skalierung pro Bildschirm einstellen. Ansonsten den DP Extender wie die Kollegen schon geschrieben haben ...
  13. mal ne blöde Frage .. warum den alten Namen? Spielt doch wirklich keine Rolle oder laufen auf dem DC irgendwelche zusätzlichen Dienste? Normal sollte ein DC ein DC sein und nix anderes!
  14. @Dirk-HH-83 was verstehst Du unter Postfächer klein halten? Von wievielen Usern reden wir? Mailstore hast Du ja schon ... was stört Dich? Ich werfe mal EnterpriseVault mit in die Runde. Erfordert aber einiges an Admin Knowhow im Vorfeld. Jemand, der das Produkt nicht kennt läuft 100%ig gegen die Wand. Für die User ist es eine komfortable Lösung
  15. ich geh mal davon aus, dass Du ein Set-Executionpolicy auf unrestricted gestellt und im IE die Check publisher certivicate revocation auf disabled gestellt hast? Die .net assemblies werden ja alle neu gebaut und wenn der Server den Kram nicht abfragen kann dauerts ... Ich hab mir angewohnt die Powershel Policy vor dem Patchen auf unrestricted zu setzen, den Revocation Check aus und nach der Patcherrei wieder auf RemotSigned und Check an. Ich bin hier noch auf CU19 ... CU20 ist für EnterpriseVault noch nicht freigegeben ... wird wohl Ende des Monats passieren ...
  16. ja .. sowas in der Art ... summiert sich halt und ich hab das Programm Laufwerk unserer Exchange mittlerweile auf 120GB hochgezogen, obwohl wir regelmäßig Logbereinigungen durchführen
  17. dann steht da noch ein Snapshot rum - da kann man die VMDKs nicht erweitern .. also Snapshot entfernen, Disk vergrößern und dann im Windows Rescan im Diskmanager anschließend HDD im Laufenden Betrieb vergrößern. geht bei 2012R2 ohne Probleme ... schon x mal gemacht
  18. Hallo, kann man eigentlich die alten Verzeichnisse löschen? Ich hab unterschiedliche Meinungen gelesen von ja klar bis bloß nicht ... wie handhabt ihr das? Directory of D:\Program Files\Microsoft\Exchange Server\V15\ClientAccess\ecp 6.03.2018 15:04 <DIR> 15.1.1415.2 29.03.2018 12:53 <DIR> 15.1.1415.4 24.06.2018 09:19 <DIR> 15.1.1415.7 24.06.2018 09:28 <DIR> 15.1.1466.3 18.11.2018 13:10 <DIR> 15.1.1466.8 17.02.2019 13:52 <DIR> 15.1.1531.3 14.04.2019 12:15 <DIR> 15.1.1591.10 14.04.2019 12:17 <DIR> 15.1.1713.5 19.05.2019 14:31 <DIR> 15.1.1713.6 18.06.2019 09:52 <DIR> 15.1.1713.7 21.09.2019 13:40 <DIR> 15.1.1713.8 21.09.2019 13:43 <DIR> 15.1.1779.2 20.10.2019 15:58 <DIR> 15.1.1779.5 09.02.2020 13:06 <DIR> 15.1.1779.7 07.06.2020 08:45 <DIR> 15.1.1913.10 09.02.2020 13:09 <DIR> 15.1.1913.5 16.02.2020 12:48 <DIR> 15.1.1913.7 23.08.2020 13:14 <DIR> 15.1.1979.3 17.01.2021 12:06 <DIR> 15.1.2044.12 23.08.2020 13:16 <DIR> 15.1.2044.4 09.09.2020 14:56 <DIR> 15.1.2044.6 20.10.2020 08:54 <DIR> 15.1.2044.7 11.11.2020 11:45 <DIR> 15.1.2044.8 04.03.2021 08:26 <DIR> 15.1.2106.13 17.01.2021 12:09 <DIR> 15.1.2106.2 25.01.2021 13:40 <DIR> 15.1.2106.6 21.02.2021 10:39 <DIR> 15.1.2106.8 04.03.2021 08:28 <DIR> 15.1.2176.2 04.03.2021 09:20 <DIR> 15.1.2176.9
  19. Sollte man eigentlich das BackendCookieMitigation.ps1 laufen und installieren lassen, wenn der Patch darauf ist und er Exchange auch nicht kompromittiert wurde? Hat das irgendwelche negativen Auswirkungen
  20. Hallo zusammen, ich hab hier bei mir ein kleines Phänomen ... Clients sind W10 20H2, IP per DHCP - Testweise hab ich einem Client den DNS Eintrag fest vorgegeben - ändert aber nix am Verhalten. Nach dem Neustart funktioniert die DNS Auflösung nur teilweise ... Mach ich ein ipconfig /renew geht sie ohne Probleme ... Im Eventlog wird kein Fehler bzgl. DNS oder DHCP gelogged
  21. geht ja auch einfach ... erst die eigenen Maschinen patchen und dann den Patch öffentlich machen und schon sind die eigenen Exchange Online nicht betroffen
  22. @NorbertFe müsste es dann nicht AUTOmagic heißen? Dann wär der DNS Record kürzer
  23. das hört sich interessant an ... klappt das beim normalen GotoMeeting auch oder nur beim GotoWebinar?
  24. Chrome macht mich im Moment auch nicht sehr glücklich ... (verhält sich hier auch manchmal so ... und ruckelt bei 280MBit Glasfaser bei YouTube, wenn man mehr als 720p verwendet... Firefox ohne Probleme) Die 100 % Systemlast hab ich hier mit GoToMeeting, wenn ich in Videokonferenzen bin - vielleicht verhält sich da Teams ähnlich und zieht CPU
  25. Squire

    VCSA 7 und HPE Updates

    Ja - Treiber kommen auch über VMware - ich denk, seit der Version 7 mit der Image Geschichte kommt da mehr, da VMware die jetzt zentral bereitstellt - da fallen anscheinend auch Treiber für die Baseline mit ab. Mit der Image Geschichte hab ich mich bisher nicht wirklich auseinandergesetzt ... ich bin mir da unsicher, ob sich das mit knapp 50 Hosts rentiert ... vor allem ... wenn man einmal auf die Image Schiene gewechselt ist gibt es außer durch Neuinstallation keinen Weg zurück ...
×
×
  • Neu erstellen...