Jump to content

NilsK

Expert Member
  • Gesamte Inhalte

    17.511
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von NilsK

  1. Moin, eigentlich nicht, der lokale Admin sollte die Berechtigungen auch korrekt sehen. Wobei man auf einem Domänenmitglied nicht mit lokalen Konten arbeiten sollte. Sollte es nach der Neuaufnahme immer noch nicht gehen, gib bitte mal die Ausgabe von "cacls C:\Pfad\*.*" für einen Ort an, an dem du Berechtigungen für Domänenuser oder -gruppen vergeben hast. Gruß, Nils
  2. Moin, beantworte bitte noch meine zweite Frage. Falls ein Neustart nichts bringt, nimm den Server einmal aus der Domäne, lösche das Computerkonto und nimm den Server neu auf. Hilft das? Gruß, Nils
  3. Moin, es könnte durchaus sein, dass sich das über einen Screenrecorder am effizientesten lösen lässt. In der aktuellen c't ist eine Marktübersicht dazu. Gruß, Nils
  4. Moin, hm, das klingt obskur. Gibt es Meldungen im Eventlog, die direkt oder entfernter damit zu tun haben könnten? Hast du den Server schon neu gestartet und geprüft, ob das danach auch noch auftritt? Gruß, Nils
  5. Moin, wo liegen denn die Dateien? Evtl. kommt dir die Dateisystemvirtualisierung der UAC in die Quere. Gruß, Nils
  6. Moin, das Argument höre ich oft. In der Praxis trifft es aber selten zu. Der "Klon" unterscheidet sich meist so sehr vom Original, dass die Aussagekraft sehr begrenzt ist. Wenn überhaupt, dann nur solche mit Herstellersupport für das Zielszenario. Das sollte man dann insbesondere für die Applikationen genau überprüfen. Und zwar für jeden Einzelfall. Dort hast du dieselben User-IDs, Kennwörter und Daten wie in der Originalumgebung. Damit braucht die Testumgebung auch exakt denselben Schutz - hat sie aber normalerweise nicht. Testlabs sind meist Rechner neben dem Adminbüro oder das Admin-Notebook selbst. Ich habe mal ein Klon-Testlab neben dem Cola-Automaten gesehen. Warum soll sich dann ein Angreifer die Mühe machen, die Realumgebung anzugreifen, wenn er den Klon einach mitnehmen kann? Und: Man wäre nicht der erste, der etwas im Testlab ausprobiert - um nach dem Fehlschlag festzustellen, dass es gar nicht das Testlab war, sondern die Echtumgebung, die ja genauso aussieht ... Gruß, Nils
  7. Moin, berücksichtige drei Dinge: 1. Ein DC sollte nur DC (und DNS) sein, aber keine weiteren Anwendungen ausführen. Sonst erzeugst du genau die Abhängigkeiten, die du jetzt bemerkst. 2. Ein DC sollte niemals online per P2V virtualisiert werden, sondern ausschließlich offline. Da disk2vhd online arbeitet, erzeugst du damit ein USN Rollback und machst den DC funktionsunfähig. Sofern es um einen Einzel-DC für eine Testumgebung geht, mag das gehen, aber produktiv niemals. 3. disk2vhd ist kein P2V-Tool und sollte produktiv nicht genutzt werden. Berücksichtige zudem, dass ein Klon als Vorlage eines Testlabors hochgradig sicherheitskritisch ist. Besser ist, die Testumgebung anhand von Eckdaten der Realumgebung nachzubilden. Gruß, Nils
  8. Moin, und das Backup läuft mit welcher Software? Gruß, Nils
  9. Moin, was genau sicherst du denn mit welcher Methode? Mir ist gerade überhaupt nicht klar, wozu man da in der Registry was ändert. Und was "Facets" ist, weiß ich auch nicht. Also bitte mal ein paar mehr Worte zur Umgebung und zur Situation, sonst kommen wir hier wohl nicht weiter. Gruß, Nils
  10. Moin, das passt nicht zusammen: Entweder NAS (= Zugriff über CIFS) oder iSCSI (= Zugriff blockorientiert über SCSI/iSCSI). Die Fehlermeldung klingt eher nach CIFS. Bitte noch mal genau beschreiben, was da wie angebunden ist und was wohin gesichert bzw. woher wiederhergestellt werden soll. Gruß, Nils
  11. Moin, dann berücksichtige dies: Augen auf beim Hardwarekauf: I/O-Performanceverlust bei Virtualisierung von Windows XP? - .: Daniel Melanchthon :. - Site Home - TechNet Blogs Gruß, Nils
  12. NilsK

    Veeam Infos

    Moin, wenn ich noch mal ganz kurz in die Runde werfen darf: Die erste Rückfrage in diesem Thread bezog sich auf die Anforderungen. Das war bislang der beste Beitrag in dieser Diskussion, leider ist er praktisch nicht aufgenommen worden. Aus meiner Erfahrung sind für einen großen Teil der wichtigen Serversysteme eines Unternehmens Backups auf VM-Ebene keine gute Idee, wenn man auch das Recovery betrachtet. Daher sollte man tatsächlich die Definition der Anforderungen ernst nehmen - und zwar der Recovery-Anforderungen. Oder kürzer: Backup braucht kein Mensch. Recovery ist die Kunst. Gruß, Nils
  13. Moin, hat der zweite DHCP-Server selbst eine IP-Adresse aus dem Bereich, den er verteilen soll? Gruß, Nils
  14. Moin, prima, danke für die Rückmeldung! Gruß, Nils
  15. Moin, mit nicht ganz fernliegenden Suchausdrücken habe ich innerhalb von Sekunden dieses Skript gefunden, das durchaus einen Test verdienen würde: Adding an LDAP address book to MS Outlook - CodeProject Gruß, Nils
  16. Moin, deine Auflistung enthält nicht eine einzige konkrete verwertbare Anforderung. Schon gar keine, aus der sich ein Erfordernis für Hochverfügbarkeit, geschweige denn für eine bestimmte Verfügbarkeitstechnik ableiten ließe. So wird das nix. Ich klinke mich hier aus. Beratung auf diesem Level ist in einem Forum nicht zu leisten. Gruß, Nils
  17. NilsK

    DC Replikationsproblem

    Moin, die repadmin-Meldungen bedeuten, dass auf dem betreffenden DC die Replikation komplett abgeschaltet ist. Entweder ist das manuell so eingerichtet worden, oder das System wurde dazu gezwungen. Letzteres tritt bei einem USN Rollback auf. Ist einer der beiden DCs auf den Stand eines Image bzw. Snapshot zurückgesetzt worden? Wenn nein (und nur wenn nein!): Was passiert, wenn ihr die Replikation auf dem DC wieder einschaltet? Gruß, Nils
  18. Moin, der Benutzer, dem die ABP zugewiesen wird, muss (bzw. sollte) derselben GAL angehören. Ist das in deinem Test der Fall? Understanding Address Book Policies: Exchange 2010 Help Gruß, Nils
  19. Moin, du kannst im Outlook ein LDAP-Verzeichnis direkt als Adressbuch einbinden. Ein Abgleich mit Exchange bzw. dem AD ist dazu nicht nötig. In Outlook 2010 geht der Weg dahin über die Kontoeinstellungen, dann die Registerkarte "Adressbuch" und "Neu". Gruß, Nils
  20. Moin, ja, aber zuerst wolltest du doch die Anforderungen genau definieren ... Gruß, Nils
  21. Moin, Hochverfügbarkeit muss sich immer an den Anforderungen orientieren. Dazu lese ich bei dir praktisch nichts. Begehe nicht den beliebten Fehler, die konkrete Technik bereits vor der Planung festzulegen. DFS ist für die meisten Verfügbarkeitsszenarien nicht geeignet. Um zu prüfen, ob es bei dir evtl. doch passt, musst du aber genau wissen, was du erreichen willst. Und nein, "ich will den File Service high available haben" ist dafür keine ausreichende Beschreibung. Bei Weitem nicht. Gruß, Nils PS. Es heißt highly available.
  22. NilsK

    GPO Migration

    Moin, Norberts Antwort war genauso nett und gut gemeint. Er hat den ersten Teil der Oder-Frage mit "ja" beantwortet, den zweiten mit "nein". Effektiv dasselbe wie ich. Nee, dann klingt Norbert anders. ;) Allenfalls war er ironisch aufgrund deiner Anforderung "nur ja oder nein". Aber lassen wir das. Gruß, Nils
  23. Moin, nur weil Virtual Box VHD-Dateien lesen kann, laufen die VMs aber noch lange nicht. Es handelt sich um unterschiedliche Plattformen! Hyper-V gibt es in Windows 7 nicht. Du wirst die Hyper-V-VMs also in der Form nicht ausführen können. Gruß, Nils
  24. NilsK

    DNS Alterung

    Moin, bei einer AD-integrierten Zone versuchen alle Server, die Einträge aufzuräumen. Meist wird empfohlen, dies ausdrücklich auf einen Server zu begrenzen. faq-o-matic.net » Endlich Ordnung auf dem DNS-Server Gruß, Nils
  25. Moin, mir kommt gerade ein böser Gedanke ... Da mit Windows Server 2012 die Lizenz ja offensichtlich nicht mehr der VM zugewiesen werden kann, sondern der Hardware zugewiesen wird, ist der kostenlose Hyper-V-Server 2012 für den Betrieb von 2012-VMs nutzlos geworden. Fragt sich also, wozu das Ding noch da ist. Und da könnte evtl. die Lösung liegen, falls Microsoft tatsächlich nach Franz' Vermutung handelt. Redmond könnte sich darauf zurückziehen, dass für das Szenario des TO eben der Hyper-V Server das richtige Produkt sei: Die neue Technik ohne Lizenzkosten, und die bereits lizenzierten VMs laufen mit ihren vorhandenen Lizenzen darauf. (Wäre für den TO ja insgesamt sogar positiv.) Das hieße dann aber: Wenn es dabei bleibt, dass ein Cluster mit dem kostenlosen Hyper-V Server keine Hosts mit dem "Vollprodukt" enthalten kann, müssten viele Kunden zwei separate Cluster betreiben: Einen mit 2012 Standard/Datacenter für die "neuen" 2012-VMs und einen zweiten mit Hyper-V Server für die "alten", bereits lizenzierten VMs. VMs mit Linux (oder anderen Fremdlizenzen) hingegen könnten auf einem beliebigen Cluster laufen ... Da auch das kein besonders sinnvolles Szenario ergibt, hoffe ich immer noch, dass Franz sich irrt. (Genauer: Ich gehe davon aus.) Das ist ja eben meine Lesart. Franz versteht Q13 so, dass es Lizenzen anderer Versionen ausschließt, ich verstehe das nicht so (Q13 bezieht sich ausdrücklich auf Prozessor-Lizenzierung, und die gibt es bei 2008/R2 Standard nicht). Ich deute den Passus so, dass man z.B. bei einem 4-CPU-Host nicht mit einer Lizenz 2012 Standard für 2 CPUs und 2 "alten" Lizenzen 2008 R2 Datacenter für die anderen beiden CPUs arbeiten darf. Ja, wir sollten abwarten, bis es dazu eindeutige Regelungen gibt. ;) Gruß, Nils
×
×
  • Neu erstellen...