Jump to content

zahni

Expert Member
  • Gesamte Inhalte

    19.436
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von zahni

  1. Coldfusion ist von Adobe http://www.adobe.com/de/products/coldfusion-family.html Den hatten wir früher auch mal im Einsatz. Mir fällt da spontan nicht ein, wozu man den IIS-Manager braucht. Allerdings bin ich raus aus der Nummer. Seit der Übernahme von Macromedia hat sich viel geändert. In unserer letzten Versionen wurde CFML im Java übersetzt und dann an einen Java Applications-Server übergeben.
  2. Hm, vielleicht galt diese Einschränkung auch nur für 2008 https://social.technet.microsoft.com/Forums/windowsserver/en-US/459d863e-dfee-483b-9ff9-7be604541105/how-to-modify-a-certificate-template?forum=winservergen (Beitrag von Thomas Vuylsteke [MSFT])
  3. Was ist bei 2012R2 ein Essential Business Server? Ich dazu nichts. Ich finde nur "Essential". Sorry, kenne mich da nicht so aus. Wenn es eine "Essential"-Version hast, geht die nicht. Du brauchst eine Standard Edition (oder besser). Inkl. der dann notwendigen CALs.
  4. Was ist das denn für eine CA? Fall das noch Windows 2008R2 Standard (oder älter) ist, kann man keine Templates erstellen oder bearbeiten. Dafür brauchte man Windows Enterprise oder Datacenter. Ich gerade nicht, ob diese Einschränkung auch für 2012R2 gilt.
  5. https://library.netapp.com/ecmdocs/ECMP1196912/html/GUID-59468979-C58C-4283-9DC5-427BD0797A08.html Allerdings braucht man pro Controller mindestens 4 SSDs (RAID6 + Spare).
  6. Und aus einer Essential-Version kann man keinen RDS-Server machen. Dazu braucht man einen 2. Server mit einer "Vollversion" .
  7. Du ein paar Partitionen, wo etwas von Hyper-V steht. Bei anderen nicht. Wie muss man das verstehen?
  8. Wie schon geschrieben: Es wurde alles aktualisiert. VMWare meint, ich soll ein Ticket bei HPE aufmachen :suspect:
  9. Das hängt nun wirklich vom "NAS" ab. Es gibt auch welche ab 150.000 EUR aufwärts....
  10. Bei VMWare auch NFS. Ist eventuell ISCSI vorzuziehen.
  11. Bitte daran denken, dass Android-Outlook sämtliche Mails über einen Cloud-Dienst abruft, auch die vom eigenen Exchange. War zumindest in den ersten Versionen so. Habe mich danach nicht mehr mit beschäftigt. Wenn man den Blackberry-Container verwendet, dürfte das aber eh keine Rolle spielen.
  12. Man könnte jetzt dagegen halten: Wenn Samsung die Apps zwangsweise mit ausliefert, ist das nicht Dein Problem. Die Frage bleibt, ob die Apps überhaupt nutzbar sind (Kopplung an MS-Konto).
  13. Über Google komme ich auf diese Seite: https://products.office.com/de-de/business/office-365-mobile-apps-for-business Mal ganz davon abgesehen tun diese Apps ohne ein verknüpftes Microsoft-Konto nichts (zumindest in meiner Erinnerung). Ich denke mal, solange die Apps im privaten Teil laufen und nicht mit dem BB-Container verknüpft sind, sollte es kein Problem geben. Dann kann man sie nicht "dienstlich" nutzen.
  14. Es ist nicht verboten im Vorfeld ein Fachkonzept durch eine Kompetente Fa. erarbeiten zu lassen. Wichtig ist, dass alles was dort entsteht, Bestandteil der Ausschreibung wird, damit diese Fa. bei einer späteren Beteiligung an der Ausschreibung keine Vorteile hat.
  15. Dann sind die halt irgendwie kaputt. Vielleicht schreibst Du an den Autor?
  16. Ich würde mal sagen: Da die ADMX viel neuer als die deutsche ADML passen die nicht mehr zusammen. Hast Du die englische ADML probiert? Ansonsten ist die Lösung da auch nur eine Krücke. Nimm lieber Chrome, da gibt es echte GPO's.
  17. Bearbeite die GPOs einfach an einem Windows 10-Client: https://www.microsoft.com/de-DE/download/details.aspx?id=45520 BTW: Wo ist ist die Mozilla ADMX her?
  18. Hm, das Backup hat lt. Protokoll 4h gedauert. Ein Restore von einem Verzeichnis (mit vielen Dateien, 93 GB) 4h 40 min. Das muss ich nicht verstehen... Ein Restore-Versuch von Tape habe ich nach 1h abgebrochen, da hatte er erst 6 GB geschafft. Edit: Restore einer einzelnen Datei geht flott (4 min von Maglib). ich frage mich, ob Commvault das NDMP-image für jeder Datei oder Ordner neu durchsucht. Das würde die Laufzeit erklären. Jetzt teste ich ein Restore mit der Option "use direct access restore" = OFF.
  19. Versuch eines Reboots einer VM: Bei mir ist es System-Log, Event 1074, Quelle User32: The process wininit.exe ([remote_ip_adress]) has initiated the restart of computer TESTVM on behalf of user Domain\user for the following reason: Legacy API shutdown Reason Code: 0x80070000 Shutdown Type: restart Comment:
  20. Darf ich fragen, warum "FTP" genutzt wird? Zumal sich "zu Hause" die Heimnetzwerk-Funktion anbietet.
  21. Nein, die Maglib nutzt derzeit kein Dedup. Das Backup wurde aber auf dem MA komprimiert (so haben wir zur Maglib normalerweise einen höheren Durchsatz) Die Frage ist, warum es ewig dauert das lokal gespeicherte Image zu durchsuchen. In der Zeit habe ich 1,5 TB 100x hin- und her kopiert. Wenn der MA irgendwas sucht, sind immer 6 Chunks gleichzeitig geöffnet und es wird richtig I/O in der Maglib produziert. Wenn er dann wohl was gefunden hat, sind es nur 1-2 Chunks, deren Daten dann zur Netapp geschickt werden. Das verstehe ich irgendwie nicht. Ich werde morgen mal was von der Auxcopy zurücksichern. Mal sehen, ob das auch so lange dauert (es läuft immer noch, 3h 10min).
  22. Hier kann ich auch nur wieder empfehlen, sich einen DL zu suchen, der sich damit auskennt. Womit man sich mal beschäftigen kann: Duplizierung (die schafft bei den Dateitypen sicher viel weg), Komprimierung (die Dateien sind nicht ständig im Zugriff). Kann mit Windows machen oder einem geeigneten Storage. Mit einer geeigneten Backup-Lösung kann man Inhalte auch so archivieren, dass man sie manuell durch eine Datenbankabfrage wiederfindet bzw. das dazugehörige Tape. Die einfachste Lösung: Anwender sollen Löschungen von alten Daten dokumentieren (Datum und Pfad). Dann findet sie mit jeder guten Backup-Software wieder... Da Tape extern gelagert werden sollten, finde ich persönlich eine HSM-Lösung unpraktisch. Aber damit kenne ich mich nicht wirklich aus.
  23. Hi, da unserer Spezi gerade nicht erreichbar ist, mal eine Frage: Kennt sich jemand mit den NAS-Agenten via NDMP an eine Netapp aus? Ich teste gerade Backup&Restore der Filer SVM. Dazu konnte ich nun erfolgreich alle Volumes des Filers per NDMP in eine Commvault Maglib sichern (Full Backup). Nun will ich zum Test einen größeren Ordner zurücksichern. Im Prinzip klappt das auch, es ist aber elend langsam. Im Restore-Job ist die Option "use direct access restore" eingeschaltet. Lt. Doku sollen so nur selektieren Files aus dem NDMP-Backup gelesen werden und zur Netapp geschickt werden. Wenn ich mir DISK-I/O (Maglib) und die Netzwerk-Auslastung zu anschaue, klappt das auch so. Allerdings sucht Commvault nun schon seit 2h die Dateien zusammen. Insgesamt hat die Sicherung rund 1,5TB (auf der Maglib komprimiert) bei rund 2,5 Millionen Dateien. Kann man das irgendwie beschleunigen? Das ganze NDMP-Image zur Netapp schicken dauert vermutlich noch länger. Das Backup lief rund 4h (der Media Agent ist derzeit nur mit 1Gbit/s angebunden, ist ein Blade und ich kann die Switche jetzt nicht tauschen). -Zahni
  24. "Die lokalen Administratoren haben"... Das ist wohl Dein Hauptproblem. Unsere PCs haben keine lokalen Administratoren bzw. sind die Konten alle deaktiviert und mit einem Sinnlos-Password belegt. Wenn ein PC remote heruntergefahren wird, steht das hinterher im Eventlog (u.U. auch unter "Security"). Da sollte die Quelle gefunden werden. Und vermutlich solltet Ihr Euch fachmännische Hilfe im Bereich IT-Security holen.
  25. /B steht für "Backup Mode". Was Ihr da jede Nacht wie spiegelt, verstehe ich nicht ganz. Ich könnte jetzt sagen: Man macht sich im Vorfeld um ein vernünftiges Backup & Recovery-Verfahren Gedanken und testet, ob das Recovery auch funktioniert.
×
×
  • Neu erstellen...