Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. Jemand der so etwas sagt, sollte in Seiner Signatur evtl. nicht mit "MCP, MCSA, MCSE" werben. ;) Skriptprogrammierung gehört zu den absoluten Basic's eines Admins.
  2. Wenn es nichts kosten darf würde ich mir die Windows-Eigene Backupsoftware mal ansehen. Wenn Sie den Ansprüchen an das Backup/Restore-Konzept genügt spricht nichts gegen die Nutzung. Ich habe selbst bei vielen meiner Kunden Jahrelang die Software 'Drivesnapshot' genutzt. Kostet pro Server 89€! Klar, man muss dann auch etwas Skripten, wenn das Backup automatisch z.B. die letzten 4 Wochen vorhalten soll... Ich habe jetzt nicht so recht ein wirkliches Konzept erkennen können! Ein Backupkonzept sollte eigentlich immer ein Wiederherstellungskonzept sein. Sprich die Wiederherstellung/Recovery der Daten sollte geplant bzw. vorbereitet werden (z.B. Zeitrahmen, usw.). Aus den Anforderungen an die Wiederherstellung ergeben sich dann die Anforderungen an das Backup. Ich sehe auch nicht Strategie welche Daten über welchen Zeitraum wiederherstellbar sein müssen (z.B. die Daten der letzten 4 Wochen). Es werden nur stumpfsinnig die irgendwelche Daten mit Robocopy kopiert. Aber wie viele Generationen werden denn im Backup vorgehalten!? Wie sieht die Anforderung des Kunden aus!? Dann gibt es m.E. kein Offsite-Backup. Es gibt mehr Szenarien als Brand/Diebstahl, die ein Offsite-Backup erforderlich machen. Ein permanent angeschlossenes NAS könnte z,B. per Verschlüsselungstrojaner unbrauchbar werden.
  3. Sorry, hatte der TO ja auch geschrieben... "VMWare Techniker" Wer lesen kann... :rolleyes: Man sollte sich evtl. trotzdem einfach mal mit Veeam Spezialisten zwecks Erfahrungen austauschen. Unser VMWare-Spezi betreut fast ausschließlich Kunden die auch Veeam nutzen. Da gab es noch nie Probleme mit der Sicherung von Exchange/SQL. Selbst nutzen Sie übrigens kein Veeam, sondern vRanger (historisch begründet) ;).
  4. Nein, ging nur um die Aussage des TO, dass Veeam offiziell nicht die Sicherung eines Exchange supporten würde. Es gibt viele Wege einen virtuellen Exchange zu sichern und mit Veeam ist nur einer davon. Es gibt hier im Forum sogar Jemanden, der neben der Veeam-Sicherung parallel noch reine Exchange DB-Sicherungen fährt. PS: Evtl. bezog sich die Aussage des Veeam Supports auf den Exchange 2007! Exchange 2007 wird in der Tat nicht durch Veeam unterstützt!
  5. Mich würde doch sehr interessieren von wem bei Veeam diese Aussage gekommen ist!? :nene: Veeam unterstützt definitiv die Sicherung von Exchange! Nutzen ich schon seit längerem und haben auch schon einige Male einzelne Elemente aus unserem Exchange Backup rückgesichert! Auch unser Testrecovery der gesamten Exchange VM verlief bisher immer absolut problemlos. Hier ein entsprechender Veeam-Blogbeitrag: https://www.veeam.com/blog/how-to-backup-exchange-database-availability-groups-dags-with-veeam-backup-replication.html Also, wenn Du mich fragst, solltest Du da nochmal einen kompetenten Veeam-Partner zu Rate ziehen. Ich kann mir nur vorstellen, dass es bei der Kommunikation mit Veeam zu einem Missverständnis gekommen ist! Ich möchte Veeam nicht mehr missen. Habe noch nie ein problemloseres Backup/Restore gehabt wie mit Veeam. Nein, Veeam ist nicht perfekt. Der Tape-Support (Library) ist z.B. immer noch ziemlich schlecht, aber im virtuellen Umfeld gibt es m.E. kaum eine bessere Lösung.
  6. Hallo, kommt mir doch seltsam bekannt vor. :rolleyes: Schau mal hier: http://www.gruppenrichtlinien.de/artikel/sicherheitsfilterung-neu-erfunden-ms16-072-patchday-14062016/ http://www.mcseboard.de/topic/207599-gpo-werden-bei-windows-10-nicht-gezogen/ Gruß Dirk
  7. Für eine Testumgebung hol Dir ein kleines SOHO QNAP. Die kann iSCSI. Oder ein Lenovo IX2 oder IX4. Da kommst Du evtl knapp mit 400€ hin. WBC als SSD!? WBC ist normalerweise als gepufferter RAM-Speicher ausgeführt. Sorry, aber ein SSD Cache bei einem prof. Speichersystem ist etwas komplett Anderes! Wieso sprichst Du von DR oder HA? Bei einem Testsystem? Worum geht es Dir überhaupt? Suchst Du Vorschläge für ein Test- oder Produktivsystem!?
  8. @TheBiker006 Mach bitte das nächste mal einen eigenen Thread auf! Dann zu Deinen Fragen: Das was Du da bisher 'getestet' hat ist auf dem untersten Niveau und taugt m.E. allenfalls für ein Testlab aber keinesfalls für ein Produktivsystem. Deine Angaben von soundsoviel MB/s sind im Virtualisierungsbereich völlig unsinnig, da die reine theoretische Datenrate kaum zum tragen kommt. Stattdessen kommen viele verteilte Anfragen auf das Speichersystem zu. Daher kommt es auf die IOPS an, die dein Speichersystem liefern kann. Diese ganzen SOHO NAS-Lösungen von QNAP und Synology usw. haben weder Dual-NT noch Dual-Controller. Bei einem simplen Firmwareupdate hast Du also schon eine Downtime. Alle Serverhersteller bieten entsprechende SAN-Einsstiegslösungen an (z.B. DELL MD 3200). Wenn absehbar ist, dass es bei 2-3 Hosts bleibt bietet sich ein SAN mit SAS-Schnittstelle an. Das ist schnell, stabil, günstig und einfach zu konfigurieren. Ob dann überhaupt ein SSD Cache benötigt wird, wage ich mal zu bezweifeln. Unser VMWare-Partner betreut viele auch große Kunden und hat exakt einen Kunden, bei dem der Einsatz von SSD-Cache erforderlich ist! Nur weil man es machen kann bedeutet es ja nicht automatisch, dass es überhaupt sinnvoll ist.
  9. Dann beschäftige Dich doch zunächst mal mit den Grundlagen. Die Hersteller von Software wenden viel Arbeit dafür auf Handbücher zu schreiben. Im Falle von VMWare sind die Handbücher frei verfügbar. Wenn Du nach der Lektüre dann immer noch nicht verstanden hast, worin der Unterschied zwischen den unterschiedlichen Arten bei der Bereitstellung besteht kannst Du gerne nochmal konkret nachfragen. Bei dem von Dir aufgezeigten Szenario ist es eh ziemlich egal. Bei Thin-Bereitstellung sollte ein Monitoring verwendet werden, damit man rechtzeitig auf evtl. engpässe reagieren kann! Nichts ist ärgerlicher, als ein (plötzlich) vollgelaufener Datenspeicher.
  10. @Norbert Danke, dass erklärt natürlich warum es unter Windows 10 (aktuell gepatcht) nicht mehr funktioniert und bei meinen Windows 7 Clients (Patchstand Mai 2016) funktioniert hat :(
  11. Moin, ich bin hier etwas am verzweifeln. Wir sind mitten in der Umstellung auf Windows 10 Pro. Soweit klappt auch Alles ganz gut. Nun haben wir jedoch festgestellt, dass einige GPO durch Windows 10 nicht gezogen werden. Es handelt sich ausschließlich um GPO die allen OU übergeordnet wurden (Filterung über Gruppenzugehörigkeiten der User). So haben wir z.B. eine GPO die den Exchange Cache Modus von Outlook 201X deaktiviert. Meldet sich ein User mit einem Windows 7 Client an, so wird die entsprechende GPO verarbeitet. Das Ergebnis kann man per gpresult /R abfragen. Der Exchange Cache Modus bei Outlook ist deaktiviert und lässt sich durch den User bei Erstellung eines Outlook-Profiles auch nicht aktivieren. Meldet sich der gleiche User mit einem Windows 10 Client an, so wird die GPO nicht gezogen! - Die GPO ist bei der Abfrage per gpresult /R nicht enthalten. -> Wird durch Windows 10 nicht verarbeitet - Der User kann beim Erstellen eines Outlook-Profils den Cache Modus aktivieren Ich bin absolut ratlos, warum die GPO nicht durch Windows 10 gezogen wird. Eine andere Filterung (WMI) außer per Gruppenzugehörigkeit des Users findet nicht statt. Hat Jemand eine Idee warum Windows 10 die GPO's nicht zieht? Gruß Dirk
  12. So geht das nicht! Du musst hier Schritt für Schritt aufschreiben, wie so eine Migration gemacht wird. Ansonsten könnte noch Jemand auf die absurde Idee kommen zunächst man Herstellerdokumentation zu lesen bevor er Seine Frage hier im Forum postet! :nene:
  13. In einfachen worten: RTFM :D Oder frag Jemanden, der sich damit auskennt. Oder frag einfach google: https://www.windowspro.de/wolfgang-sommergut/vswitch-vmware-vsphere-konfigurieren
  14. monstermania

    300GB - Drei Server

    Du hast doch was von 2-3 Images geschrieben, die abgelegt werden sollen... Insofern solltest Du dann auch wissen, was Images sind und welche Voraussetzungen erfüllt sein müssen. ;) Und nur mal so ganz grob zur Info: Von einem Windows XXX (OEM), dass Du mit einem PC gekauft hast (vorinstalliert) darfst Du kein Image ziehen (reimaging). Dafür benötigst Du entsprechende Volumenlizenzen von MS, die dann das Recht auf reimaging enthalten. Z.Zt. gibt es noch das Schlupfloch, dass Du die kleinste mögliche Anzahl von MS Volumenlizenzen kaufst (5 Stück) und dann damit das Reimaging-Recht für alle vorhandenen OEM-Installationen erwirbst. Ach ja, besondere Lizenzbedingungen gibt es nicht nur für das OS, sondern auch für evtl. vorhandene MS Office Lizenzen. Die normalen OEM-Versionen darfst Du nämlich auch nicht reimagen...
  15. monstermania

    300GB - Drei Server

    @Cryer Mach man, hört sich Alles gut an! :D Kannst du begründen warum Du als Hypervisor den ESXi einsetzen willst!? Wie sieht es mit dem zur Umgebung passenden Backup/Restorekonzept aus!?
  16. Nur so als Tip: Vergiss Firefox Wir haben Unternehmensweit auf Google Chrome umgestellt. Da merkt man, dass sich die Entwickler echt Gedanken über die zentrale Verwaltung per Gruppenrichtlineien gemacht haben.
  17. monstermania

    Backup SBS2011

    Moin, ich habe in der Vergangenheit sehr oft und gerne Drivesnapshot genutzt (http://www.drivesnapshot.de). Kostest pro Server 89€ und ist dank Batch-Scripting extrem flexibel. VSS (Exchange Writer) wird auch unterstützt, so dass auch die Transaktions-Logs sauber verarbeitet werden. Recovery eines gesamten Servers habe ich damit auch schon problemlos gemacht. Sicherung (Differentiell) klappt damit auch auf UNC-Pfade, so dass auf dem Server gar kein Laufwerk gemappt werden muss. Gruß Dirk
  18. Ja, Statistik ist doch was feines :D Ist bei uns auch so. Meist werden dann Daten von gestern oder letzter Woche benötigt. Nutzt nur nix, wenn dann doch mal Daten gebraucht werden, die etwas Älter sind. Bei mir kamen schon User an, die Daten von vor einem Jahr wieder hergestellt haben wollten... :nene: Deshalb sollte die Vorhaltedauer ja mit den Abteilungen/GF geklärt sein. Dann kann sich im Nachhinein niemand beschweren, dass er es ja nicht gewusst hätte! Ist wie meißt Alles eine Frage des Budgets! Von mir aus könnten wir auch Datenbestände von vor 2 Jahren vorhalten...
  19. Dazu kann ich keine Aussagen treffen, ob bei Euch 14 Tage Vorhaltedauer ausreichend ist! So etwas sollte in Zusammenarbeit mit den Abteilungen/GF im Unternehmen geklärt werden. Mir persönlich wären 14 Tage viel zu gering. Was macht man, wenn das fehlen von Daten erst nach dem Jahresurlaub eines Kollegen bemerkt wird!? Bei uns können einzelne Daten vom Fileserver für min. 6 Monate zurück wiederhergestellt werden. Wobei die letzten 30 Tage im direkten Zugriff sind. Daten älter 30 Tage liegen dann im Bankschließfach (Offline Tape). Bei anderen Servern beträgt die Vorhaltedauer für Backups bei uns nur 1 Woche (z.B. Exchange). Hier greifen dann wieder Archivierungslösungen, so dass ein längeres Backup gar keinen Sinn ergeben würde. Kommt also immer darauf an! Un der Tip mit dem Recovery sollte man auch beherzigen. Also ruhig mal regelmäßig einen (testweisen) Restore durchführen. Machen wir bei uns auch regelmäßig so, dass wir immer mal 2-3 Server aus der (Band)Sicherung auf einen alten Server wieder herstellen.
  20. Kann mich den Kollegen nur anschließen. RDX ist eine feine Sache, wenn man nur wenige Medien benötigt und das Datenvolumen überschaubar bleibt. Mit steigender Anzahl der Medien wird RDX immer unattraktiver gegenüber Tape (LTO). Auch nicht vergessen bei RDX ist m.W. z.Zt. bei den Medien bei 2TB Schluss. LTO6 schafft 2,5TB pro Band. Außerdem ist Bandsicherung per LTO6 schneller als RDX.
  21. monstermania

    300GB - Drei Server

    @Cryer Warum mit dem ESXi noch eine 2. Baustelle aufmachen? ESXi wäre im Prinzip eine gute Wahl (vSphere setzen wir auch ein :D). Allerdings ist der freie ESXi schon eingeschränkt. So benötigen im eigentlich alle prof. Backuplösungen für den ESXi eine Lizenzversion (Ausnahme Trilead VM-Explorer). Das bedingt dann zumindest eine Essentials-Lizenz (ca. 500€). Ich würde Dir von daher nicht unbedingt empfehlen den freien ESXi einzusetzen. Zumal Du mit dem HyperV von Microsoft eh schon einen kostenlosen Hypervisor bekommst. Also Windows 2012 mit der HyperV-Rolle (ausschließlich!) auf das Blech und 2 Windows VM (Lizenz) für die Anwendungen. Dann ist das lizenztechnisch Alles sauber! Zum Backup habe ich jetzt noch nichts gelesen. :( Aber auch dass könnte man bei Verwendung von HyperV über das Windows-Eigene Backupprogramm erledigen (wbaadmin), sofern das den Anforderungen genügt. Von daher würde ich ganz klar zum Einsatz von HyperV tendieren. Zur Speicherplatzaufteilung kann ich jetzt nur sagen, wie wir unsere VM einrichten. Eine Windows 2012 VM bekommt 60GB für die Systempartition 'C'. Datenpartition(en) dann je nach Bedarf der jeweiligen Anwendungen. Standardmäßig bekommen unsere 'normalen' VM 2 vCPU Kerne zugewiesen. Unsere virtuellen DC laufen alle mit 2 GB RAM, der virtuelle Fileserver mit 4 GB. Grundsätzlich gilt bei Virtualisierung das Motto: So wenig Ressourcen wie möglich. Das schöne bei der Virtualisierung ist ja eben, dass man im Bedarfsfall recht unbroblematisch mehr Ressourcen zuteilen kann.
  22. monstermania

    300GB - Drei Server

    @cryer In Deinem Eingangspost stand nur was von 3 VM. Das Du für die 3. VM nur die 180 Tage Trailversionen nutzen willst stand da nicht. Von daher musste man davon ausgehen, dass Du 3 korrekt lizenzierte VM nutzen willst. Und natürlich kann man auch Alles auf 2 VM betreiben nur geht man eben gerne den Weg, dass man einzelne Dienste auch auf unterschiedlichen VM macht. Einfach damit man im Zweifelsfall auch mal einen Server durchstarten kann ohne, dass die Arbeit im gesamten Unternehmen zusammenbricht. Kommt schon mal vor, dass unser Druckserver neu gestartet werden muss und dann ist es schon schön, wenn die Mitarbeiter bis auf Drucken Alles andere weiterhin erledigen können. Für das von Dir genante Szenario des Fileservers (Dateifreigaben) würde man ja noch nicht mal einen Windows Server benötigen! Da täte es auch ein simples NAS mit AD Integration oder Samba. Ein Windows Server als FS kann aber wesentlich mehr (z.B. Schattenkopien, Speicherkontingente, Deduplication, DFS, usw.) Und ob nun 20MA oder 200MA ist fast egal. es kommt auf die Anforderungen an! Ich hatte schon Kunden, die mit 10 Usern mehr EDV-Last produziert haben als Unternehmen mit 100 Usern. Lass mal 10 User ausschließlich mit riesigen CAD Daten im Netzwerk arbeiten.
  23. monstermania

    Backup Konzept

    In dem speziellen Fall (Trojaner) geht es m.E. nicht nur ein Wiederherstellungs-Szenario. Ist das Kind in den Brunnen gefallen, also ein Trojaner aktiv, muss das ja zunächst mal erkannt werden (welche Daten sind überhaupt betroffen/verschlüsselt). Und es wäre auch gut zu wissen welcher Rechner Quelle der Verschlüsselung ist (Rechner umgehend aus dem Netz nehmen)! Evtl. ist ja auch schon das letzte Backup ganz/teilweise betroffen, da der Trojaner möglicherweise ja schon einige Stunden/Tage 'arbeiten' konnte? Es wird wohl kaum Jemand einen kompletten Fileserver wieder herstellen wollen, wenn nur einzelne VZ oder gar nur bestimmte Dateitypen verschlüsselt wurden. Ach ja, ich gehe natürlich davon aus, dass nicht auf dem Fileserver selbst der Trojaner läuft! In so einem Fall ginge dann der Spaß erst richtig los. Wohlmöglich noch mit einem untergeschobenen Treiber, der dem Server noch wochenlangen Zugriff auf eigentlich bereits verschlüsselte Dokumente erlaubt.
  24. Mehr ist nicht drin, ist zumindest beim Backup/Recovery schon mal der völlig falsche Ansatz! Immer daran denken, wie Teuer ein evtl. Datenverlust für das Unternehmen sein könnte. Steht das NAS im gleichen Brandabschnitt wie der Server? Zumindest das Konzept mit der wöchentlichen Offline-Sicherung würde ich nochmal überdenken. Welches Unternehmen kann sich im Worst-Case Fall einen Datenverlust von 1 Woche leisten!? Ich hoffe doch auch, dass Ihr mind. 3 Offline Medien einsetzt! Evtl. ist ja auch eine externe Synchronisation der Synology auf ein 2 NAS außerhalb des Unternehmens (z.b. externes Rechenzentrum, oder Wohnung des GF) eine Idee. Die Teile von QNAP können das.
  25. monstermania

    Backup Konzept

    Da wir vor einigen Wochen gerade betroffen waren: http://www.mcseboard.de/topic/207040-es-hat-uns-erwischt-verschl-trojaner-cryptxxx/ In dem Fred findest Du schon einige m.E. gute Hinweise. 1. Trojaner gar nicht erst in Unternehmen lassen 2. Möglichst schnelle Erkennung der Aktivität eines Crypto-Trojaner (welcher Rechner, welche Daten sind betroffen) 3. Entsprechendes Backupkonzept
×
×
  • Neu erstellen...