Jump to content

monstermania

Members
  • Gesamte Inhalte

    1.393
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von monstermania

  1. Kostet nur deutlich mehr als mal eben 2 neue Platten... Backup wäre dann auch noch zu offen...
  2. Doch! Deine Lebenszeit :D Im Übrigen kann man das von Dir geplante Szenario locker mit dem kostenlosen ESXi realisieren. Ist der HyperV nicht auch kostenlos!? Wieso jetzt die Komplexität für den anderen Mitarbeiter von der Nutzung einer ESXi-Lizenzversion abhängt erschließt sich mir nicht. :suspect: In der Administration unterscheiden sich ein einzelner freier ESXi-Host und z.B. ein Essentials kaum. Es sei denn, du setzt einen VCenter un den Webclient zur Verwaltung ein. Das macht aber bei nur einem Host so gar keinen rechten Sinn... Also irgendwie sehe ich einfach keinen echten Grund für eine Migration SBS2008 auf SBS2008. Aber jeder wie er mag!
  3. Zur Sinnhaftigkeit von RAID: RAID und Backup haben nichts miteinander zu tun! RAID soll vor einem Hardwaredefekt schützen. Vor dem versehentlichen/absichtlichen Löschen von Daten schützt Dich kein RAID! Spätestens, wenn Dir einmal die 1. Platte abgestorben ist stellst Du Dir Die Frage nach der Sinnhaftigkeit von RAID nicht mehr! Überleg mal, was passiert, wenn die 1. Platte direkt vor der täglichen Sicherung abschmiert! Dann sind evtl. die Daten des ganzen Tages verloren! Backup ist ja da, aber eben von gestern... :shock: Zum Thema RDX: Also 30 MB/s-40MB/s ist hier völlig normal. Sind halt nur 2,5" HD's in einer stoßgesicherten Cartridge auf die gesichert wird und selbst wenn das RDX per SATA angebunden ist, ist das Limit immer die Schreibleistung der 2,5" HD. Kommt eben immer auf die Anforderungen an. Solange das Backup im Backupfenster durchläuft ist es ja eigentlich kein Problem. Zum Thema Backup auf NAS: Natürlich ist und bleibt ein externes Backup Pflicht! Dafür sind ja die externen USB-Platten gedacht. Also Backup2NAS und anschließend dann vom NAS Backup2USB. Das Backup2USB kann dann tagsüber laufen. Einfach die USB-Platte an das QNAP hängen und den Backupbutton an der QNAP drücken (Kann man Konfigurieren). Hatte so etwas bei mehreren Kunden im Einsatz.
  4. Moin, grundsätzlich führen viele Wege zum Ziel (wie Du selbst bereits angemerkt hast). :D Daher hier meine Vorgehensweise in solchen Fällen: 1. Prüfen, ob der vorhandene Contoller (3ware) mit den neuen Platten (2TB) klar kommt. GGf. vor der Migration BIOS und Treiber des Controllers aktualisieren. Wenn der Controller mit den neuen Platten nicht funktioniert musst Du einen anderen Weg gehen. 2. Wenn das mit dem Controller passt: Warten bis das Backup des Server durch ist (Du hast doch ein Backup!?) 3. Image vom bestehenden Server ziehen (Zumindest von der Boot-Partition). Ich nutze für das Image Drivesnapshot. Acronis funktioniert natürlich auch. 4. Platten austauschen und neue Platten wie gewünscht im Bios des Controllers partitionieren (mindestens gleich groß bzw. größer als die die alten Partitionen) 5. Image der Boot Partition wieder zurück sichern. Datenpartition kannst Du dann ja aus Deinem Backup wieder herstellen. Das wars! Zum Backup: RDX ist sicherlich eine Möglichkeit. Habe ich früher auch gerne bei Kunden eingesetzt. Medien sind robust. Warum also nicht neue Medien kaufen? Andere Option wäre ein kleines NAS (z.B. QNAP) als Backuplaufwerk und externe USB Platten für das Offsite Backup. (Die Qnap können eine Backup2USB). Kostet aber auch Geld und Zeit für die Einrichtung. Gruß Dirk
  5. Ja, und genau dabei musst Du dafür sorgen, dass das LTO immer schön konstant mit Daten versorgt wird. Sonst muss das LTO immer auf die Daten warten und stoppt das Band immer bis der Buffer im LW wieder ausreichend gefüllt ist. Wie bereits geschrieben wirkt sich so etwas auf die Lebensdauer des Laufwerks und der Bänder negativ aus. Ach ja, eine RDX Library hatten wir ursprünglich auch mal angedacht. RDX sichert ja auf 2,5" Platten. Das begrenzt die reale Bckupperformance dann schon erheblich (ca. 30-40 MB/s)! Außerdem wird es bei größerer Anzahl der Medien schnell teuer. Wir haben z.B. über 30 LTO-5 Bänder in Benutzung (6 Monate Backup bei der Bank).
  6. Moin, wir machen das Offsite-Backup mit einem Quantum Superloader (16 Schächte/LTO-5). Der Quantum hängt per SAS direkt am Backupserver. Gesichert wird mittlerweile mit Veeam (wir haben nur noch virtuelle Server). Voher mit BE 2010R3. Generell würde ich mir mehrere Lösungen ansehen. So per se kann man ein Szenario schlecht übertragen. Da Du von einem NAS sicherst (iSCSI, SMB, NFS???) sollte man die Performance im Blick behalten. Veeam z.B. ist z.B. indsikutabel lahm, wenn viele kleine Dateien aus einem Ordner auf Band gesichert werden müssen! BE kann so etwas wesentlich besser. Denke auch daran, dass ein LTO-Laufwerk einen konstanten Datenstrom benötigt. Wir reden da von ca 120-130 MB/s. Wenn Du das nicht liefern kannst muss das LTO ständg stoppen. Das ist eher subotimal für die Lebensdauer von Laufwerk und Band! Gruß Dirk
  7. Sorry, aber ist Deine Dienstleitung umsonst? Weil, wenn es möglichst billig werden soll wäre wohl eine Virtualisierung des bestehenden Servers die Option der Wahl. Wenn es dann sowieso auf eine Migration hinaus läuft, sollte zumindest eine Aktualisierung auf den SBS2011 auch noch drin sein... Gruß Dirk
  8. Hmm, auch wenn Du schreibst, dass nichts gemacht wurde. Setzt Ihr evtl. AV-Software von GData ein? In der aktuellen Version gibt es da wohl ein Problem wenn sich mehr als 2. Sessions an einem RDP anmelden. Hintergrund ist wohl, dass die aktuelle Version von Gdata einen Schutz gegen gefakte USB-Sticks integriert hat, die sich als Keyboarddevice am System anmelden. Nur irgendwie beißt sich das wohl z.Zt. auf einem RDP. Ab der 3. Session ist die Tatstatur in den Sessions deaktiviert :rolleyes: . Gruß Dirk
  9. Na, man kann auch sehr viel schon mit recht einfachen mitteln erreichen. Dazu muss man aber genau wissen wo man hin will und was man machen kann (Anforderungen ;) ) Schau Dir z.B. mal diesen Fred hier im Forum an: http://www.mcseboard.de/topic/202586-1-server-umgebung-bei-kleineren-kunden-physikalisch-oder-virtuell/?hl=%2Bmonstermania&do=findComment&comment=1262533 Einfach als Denkanstoß.
  10. Moin, zunächst mal solltest Du nicht einen bestehenden Fred 'kapern', sondern einen Eigenen aufmachen! Dann will ich mal loslegen. ;) Ich bitte darum meine Anmerkungen als Gedankenanstöße zu betrachten. Ich kenne DEINEN Kunden nicht und schreibe nur mal aus meinen Erfahrungen aus Projekten. Zunächst mal handelt es sich bei dem MD3440 um ein SAN und nicht um ein DAS. Bei einem DAS muss ich immer an so eine Home-HDD-Box denken, die per eSATA angeschlossen wird (Ich weiß, Spitzfindigkeit :) ). Ich gehe mal davon aus, dass die MD3440 per Dual-SAS an den Server angebunden werden soll? Das mit den 2500 IOPS. Ist der Wert per Monitoring entstanden oder ist das ein Bauchgefühl? Von Dell gibt es eine Software, mit der man die Umgebung monitoren kann (z.B. über 1 Woche). Das Ergebnis der Messung gibt man an DELL und erhält dann nach einigen Tagen eine komplette Auswertung über die erforderlichen bzw. genutzten IOPS der vorhandenen Umgebung. Mit diesem Wert kann man dann gut ein neues System kalkulieren. (Die 2500 IOPS, die Du für die Umgebung angibst erscheint mir aus meiner Erfahrung etwas hoch). Dann zur Konfiguration des MD3440. Die Cache-Option ist recht teuer, da ja neben den SSD auch ein entsprechender Lizenzkey zum freischalten der SSD-Cache-Option benötigt wird. Außerdem hast Du selbst keinen echten Einfluss darauf, welche Daten bzw. Blocks die MD3440 im Cache verwaltet. Ob also im Betrieb tatsächlich die die Datenbanken oder Teile davon im SSD-Cache liegen, weiß nur die MD selbst. Wenn die Datenbanken wirklich dermaßen IOPS-Lastig sind und unbedingt SSD benötigen (??? :suspect: ) wäre es m.E. sinnvoller 2 SSD als normale Platten in das MD zu integrieren und damit ein RAID-1 einzurichten und die Partitionen mit den db auf dieses RAID-1 zu installieren. Dann hast Du sichergestellt, dass wirklich Deine db auch auf den SSD laufen! Wie hast Du die generelle Aufteilung der 16 x 900 SAS angedacht? Also willst Du z.B. ein/mehrere RAID-10 und ein/mehrere RAID-5 oder RAID-6 einrichten. Immer daran denken: Je größer ein RAID-Verbund um so größer ist im Falle eines Crashes des RAID auch die Zeit für ein Rebuild bzw. Restore! Hier gilt es daher immer einen Kompromiss zu finden. Ehrlicherweise glaube ich nicht, dass für die von Dir angegebene Umgebung SSD im MD3440 wirklich Sinn machen. Zum Host. Hast Du einen einzigen Host (Dell R730) angedacht? Ich persönlich würde 2 Hosts einsetzten. Damit verlierst Du eine Single-Point-of-Failure. Der 2. Host würde im Standby-Betrieb laufen, so dass Du bei einem Ausfall des 1. Hosts sofort alle VM auf dem 2. Host starten könntest. Sofern die notwendige Lizenzierung vorhanden ist, wäre sogar ein Failover-Cluster möglich. D.H. die VM würden bei einem Ausfall des Hosts automatisch auf dem 2. Host gestartet (Lizenzierung von MS beachten!). Wenn Du ein Platzproblem im Rack hast: Dell bietet mit dem R620 1HE Server, die sich ideal als Host eignet. Damit hast Du mit 2 R620 Hosts den gleichen Platzbedarf wie mit einem R730. Noch ein Tip. Plane bei dem Host gleich mit ein, dass Du eine VM auf dem lokalen Speicher des Hosts mit laufen lässt (zusätzlicher DC). Im Falle eines totalen Ausfall Deines SAN läuft dann zumindest noch ein DC und die Mitarbeiter können sich weiterhin an der Domäne anmelden und DHCP, DNS funktionieren noch. Dann werfe ich mal den Punkt "Backup&Restore" ein. Dazu hast Du gar nichts geschrieben. Und gerade das sollte auch ein wesentlicher Punkt sein. 8TB ist ja schon mal eine Hausnummer. Wie stellst Du Dir ein Off-Site-Backup vor? Backupfenster? Gruß Dirk
  11. Sorry, aber wer soll das wissen? Im Eingangspost war von HyperV die Rede, oder etwa nicht? Zunächst mal solltest Du die Umgebung auf 2012 migrieren. Natürlich als VM unter HyperV 2012. Anschließend kannst Du dann Deine VM per Windows Backup aus dem HyperV sichern. Damit sollten Deine Anforderungen bereits abgedeckt sein. Ob das sichern pro VM dann 30 Minuten dauert kann man nicht vorhersagen. Das hängt von zu vielen Faktoren ab.
  12. Na ja, bei einem SBS ist das manchmal der einfachste Weg....
  13. Haben schon mehrfach Exchange virtualisiert. SBS2008 und2010 als auch Ex 2007 auf Windows 2003. Hat bisher immer problemlos funktioniert. Allerdings ist die Downtime nicht von zu unterschätzen. Die Migration kann durchaus ein Wochenende dauern! Evtl. besteht ja auch die Möglichkeit ein Restore eines Backup im ESX zu machen? z.B. mit Veeam. Gruß Dirk
  14. Nun komm mal wieder etwas runter! Womit laufen Die HyperV-Hosts? Mit Windows 2003!? :shock: Ist HyperV nicht auch kostenlos (bin unter VMWare zu Hause)? Warum betreibt Ihr die Hosts dann nicht unter dem aktuellen HyperV und sichert damit dann die laufenden VM. Da der Support von Windows 2003 zu Ende ist solltet Ihr Euch schleunigst Gedanken um eine Umstellung machen!
  15. Moin, wir hatten kürzlich unser jährliches Audit mit unserem externen Datenschutzbeauftragen. Dabei kamen wir genau auf dieses Thema zu sprechen. So etwas kann ganz schnell ein heißes Eisen werden. Wenn ein MA ein Unternehmen verlässt hat er auch ein Recht darauf, dass Seine persönlichen Daten gelöscht werden (Außer den notwendigen Personaldaten)! Wenn das Unternehmen z.B. die private Nutzung des Email-PF nicht ausdrücklich verbietet, hat der ausscheidende MA das Recht auf die umgehende Lösung seines Kontos zu bestehen, da ja in einem Posftfach durchaus private Daten enthalten sein können. Theoretisch sogar darauf, dass sichergestellt wird, dass Seine Daten auch aus bestehenden Backups heraus gelöscht werden! Gruß Dirk
  16. Ja, wie ein Politiker. Viel geschrieben aber nichts gesagt! :D Beispiel: Wie lange müssen die Backupdaten wieder herstellbar sein!? 1 Tag, 1 Woche, einen Monat, länger? Mag für Dich unerheblich sein, aber bei mir kommen die User an und sagen: Ich brauche die Konstruktionsdaten vom Produkt XYZ vom 27.04. 2015 aber ASAP. Da sollte man dann schon wissen wie lange Datenbestände wieder herstellbar sind... Bei der Offsite-Sicherung kommt auch keine konkrete Anforderungen, sondern nur wieder "Möglichkeiten" (z.B. Cloud) Auf einen Zeitraum zum Wiederherstellen des Backups gehst Du überhaupt nicht ein. Viele dieser Anforderungen bauen halt auch aufeinander auf. Ganz einfache Beispielanforderung: Du musst alle Deine Unternehmensdaten für 180 Tage (taggenau!) innerhalb von max. 1 Stunde wieder herstellen können. Dann wirst du schnell feststellen, dass so eine Anforderung zwar prinzipiell umsetzbar ist, aber es bei den Detailfragen ganz schnell problematisch wird. Reicht z.B. mein lokaler Backupspeicher aus um 180 Tage Backups vorhalten zu können? Wie realisiere ich ein Offsite-Backup bei dieser Datenmenge, usw. PS: Was war nochmal der Grund dafür, dass Du z.B. Windows Backup nicht nutzt?
  17. Das Problem ist einfach, dass Du überhaupt nicht auf die Fragen eingehst und keine Anforderungen definierst hier aber Antworten haben willst. Das was Du als "Anforderungen" schreibst kann so ziemlich jede vernünftige Backupsoftware Drum drehe ich den Spieß jetzt mal um: Warum nutzt Du nicht einfach die Backupsoftware, die mit dem MS Server mitgeliefert wird (Windows Backup) und nutzt statt dessen ein eigenes Backupscript!? Windows Backup kostet nix extra und kann Alles das was Du lt. deinen Anforderungen willst.
  18. Moin, das Problem ist eben, dass es nicht die 1. Lösung für Backup/Restore gibt! Jedes der von Dir genannten Produkte hat individuelle Vor- und Nachteile. Eine Lösungsfindung orientiert sich immer an der konkreten Aufgabenstellung bzw. Anforderungen (und natürlich am Budget!!!). Und wie hier bereits mehrfach angemerkt wurde hast Du eigentlich überhaupt keine Anforderungen definiert. Außer allgemeinen Schlagworten (Hochverfügbarkeit, Backup) ist noch nichts gekommen. Wie soll man da eine Empfehlung aussprechen. Kläre doch erst mal Hausintern ab, wie wichtig die IT-Verfügbarkeit in Eurem Unternehmen ist bzw. welcher Zeitraum für einen Systemausfall tolerabel ist. Ein Systemausfall kann dabei entweder durch einen Hardwaredefekt entstehen oder aber ganz einfach weil durch einen MA wichtige Daten gelöscht wurden und vor einer Weiterarbeit zunächst mal ein Restore dieser wichtigen Daten erforderlich ist. Bei einem Hardwaredefekt darf aber eben nicht nur die reine Serverkomponente betrachtet werden, sondern auch alle sonstigen Komponenten des Netzwerks (z.B. Switch oder ggf. Internetanbindung). Da merkt man dann sehr schnell, dass echtes Failover nur mit einem erheblichen Aufwand (Kosten!!) realisierbar ist. Ein vergleichsweise günstige Lösung statt echtem Failover ist die regelmäßige Replikation der Serverdaten. Damit kann u.U. schon eine sehr gute Verfügbarkeit sichergestellt werden, sofern man genau weiß was man da tut bzw. was eine Replikation leistet! Backup und Failover/Replikation sind jedoch völlig verschiedene Dinge. Selbst in der absoluten Premium-Failover-Umgebung kommt man nicht um ein Backup herum. Beim Backup sollte zunächst mal definiert werden welche Unternehmensdaten wie lange vorgehalten werden müssen (z.B. müssen wir bei uns sicherstellen, dass alle Userdaten für einen Zeitraum von 6 Monaten rückwirkend wiederherstellbar sein müssen). Für der Privatgebrauch mag es ausreichend sein eine Sicherung zu haben. Ein Unternehmen benötigt i.d.R. mehrere Backupsätze. Was für Systeme müssen gesichert werden (Virtuelle Systeme, Windows, Linux, Nur Server oder auch einzelne/alle Workstations, Datenbanken, Mailserver, usw.) Welche Datenmengen müssen gesichert werden? Wie bzw. auf welche Medien soll ein Backup erfolgen? Wie soll eine Off-Site Sicherung realisiert werden? Wie groß ist das Backupfenster (Zeitfenster in der die Datensicherung abgeschlossen sein muss)? Welcher Zeitraum ist für ein Recovery akzeptabel? Datenwachstum beim Backup berücksichtigt um für die nächsten 3-5 Jahre planen zu können? Dokumentation des Backupprozesses? Wenn alle obigen Punkte geklärt sind kommt natürlich auch das Budget in Spiel. Backup Hard- und Software kann je nach obigen Anforderungen ganz schön ins Geld gehen! Schlussendlich sucht man sich dann die Lösung, die ins Budget passt und die gewünschten Anforderungen bestmöglich abdeckt. Das Wichtigste an einem Backupprozess ist das funktionierende Restore der Backups! Das saubere Restore sollte man regelmäßig testen (Testsystem!?). Das Forum hier ist voll von Anfragen von Leuten, die erst im Ernstfall merken, dass Ihr Backup bzw. Ihr Restore nicht funktioniert. Gruß Dirk
  19. Moin, grundsätzlich kommt es immer darauf an, was Du erreichen willst und wie performant/professionell das Ganze sein soll. Im Prinzip reicht ja schon ein kleines NAS von QNAP aus um einen Failover-Cluster mit zentralem Speicher zu betreiben. Im Testlab geht so etwas durchaus. Mache ich hier bei uns auch. Für den produktiven Einsatz würde ich so etwas niemals benutzen! AFAIK kann man auch allein mit Hyper-V zwischen 2 Servern eine Replikation einrichten. Da können sicherlich die Hyper-V Experten einiges dazu sagen. Grundsätzlich solltest Du aber Lizenzkomplex (Windows) nicht unterschätzen! Failover-Cluster bedeutet immer auch entsprechende Lizenzierung der Microsoft Serverlizenzen und Applikationen (z.B. Exchange, SQL). Ich habe in der Vergangenheit schon erlebt, dass so manches Projekt daran nachher gescheiter ist, weil man die Lizenzkosten anfangs überhaupt nicht beachtet hat. Gruß Dirk
  20. Moin, wenn auf einem Host ausschließlich die HyperV-Rolle läuft wird dafür keine Serverlizenz fällig. Der HyperV ist kostenlos und lizenzfrei! Pro Windows Serverlizenz (2008R2 und 2012) darfst Du 2 virtuelle Serverinstanzen betreiben (also 2 VM mit Server 2008R2 und 2 VM mit Server 2012 bzw. Downgrade) Ich würde das also wie folgt umsetzten. Auf beiden Hosts den HyperV einheitlich installieren (HyperV 2012), weil der 2012 einfach neuer und stabiler ist als HyperV 2008. Dann kannst Du die VM nach den optimalen Gesichtspunkten auf die beiden Hosts verteilen. Du darfst die Anzahl und Art der Server VM mischen so lange Du nicht mehr als Deine 4 lizenzierten VM nutzt. So kann z.B. auf dem 1. Host auch 3 VM laufen und auf dem 2. Host nur eine VM. Genauso darfst Du einen Lizenzdowngrade für den 2012 Server machen. Du darfst also statt dem 2012 Server auch den 2008R2 installieren. Ein Upgrade ist natürlich nicht erlaubt (also statt 2008R2 2012 installieren)! Wichtig, dass Du immer die maximale Anzahl der Lizenzen beachtest und dass die VM den Hosts dauerhaft zugewiesen werden (min 90 Tage). Je nach kaufender Software in den VM's kann es dann komliziert werden (z.B. SQL, Exchange). Dass muss dann nochmal gesondert betrachtet werden. Gruß Dirk
  21. Moin, ist schon etwas zu den zukünftigen Policies bzw. deren Möglichkeiten bekannt (z.B. den neuen Browser Spartan, die One-Drive, usw.). Teste z.Zt. Windows 10 hier bei uns im Unternehmen mit unseren Standardanwendungen. Sieht soweit schon ganz gut aus. Allerdings müssen hier im Unternehmen diverse Dinge konfiguriert werden (Startseite, Favoriten, usw.). Auch eine Cloud-Integration ist gemäß Firmenrichtlinie nicht erlaubt (One-Drive, Dropbox, usw.). Gruß Dirk
  22. Moin, habe hier ein ähnliches Phänomen. Wir haben im April unseren FS von 2003R2 auf 2012 umgestellt. Hat auch Alles problemlos funktioniert. Nun habe ich jedoch hin und wieder das Problem, dass eine Excel Datei nicht in ein Share auf dem neuen FS gespeichert werden kann. Die Excel-Reportdatei wird per VBS-Script (Taskplaner) auf einem Importrechner erzeugt und dann auf das Share des FS kopiert (natürlich hat der ausführende User des Tasks alle notwendigen Berechtigungen für das Share auf dem FS!). Beim 2003R2 Fileserver hat das immer fehlerfrei funktioniert. Beim kopieren auf den 2012 FS hingegen gibt es hin und wieder die Fehlermeldung im VBS-Script, dass keine ausreichenden Berechtigungen vorhanden sind um die Excel-Datei im Share zu speichern. Wir der Task dann ein 2. mal ausgeführt klappt es problemlos. Tritt wie gesagt hin und wieder auf... Gruß Dirk
  23. Moin, bevor Du jetzt ewig suchst. Schau Dir mal Drivesnapshot an. Kostet 99€ (Serverversion). Hat bisher in allen Umgebungen in denen ich Sie genutzt habe problemlos funktioniert. Gruß Dirk
  24. Eigentlich stellt sich die Frage gar nicht, da RDS CAL's nicht auf dem Client lizenziert werden sondern für den jeweiligen Server!
  25. Was ist das für ein DB Server bzw. welche Datenbank steckt dahinter? Evtl. werden dann auch noch SQL CAL's notwendig. Und Du solltest auch prüfen, ob die genutzte Datenbanklösung auch unter Windows 2008 noch läuft. Auch der Supportzeitraum von z.B. MS-SQL 2005 ist abgelaufen. Insgesamt wäre es schön, wenn alle Informationen mal komplett zusammengefasst werden, damit man Dir konkret sagen kann welche Lizenzen benötigt werden. Grundsätzlich brauchst Du Lizenzen für die Windows Serverbetriebssysteme, Windows Device- oder User-CAL, RDP Device- oder User-CAL, ggf. Volumenlizenzen für MS-Office?, ggf. MS-SQL User-/Device-CAL?
×
×
  • Neu erstellen...