magicpeter 11 Geschrieben 15. Mai 2014 Autor Melden Teilen Geschrieben 15. Mai 2014 Wortlaut des Kunde: Wir können uns keine Stunde Stillstand der EDV leisten, alle 2 Häuser sind davon abhängig. Bitte sorgen Sie dafür das das System hochverfügbar ist. Was machst du da? Link zu diesem Kommentar
NorbertFe 2.062 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 (bearbeitet) Jetzt muss ich doch nochmal einhaken: was mach ich da? Ganz einfach: als erstes nach dem Budget fragen. Das ist deinen Angaben nach eindeutig _nicht_ ausreichend um eine ausfallzeit weniger 1h abzufangen. Das erklärt man dem Kunden. Danach wird dann diese Anforderung mal konkretisiert, denn die aussage "1h" ist total überzogen in fast allen Fällen. Dort wo die das nicht ist, kann das mit Zahlen belegt werden, und dann ergibt sich auch automatisch ein entsprechendes Budget. Bye Norbert bearbeitet 15. Mai 2014 von NorbertFe Link zu diesem Kommentar
testperson 1.708 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 Nur mal so als Hausnummer: Im letzten Projekt mit diesen Anforderungen hat ein Kunde alleine ~100.000€ "nur" in Hardware und Lizenzen investiert. Link zu diesem Kommentar
tkr104 11 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 Bei einer Ausfalldauer von unter 1h pro Jahr bist du bei einer Verfuegbarkeit von 99,99%, da brauchst du locker ein (nicht niedriges) sechstelliges Budget pro Jahr! Solche Umgebungen muessen proaktiv supportet werden, du brauchst Dienstleister oder IT-Mitarbeiter die 24/7 Bereitschaft haben. Alleine die Lohn- oder Dienstleisterkosten fuer den Support der Umgebung sprengen dein Budget nach wenigen Tagen. Der Kunde solte erstmal ermitteln was ihn eine Stunde / ein Tag Ausfall wirklich kostet, ob es gesetzliche Randbedingungen gibt die zu beachten sind und dann anhand der Informationen seine Ansprueche definieren und ein realistisches Budget bereitstellen. Du machst dir hier Gedanken ueber technische Loesungen, dabei ist der konzeptuelle Teil nicht mal im Ansatz geklaert. VG, Thomas Link zu diesem Kommentar
NeMiX 76 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 Nur mal so als Hausnummer: Im letzten Projekt mit diesen Anforderungen hat ein Kunde alleine ~100.000€ "nur" in Hardware und Lizenzen investiert. Das finde ich fast noch günstig ;). Wir haben bei 2-3 Kunden auch diese Anforderungen und da ging es schnell in Richtung 300.000€, da wirklich alles redundant geplant werden muss. Alleine ein Metrocluster von NetApp sprengt schnell die 100k€ ;). @TO: Die Anforderungen des Kunden sind machbar, allerdings wird das mehr benötigen als 2 Supermicro Server mit ein bißchen Storage. Und am Ende hat man hochredundante IT Infrastruktur im Backend, aber es kann trotzdem bei einem Stromausfall keiner arbeiten, da die Workstations ohne Strom sind ;) Link zu diesem Kommentar
Doso 77 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 Die angeblichen Anforderungen haben meist nix mit der Realität zu tun. Die Website kann keine 5 Minuten down sein wenn man nach danach fragt. Komisch, vor einem Jahr war der Server kaputt und das Ding war fast das gesamte Wochende weg und es kam dazu keine einzige Anfrage.... Link zu diesem Kommentar
Dunkelmann 96 Geschrieben 15. Mai 2014 Melden Teilen Geschrieben 15. Mai 2014 (bearbeitet) Wir können uns keine Stunde Stillstand der EDV leisten, alle 2 Häuser sind davon abhängig. Bitte sorgen Sie dafür das das System hochverfügbar ist. Was machst du da? Hinterfragen, ob es ein realistisches Budget gibt. Wenn nicht: Dem Kunden den Unterschied zwischen Wunsch und Wirklichkeit erklären :cool: und alternative Szenarien entwerfen. bearbeitet 15. Mai 2014 von Dunkelmann Link zu diesem Kommentar
Weingeist 159 Geschrieben 16. Mai 2014 Melden Teilen Geschrieben 16. Mai 2014 Sorry für die späte Antwort. Bin etwas eingespannt... Wie bereits gesagt wurde, in den seltensten Fällen ist das tatsächlich wirklich notwendig. Wenn die Reaktion nur ein paar Telefonate von genervten Leuten entstehen ist das wurscht und nur unangenehm. Wenn es die Firma richtig viel Geld kostet, dann muss man auch dementsprechend richtig viel Geld investieren. In der Regel wird es sehr schnell unnötig wenn man Ihnen aufzeigt was das kostet. Die einzigen bezahlbaren und sinnvollen Lösungen die ich kenne und auf eine sehr hohe Verfügbarkeit kommen ohne eine gigantische Materialschlacht zu starten, sind entweder Stratus-Server als Unterbau oder eben Xenserver mit der Marathon-Erweiterung. Bei Marathon wird wirklich alles gespiegelt, inkl. Storage. Dabei ist es egal wo der Storage liegt, ob lokal oder auf jeweils getrennten SAN. Die VM's laufen dann im Lockstep auf zwei Server, schmiert einer ab, dann läuft sie auf dem anderen ohne Unterbruch weiter. Kackt der Storage oder Netzwerk weg auf welchem die VM liegt, gibts kein Host-Wechsel in der Ausführung, sondern der Traffic wird via dem zweiten Host geleitet. Die Komplexität ist bei beiden überschaubar aber dennoch deutlich höher als einfach ein Standardserver. Die Materialschlacht beschränkt sich auf zwei bis drei Server. Aber auch da bewegen wir uns in einem deutlich höheren Bereich als Du hier ausgeben möchtest. Dann gibt es noch Replikationslösungen mit manueller oder automatischer Umschaltung welche auch sehr gut funktionieren. Sehr gute Erfahrungen habe ich da in der Vergangenheit z.B. mit DoubleTake gemacht. Heute löse ich bei wenig Budget aber möglichst hoher Verfügbarkeit meist so wie ichs oben schon beschrieben habe. Immer das beste an gerade noch bezahlbarer Hardware. Das heisst - jeweils höchste Xeon Serie, 1 CPU Hosts mit höchstmöglicher Taktrate (reicht normal völlig aus und ist bezahlbar) - SSD's welche den Namen verdienen - Magnetplatten die auch in richtigen SAN's verwendet werden - zwei völlig überdimensionierte USV's die die Zeit mehrere Stunden überbrücken können (Batterien leben sehr viel länger, in unseren Breitengraden meist nicht nötig tatsächlich herunterzufahren usw.) - verschiede Backupziele, wobei eines immer lokal ist und darauf auch sehr fleissig gesichert wird. Da sind dann sehr schnelle Wiederherstellzeiten garantiert. - Drahtlos-Netzwerkwartungsmöglichkeit via Mobil-Telefon usw. - NAS als wirkliche Disaster-Lösung in nem anderen Brandabschnitt - Backup/Verfügbarkeit ganz klassisch mit den verschiedenen Onboard-Lösungen wie Schattenkopien, DFS, Windows-Backup, Robocopy usw. Klar dauert bei nem Brand die Wiederherstellung so lange wie sie auch bei nem Einsteiger-Shared Storage dauern würde. Aber sind wir ehrlich, in nem Kleinbetrieb wos gebrannt hat, ist es sc***egal wie viele Stunden gebraucht werden um die EDV wieder hochzubringen. Man hat ganz andere Sorgen. Wichtig ist nur, dass die Daten noch da sind. Auch das ist alles andere als billig, aber zumindest preiswert für das was man erhält, die Komplexität ist tief gehalten und die laufenden Kosten überschaubar. Wenn etwas mehr Budget vorhanden ist, kann man natürlich mit ner gscheiten Backup-Lösung wie Veaam arbeiten wo man die Sicherung gleich produktiv hochfahren kann. Wird aber wieder komplexer und auch dessen Umgebung soll gscheit gesichert sein. Bei kleinen Umgebungen ist der viele Zusatz-Traffic in der Regel trotzdem vernachlässigbar. Aber eben, sowas wird als gebastelt abgetan, aber ich habe damit sehr gute Erfahrungen gemacht. Die Hardware ist für solche Umgebungen total überdimensioiert Link zu diesem Kommentar
magicpeter 11 Geschrieben 29. Mai 2014 Autor Melden Teilen Geschrieben 29. Mai 2014 (bearbeitet) Hi Weingeist, ich bin noch einmal in mich gegangen und denke ich werde auf Double-Take Availabilty für Hyper-V 7.0 zurückgreifen. Ich habe in der Vergangenheit gute Erfahrungen bei 2 Kundenprojekten damit gemacht. Double-Take bietet einen Rundumschutz und ermöglicht eine sofortige Wiederaufnahme des Betriebs nach einem Serverausfall. Double-Take Availabilty für Hyper-V arbeitet auf der Hypervisor-Ebene, so dass keine zusätzlichen Agenten in den virtuellen Gastsystemen installiert und verwaltet werden müssen. Die Lösung basiert auf der bewährten Echtzeit-Replikation von Double-Take und repliziert Daten sehr effizient von einem Quell- auf ein Zielsystem. Server: 1. Hyper-V-1 - Windows 2012 R2 Supermicro CSE-SC745TQ-R800B Tower/4HE Serverboard Supermicro X9DRH-ITF-O bis 1 TB DDR3 RAM 2 x CPU Intel Xeon E5-2620 2.0 GHz 6-Core 8 x RAM 8 GB DDR3 1280 MHz, Kingston RaidController LSI 3W SAS/SATA 9750-8i SATA PCI-E incl. Batterie Backup Unit 2 x Intel® SSD DC S3700 Series 200GB, 2.5in SATA 6Gb/s, 25nm, MLC - Raid 1 - 1 x Hotspare - Intel® SSD DC S3700 Series 200GB, 2.5in SATA 6Gb/s, 25nm, MLC 4 x Seagate Enterprise 10K HDD HDD SAS 1,2TB - Raid 10 - 1 x Hotspare - 1,2TB Seagate Enterprise 10K HDD HDD 2 x 10 GBit Lan 4 x 1 GBit 2 x 800 Watt Netzteil 2. Hyper-V-1 - Windows 2012 R2 Supermicro CSE-SC745TQ-R800B Tower/4HE Serverboard Supermicro X9DRH-ITF-O bis 1 TB DDR3 RAM 2 x CPU Intel Xeon E5-2620 2.0 GHz 6-Core 8 x RAM 8 GB DDR3 1280 MHz, Kingston RaidController LSI 3W SAS/SATA 9750-8i SATA PCI-E incl. Batterie Backup Unit 2 x Intel® SSD DC S3700 Series 200GB, 2.5in SATA 6Gb/s, 25nm, MLC - Raid 1 - 1 x Hotspare - Intel® SSD DC S3700 Series 200GB, 2.5in SATA 6Gb/s, 25nm, MLC 4 x Seagate Enterprise 10K HDD HDD SAS 1,2TB - Raid 10 - 1 x Hotspare - 1,2TB Seagate Enterprise 10K HDD HDD 2 x 10 GBit Lan 4 x 1 GBit 2 x 800 Watt Netzteil Notstromversorung: 2 x 3000 Watt APC USV Backup-NAS: NAS 4,5 TB Replications-Software: 2 x Double-Take Availabilty für Hyper-V 7.0 ca. 600€ Datensicherungsoftware: VEEAM Backup & Replcation Essentional V. 7 ca. 600€ 1. Hyper-V - VMs: ServerDC1, ServerSQL, ServerRDS 2. Hyper-V - VMs: ServerDC2, ServerEx Lizenzen: 7 x Windows Server 2012 R2 25 x Benutzerlizenzen 1 x Exchange 2013 25 x Exchangezugriffslizenzen Sicherungsablauf: VEEAM Backup & Replcation sichert täglich auf die NAS Disaster Recovery Die virtuellen Maschinen werden über eine Replicationssoftware Double Take auf einen weiteren Server den Replicatationserver repliziert und im Disaster-Fall werden die virtuellen Maschinen dort automatisch gestartet. bearbeitet 29. Mai 2014 von magicpeter Link zu diesem Kommentar
Weingeist 159 Geschrieben 1. Juni 2014 Melden Teilen Geschrieben 1. Juni 2014 (bearbeitet) 1. Die Kosten für DoubleTake unterschätzst Du meiner Meinung nach gewaltig. Normal brauchst Du für eine sinnvolle Absicherung pro Server-Instanz mindestens zwei Lizenzen. Für ein auomatisches Fallback sogar deren drei! 2. Meine Erfahrungen hat gezeigt, das ein manuelles switchen von Hosts oder VM's in kleinen Umgebungen bei Ausfällen stressfreier ist. Ein Ausfall kommt A sehr selten vor wenn vernünftige Hardware verwendet wird und B weiss man dann genau was man gemacht hat. Oft reicht der Reboot und Kontrolle des Servers und ein Switch auf die andere Maschine ist nur ein unnötiger Schritt/Risiko. Auch hat man die bei grösseren Umgebungen normalerweise eingesetzen Applikations-Cluster die sich quasi wieder selber heilen nicht. Daneben sparen fehlende Automatismen auch Lizenz-Kosten. Läuft alles Autonom und es wird nur gesichert, dann fallen auch keine zusätzlichen Lizenzkosten an. 3. Für die paar Server-Instanzen würde ich Single-CPU Kisten verwenden. Das stört mich auch bei den grossen Hersteller. Da bekomme ich keine hohe Xeon-CPU-Klasse mit einem Sockel in einem vernünftigen Server. Bei Supermicro schon. Das ist aber Gescackssache, wie so einiges. Ich hätte gerade in der Virtualisierung lieber eine hohe GHZ-Zahl stehen (sofern einem die PCI-Express Lanes bei Single-CPU ausreichen). Drückt in aller Regel die Hardware-Kosten deutlich. Bei allem worauf User direkt arbeiten, sind halt nach wie vor die GHZ und die Speicher-Latenz die wesentlichsten Faktoren für ein gutes User-Performance-Feeling (RDS, Virtuelle Desktops etc.). Auch sinkt der Verwaltungs-Overhead sehr deutlich, wenn für die gleiche Leistung mit weniger Kernen pro VM gearbeitet werden kann (Hypervisor-Ebene). Dazu kommt, dass immer noch sehr viele Anwendungen mit schnellen CPU-Kernen besser vorwärts kommen als mit Multi-CPU, sofern sie überhaupt auf Multi-CPU ausgelegt sind. Heute immer noch selten der Fall. --> Eine CPU mit 2GHZ käme mir nur ins Haus wenn ich weiss, dass meine Anwendungen optimal Multi-CPU nutzen können bzw. für reine Server-Aufgaben. 4. Nimm einen richtigen Business-LSI-Controller und keinen ehemaligen 3Ware Home-Office Controller (klingt etwas hart, ist aber nunmal kein Enterprise-Produkt). 5. RAM: Aktuell ist da 1600 und 1866 MHZ, wie komsmt du auf 1280? bearbeitet 1. Juni 2014 von Weingeist Link zu diesem Kommentar
magicpeter 11 Geschrieben 1. Juni 2014 Autor Melden Teilen Geschrieben 1. Juni 2014 (bearbeitet) Hi Weingeist, 1. Die Kosten für DoubleTake unterschätzst Du meiner Meinung nach gewaltig. Normal brauchst Du für eine sinnvolle Absicherung pro Server-Instanz mindestens zwei Lizenzen. Für ein auomatisches Fallback sogar deren drei! Was meinst du damit. Laut Vision Solution dem Hersteller und der aktuellen Preisliste benötige ich pro Host eine Lizenz. Da es 2 Host sind das aktuell 2 x 628€. Das finde ich völlig OK. 2. Meine Erfahrungen hat gezeigt, das ein manuelles switchen von Hosts oder VM's in kleinen Umgebungen bei Ausfällen stressfreier ist. Ein Ausfall kommt A sehr selten vor wenn vernünftige Hardware verwendet wird und B weiss man dann genau was man gemacht hat. Oft reicht der Reboot und Kontrolle des Servers und ein Switch auf die andere Maschine ist nur ein unnötiger Schritt/Risiko. Auch hat man die bei grösseren Umgebungen normalerweise eingesetzen Applikations-Cluster die sich quasi wieder selber heilen nicht. Daneben sparen fehlende Automatismen auch Lizenz-Kosten. Läuft alles Autonom und es wird nur gesichert, dann fallen auch keine zusätzlichen Lizenzkosten an. Ja, das mache ich bei den beiden bestehenden Kunden auch manuell. Spart viel Stress ;) 3. Für die paar Server-Instanzen würde ich Single-CPU Kisten verwenden. Das stört mich auch bei den grossen Hersteller. Da bekomme ich keine hohe Xeon-CPU-Klasse mit einem Sockel in einem vernünftigen Server. Bei Supermicro schon. Das ist aber Gescackssache, wie so einiges. Ich hätte gerade in der Virtualisierung lieber eine hohe GHZ-Zahl stehen (sofern einem die PCI-Express Lanes bei Single-CPU ausreichen). Drückt in aller Regel die Hardware-Kosten deutlich. Bei allem worauf User direkt arbeiten, sind halt nach wie vor die GHZ und die Speicher-Latenz die wesentlichsten Faktoren für ein gutes User-Performance-Feeling (RDS, Virtuelle Desktops etc.). Auch sinkt der Verwaltungs-Overhead sehr deutlich, wenn für die gleiche Leistung mit weniger Kernen pro VM gearbeitet werden kann (Hypervisor-Ebene). Dazu kommt, dass immer noch sehr viele Anwendungen mit schnellen CPU-Kernen besser vorwärts kommen als mit Multi-CPU, sofern sie überhaupt auf Multi-CPU ausgelegt sind. Heute immer noch selten der Fall.--> Eine CPU mit 2GHZ käme mir nur ins Haus wenn ich weiss, dass meine Anwendungen optimal Multi-CPU nutzen können bzw. für reine Server-Aufgaben. Muss ich mir noch einmal überlegen. Welche XEON mit welcher Taktrate setzt du ein und mit viel VMs? 4. Nimm einen richtigen Business-LSI-Controller und keinen ehemaligen 3Ware Home-Office Controller (klingt etwas hart, ist aber nunmal kein Enterprise-Produkt). :D Da kennst du dich aber aus, 3ware das waren noch Zeit... Welchen Raid Controller setzt du denn dafür ein? 5. RAM: Aktuell ist da 1600 und 1866 MHZ, wie komsmt du auf 1280? Komisch ist mir gar nicht aufgefallen, dann schau ich mal wieviel MHz das Board verträgt oder benutze ein anderes. Ich danke für deine immer wieder sehr hochwertigen Kommentare. Ich kümmere mich jetzt einmal um die Optimierung. Schönen Sontag noch..... PS: Ich wollte die beiden Hyper-Vs über eine der beiden 10 GB Lan mit einem gecrossten Netzwerkkabel direkt Verbinden. Darüber wollte ich die Replication mit Double Take laufen lassen oder ist das gar nicht nötig? Eine weitere 10 GB Lan soll dann für die Kommunikation der VMs und den Windows Client zur Verfügung stehen. Geht das ohne Probleme? bearbeitet 2. Juni 2014 von magicpeter Link zu diesem Kommentar
magicpeter 11 Geschrieben 4. Juni 2014 Autor Melden Teilen Geschrieben 4. Juni 2014 PS: Ich wollte die beiden Hyper-Vs über eine der beiden 10 GB Lan mit einem gecrossten Netzwerkkabel direkt Verbinden. Darüber wollte ich die Replication mit Double Take laufen lassen oder ist das gar nicht nötig? Eine weitere 10 GB Lan soll dann für die Kommunikation der VMs und den Windows Client zur Verfügung stehen. Geht das ohne Probleme? Laut verschieden Kollegen ist das ohne Probleme möglich. Link zu diesem Kommentar
magicpeter 11 Geschrieben 4. Juni 2014 Autor Melden Teilen Geschrieben 4. Juni 2014 (bearbeitet) So jetzt ist die endgültige Lösung fertig. Denke ich :D Double-Take bietet einen Rundumschutz und ermöglicht eine sofortige Wiederaufnahme des Betriebs nach einem Serverausfall. Durch die Integration von 2 Domain Controllern mit DFS-Repelication wird die Verfügbarkeit weiter gesteigert und ein Ausfall der Arbeit minimiert. Server: 1. Hyper-V-1 - Windows 2012 R2 Standard Supermicro CSE-SC745TQ-R800B Tower/4HEServerboard Supermicro X9DRH-ITF-O, bis 1 TB DDR3 RAM, 2 x 10GB-LAN, 4 x 1GB-LAN 2 x CPU Intel Xeon E5-2620 2.0 GHz 6-Core8 x RAM 8 GB DDR3 1660 MHz, KingstonRaidController LSI 3W SAS/SATA 9750-8i SATA PCI-Eincl. Batterie Backup Unit2xHDD SATA3 200 GB Intel SSD S3700 Raid 1 - System6xHDD SAS 6G 1000 GB WD 10.000 Raid 10 - Daten Serverplatten 24/7 DVD-Brenner, black, 2 x 800W Netzteil (redundant) 2. Hyper-V-2 - Windows 2012 R2 Standard Supermicro CSE-SC745TQ-R800B Tower/4HEServerboard Supermicro X9DRH-ITF-O, bis 1 TB DDR3 RAM, 2 x 10GB-LAN, 4 x 1GB-LAN 2 x CPU Intel Xeon E5-2620 2.0 GHz 6-Core8 x RAM 8 GB DDR3 1660 MHz, KingstonRaidController LSI 3W SAS/SATA 9750-8i SATA PCI-Eincl. Batterie Backup Unit2xHDD SATA3 200 GB Intel SSD S3700 Raid 1 - System6xHDD SAS 6G 1000 GB WD 10.000 Raid 10 - Daten Serverplatten 24/7 DVD-Brenner, black, 2 x 800W Netzteil (redundant) Notstromversorung: 2 x 3000 Watt APC USV Backup-NAS: 1 x NAS 4 x 2 TB - Raid 5 Replications-Software: 2 x Double-Take Availabilty für Hyper-V 7.0 ca. 600€ Datensicherungsoftware: VEEAM Backup & Replcation Essentional V. 7 ca. 600€ 1. Hyper-V - VMs: ServerDC1 mit DFS und DFS-Replikation, ServerSQL, ServerRDS 2. Hyper-V - VMs: ServerDC2 mit DFS und DFS-Replikation, ServerEx Lizenzen: 7 x Windows Server 2012 R2 25 x Benutzerlizenzen 1 x Exchange 2013 25 x Exchangezugriffslizenzen Sicherungsablauf: VEEAM Backup & Replcation sichert täglich auf die NAS Disaster Recovery Die Domain Controller replizieren sich gegenseitig und durch die DFS-Replication sind die Dateien auf allen DCs verfügbar. Bei einen Ausfall eines DCs wird der nächste DC die Aufgaben übernehmen und die Clients greifen über den DFS-Domänenstamm weiter auf die Freigaben zu. Die virtuellen Maschinen (ServerEX, ServerSQL, ServerRDS) werden über eine Replicationssoftware Double Take auf einen weiteren Server den Replicatationserver repliziert und im Disaster-Fall werden die virtuellen Maschinen dort gestartet. Was haltet ihr von diesem IT-Konzept? bearbeitet 4. Juni 2014 von magicpeter Link zu diesem Kommentar
Heisenberg 15 Geschrieben 4. Juni 2014 Melden Teilen Geschrieben 4. Juni 2014 (bearbeitet) 7 Server Lizenzen für 25 Benutzer? Ist das nicht ein wenig mit Kanonen auf Spatzen schießen? Was ist mit dem Exchange? Warum brauchst du da nur eine Lizenz? bearbeitet 4. Juni 2014 von Heisenberg Link zu diesem Kommentar
Dukel 455 Geschrieben 4. Juni 2014 Melden Teilen Geschrieben 4. Juni 2014 Off-Topic:Usv'en werden immer in VA angegeben. Die 3000 sind sicher nicht die Watt Anzahl. Link zu diesem Kommentar
Empfohlene Beiträge