
Weingeist
Members-
Gesamte Inhalte
1.627 -
Registriert seit
-
Letzter Besuch
Alle erstellten Inhalte von Weingeist
-
Offtopic - "Support Call" bei Mircrosoft eröffnen - diverse Fragen hierzu
Weingeist antwortete auf ein Thema von Blase in: Windows Server Forum
Keine Ahnung wie MS das heute handhabt, aber in der Vergangenheit (auch schon wieder ein paar Jahre her) hatte ich zumindest excellente Erfahrungen mit dem MS-Support gemacht. Am Ende ging das ganze jeweils auf die Kappe von MS weil es eben ein Bug war. Bekam in der Regel nen Workaround oder die Idee dazu präsentiert und irgendwann war das Problem meist gefixt. Da das ganze das Backup betrifft, wird der Entwicklungs-Elan mit Sicherheit grösser sein, als z.B. bei nem Bug vom unliebsamen Kind Access. Da können sich die gleichen Bugs schonmal über 6 Office Versionen hinziehen, weil es schlicht Fehler gibt, die von 99,99% der Access-Benutzer gar nie produziert werden und zu aufwendig zum fixen sind. ;) Ansonsten sind pauschal 300 Euro auch fair wenn man dafür ein Problem gelöst bekommt an dem man schon einige Stunden verbratet hat. :) -
Windows Server 12 diverse Kacheln auf ein anderes User-Profil kopieren.
Weingeist antwortete auf ein Thema von butch80 in: Windows Server Forum
Das gilt aber nur für 'richtige' Apps oder? Auch wenn ich das schon reichlich komplex finde. Die Idee dahinter ist ja im Grundsatz nicht verkehrt. Man wird sich ein paar Versionenirgen später von irgendwo auf der Welt anmelden können und bekommt seine Apps und Einstellungen vor den Latz geknallt. Der Preis der dafür bezahlt wird ist meines erachtens aber deutlich zu gross. Unglaublich umständlich/auwendig das ganze in kleinen Umgebungen umzusetzen. Gilt für so ziemlich alles neue was mit der GUI zu tun hat (Office und Windows). Normale/alte Applikationen bzw. deren Verknüpfungen müssten aber irgendwo im Profil auch abgelegt und somit auch kopierbar sein. Dast Starmenü funktioniert nämlich auch komplett ohne die Dienste AppX und WindowsStore. Also entweder in den weiten der Registry oder irgendwo im Userverzeichnis. -
RDP-Performance mit VPN schlecht
Weingeist antwortete auf ein Thema von soulseeker in: Windows Forum — LAN & WAN
Betreffend MTU-Size: Hatte grad letztens ein Gespräch mit nem Netzanbieter, dass manche DSL-Angebote (bevorzugt Business für Kleinkunden) mit verkorksten MTU's arbeiten, weil der Anbieter selber einen Teil davon brauchen. Auf alle Fälle kann dann die Übertragungsrate enorm sinken, wenn man an den Verbrauchern eine fixe übliche MTU eingestellt hat. So zumindest die Aussage des Anbieters. Also entweder auf die MTU des Netzanbieters einstellen oder schauen, dass diese dynamisch sein kann, was aber auch nicht immer tut. -
Suche Programm zum Datenvergleich bzw. Integritätprüfung
Weingeist antwortete auf ein Thema von Xanathos in: Windows Forum — Allgemein
Musst Du wissen wie Dus machst. Alle Daten die Nicht mindestens auf zwei verschiedenen unabhängigen Datenträger vorhanden sind, sind unwichtig. ;) RAID wird privat erst wichtig, wenn Dir die Wiederherstellung grundsätzlich zu lange dauert. Backups solltest auch mit RAID machen. ;) Ich würdedie RE's nehmen nicht RED. Ist aber auch ne Preisfrage. -
Suche Programm zum Datenvergleich bzw. Integritätprüfung
Weingeist antwortete auf ein Thema von Xanathos in: Windows Forum — Allgemein
Kauf grad zwei Platten auf welchem Du dann die Files synchronisierst oder so. Sonst viel Spass wenn Dir das Ding um die Ohren fliegt und Du nix mehr hast weil Du zu faul bist auf die vier alten Datenträger ne Kopie abzulegen sondern diese wieder löschst oder so... ;) Ansonsten: Robocopy fürs Kopieren, anschliessend das von Daniel genannte Tool drüber laufen lassen. Fertisch... -
Läuft Hyper-V 2012 R2 auf einen Xeon E31230 3,20 Ghz, 16 GB Ram
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Der Host selber hat aber in solchen Umgebungen doch oft ziemlich viel zu tun. Er muss vielleicht Deduplizieren, Storage-Spaces bedienen sowie VDI-Desktops bereitstellen. Da gibts schnell eine Kern-Überbuchung. Die VDI's sollen unabhängig davon immer rasend schnell sein und über eine geringe Latenz verfügen. Erfahrungsgemäss packt man mit der Zeit alles mögliche mit auf die Kiste(n) wenn man mal auf den Geschmack gekommen ist. Dann ist man froh ein sinnvolles Sizing der VM's bereits im voraus gemacht zu haben. @TO: Mit einer vCPU ist die Latenz immer besser als mit zwei. Ausser die VM ist permanent überlastet und es ist tatsächlich die Verarbeitungsgeschwindigkeit wos hackt. Gleiches gilt übrigens für das RAM. Je mehr RAM, desto mehr Verwaltungsaufwand. Je mehr unnötig zugeteiltes RAM, desto lahmer wird das ganze. Der Host wiederum hätte für Deduplizierung, Cache etc. gerne etwas mehr RAM als man ihm in der Regel geben mag. Daher kann man generell sagen: klein Anfangen, Host/VM Belastung beobachten schauen was die Last verursacht entscheiden obs wurst ist wenn für jenen Prozess etwas länger geht und wenn notwendig mehr Ressourcen zuteilen. Angenommen der Host hat fast nix zu tun und das Host OS ist intelligent genug, könnte es zum Beispiel auch Kerne abschalten und Strom sparen. Habe aber keine Ahnung wie effektiv das bereits funktioniert.ist. Aber wie gesagt, soll jeder machen wie er will. Ich klinke mich mal aus, da alles gesagt... ;) -
Läuft Hyper-V 2012 R2 auf einen Xeon E31230 3,20 Ghz, 16 GB Ram
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Wie gesagt, wir sprechen hier von Mini-Umgebungen mit ein paar Usern, PC's und Server. Der DC hat da ned mal ansatzweise was zu tun wenn er nur DC ist. Aber jeder wie er mag. Ich sehe den Sinn nicht. -
Läuft Hyper-V 2012 R2 auf einen Xeon E31230 3,20 Ghz, 16 GB Ram
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Meine Begründung ist nicht die des DC's sondern der restlichen VM's. Frei nach dem Motto: Gib einer VM das Minimum + leichte Reserve, wenns nicht reicht, stocke auf. Das bewährt sich eigentlich sehr gut. Begründung: Ein HyperVisor muss immer die notwendigen Kerne bereitstellen. Das ist bei HyperV und VmWare nicht anders. Hast Du nun auf dem gleichen Host einige VM's und ein paar davon vielleicht gut ausgelastet, dann geht es eben länger, bis er zwei Kerne parallel frei hat, als nur einen. So kann es im Extremfall sein, dass eine VM mit einem Kern sogar schneller läuft als mit zwei oder mehr Kernen. Zwar nicht im Moment wo er berechnet, aber bis er berechnet (Latenz). Vor allem wenn man bei den anderen VM's ebenso grosszügig beim verteilen der Kerne ist. Also im Extremfall z.B. jeder VM 4 von 4 Kernen gibt. Wenn eine VM dann tatsächlich zu wenig Bums hat, dann kann man immer noch nen Kern hinzufügen. Gleiches gilt übrigens fürs RAM. Hat man normalerweise 1 vCPU, dann ist der Verwaltungsoverhead ziemlich klein. -
Läuft Hyper-V 2012 R2 auf einen Xeon E31230 3,20 Ghz, 16 GB Ram
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Taket it easy... War vielleicht etwas hart formuliert. Aber schau mal die CPU-Auslastung auf nem DC in ner Kleinumgebung an. Ob das nun 2GHZ oder 3GHZ ist, nen neuer Xeon oder nen alter P4 ist dabei fast schon egal. MagicPeter hat definitiv ne Kleinstumgebung. Dem Ding ist da auch bei einer vCPU todlangweilig. Selbst in grossen Umgebungen wird oft/meist? 1 vCPU verwendet, dafür mehrere DC's. Keine Ahnung mit wie vielen Anfragen man einen AD-Server in die Knie zwingt, es sind aber definitiv sehr sehr viele. Mich würde es deshalb interessieren, wie sich die bessere Performance bemerkbar gemacht hat. ;) -
Läuft Hyper-V 2012 R2 auf einen Xeon E31230 3,20 Ghz, 16 GB Ram
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Gibt ihm doch gleich die ganze CPU *kopfschüttel* Ein DC der als reiner DC funktioniert ist selbst mit einer CPU ist in kleinen Umgebungen generell masslos unterfordert. Wüsste nicht, wo da Performance-Vorteile sein sollen. Ich behaupte meistens wird er mit 2 vCPU's sogar tendenziell langsamer. Zumindest wenn auch noch ein paar andere VM's parallel laufen. --> Verwaltungsoverhead, Sicherstellung, dass 2 Kerne frei etc. Anders sieht es aus, wenn man den DC als Fileserver nimmt und virtualisierte Netzwerkkarten hat. Da ist dann irgendwann die virtuelle Netzwerkkarte der Flaschenhals, wenn die Festplatten genügend IOPS bringen. -
DFS ist genau dafür excellent geeignet. Zentralisierte Freigabe von verteilten Speicher und immer gleicher Zugriff via der Domäne. Sprich den Nutzer hat es nicht grossartig zu interessieren wo die Daen genau liegen, Hauptsache der Zugriffs-Pfad bleibt der gleiche. Das macht DFS. Zusätzlich stellt DFS Möglichkeiten zu Verfügung um Daten zu replizieren oder einfach nur das Ordnerziel auf einen anderen Server umzuhängen wo man dann selber schauen muss, dass diese auf dem aktuellen Stand ist. Zu deinem Problem: Vermutlich möchtest Du für die gleiche Freigabe zwei Ordner-Ziele eingeben. Das wäre der falsche Ansatz. Du brauchst zwei eigenständige Ordner mit je mindestens einem Ordner-Ziel. Das heisst Du musst einen neuen Ordner im Name-Space erstellen mit dem entsprechenden Ziel. Zusätzlich empfehle ich Dir, in DFS nicht den gleichen Namen für die Freigabe zu wählen wie auf dem Server selbst. Auch das kann die genannten Probleme hervorrufen.
-
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Ich kaufe SA seit es sie gibt. Mich überzeugten bis auf wenige Ausnahmen deren Produkte sowie die Politik von MS im Vergleich zu anderen Konzernen. Bei Kundenprojekten entscheide ich das situativ und auch was der Kunde möchte. Allerdings installiere ich nach Möglichkeit immer so, dass keine reinen Mietmodelle notwendig sind und die Umgebung auch mit gekauften Lizenzen nach Ablauf weiterbetrieben werden kann. Das heisst oft der Verzicht auf Shared Storage und höhere Einstiegskosten für die Lizenzen. Die Shared Storage Teile finde ich aber mittlerweile eh meist zu lahm oder unbezahlbar. Ansonsten: Auch wenn ich die aktuelle MS-Politik alles andere als unterstütze, entweder man bezahlt was man einsetzt oder setzt es nicht ein. Du willst auch, dass Deine Kunden die Rechnungen bezahlen. Alles andere ist Betrug. -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Ganz genau das will es heissen. Früher wurde das mit innovativen Upgrades eingespült, die Freiwillig gekauft wurden. Wer zudem besseren Support wollte, bekam den mit der SA. Heute wird einem das Update in Form eines Service-Vertrags auferzwungen bzw. das Zeitalter des SaaS eingeläutet mit dem deutlich mehr Kohle verdient werden kann. An der Preisschraube lässt sich dann sehr flexibel drehen, solange keine echte Konkurrenz da ist, kann man absahnen und wenn welche aufkommt, geht man mit den Preisen eben wieder runter. Der Kunde kann einem schlechten oder nicht fertigen Produkt keine Abmahnung mehr erteilen wie das z.B. bei Vista der Fall war. Wer nicht mitzieht bzw. mindestens mitweiterbezahlt, der kann die bestehende Umgebung nicht weiter betreiben. Für mich der Totengräber von Innovativiät, Kundenfreundlichkeit etc., weil weltfremde Mangerlis tun und lassen können was sie wollen und ihre Kunden und am Ende auch den Top-Konzern Microsoft problemlos in die ka**e reiten können. Sieht man ja tagtäglich was passiert, wenn die sogenannten Top-Kader zu viel Freiraum bekommen. Wie auch immer, aktuell kannst Du bei entsprechender Auslegung der Installation (Kein Shared Storage, kein vMoition usw.) entsprechende Lizenzkosten sparen, verlierst aber auch an Flexibilität. Zu zahlen sind die Lizenzen übrigens auch wenn nicht MS sondern ein Konkurrenzprodukt die Funktionalität bereitstellt. Sehr perfide, aber VmWare wird so langsam aber stetig aus dem Markt gedrängt. ;) -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Software Assurance wird aber auf Applikations- und Cal-ebene meist Pflicht wenn Du den Krempel hin und herschieben kannst. Ist ein Bestandteil der Bestrebungen von MS, die Kunden langsam aber stetig weg vom Lizenzkaufmodell zum hochprofitablen SaaS-Konzept zu zwingen. -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Bei der Durchsicht noch was gesehen: Das 'Problem' ist von verschiedenen Anbieter gelöst, welche diese Lücke für deren Geräte füllen. Entweder OEM mit eigenem Brand oder Verträge direkt auf Supermicro-Server. Zum Support: Es gibt heute nicht mehr viele grössere Firmen bei welchen man auch ohne Service-Vertrag an wirklich kompetente Leute kommt wenn es nicht 0815 Fragen sind. Supermicro gehört da dazu. Ansonsten: Kauft man bei einem vernünftigen Händler, hat der auch Ersatzteile für Garantievorabtausch an Lager. Vertraglich festgelegt oder auch nicht. Selber kann man auch Ersatzteile vorhalten usw. Man muss sich eben andersweitig absichern. Nicht alles so bequem wie beim Hersteller direkt, dafür deutlich günstiger. @Heisenberg: Das bedeutet, das jemand nicht nur keine Ahnung hat sondern grösstenteils auch komplett Beratungsresistent ist. Nicht gerade der schönste Titel hier im Forum ;) @Dr. Melzer: Nope, das stimmt so nicht direkt, wenn auch fast. Ist quasi die selbe Einheit aber nicht die selbe Menge. Die VA ist wie Norbert angetönt hat die Summe aus Wirkleistung und Blindleistung. Das ist bei allen Anlagen die nicht direkt aus dem Netz gespiesen werden noch wichtiger. Die Watt betitelt die Wirkleistung, was also eine hinterhergeschaltete Machine effektiv verbrauchen darf/kann/tut. Dazu gibts die Blindleistung welche zwischen Speisung und Verbraucher hin und her geht. Normalerweise ist diese nicht so relevant, da vom Netzbetreiber diese quasi ausgeglichen wird bzw. bei grösseren Installation muss man selber eine solche Kompensationsanlage betreiben damit die Ströme nicht zu hoch sind und einem wiederum Kosten berechnet werden. --> Anfahren ausschalten von Maschinenparks usw. Da eine USV die eigentlich Speisung der Geräte ist, muss sie zur Wirkleistung eben auch die Blindleistung abkönnen. Wenn ich also auf eine 3000 VA USV 3 kw ziehe, läuft die USV in Überlast. @magicpeter: Es ist wirklich schwer Dir irgendwas sinnvolles zu vermitteln. Grundlagenwissen zu Hardware, Lizenzen und Software gehen dir völlig ab und scheinst die entsprechenden Hinweise auch nicht zu verinnerlichen bzw. richtig nachzuforschen. Zu Hardware: Ich nehme hier jene Controller, die von den grossen Hersteller standardmässig in den Server verbaut werden. Gleiches bei Festplattenmodellen, RAM etc. -
System Upgrade + Datensicherung
Weingeist antwortete auf ein Thema von lindi200000 in: Windows Server Forum
Nun obs reicht sieht man immer erst wenn ein Update sowie eine allfälliger Restore zum vorherigen Zustand fehlgeschlagen ist, aus welchen Gründen auch immer. Ob du genügend sicher bist, das alles haut, kannst nur Du selber abschätzen. Dabei auch immer das eigene KnowHow miteinbeziehen wenn es eben doch in die Hose geht, also ob man dann wirklich fähig ist eine verbockte Situation am Live-System zu retten oder nicht. ;) Mit nem Offline-Backup kann man halt völlig stressfrei von vorne beginnen wens in die Hose geht und die eigenen Rettungsversuche ins Leere laufen. -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
1. Die Kosten für DoubleTake unterschätzst Du meiner Meinung nach gewaltig. Normal brauchst Du für eine sinnvolle Absicherung pro Server-Instanz mindestens zwei Lizenzen. Für ein auomatisches Fallback sogar deren drei! 2. Meine Erfahrungen hat gezeigt, das ein manuelles switchen von Hosts oder VM's in kleinen Umgebungen bei Ausfällen stressfreier ist. Ein Ausfall kommt A sehr selten vor wenn vernünftige Hardware verwendet wird und B weiss man dann genau was man gemacht hat. Oft reicht der Reboot und Kontrolle des Servers und ein Switch auf die andere Maschine ist nur ein unnötiger Schritt/Risiko. Auch hat man die bei grösseren Umgebungen normalerweise eingesetzen Applikations-Cluster die sich quasi wieder selber heilen nicht. Daneben sparen fehlende Automatismen auch Lizenz-Kosten. Läuft alles Autonom und es wird nur gesichert, dann fallen auch keine zusätzlichen Lizenzkosten an. 3. Für die paar Server-Instanzen würde ich Single-CPU Kisten verwenden. Das stört mich auch bei den grossen Hersteller. Da bekomme ich keine hohe Xeon-CPU-Klasse mit einem Sockel in einem vernünftigen Server. Bei Supermicro schon. Das ist aber Gescackssache, wie so einiges. Ich hätte gerade in der Virtualisierung lieber eine hohe GHZ-Zahl stehen (sofern einem die PCI-Express Lanes bei Single-CPU ausreichen). Drückt in aller Regel die Hardware-Kosten deutlich. Bei allem worauf User direkt arbeiten, sind halt nach wie vor die GHZ und die Speicher-Latenz die wesentlichsten Faktoren für ein gutes User-Performance-Feeling (RDS, Virtuelle Desktops etc.). Auch sinkt der Verwaltungs-Overhead sehr deutlich, wenn für die gleiche Leistung mit weniger Kernen pro VM gearbeitet werden kann (Hypervisor-Ebene). Dazu kommt, dass immer noch sehr viele Anwendungen mit schnellen CPU-Kernen besser vorwärts kommen als mit Multi-CPU, sofern sie überhaupt auf Multi-CPU ausgelegt sind. Heute immer noch selten der Fall. --> Eine CPU mit 2GHZ käme mir nur ins Haus wenn ich weiss, dass meine Anwendungen optimal Multi-CPU nutzen können bzw. für reine Server-Aufgaben. 4. Nimm einen richtigen Business-LSI-Controller und keinen ehemaligen 3Ware Home-Office Controller (klingt etwas hart, ist aber nunmal kein Enterprise-Produkt). 5. RAM: Aktuell ist da 1600 und 1866 MHZ, wie komsmt du auf 1280? -
System Upgrade + Datensicherung
Weingeist antwortete auf ein Thema von lindi200000 in: Windows Server Forum
Stimmt. Du selber hast es gesagt. =) Wenn solche Übungen im SBS-Umfeld schiefgehen, dann schiesse ich den zweiten DC ganz einfach ab. Bis 2003 eigentlich schon vor solchen Übungen wenn diese geplant sind. Ab 2008 ist das AD-Cleanen aber eine relativ einfache Aufgabe und man kann es machen oder bleiben lassen. Deshalb vorher auch immer prüfen ob der zweite DC noch andere Aufgaben hat als DC zu sein. Fals ja, lieber vorher demoten, damit nur noch ein DC übrig ist. Oder grad von Anfang an auf einen Reduzieren. Vereinfacht die Nacharbeit. Ein Recovery vom Image ist dann absolut kein Problem. -
System Upgrade + Datensicherung
Weingeist antwortete auf ein Thema von lindi200000 in: Windows Server Forum
Ich würde dir noch was ganz anderes empfehlen: Fullimage der ganzen Platte(n) mittels einer StartCD. Dann kannst wirklich den absolut identischen Zustand wiederherstellen -
Sind TerminalService-Lizenzen notwendig?
Weingeist antwortete auf ein Thema von S.R. in: Microsoft Lizenzen
@zahni: Das habe ich weder gelesen noch hineininterpretieren können.. Wo genau soll das stehen, dass man zwingend einen TS installieren und diesen auch so nutzen muss? Den Passus würde ich gerne mal sehen.. Was steht ist: Wenn Remote-Desktop oder ähnliche Technologien genutzt werden, unter Server eine CAL für RDS fällig wird. Das heisst für mich, man muss nicht den Terminal-Server verwenden sondern man muss eine CAL ebenfalls haben, auch wenn man ihn nicht nutzt. Das ist ein grosser Unterschied. Das heisst, man kann auf die VM Zugreifen wies gefällt, Hauptsache die User haben ne CAL. -
Unterschiede Windows 7 / 8.1 im Businessbereich
Weingeist antwortete auf ein Thema von MarcoErb in: Windows Forum — Allgemein
Dafür: - Das genannte, wobei ich gegenüber der schnelleren Ausführung doch eher skeptisch bin 1* - Der Ordner-Rauf-Button ist wieder da, man benötigt keine Zusatzprogramme mehr. Sehr bequem. - Je nach Geschmack die neue Explorer-Menüleiste, ich bin auch nach 3 Jahren in Office immer noch spürbar langsamer durch die Menüs als in Office 2003. Bei Explorer wirds nicht anders sein. Alte eingefleischte Alt-Menübuchstabe-Kombinationen gelten nimmer - Im Serverbereich gibts noch einige mehr Argumente die dagegen sprechen - Imho Performance 1*: auf identischer Hardware. Bei W7 kann man einige Einstellungen die bei 8 Standard sind einstellen und somit zu etwas mehr Schnelligkeit verschaffen. Der Wegfall des Aero-Anteils dürfte etwas weniges bringen. Für das Starmenü gilt es übrigens definitiv nicht, das ist spürbar langsamer aufgebaut sobald z.B. eine Remote-Verbindung besteht. Auch sonstige IO's wie irgendwelche Performance-Daten, Gerätekrimskrams und sonstige eigentlich völlig unnötige Aufzeichnungen schreib W8 deutlichst mehr auf die Platte. Macht auf nem normalen Rechner ned wirklich viel aus, bei vielen virtuellen Desktops kommen da aber einige Iops zusammen. Alles abschaltbar, aber halt standardmässig ein. --> Verstecken sich in Diensten und diversesten Aufgaben - Startmenü ist extrem gewöhnungsbedürftig, da dürfte es mit dem neuesten Update hoffentlich Abhilfe geben. Was da mal nimmer drinn ist, ist mühsam wieder reinzukriegen. Nicht alles ist nach der Installation auch tatsächlich drinn. - Hochintegrierte Online-Dienste sind Geschmackssache, meiner definivt nicht - Suche ist identisch mies wie bei 7 (wie sehr wünsche ich mir die hundskomumne XP Classic-Suche zurück, die findet immer was sie soll, 7 und 8 was es meint man solle finden und schwierig die Parameter alle auswendig zu wissen) - AppX mit seinen ganzen Spyware Ambitionen sowie den Windows-Store zur Strecke zu bringen erfordert einiges an Aufwand, unter 8.1 nochmals höher als bei 8 (Systemrechte erforderlich) -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Sorry für die späte Antwort. Bin etwas eingespannt... Wie bereits gesagt wurde, in den seltensten Fällen ist das tatsächlich wirklich notwendig. Wenn die Reaktion nur ein paar Telefonate von genervten Leuten entstehen ist das wurscht und nur unangenehm. Wenn es die Firma richtig viel Geld kostet, dann muss man auch dementsprechend richtig viel Geld investieren. In der Regel wird es sehr schnell unnötig wenn man Ihnen aufzeigt was das kostet. Die einzigen bezahlbaren und sinnvollen Lösungen die ich kenne und auf eine sehr hohe Verfügbarkeit kommen ohne eine gigantische Materialschlacht zu starten, sind entweder Stratus-Server als Unterbau oder eben Xenserver mit der Marathon-Erweiterung. Bei Marathon wird wirklich alles gespiegelt, inkl. Storage. Dabei ist es egal wo der Storage liegt, ob lokal oder auf jeweils getrennten SAN. Die VM's laufen dann im Lockstep auf zwei Server, schmiert einer ab, dann läuft sie auf dem anderen ohne Unterbruch weiter. Kackt der Storage oder Netzwerk weg auf welchem die VM liegt, gibts kein Host-Wechsel in der Ausführung, sondern der Traffic wird via dem zweiten Host geleitet. Die Komplexität ist bei beiden überschaubar aber dennoch deutlich höher als einfach ein Standardserver. Die Materialschlacht beschränkt sich auf zwei bis drei Server. Aber auch da bewegen wir uns in einem deutlich höheren Bereich als Du hier ausgeben möchtest. Dann gibt es noch Replikationslösungen mit manueller oder automatischer Umschaltung welche auch sehr gut funktionieren. Sehr gute Erfahrungen habe ich da in der Vergangenheit z.B. mit DoubleTake gemacht. Heute löse ich bei wenig Budget aber möglichst hoher Verfügbarkeit meist so wie ichs oben schon beschrieben habe. Immer das beste an gerade noch bezahlbarer Hardware. Das heisst - jeweils höchste Xeon Serie, 1 CPU Hosts mit höchstmöglicher Taktrate (reicht normal völlig aus und ist bezahlbar) - SSD's welche den Namen verdienen - Magnetplatten die auch in richtigen SAN's verwendet werden - zwei völlig überdimensionierte USV's die die Zeit mehrere Stunden überbrücken können (Batterien leben sehr viel länger, in unseren Breitengraden meist nicht nötig tatsächlich herunterzufahren usw.) - verschiede Backupziele, wobei eines immer lokal ist und darauf auch sehr fleissig gesichert wird. Da sind dann sehr schnelle Wiederherstellzeiten garantiert. - Drahtlos-Netzwerkwartungsmöglichkeit via Mobil-Telefon usw. - NAS als wirkliche Disaster-Lösung in nem anderen Brandabschnitt - Backup/Verfügbarkeit ganz klassisch mit den verschiedenen Onboard-Lösungen wie Schattenkopien, DFS, Windows-Backup, Robocopy usw. Klar dauert bei nem Brand die Wiederherstellung so lange wie sie auch bei nem Einsteiger-Shared Storage dauern würde. Aber sind wir ehrlich, in nem Kleinbetrieb wos gebrannt hat, ist es sc***egal wie viele Stunden gebraucht werden um die EDV wieder hochzubringen. Man hat ganz andere Sorgen. Wichtig ist nur, dass die Daten noch da sind. Auch das ist alles andere als billig, aber zumindest preiswert für das was man erhält, die Komplexität ist tief gehalten und die laufenden Kosten überschaubar. Wenn etwas mehr Budget vorhanden ist, kann man natürlich mit ner gscheiten Backup-Lösung wie Veaam arbeiten wo man die Sicherung gleich produktiv hochfahren kann. Wird aber wieder komplexer und auch dessen Umgebung soll gscheit gesichert sein. Bei kleinen Umgebungen ist der viele Zusatz-Traffic in der Regel trotzdem vernachlässigbar. Aber eben, sowas wird als gebastelt abgetan, aber ich habe damit sehr gute Erfahrungen gemacht. Die Hardware ist für solche Umgebungen total überdimensioiert -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Habe mir das Video jetzt nicht angeschaut. Macht er das so, dass jeder Hyper-V-Host zugleich Storage-Cluster-Mitglied ist oder gar mit Storage-VM's auf jedem Host? Ob solche Dinge allgemein sinnvoll sind, muss jeder für sich selbst beantworten. Die Komplexität steigt aber deutlich an, auch wenn das Klicki-Klicki für das einrichten einfach ist und anderes vermuten lässt. Dessen muss man sich bewusst sein. Ob es supported ist, weiss ich auch nicht. Ich bin mir zudem nicht ganz sicher ob Du das Prinzip des Storage-Cluster verstehst, welches man mit Windows bereitstellen kann. Jeder Host braucht Zugriff auf den gleichen Plattensatz. Das heisst Du bräuchtest nen JPOD sowie Shared RAID-Controller (gibts aktuell nur für 2 Hosts von LSI, für ca. 5k Euro). Ansonsten landest Du wieder bei Software RAID und da ist die Performance erfahrungsgemäss mit Magnetplatten richtig schlecht. Von der Sicherheit ganz zu schweigen. Imho nur mit SSD's oder Festplatten aus nem RAID-Verbund brauchbar. SSD's bräuchtest wiederum nen SAS-Interface oder nen SAS-Interposer. Das JPOD wäre übrigens wieder nen SPOF. Einen einzigen Storage-Server zu verwenden würde gehen, sehe ich aber keinen wirklichen Vorteil. Liegt alles auf den Hosts kann ich zwar nicht identisch gut hin und herschieben (wozu eigentlich? Ausser hohen Lizenzkosten und Risiko beim verschieben gewinne ich wenig) und muss mit einer kleinen Downtime von ein paar minuten leben, dafür ist die Hälfte noch online. Bei einem Windows-Server für Storage muss bei dessen Patchung theoretisch alles heruntergefahren werden, das heisst du brauchst wieder irgendwo nen DC. Ich bin ja auch in dem Gebiet tätig, kleine Firmen, wenig Geld. Aber richtiges HA das den Namen verdient und auch etwas nützt bzw. in erster Linie nicht schadet, ist nicht mit einem schmalen Geldbeutel vereinbar. Egal was einem die neuen Windows-Features suggerieren möchten. Gleichzeitig ist es wie gesagt im Normalfall auch gar nicht nötig. Falls doch, gibts mit Xen + Marathon ne nette Lösung für Kleinumgebungen welche das Problem eigentlich ziemlich elegant erschlägt. Das ist dann richtiges HA bis hin zu richtigem Multi-CPU- Lockstep. Community aber sehr klein und nach der faktischen Einstellung des Xen-Servers auch etwas schwammig für die Zukunft. Oder gleich ein Stratus (wiederum nicht günstig). ABER: Man kann aber mit Bordmitteln nette Dinge für ein super schnelles Recovery machen. Da holt man viel mehr raus. Da kann man bei den Recovery-Zeiten auf Einstiegs-SAN mit z.B. iSCSI nur träumen von. Auf meiner habe ich mit 1Gbit iSCSI max. ca. 100 MB/s bei 12 Platten (1Gbit Lan-Karte beschränkt). Das geht Lokal viel schneller. Was ich also damit meine: Viel lieber Geld in die Festplatten und RAID-Controller der beiden Hosts stecken anstatt in eine SAN wenn man sich den Rest nicht leisten kann. Das heisst auf alle Fälle SAS und mindestens 10k Spindeln und davon wiederum sicher nicht nur 2 Discs. Je schneller das Disc-System, desto schneller kannst nen Recovery drauf fahren. Mit zwei Servern kannst in kleinen Umgebungen fast immer ne Menge System bereitstellen. Es hakt fast immer an der Diskleistung und nicht an der CPU-Power. Wie gesagt ich sichere jeweils auf den gleichen und auf nen anderen Host. File-Server synce ich generell und lasse nur den Zugriff auf einen Knoten zu (mit DFS). Im Fehlerfall kann man den einfach umswitchen Sicherung auf nen Netzwerk-Share oder eine vDisk welches auf einem per iSCSI oder NFS bereitgestellten Volume des jeweils anderen Host liegt (für Nutzung inkrementell notwendig, dass Windows die Disks als Block-Storage hat). Ansonsten: Wenn du Supermicro-Systeme + Enterprise Discs + zertifizierte Hardware-Controller von z.B. LSI nimmst, dann ist das weder eine Bastellösung noch schlechtere Hardware als die der grossen wie HP, Dell, Fujitsu etc. Supermicro ist meines wissens immernoch die Nummer 4 im Server-Bereich und bei grossen High-Performance Cluster-Installation ziemlich vorne mit dabei. Wurde jetzt ein kleiner Bandwurm, aber das meiste dürfte klar sein. -
Hyper-V 2012 R2 Replica und Exchange 2013 SP1, DC und SQL 2012 R2 Express
Weingeist antwortete auf ein Thema von magicpeter in: Virtualisierung
Ich versuchs auch mal... Kann mich nur den Vorrednern anschliessen, so macht das keinen Sinn. Wozu willst du zwingend eine separate Maschine für den Storage? Alles was du gewinnen wirst, ist eine schlechtere Performance als wenn Du nen richtigen RAID-Controller in deine beiden Server baust und eine instabile Umgebung. Wenn das Budget nicht vorhanden ist für nen anständiges Shared Storage, eine Lösung für deren Ausfall UND eine potente Datensicherungslösung, dann sollte man den Kram einfach komplett bleiben lassen und mehr oder weniger klassisch aufbauen, das funktioniert nämlich auch. Auch wenn man viele tolle Features vor den Latz geknallt bekommt. Spart viele Nerven. Gründe: - Budget ist dann meist auch nicht für die notwendigen Lizenzen (Stichwort Lizenzmobilität) vorhanden - Budget und Wissen für den Unterhalt ist meist ebensowenig vorhanden - Aufwand für Dokumentation von eher komplexen Umgebungen muss auch bezahlt werden, verstehen muss es auch einer Deshalb: Entweder man machts richtig oder man baut klassisch. Es gibt kein günstiges HA. Man kann es drehen und wenden wie man will. Glaube mir, ich habe das Rückwärts, Vorwärts und wieder zurück durchgespielt. Meist erreicht man nur, dass die Umgebung unnötig komplex wird, obwohl man z.B. gut damit leben kann, wenn ein Host 5min down ist für einen Reboot nach nem Update. Daher investiere das Gelb lieber in sauber getrennte Server-Dienste, potentes Local-Storage sowie nen schnelles Backupsystem UND richtige Serverhardware. Wenn Dir die Dinger zu teuer sind, nimm halt Supermicro. Ist immerhin der viertgrösste Server-Hersteller und da kannst die Komponenten wie Festplatte etc. selber bestimmen. Das Angebot an Varianten ist riesig. Hat für jeden was dabei. Würde in deinem Fall heissen: - Hyper-V Server (2 Stück) für die VM's, in beiden Local Storage, DC einen virtuell - Gute und schnelle Backup- / Recoverylösung - 'Normale' Sicherungen z.B. jeweils auf den anderen Host. --> Umgebung sehr schnell wieder oben - z.B. nen kleines NAS für Desaster-Recovery --> Sicherungen Bei Updates muss der Host halt runter. Wenn Du auf beiden Server nen DC hast (sowieso zu empfehlen), dann kannst bequem einen nach dem anderen Updaten machen. Ich erstelle bei ner Handvoll VM's jeweils eine virtuelle Discs pro VM auf dem zweiten Host und binde diese in der VM des anderen Hosts als Backupplatte ein. Dann kann ich mit der internen Windows-Sicherung arbeiten und die virtuelle Platte als direkt angeschlossen nutzen --> Inkrementelle Sicherung. Zusätzlich sichere -
Die Angst vor Datei-Verschlüsselung durch Erpressungstrojaner...
Weingeist antwortete auf ein Thema von Shemeneto in: Windows Server Forum
Hatte vor ein paar Jahren auch mal so einen halbintelligenten tagesaktuellen-Virus. Der kam als simples Textfile, zusammen mit nem als Textfile getarnten Script (dopelendung). Bekam fast täglich Mails des gleichen Viruse, jedes mal mit anderem Textfile. Das textfile wurde auf irgend eine Weise mit Bordmitteln direkt via dem wenigen KB grossen Einzeiler kompiliert bzw. direkt als Objekt ins System geladen. Hat sich dann anschliessend gleich selber im System eingenistet. Ser perfide wie ich finde. Vermute, dass das ganze schon fast fertiger x86 Maschinencode war, der mit ein paar Apis direkt ins Ram geladen wurde. Sah zumindest so aus. Da hilft alles Virenscannen nichts, weil die Signatur des Textfiles immer ändert. Man musste bei dieser Variante aber dennoch auf ein zweites als Textfile getarntes, unscheinbares, simples einzeiler Script klicken. Weil mir das Ding strange vorkam, habe ich das Spasseshalber in ner abgeschotteten virtuellen Maschine ohne jegliche Netzwerkkonnektivität ausprobiert. Der Virenscanner hatte ned mal Zeit zum reagieren und wurde einfach komplett deaktiviert, ohn das man wirklich etwas davon gemerkt hätte. Obwohl das nur Admins hätten tun dürfen. Anschliessend versuchte es mit dem dem Internet zu plaudern. Sichtbar etwas gemacht hatte das Ding nicht. Vermutlich diente es also für ein Botnetz. Bezüglich der aktuellen Fälle: Finde ich vor allem in kleinen Firmen und bei privaten Problematisch. Einigermassen sicherer Schutz wäre die Produktivsystem vom Netz zu nehmen und ähnlich wie das Prinzip der Graphic-Firewall auf den Kisten zu Arbeiten. Dazu eine Form von Datei-veröffentlichung sowie Einpflegung um diese per Internet zu verschicken.