Jump to content

Weingeist

Members
  • Gesamte Inhalte

    1.627
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Weingeist

  1. Was mir noch auf die schnelle aufgefallen ist, den SpacePort Task würde ich jetzt nicht deaktiveren und schon gar nicht löschen. Auch wenn ich nicht genau weiss was er wirklich tut. Hat mit den Storage-Spaces zu tun. Sieht mir irgendwie nach ner Krücke aus, welcher Filesystem-relevante Tasks startet. Vielleicht einfach ein regulärer Aufräum-Task. So genau habe ich das noch nicht recherchiert. Wenn Du mit RegSnap rumspielst wirst noch sehen was MS so alles in die Registry ablegt. Da wird echt jeder einzelne Mausklick abgelegt. Mag für die Fehlersuche vielleicht vorteilhaft sein, ansonsten finde ich das einfach nur unschön. Den Krempel wirst auch hier los, indem Du auch dem Konto System und/oder einem allfälligen Dienstkonto bzw. dem entpsrechenden User die Berechtigungen auf die Hives entziehst. Je nach Art der Hives kannst Sie auch löschen. Wundere dich aber nicht wenn Du zum Beispiel keine Auflistung mehr bekommst was deine letzten gestarteten Programme betrifft. ;) Ist aber echt krank wie viel IOs produziert werden, ohne dass man überhaupt etwas tut oder einfach ein paar Programme aufmacht ohne irgendwas zu speichern/verändern. Damit kriegst die Systemauslastung die einfach mal so verbratet wird, fast komplett weg. Die IO's auf die Festplatte komplett. Macht bei einigen Desktop-VM auf nem Server ganz schön was aus. --> Bei VmWare gibts nen Desktop-Optimization Script, da ist einiges beschrieben. Hab ich selber als Basis genommen und erweitert. Und Wenn Du noch weiter rumspielen möchtest, kannst in der Windows Firewall noch ne Menge abdrehen und Ports auf bestimmte Dienste und Programme beschränken. Die Einstellungen können auch exportiert werden. Am besten aber auch per Powershell oder cmd scripten. Man kann sich Stunden damit verweilen. Allerdings lohnt sich dieser Aufwand imho immer mehr bei der ganzen Sammlungswut.
  2. Ohne jetzt die List im Detail mit meinen üblichen Veränderungen querzuprüfen, kann ich Dir aus eigener Erfahrung sagen, dass wohl das meiste unproblematisch ist. Auch für Windows Updates. Hatte diesbezüglich noch kein einziges mal Probleme. Man muss halt mit etwas Hirnschmalz vorgehen und nicht systemrelevante Dinge oder Aktivierungsdienste etc. rauskicken, sondern wirklich nur den Spyware-Kram sowie das was total unnötig ist. Die Tasks würde ich allerdings nicht unbedingt löschen sondern eher deaktivieren. Wenn Du MS nicht traust, kannst ja dem System-Konto die Schreib-Berechtigung über die entpsrechenden Reg-Hives entziehen und einer Spezialgruppe übergeben. Haut mal was ned, kannst einfach System/Admin in diese Gruppe werfen und die Hyves lassen sich entsprechend ändern. Des weiteren würde ich das ganze in ein Script packen mit Beschreibung was Standardmässig eingestellt ist sowie die Bedeutung der Dienste. Dann lässt sich dieses Script an die gewünschten Bedingungen anpassen und z.B. nach dem einspielen von Windows Updates erneut ausführen/anpassen. Da werkelt MS nämlich auch gerne an den Tasks rum und fügt öfter mal wieder was neues zum Datensammeln hinzu. Wenn Du wirklich weniger Material im OS haben möchtest, musst Du mit dem Component-Store rumspielen. Der haut Dir Module tatsächlich komplett aus Deinem System raus. Mit teilweise seltsamen Nebenwirkungen. So 100% ausgereift war das mit 2012 R2 noch nicht, ist aber auf dem guten Weg. Denke mit W10 ging da sicher nochmals kräftig was. Am besten macht man die Component-Store Manipulationen aber nach wie vor der Installation. W8 hat z.B. Mühe wenn die Bing-Suche oder die vereinfachten Einstellungsformulare plötzlich ausm System gekillt werden aber trotzdem noch Links vorhanden sind. Am besten mal schauen was bei Industrie-PC's so aktiviert ist. Die fahren sehr oft eine Minimal-Strategie und das System läuft trotzdem stabil und top. Mit Netzwerkzugriff und allem. Bis 2012 war die nachträgliche Manipulation des ComponentStore aber gar keine gute Idee, mittlerweile ist es aber relativ sicher da drinn rumzuwursteln wenn man weiss welche Module nicht benötigt werden. Man kann ja seit 2012 auch die Updates bzw. die alten Varianten von Systemfiles "richtig" rauslöschen. Unter W7 schon teilweise möglich, aber noch sehr rudimentär.
  3. Nun, tu Dir selbst einen Gefallen und lass es wenn Du nicht Deinen Spieltrieb beglücken möchtest. Braucht einiges um glücklich zu werden und wenig um sich grün und blau zu ärgern ;) Was ich Dir eher empfehlen würde: Machs zu Fuss ;) Mit nem eigenen ADMX, den GPP's und/oder einem Login-Script. Die Einstellungen werden grösstenteils in der Registry gespeichert, also können sie mit diesen mitteln auch manipuliert werden. Die entsprechenden Registry-Werte kriegst Du z.B. mit RegSnap raus. Also vor Änderungen an einem neuen Profil Snapshot ziehen, nach Änderungen wieder. Änderungen auswerten/filtern. Hat auch den Vorteil, dass es nicht so gravierend ist, wenn Du z.B. auf nem XP System ein paar Einstellungen von nem W7 Client einspielst. Der ignoriert sie einfach. Trotzdem hast überall identische Settings. Kommt was dazu, erweiterst einfach die Scripts/ADMX usw. Bisschen gesunder Menschenverstand was man wirklich mit rein packt brauchts natürlich auch hier.
  4. Zwar auch schon länger her seit meiner letzen Migration, aber ich hatte die meist zu Fuss erledigt. Wollte an der Konfig des Ursprungsservers nie was ändern. So konnte weitergearbeit werden bis der Umzug komplett war. Auch der Servername blieb gleich (Dokumentverknüpfungen, Freigaben etc.) Also entweder suchst Du Dir einen Profi oder machst es eben auch zu Fuss wenn Du nicht mehr weiter pröbeln willst. Dazu einfach AD per AD-Migrationtool umziehen. Brauchst nen Mittels-PC mit zwei Netzwerkkarten wenn Du den Servername behalten willst und am Ursprungs-SBS rein gar nichts installieren oder verändern möchtest (das war bei mir der Haupgrund). Dazu identische User-Namen und Passwörter für den Administrator. Die ganzen zusatz-attribute würde ich beim export weglassen, dann fängst quasi frisch an. Dafür aber SID-History unbedingt mit exportieren und am Ende die Ablaufdatums heraufsetzen. Einziges Manko: Die Spezial-AD-Attribute für den SBS 2008 sind bei dieser Migration nicht vorhanden und die User erscheinen nicht in der (meiner Meinung nach sowieso unsäglichen) Userverwaltung. Dateien: Abgleich mit Robocopy Freigaben: Die exportierst aus der Registry und importierst sie auf dem neuen System Aber nur mal so ist das auch nicht gemacht. Geht deutlich länger als mit dem Migrationsassistenten, soviel kann dazu gesagt werden!
  5. Sehr gut macht die Skalierung TeamViewer. Geht auch mit reiner und automatischer LAN-Connection ohne WAN. Kostet einfach ein paar Euro. Brauchst natürlich einen Unterbau der dies auch ausführen kann. Manko: Du verbindest dich auf die Konsole des Computers, also wie wenn du lokal davor sitzen würdest. Das gibt Probleme mit mehreren Sitzungen auf der gleichen Maschine bzw. diese werden verunmöglicht.
  6. Da würde ich mir jetzt keinen Kopf machen. Bei Datensicherheitstechnischen Dingen ist MS nach wie vor top. Bei den Nice-To-Have Features wie dem Index driftets teilweise ins Flop ab. Vielleicht ist ja ein neuer Index-Dienst auf App oder Bing-Basis geplant *hust*
  7. @Norbert: Grundsätzlich weiss ich natürlich schon was Du meinst. Das mittlere/hohe Preissegment ist aber nunmal selten die Kragenweite von KMU's. Auch wens geleast wird. In diesem Fall bin ich dann eben der Meinung, dass man anstatt einer überteuerten Entry-Level SAN mit eher mässigen Features und mieserablen Rebuild-Zeiten und NL-Discs im RAID 5/6 lieber nen Server mit nem klassichen Controller bestückt. Den Server dann eben möglichst gut ausgestattet. - Single CPU-Chipsätze anstatt die gewöhnlich offerierten Dual-Systeme (günstigere CPU's/allgemein günstiger) - schnelle, zuverlässige Festplattentypen (davon ein paar mehr als man mit der SAN mit Ach und Krach finanziert bekommt) - RAID 10 anstatt 5 (bessere Rebuildzeiten, schneller, ausfallwahrscheinlichkeit eher tiefer) - Doppelte Netzteile, Lüfter, Management-Karte usw. - Zwei online USV's Wird die SAN sowie teuren Dual-Chipsätze weggelassen, bekommt man Luft für den Rest. Das ist im Endeffekt günstiger oder sicher zuverlässiger als ebene ne SAN aus dem Entrybereich.
  8. @NorbertFe: Zwischen den mittleren und hohen Preissegment und dem billigsten vom billigsten gibts noch einiges. @DocData: Nun, leasen ist dann sicher im Endeffekt günstiger ;) (Das gilt vielleicht für Maschinen mit langer Abschreibdauer, bei Computer die eh sofort abgeschrieben werden können ist das aber sicher teurer) Virtualisieren um jeden Preis: Stimmt. Da es von MS aber leider keinen SBS mehr gibt, kommt man fast nicht mehr drum rum. Auch mit mehreren physischen Maschinen gehts ned so einfach wie beim SBS. Muss man eben die Umgebungsbedingungen entsprechend anpassen, damits trotzdem klappt. In die Cloud wollen die wenigsten kleinen Unternehmer freiwillig. Ist denen viel zu suspekt. Mir übrigens auch.
  9. Naja, nicht jeder kann sich eine SAN im mittleren bis hohen Preissegment der Hersteller leisten. Das ist selten die Kragenweite der Kleinunternehmer. Und nein, die meisten dieser Firmen haben auch kein Geld locker um alle 3 Jahre nen dicken neuen Firmenwagen für den Chef zu kaufen ;)
  10. Meiner Meinung liegt das daran, dass viele Leute bis anhin ungewünschte Dinge nicht installieren. Das passt viel eher zur aktuellen MS-Strategie der vollständigen Nutzerüberwachung/Bevormundung. Mit der Malware kann das nicht zusammenhängen, da die Updates von den Gruppierungen eh immer entpackt und mit bestehenden Files verglichen und analysiert werden. Da reicht die reine Beschreibung nicht aus. Um mal ein paar zu nennen die mir Suspekt sind/waren und deshalb bisher nicht den Weg auf meine Systeme gefunden haben: - Windows 10 Update-Infoprogramm - Browserauswahlmenü - iTrace-Logger-Schnittstelle - VPN-Tunnels von verschiedensten Anbieter - Mobilitätsanbieterkram - WSUS-Nachfolger-Support (seltsam wenn das schon jetzt eingespielt werden kann) - Sonst noch ein paar die mir grad nicht einfallen Mit W10 und der ausgebauten Spy-Tätigkeit wird das gegen den Kram laufen und eben nicht sofort erkennbar sein, was genau man installiert. Braucht dann wieder exzessive Recherche. Wenn das so weitergeht muss ich mich nach über 15 Jahren MS-Befürwortung tatsächlich noch mit alternativen OS beschäftigen. Sowie mich wieder mal mit dem guten alten Graphic-Wall-Prinzip auseinander setzen. Einfach mit aktueller Software. Wird langsam aber sicher beängstigend was die so treiben.
  11. http://www.itmagazine.ch/Artikel/60432/Erlaeuterungen_nur_noch_fuer_signifikante_Windows-10-Updates.html
  12. Und es wird noch besser. Es wird keine Erklärungen mehr für die Updates geben. Grade in den News erhalten. Die Updates machen also irgendwas. Bewahrheitet sich also, man soll alle Updates einspielen ;)
  13. @Lefg: Finde ich nicht dass die Krampfhaft herbeigezogen werden. Die zusätzlichen Risiken sind neben den sehr grossen Vorteilen nicht zu vernachlässigen. Vor allem in Kleinumgebungen wo die Infrastruktur bisher bei vielen eine eher unbedeutende Rolle gespielt hat. Da sah man in der Vergangenheit oft, dass da einfach ein günstiger Server steht, der alles macht. Dazu im höchsten Falle eine poplige USV. Mit Virtualisierung wird sie plötzlich essentiel. Ebenso Dinge wie ECC-Ram (auch wenn das eh schon vorher sinnvoll wäre). So zumindest die Erfahrung die ich gemacht habe ;) EDIT: Hui, da gabs ja schon massi neue Antworten (wurde ned angezeigt, sorry) @Monstermania: Das mag bei vielen mittleren Umgebungen zutreffen, aber bei kleinen hab ich echt schon alles gesehen. Das funktioniert mit nem SBS Single-Server in der Regel auch. Wenn er hochkommt und alles tut, alles OK. Wens ned haut, tja nen Rollback eines Servers und gut ist. Sache von ein paar Minuten. Kann mich damit nicht wirklich identifizieren, aber es funktioniert. 2x Online USV mit ordentlich Kapazität kost gutes Geld. Wird nun virtualisiert und hat voneinander abhängig VM's ist das ganz nicht mehr so einfach. Da ists eben sträflich wenn man seine Infrastruktur nicht den neuen Bedingungen anpasst. ;) Bezüglich runterfahren: Nun, auch bei physischen PC's konnte man das über LAN-Karten bereits machen. War jetzt nicht so der Akt. Ich fands einfacher als es z.B. mit VmWare jetzt ist. Bezüglich Filesystem: VMFS ist im Verlgeich mit NTFS alles andere als robust. Das sehen auch topcracks die das VMFS-System wirklich kennen und teilweise auch reparieren können so. Es gibt ja noch ned mal richtige Diagnose oder Reperatur-Tools, was es im NTFS Bereich gibt. @GTRDRIVER: Nun, die Hersteller geben meist Latenzen an welche eine SSD im Schnitt macht. Dann haben die eher günstigen SSD's teilweise massive Ausreisser wo dann plötzlich der Faktor 50 oder manchmal sogar mehr ansteht. Je mehr man also in nem RAID-Verbund hat, desto höher die Wahrscheinlichkeit, dass es kurz hintereinander passiert. Dann fehlen plötzlich ein paar IOPS und es geht 1-3 Sekunden gar nix mehr. Da hier selten mit dem Cache des Controllers gearbeitet wird, kann der das ned mal auffangen. Konnte das schon viele male beobachten. Mit Magnetplatten noch nie. Auch mit SLC's hatte ich das nie, nur mit dem modernen MLC Kram. Ist auch in den Logs/Diagrammen der VM/Host ersichtlich. Da mal die Latenzen der Datastores anschauen. Daher verwende ich nur SSD's im RAID-Verbund, die auch die grossen Hersteller verwenden. Mit Intel DC S3700 habe ich zum Beispiel sehr gute Erfahrungen gemacht, auch wenn es da - wenn auch sehr sehr selten - doch mal zu einem solchen Verhalten kommt.
  14. Unabhängig davon, dass ich kein Fan von inkrementellen Backups bin und differentielle immer vorziehen würde, zickt jedes neuere Windows rum, sobald es das Laufwerk nicht als Hostinternes, blockbasiertes Laufwerk ansieht. Das heisst also: Du musst sicherstellen, dass dein Backupstorage als eigene Festplatte vom OS erkannt wird. Sobald dies Zutrifft, kannst du sichern wie du möchtest.
  15. @GTRDRIVER: Das verhalten konnte ich auch schon feststellen. Fehlerverursacher war bei mir immer das Storage. Im Speziellen SSD's im RAID-Betrieb wo es normalerweise rennt ohne Ende aber zwischendurch unerklärliche Hänger gibt. Da hatten dann ne handvoll IO's plötzlich eine enorme Latenz und haben die VM's in Globo komplett ausgebremst. Bis hin zu kurzen 1-2sekunden Hängern innerhalb den VM's. Daher auch wichtig - vor allem im RAID-Betrieb -, auf eine sehr stabile, gleichbleibende Latenz der SSD's zu achten. Sonst ist immer irgend eine Disc innerhalb des RAIDs mit langer Latenz dabei und bremst alles spürbar aus. --> So als Fehlersuch-Ansatz Ansonsten zum Vergleich, ein wenig pauschalisiert Vorteile: - Stromkosten - Hardwarekosten (sehr beschränkt! Sieht unten, Stichwort Strom) - Verwaltbarkeit - Trennbarkeit von Rollen auch in kleinen Umgebungen - Einfachere Testungen/Rollbacks etc. - Hardwaretausch, allgemein Upgrades Nachteile: Nachteile sehe ich - bereits genannte Spezialfälle mal aussen vor - nur in der Stromversorgung und was alles damit zusammenhängt. Vor allem die saubere, automatische Abschaltung der einzelnen VM's ist nicht immer so trivial wie mit physischen PC's. Auch die Endabschaltung des Hosts kann mitunter problematisch sein (unter VmWare imho anspruchsvoller wie unter HyperV). Einen typischen SBS hat es normalerweise nicht gross gejuckt wenn man der Strom weg war. Aufm Exchange nen Rollback oder nen Wiederherstellungspunkt vom Vorabend und gut war. Falls überhaupt notwendig. Bei VM's sieht das schon etwas anders aus. Da kann es einem so ziemlich alles zerschiessen. Hier sehe ich zum Beispiel HyperV mit seinem extrem robusten Dateisystem klar im Vorteil gegenüber VmWare. Einer der Gründe warum ich bei Installationen mit Vmware gerne Windows als NFS-Storage-Lieferant verwende anstelle iSCSI mit VMFS. Daher empfehle ich auch immer 2 leistungsstarke Online USV's ab ca. 3000 VA (da sind die Geräte in der Regel technisch vernünftig aufgebaut). Ich hatte schon mehr grobe Probleme wegen sterbenden kleineren Einzel-USV's als mit Stromausfällen. Für mich ein Grund um eine Umgebungen nicht zu bauen/zu betreuen. Dazu so viel Akkuleistung wie möglich. Notfalls wenn das Budget knapp ist, tuts auch ein Eigenbau mit grossen Akkus und Verkabelung durch den Elektriker. Kostet einen Bruchteil, dafür ist Garantie weg. Akkus halten aber länger, da bei kleineren Ausfällen nie tiefentladen wird und vernünftige grosse Akkus technisch besser gebaut sind. Des weiteren immer genügend Reaktionszeit um hinzufahren, sofern überhaupt nötig. Ein paar h werden immer überbrückt. Auch die Telefonanlage kann grad darüber gezogen werden, vor allem bei neueren IP-Dingern geht da nämlich gar nix mehr.
  16. Bei kleineren SAS 15k oder 10k Platten mag das ja noch stimmen. Die grossen NL Platten brauchen aber dermassen lange für nen Rebuild, dass mir auch bei einem RAID 6 mit einiges an CPU-Power das ganze einfach viel zu heikel wäre. Da sind mir RAID 10 oder bei NL gar die erweiterten Varianten (RAID 10 mit 3 Disc-Sets anstelle 2 ) viel lieber. Moderner Controller hin oder her. Die NL-Discs werfen bei solch extremem Zugriffen wie beim Rebuild gerne mal ne Backe voll Errors raus und die Platte wird vom Controller abgehängt. Auch wenn Sie eigentlich noch gesund wäre und z.B. keinerlei "richtige" Fehler oder Block-Korruption vorweisen würde und im Einzelbetrieb nie bemerkt werden würde. Bei nem RAID 6 und nem Rebuild von mehreren Tagen sind mir schon zwei mal 2 weitere weggeflogen. Daher empfehle ich RAID 10 und nach Möglichkeit SAS und kein NL. Das ist deutlich weniger anfällig beim Rebuild. Kost ein paar Euros mehr, aber ein defektes RAID kostet mehr Stunden als die paar Platten mehr. Die Wenigsten die sich Gedanken um ein paar Platten mehr oder weniger machen, dürften die richtig fetten SAN's mit entsprechenden CPU's/Cache haben die solche Aufgaben quasi in der 9-Uhr Paus erledigen ;)
  17. Ich machs wieder anders. Nehme nur noch RAID 10. RAID 5 oder 6 geht mir einfach zu lange beim Rebuild. Dazu noch die extreme DiskBelastung währenddessen. ;)
  18. Ich behaupte, WSUS wird mit grosser Wahrscheinlichkeit verschwinden. Nicht umsonst gibts nen Windows Update Services Update welches den WSUS-Client für zukünftige Versionen aufbohrt... So ungefähr heisst im Text.
  19. Hallo Leute, Seit der letzten Update-Runde am 14.08.2015 habe ich Regel-Konflikte mit der Windows-Firewall. Auch fehlt die Meldung, dass die Windows Firewall durch TMG verwaltet wird. Kann mir einer erklären was da genau passiert? Scheint als ob nun beides irgendwie aktiviert ist. Grüsse und Danke
  20. Yep, den Verdacht hatte ich schon vor den ganzen "Gerüchten". Es verheisst selten Gutes wenn Dinge wie der ReportViewer 2008 bei 2012R2 immer noch gebraucht werden und dazu noch ein .Net Framework, dass nur mit Hindernissen Out-Of-The-Box zu installieren ist. Dann liegt was kräfitig im Busch. Leider.
  21. Natürlich. So habe ich das bis jetzt auch gemacht. Allerdings verliere ich dadurch einiges an CPU-Power sowie IOPS. Daher wollte ich das mal kombinieren. Tests ergaben da schon ein ziemliches Speed-Plus. Bezüglich Windows Server: Ne, ich möchte das stabile NTFS/ReFs und Windows als Unterbau haben.
  22. Nicht das ich wüsste. Da gibts einfach Filter für IP's sowie andere Autentifizierungsmechanismen. Dann muss die Windows-Firewall den Traffic noch durchlassen. Zu deinem Parameter gibts noch die Funktion Get-NetFirewallInterfaceFilter https://technet.microsoft.com/en-us/library/jj554891%28v=wps.630%29.aspx Da kann man den wohl abrufen... Könnte das richtige sein
  23. Es wird wohl ein neues WSUS geben bei dem nicht mehr so viel selber bestimmt werden kann. Soweit ich das mal in nem Bericht aufgeschnappt habe, soll bei Updates nur noch der Zeitpunkt nicht aber das ob ausgewählt werden können. Aber die definitive Variante steht wohl eh noch in den Sternen. Wird wohl auf die Testungen sowie Akzeptanz der grösseren Kunden abgewartet
  24. Habe den Rotz auch nach wie vor. Mir ging das Ding so auf die Eier, dass ich einfach jedem einen Ordner mit folgenden Namen erstellt habe. Da werden dann alle angzeigt. Man kann wieder mehrere miteinander löschen usw. ;) Drucker Erweitert.{2227A280-3AEA-1069-A2DE-08002B30309D} "Löst" bzw. umschifft natürlich nur das Problem mit der Auflistung
  25. N'Abend zusammen und Danke für die Antworten. Im Grunde geht es darum einen Fileserver sowohl mit Files als auch als Datenspeicher für VM-Platten zu verwenden. OS ist Windows Server 2012 R2 Dabei soll der NFS-Traffic/Freigabe nur auf einem bzw. zwei Adapter möglich sein und für den Rest gesperrt. @Dukel: Man kann mit der GUI nur für bestimmte Schnittstellentypen (LAN, Drahtlos) sowie die Art des Netzwerkes mit dem der Rechner verbunden ist Regeln erstellen. Ziemlich Pfui wie ich finde. Ansonsten: Interessanter Einwurf. Unter Umständen sind sie mit netsh irgendwie ersichtlich/manipulierbar. Eventuell mit Befehlszeilentools aus nem TMG. Wenns jemand direkt wüsste würde das wieder viele Stunden Nachforschung ersparen =)
×
×
  • Neu erstellen...