Jump to content

mwiederkehr

Expert Member
  • Gesamte Inhalte

    1.583
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von mwiederkehr

  1. Ich würde es mit Inkscape versuchen. Das kann PDF-Dateien öffnen.
  2. Webserver haben ein Standard-Dokument, welches sie ausliefern, wenn man keine Datei angibt. Wenn man auf google.de geht, muss man ja auch nicht google.de/index.php eintippen. Wenn ich die Datei abrufe, erhalte ich ein Word-Dokument. Dieses wird der Virenscanner mit Hilfe seiner Signaturen erkennen. Der Server könnte aber theoretisch erkennen, was für ein Client ankommt und auch eine andere Datei liefern (zum Beispiel eine manipulierte Android-App, wenn ein Smartphone kommt). Ich rufe solche Dateien mit wget ab und speichere sie mit anderer Endung. wget hat im Gegensatz zu einem Browser keine JavaScript-Engine, kann also wirklich nur downloaden.
  3. Die Migration ist abgeschlossen. Es hat soweit alles funktioniert. Falls jemand mal vor der gleichen Aufgabe steht, hier eine kurze Zusammenfassung: - AAD Connect eingerichtet, dabei das Attribut "msExchangeMailboxGuid" ausgeschlossen. Das ist wichtig, weil sonst auf Office 365 keine Mailboxen für die User erstellt werden, da sie lokal schon eine hätten. - Allen Benutzern in Office 365 eine Lizenz zugewiesen. Dabei wird dann das Postfach erstellt. Dies dauert nur wenige Minuten. - Alle Postfächer als PST exportiert und eine Mapping-Datei (CSV) erstellt. Mit dem Importer importiert. Hier ist es wichtig, genügend Zeit einzuplanen. Für die 26 GB (verteilt auf 550 Postfächer) hat sich der Importer fast zwei Tage Zeit gelassen. - Getestet, ob das Login etc. funktioniert. Ging alles, auch Postfachberechtigungen wurden übernommen. - MX umgestellt, Autodiscover-Eintrag gemacht, internen SCP entfernt (mit "Set-ClientAccessServer –Identity ServerName -AutoDiscoverServiceInternalUri $null"). - PST-Dateien nochmals exportiert, aber nur Elemente, welche nach dem letzten Export gesendet oder empfangen wurden. Beim Exchange 2010 musste ich dazu die Spracheinstellungen auf US stellen, da er sonst das Datumsformat nicht akzeptiert hat. - PST-Dateien nochmals importiert. Ich habe sie mit AzCopy in ein Unterverzeichnis hochgeladen und die Mapping-Datei angepasst. Der Link zum Storage bleibt gleich. - GPO erstellt, welche "https://autologon.microsoftazuread-sso.com" im IE der Intranetzone hinzufügt bzw. im Chrome der AuthServerWhitelist. Dies ist erforderlich für SSO. SSO verhält sich wie folgt: - neue Rechner (Windows 10, Office 2019, neue Profile): Beim Start sucht Outlook nach Mailkonten, zeigt die Adresse an und mit einem Klick wird das Konto eingerichtet. Im IE und Chrome kommt man ohne Kennworteingabe ins OWA, OneDrive etc. Lediglich die Mailadresse muss man angeben (oder man verwendet einen speziellen Link). - alte Rechner (Windows 7, Office 2010, bestehendes Outlook-Profil): Da Outlook sich zum alten Exchange verbindet, repariert man das Profil. Dann muss man sich einloggen und Outlook neu starten. Es erscheint mehrmals die Kennwortabfrage, welche man wegklicken kann. Nach ca. 30 Sekunden erscheint die Meldung, der Administrator habe eine Änderung vorgenommen, welche einen Neustart von Outlook verlange. Nach dem zweiten Neustart ist Outlook mit Office 365 verbunden. Fazit: Das "einfache" SSO über das Computerkonto ist eine sehr praktische Sache und funktioniert tadellos.
  4. mwiederkehr

    Scanner Empfehlung

    Ich kann den Brother ADS-2800W empfehlen. Den habe ich auch Kunden verkauft, denen der Scanner im Multifunktionsgerät zu langsam war. Bin echt überrascht, wie viel der kann für den Preis: er ist unabhängig von einem Rechner und scannt direkt auf eine Serverfreigabe, einen SharePoint, OneDrive etc. Dabei erkennt er, ob ein Dokument farbig oder s/w ist, ob es doppelseitig bedruckt ist und er richtet es gerade aus. Die Scangeschwindigkeit ist hoch (30 Seiten/min doppelseitig in Farbe). Manko: OCR geht nur über den PC mit mitgelieferter Software. Wird das benötigt, muss man zu einem teureren Modell greifen.
  5. Ich verwende jeweils folgenden Aufruf, sowohl für die erste als auch die nachfolgenden Synchronisierungen: robocopy /e /v /mir /copyall /b /efsraw /XJ /r:0 /w:0 /tee /log:c:\log.txt /b: mit Backup-Privilegien kopieren (damit auch sonst nicht zugängliche Daten wie Benutzerprofile kopiert werden können) /efsraw: EFS-verschlüsselte Dateien ohne Entschlüsselung kopieren (funktioniert sonst nicht, wenn man den Schlüssel nicht hat) /XJ: Junctions nicht folgen (sonst gibt es bei "App Data" eine Endlosschleife) Damit habe ich schon viele Server migriert. Der Tipp von "daabm" bezüglich DFS ist trotzdem prüfenswert. Es ist spätestens bei der nächsten Migration ein Vorteil, wenn die Freigaben unabhängig von Servernamen sind.
  6. Eine Datenbank kann problemlos mehrere Postfächer enthalten. Dies ist auch üblich. Meist macht man pro paar Hundert GB eine Datenbank (wobei hier die Empfehlungen variieren). Du brauchst also einmal die Standard-Lizenz und dann pro Benutzer oder pro Gerät eine Zugriffslizenz. Also entweder pro physischer Person oder pro zugreifendem Rechner (oder Smartphone), aber nicht pro Postfach.
  7. Bin unter anderem durch die Hilfe der englischsprachigen Technet-Community etwas weiter gekommen. Kurz der Zwischenstand, falls jemand mal vor der gleichen Herausforderung steht: SSO ist der Knackpunkt. Habe dazu viele sich zum Teil widersprechende Dokumentationen gelesen. Es soll funktionieren mit synchronisierten Kennwort-Hashes und Modern Authentication (Windows 10, Office ab 2013). Bei einer Cutover-Migration lassen sich die Kennwörter nach der Migration synchronisieren. Diese werden über die Mailadresse zugeordnet. Es ist zu empfehlen, dass der UPN der Mailadresse entspricht.
  8. Falls es ginge, könntest Du für jeden Benutzer eine eigene Exe erstellen. Der Benutzer würde davon dann nichts merken. Zu beachten: Bei Ersetzungen mit dem Hex-Editor müssen die alten und neuen Werte gleich lang sein. Andernfalls fällt mir noch Applikationsvirtualisierung (App-V, ThinApp, Sandboxie etc.) ein. Damit könnte man C:\irgendwas nach C:\Users\username\irgendwas umleiten, ohne dass es die Anwendung merkt. Besser wäre aber natürlich eine Anpassung der Anwendung. Wenn ihr die Anwendung entwickeln lassen habt, habt ihr doch auch den Quellcode? Könnt ihr nicht einen Entwickler mit der Anpassung beauftragen?
  9. Für das Forum würde ich ein Webhosting nehmen. Da kümmert sich der Betreiber um regelmässige Updates von PHP, MySQL sowie um die allgemeine Serversicherheit. Du musst dann nur noch das Forum gemäss Anleitung installieren und regelmässig updaten.
  10. ".tar.gz" deutet auf eine Linux-Software hin. Ist das nicht einfach eine PHP-Forensoftware, die auf jedem beliebigen Webhosting läuft und man sich nicht um den Betrieb kümmern muss. Ansonsten brauchst Du einen Webserver (zum Beispiel IIS), PHP, MySQL, was auch immer bei den Anforderungen des Forums steht. Besonders aber brauchst Du Zeit und die Motivation, Dich in das Thema einzuarbeiten. Man kann vieles zusammenklicken, aber damit es auf Dauer zuverlässig und sicher läuft, sind einige Kenntnisse erforderlich.
  11. Hier ein Dokument dazu: https://download.microsoft.com/download/3/d/4/3d42bdc2-6725-4b29-b75a-a5b04179958b/reimaging.pdf Dort steht allerdings, dass mit Imaging das Verteilen eines Images auf mehrere Rechner gemeint ist. Dein Szenario fällt da also wahrscheinlich nicht darunter. Technisch funktionieren sollte es in jedem Fall, da die neuen Rechner mit digitaler Windows-Lizenz kommen. Man kann sie auch mit dem ISO von Microsoft neu installieren, ohne nach einem Key gefragt zu werden.
  12. a.) Die Lizenz ist an die Hardware gebunden. Deshalb müssen die neuen Rechner auch eine Lizenz haben. Ferner evtl. zu beachten: Imaging ist nur mit Volumenlizenzen erlaubt. Ich weiss nicht, ob 1:1 klonen als Imaging gilt. b.) Habe das noch nie ausprobiert, aber es sieht plausibel aus. Bei Windows 7 brauchte es eine ähnliche Anpassung beim Wechsel von IDE auf SCSI. Ich würde mir einen NVME-USB-Adapter kaufen und damit die Disks klonen. Vor dem Einbau der NVME in den Zielrechner noch kurz an einem anderen Rechner anschliessen und die Einstellung in der Registry vornehmen.
  13. Muss Norbert leider beipflichten. Outlook ist ein sehr schlechter IMAP-Client. Anfangs mag es noch funktionieren, aber bei steigender Anzahl E-Mails und Ordner fangen die Probleme zuverlässig irgendwann an. War schon immer so und wird wohl auch so bleiben, da Microsoft andere Prioritäten hat. (Wobei es nur fair wäre, die IMAP-Unterstützung dann gar nicht mehr anzubieten...) Kann ebenfalls Thunderbird empfehlen. Damit hatte ich auch mit riesigen Mailboxen noch nie Probleme. Outlook ist der Client für Exchange und kann über POP3 noch das private Postfach einbinden. Aber IMAP kann es nicht.
  14. Hallo zusammen Folgendes ist geplant: die Postfächer einer Schule sollen von Exchange 2010 zu Office 365 migriert werden. Es geht dabei um ca. 600 Postfächer, die aber je nur so um 30 MB gross sind. Lokal soll kein Exchange mehr betrieben werden. Für die Migration gibt es ein Zeitfenster von zwei Wochen. In dieser Zeit müssen die Postfächer nicht verfügbar sein und auch keine E-Mails angenommen werden. Damit sich die User nicht mehrfach anmelden müssen, sollen die Kennwörter mit dem lokalen AD synchronisiert werden. Von der Datenmenge und Ausfallzeit her sollte eine Cutover-Migration die beste Lösung sein. Für den Abgleich der Kennwörter nimmt man AD-Sync. Nur habe ich jetzt gelesen, dass das nicht zusammen ginge. Bei der Migration werden die Benutzer inkl. Postfächer vom Migrationsassistenten erstellt und dürfen nicht schon von AD-Sync angelegt worden sein. Soweit, so klar. Je nach Doku soll man AD-Sync aber danach in Betrieb nehmen können, oder auch nicht, weil die lokalen User wegen dem (zu entfernenden) lokalen Exchange gewisse Attribute gesetzt haben. Diese sollen sich laut wieder anderer Anleitungen jedoch von der Synchronisation ausschliessen lassen. Neue Benutzer sollen in Zukunft wie gehabt lokal erstellt werden können, die Postfächer aber in Office 365. Wie bei AD-Sync ohne lokalen Exchange, nicht wie in einer Hybridkonfiguration mit "Verwaltungs-Exchange". Hat jemand so ein Szenario schon mal umgesetzt? Wie geht das mit dem AD-Sync?
  15. Habe erst einen Cluster mit 2019 in Betrieb. Der läuft bis jetzt stabil, aber ältere Gastsysteme machen massive Probleme: Ein Webserver auf Windows 2008 R2 nimmt nach einiger Zeit keine Verbindungen mehr an, bis man den IIS neu startet. Ein Exchange 2010 auf Windows 2012 läuft und die Benutzer empfangen E-Mails, aber gesendete E-Mails bleiben im Postausgang hängen. Im Ereignisprotokoll gibt es keine Fehlermeldungen. Habe mich aber nicht allzu tief rein gekniet, stattdessen wurde die längst fällige Migration der Altsysteme vorgezogen. Aber war schon merkwürdig. Server 2016 und 2019 laufen als Gäste bis jetzt problemlos.
  16. mwiederkehr

    MSDN Abo

    Man kann sich unter https://partner.microsoft.com/de-de/membership/action-pack anmelden. Bevor Du Dich wunderst: man wird damit automatisch Microsoft Partner. Dies jedoch auf einer kostenlosen Stufe ohne Verpflichtungen. Man muss sich also nicht zertifizieren lassen oder einen Mindestumsatz erreichen.
  17. mwiederkehr

    MSDN Abo

    Mit dem Action Pack bekommt man für 400 Eur/Jahr jeden Monat 100$ auf Azure gutgeschrieben, 5 Office 365 E3-Lizenzen sowie Lizenzen für Windows Server, Windows 10, Office etc., welche man (im Gegensatz zu MSDN) intern auch produktiv nutzen darf. Das finde ich auch für ambitionierte Heimanwender erträglich. Ich hole es jedenfalls schon durch meine Azure-Nutzung raus.
  18. Das, was Microsoft "Core" nennt, ist kein "Core", sondern ein normales Windows, einfach ohne explorer.exe. Die ganze GUI gibt es trotzdem, ansonsten hätte man keinen Mauszeiger und könnte keine GUI-Anwendungen starten. So spart man auch nur wenig Speicherplatz und Patches. Viel besser war Windows Server Nano, da hatte man wirklich nur den Server, ohne GUI. Aber leider gibt es den nur noch für Container. Ein DC auf Nano wäre ca. 200 MB gross. Schön wärs gewesen...
  19. Ich hatte mal "Windows 2000 Commands Pocket Reference" von O'Reilly. Darin waren die Tools erklärt. Leider scheint es keine aktuellere Ausgabe zu geben. Wobei ich mich aktuell eher nach einer PowerShell-Referenz umsehen würde, da man Tools wie "findstr.exe" und Konsorten damit nicht mehr braucht.
  20. Für diesen Zweck ist meiner Meinung nach eine Webanwendung besser geeignet als Excel. Bei einer Webanwendung hätten die Benutzer im Browser eine Tabelle zum Eintragen der Daten zur Verfügung, die Logik und Berechnung würde jedoch auf dem Server stattfinden. Das Resultat würde dann als PDF- oder Excel-Datei (ohne Formeln) exportiert. Damit wäre der Kopierschutz quasi enthalten.
  21. Es kommt natürlich ganz auf die Datenbank und die Anwendung an. Normalerweise wird in Datenbanken nur in einem relativ kleinen Teil regelmässig gelesen und geschrieben. Wir haben viele solcher Installationen in Betrieb, da das ERP auf SQL Server läuft und die kleineren Kunden mit der Express Edition arbeiten. Wir hatten damit noch nie Performance-Probleme.
  22. Windows unterstützt das Starten von GPT nur mit UEFI. Der BIOS-Bootloader unterstützt nur MBR. Das lässt sich nicht ändern über eine Konfiguration. Was gehen sollte, aber hier sind wir in der "Bastelabteilung": - Windows auf MBR installieren, Disk-Layout in GPT umwandeln, Bootloader auf einen USB-Stick kopieren und fortan von diesem booten. - Einen UEFI-Emulator (DUET) einrichten und damit booten. Falls der RAID-Controller nicht mehrere logische Laufwerke unterstützt, würde ich aber eher über einen neuen Server nachdenken. Oder Du baust noch eine SSD mehr ein und installierst Windows darauf. Dann wären halt nur noch die VMs im RAID.
  23. Booten von GPT geht nur mit UEFI. Ein existierendes Windows von BIOS auf UEFI umzustellen ist sehr mühsam, da am Anfang der Disk zusätzliche Partitionen erstellt werden müssen. Kann der RAID-Controller verschiedene logische Laufwerke erstellen? Dann könntest Du ein Laufwerk unter 2 TB als Bootlaufwerk erstellen und ein zweites für die VMs. Dieses könntest Du dann mit GPT formatieren. Ansonsten würde ich die VMs exportieren und den Host mit den neuen Disks neu installieren, dann gleich mit UEFI. Bei der Aktivierung sollte es keine Probleme geben. Das Mainboard, die Netzwerkkarte etc. ändern sich ja nicht. Und sonst hilft Dir die Aktivierungshotline von Microsoft weiter, Du begehst ja keinen Lizenzverstoss.
  24. Es gibt schon unabhängige RIP-Software, aber eigentlich sollte der Hersteller des Druckers eine Lösung anbieten, oder aber man hat eine Gesamtlösung für die Druckvorstufe. Was für Dateien druckst Du denn? Bei PDFs kann man im Acrobat Reader die Option "als Bild drucken" aktivieren. Das bringt bei sehr komplexen PDF-Dateien (Pläne etc.) meist einen Geschwindigkeitsvorteil.
  25. mwiederkehr

    Sprüche etc

    Wer sprechen manchmal von einem Layer-8-Problem, wenn die Fehlerursache beim Benutzer liegt.
×
×
  • Neu erstellen...