Jump to content

Marco31

Members
  • Gesamte Inhalte

    673
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Marco31

  1. Hallo liebe PowerShell-Kundige, ich möchte mit dem PowerShell-Script von http://sharepoint4newbie.blogspot.com/2011/02/sharepoint-farm-backup-and-cleanup.html meine Sharepoint-Farm sichern und die Sicherungen aufräumen. Es gibt da aber ein kleines Problem mit dem Script - führe ich es aus, bekomme ich den Fehler "Der Parameter "Date" kann nicht gebunden werden. Der Wert "01/29/2020 08:54:02" kann nicht in den Typ "System.DateTime" konvertiert werden. Fehler: "Die Zeichenfolge wurde nicht als gültiges DateTime erkannt."." Ich vermute mal es hat mit dem Datumsformat zu tun da das System auf Deutsch installiert wurde. Leider bin ich aber in PowerShell nicht wirklich bewandert, daher möchte ich um Hilfe bitten um das Script so anzupassen, dass das Script das Datum verarbeiten kann. Hier noch mal das Script: ##==================================================================## ## PowerShell SharePoint 2010 Farm Backup, Cleanup and Email Script ## ## Version: 2.0 ## ## Last updated: 04 Jan, 2012 ## ## Description: This script will perform the following ## ## 1) Backup Site Collection ## ## 2) Backup SharePoint Farm ## ## 3) Cleanup old backup and old farm backup ## ## 4) Log deleted file in cleanup.log ## ## 5) Send out status email ## ##==================================================================## $snapin = Get-PSSnapIn -name "Microsoft.SharePoint.PowerShell" -registered if(!$snapin) { Add-PSSnapIn Microsoft.SharePoint.PowerShell } $today = (Get-Date -Format yyyy-MM-dd) $collectionBackupPath ="\\SP2010\E$\Scheduled_Backups\Site-80\" $farmBackupPath = "\\SP2010\E$\Scheduled_Backups\Farm\" $webSite = "http://SP2010" ##Cleanup Backup that is older then x day. $days = 7 ##Variables for Email $emailFrom = "SP2010@SharePoint4Newbie.com" $emailTo = "administrator@SharePoint4Newbie.com" $smtpServer = "MailServer.SharePoint4Newbie.com" ## Send Mail Function Function sendEmail { param($from,$to,$subject,$smtphost,$body) $smtp= New-Object System.Net.Mail.SmtpClient $smtphost $msg = New-Object System.Net.Mail.MailMessage $from, $to, $subject, $body #$msg.isBodyhtml = $true $smtp.send($msg) } Try { $backupFile = $collectionBackupPath + $today + ".Bak" ## Backing up SharePoint Collection Backup-SPSite -Identity $webSite -Path $backupFile -Force -ea Stop ## Backing up SharePoint Farm Backup-SPFarm -directory $farmBackupPath -backupmethod Full ## Location of spbrtoc.xml $spbrtoc = $farmBackupPath + "spbrtoc.xml" ## Import the Sharepoint backup report xml file [xml]$sp = gc $spbrtoc ## Find the old backups in spbrtoc.xml $old = $sp.SPBackupRestoreHistory.SPHistoryObject | Where { (Get-Date $_.SPStartTime) -lt ((get-date).adddays(-$days)) } if ($old -eq $Null) { write-host "No reports of backups older than " + $days + " days found in spbrtoc.xml.`nspbrtoc.xml isn't changed and no files are removed.`n" ; break} if ($old -eq $Null) { Add-Content $farmBackupPath"cleanup.log" "$date - Farm BK Script - No reports of backups older than $days days found in spbrtoc.xml. spbrtoc.xml isn't changed and no files are removed.`n"; } else { ## Delete the old backups from the Sharepoint backup report xml file $old | % { $sp.SPBackupRestoreHistory.RemoveChild($_) } ## Delete the physical folders in which the old backups were located $old | % { Remove-Item $_.SPBackupDirectory -Recurse } ## Save the new Sharepoint backup report xml file $sp.Save($spbrtoc) ##Write-host "Backup(s) entries older than " + $portalRecycleDays + " days are removed from spbrtoc.xml and harddisc." Add-Content $farmBackupPath"cleanup.log" "$date - Farm BK Script - Backup(s) entries older than $portalRecycleDays days are removed from spbrtoc.xml and harddisc."; } ## Remove Previous Site Collection Backup $LastWrite = [DateTime]::Now.AddDays(-$days) $Files = get-childitem $collectionBackupPath"*.bak" | Where {$_.LastWriteTime -le "$LastWrite"} if (!$Files) { Add-Content $collectionBackupPath"cleanup.log" "$date - Farm BK Script - No backup file is older than $LastWrite "; } else { foreach ($File in $Files) { ##Deleting old backup file Remove-Item $File -Force Add-Content $collectionBackupPath"cleanup.log" "$date - Farm BK Script - Deleted file $File ..."; } } ## Composed a status update email for administration $emailSubject = "SharePoint Farm Backup is completed" $emailBody = "SharePoint Farm Backup is completed successfully on "+ $today + "`r`n`r`nFarm backup can be found at $webSite:9999/_admin/BackupHistory.aspx`r`n`r`nBackup files are located at $collectionBackupPath"; sendEmail $emailFrom $emailTo $emailSubject $smtpServer $emailBody } Catch { ## Composed a status update email for administration $ErrorMessage = $_.Exception.Message $emailSubject = "SharePoint Farm Backup Job failed on "+$today $emailBody = "SharePoint Farm Backup Job failed on "+ $today + "`r`n`r`nThe reason of the failure was: $ErrorMessage." sendEmail $emailFrom $emailTo $emailSubject $smtpServer $emailBody } Finally { ## Unlock the site Set-SPSite -Identity $webSite -LockState "Unlock" } ##==================================================================##
  2. Das mag für die Admins Realität sein, aber nicht für die meisten User.
  3. Ok, also Cache deaktivieren. Das sind nicht viele User, pro Mailbox zwischen 2 und 4. Also alles sehr überschaubar
  4. Ok... Bei unseren Usern ist das so ne Sache mit Anleitungen... Die tun sich schon schwer ne SharePoint Liste einzubinden Dumme Frage: Warum sollte ich den Cache separat einstellen oder ausschalten?
  5. Hallo Forum, wir sind gerade an der Migration von Exchange 2010 auf 2016. Dabei sollen auch unsere Öffentliche Ordner zu Shared Mailboxes migriert werden. Ein erster Test war auch erfolgreich. Nun habe ich aber folgendes Problem: die Berechtigungen der Öffentlichen Ordner war über Verteilerlisten gelöst. Ich kann zwar auch bei den Shared Mailboxes Berechtigungen über Verteilerlisten setzen, dann wird das Postfach aber nicht automatische bei den entsprechenden Benutzern eingebunden. Das funktioniert anscheinend nur, wenn man explizit Benutzern den Zugriff erteilt. Das wäre ja ziemlich blöde wenn das so gedacht ist... Ist das ein Bug, habe ich was falsch gemacht oder....?
  6. Scheint sich erledigt zu haben, MoveRequest läuft jetzt. Das Problem war wohl dass am Zielserver die maximale Postfachgröße geringfügig zu klein war, nach Erhöhung des Limits läuft es jetzt. Sieht auf jeden Fall schon mal ganz gut aus. Wie immer die Kleinigkeiten...
  7. Also wenn ich das cmdlet ausführe kommt keine Ausgabe. Arbeitet einen Moment und ist dann wieder bei der Eingabeaufforderung.
  8. Werde ich gleich morgen testen. Was mache ich wenn es tatsächlich in der Quarantäne gelandet ist?
  9. Hallo Forum, ich habe hier ein Problem mit dem ich nicht weiterkomme. Migration Exchange 2010 zu 2016, fast alle Postfächer sind schon am 2016er. Leider macht mir ein Postfach Probleme - es ist ein Postfach mit Archiv. Da das Archiv (von mir erst unbemerkt) eine Größe von 34 Gbyte hat schlug der erste MoveRequest wegen Platzmangel fehl. Ich habe dann den MoveRequest entfernt (Remove-MoveRequest), den Plattenspeicher erhöht und das ganze noch mal versucht. Leider nicht erfolgreich - es kommt folgender Fehler: Das Postfach /o=domain/ou=Exchange Administrative Group (FYDIBOHF23SPDLT)/cn=Configuration/cn=Servers/cn=EXCHANGESERVER/cn=Microsoft System Attendant kann nicht geöffnet werden. + CategoryInfo : NotSpecified: (:) [New-MoveRequest], RemoteTransientException + FullyQualifiedErrorId : [Server=EXCHANGESERVER,RequestId=781c85a3-5a17-4ebc-a2dd-5211aa7a9d97,TimeStamp=16.12.2019 1 7:52:37] [FailureCategory=Cmdlet-RemoteTransientException] 9272D5A,Microsoft.Exchange.Management.Migration.Mailbox Replication.MoveRequest.NewMoveRequest + PSComputerName : EXCHANGESERVER.domain.local Google hat nichts wirklich passendes ausgeworfen, oder ich habe was übersehen. Alle anderen Postfächer, auch welche mit Archiv, haben keine Probleme gemacht. Vielleicht hat jemand eine zündende Idee. Auf dem 2016er sind auf der DB-Platte noch 64 GByte frei, auf dem 2010er 20 GByte.
  10. Marco31

    VCSA 6.7 Backup to SMB

    Wenn ich ftp hätte würde ich das tun Und extra deswegen, neee… Muss ich weiter auf Veeam vertrauen.
  11. Marco31

    VCSA 6.7 Backup to SMB

    Heute vcsa auf 6.7.0.42000 upgedatet und immer noch nix mit SMB >1. Mann mann….
  12. Ja, bei 1909 gibt's keine "Neuinstallation" wie man es von der vorherigen Builds kennt. Ist ein simples Update und geht auch entsprechend schnell.
  13. Na ja, seit 1909 nicht mehr so ganz ?
  14. Heute habe ich gesehen dass Marc Heitbrink das Thema auf gruppenrichtlinien.de hat - es ist wohl tatsächlich so dass mehr als 14 Zeichen von Haus aus nicht geht... ? https://www.gruppenrichtlinien.de/artikel/active-directory-security-breach-15-zeichen-kennwortrichtlinie-nicht-moeglich/
  15. Wir haben dafür Drivelock im Einsatz, da kann man alle möglichen Arten von Geräten sperren, mit Whitelist und vielen anderen Funktionen.
  16. "Am angeschalteten Server zu schaffen machen" hat ja wenig mit Verschlüsselung zu tun! Da kommt es dann eher auf die Passwörter an. Wenn sich eine unbefugte Person erfolgreich Zugang zu einem Server verschafft nützt ja die Verschlüsselung nix mehr...
  17. In der Regel laufen Server 24/7, zumindest bei uns. Schon alleine wegen Datensicherung und Mail Server. Und es würde ne halbe Stunde dauern alles hochzufahren. Man sollte auch bedenken dass Server Hardware für Dauerbetrieb ausgelegt ist.
  18. Wenn das alles sooo kritisch und geheim ist - wer administriert das? Hat der BR nen eigenen Admin? Bei einem derartigen Misstrauen...
  19. Wenn du mich fragst ist das was du da schilderst nicht umsetzbar. Das Dateisystem speichert immer wer zuletzt am Dokument war und windows loggt wer sich wann an/abmeldet. Das was du willst lässt sich digital nicht abbilden, da hilft eine mechanische Schreibmaschine.
  20. Gerade deswegen mit dem HPE Support telefoniert. Laut Auskunft des Mitarbeiters erhalten betroffene Kunden automatisch einen Rückruf von HP mit weiteren Infos. Bin mal gespannt... Unsere MSA läuft erst seit März 2018, da sollten wir erstmal Safe sein...
  21. Also ich halte in so einem Umfeld VDI für overkill. Zumal der TO ja vermutlich auch keine Erfahrung mit sowas hat...
  22. Datacenter über eBay... weißt du eigentlich was so ne Datacenter Lizenz regulär kostet?
  23. Kann man auch per GPO einstellen/abschalten falls AD vorhanden
  24. Ja, über das was du da sagst habe ich auch schon nachgedacht und sehe es ganz ähnlich. Die Sicherung beim starten fällt aus den von dir genannten Gründen raus, ich habe schlichtweg keine Lust wegen Updates und/oder Neustarts jedesmal an die Arbeit zu fahren... Das Szenario "Diebstahl der Anlage" ist ein sehr unwahrscheinliches, das ist mir bewusst. Wobei es aber das Szenario ist, wo durchaus Fragen kommen können/werden wie ich das absichere. Firewall liegt nicht in meinem Bereich (Rechenzentrum), und einen Datendiebstahl durch Mitarbeiter halte ich a) für unwahrscheinlich (öffentlicher Dienst) und b) haben die meisten User schon Schwierigkeiten mit Windows Grundfunktionen. Ich mache mir da auch nichts vor - FALLS jemand sowas tatsächlich wegen den Daten klaut, dann hat er in der Regel eh die Mittel und das Knowhow an das ranzukommen was er will. Es geht mir eher um den Fall, dass das ganze geklaut wird, die Hardware wird verkauft und der Käufer des ganzen liest dann fröhlich die Daten aus...
  25. Hallo Leute, ich habe hier folgendes Problem bzw. Aufgabenstellung. Ich möchte verhindern, dass nach einem Diebstahl der Server- und Storage Hardware auf Laufwerke mit Personenbezogenen Daten zugegriffen werden kann . Also primär Fileserver und Datenbanken. Das ganze ist ne sehr kleine Umgebung (2 ESXI 6.5 Hosts, 1 SAN), die VM's sind Windows 2012R2 und Windows 2016, die Verschlüsselung von ganzen VM's über nen KMS wäre meiner Ansicht nach übertrieben, und ohne redundante Internet-Anbindung vermutlich auch keine gute Idee. Welche Möglichkeiten gibt es da? Macht es Sinn die Laufwerke innerhalb der VM mit Bitlocker zu verschlüsseln? Bin für alle Kommentare dankbar
×
×
  • Neu erstellen...