Jump to content

Wolke2k4

Members
  • Gesamte Inhalte

    2.235
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Wolke2k4

  1. Danke für den Input. Ging dem Nutzer hier am Ende um WebDAV Zugriff aber das habe ich nun druch VPN Zugriff entsprechend verargumentieren können.
  2. Moin zusammen, hat mal jemand eine gute Quelle, die erklärt, warum es keine gute Idee ist SMB via Internet/Portforwarding freizuschalten, selbst wenn das dahinterliegende System ein NAS ist (mit AD Anbindung wohlgemerkt). Das das grob fahrlässig ist, ist mir schon klar aber ich brauch etwas mehr als nur mein Bauchgefühl.
  3. Avast Cloud Care bzw. Avast Antivirus. Nennt sich üblicherweise Real Site: Schützt vor DNS-Hijacking (Domain Name System), um sicherzustellen, dass statt der gewünschten Webseite keine Fälschung aufgerufen wird.
  4. Es war übrigens der Antivirus mit einer DNS Schutzfunktion… musste deaktiviert werden.
  5. IPv6 hatten wir auch deaktiviert, hatte ich vergessen in meiner "schon probiert Liste"
  6. Moin zusammen, das Problem bzw. die Ursache liegt wahrscheinlich auf Client seite, ich packe es aber trotzdem mal ins Server Forum, weil es ein DNS Thema ist. Folgende Konstellation: offizielle-domain.de im internen DNS zeigt auf 192.168.0.0 + dazu noch ein A Record servername.offizielle-domain.de auf die 192.168.0.2 Auf den Servern und vielen Clients ist ein nslookup insofern erfolgreich, dass der einzige DNS Server im Netz korrekte IP Infos zurückgibt. Auf einigen anderen Clients habe ich aber das Problem, dass beim nslookup direkt die öffentliche IP für die offizielle-domain.de angezeigt/aufgelöst wird. Was haben wir versucht um das Problem zu lokalisieren: - Hosts Datei - negativ - flushdns von vorn bis hinten lokal und am DNS Server - negativ - Netzwerkeinstellungen am Client - negativ - Gruppenrichtlinien - negativ - lokal am Problemrechner angemeldet, keine Domain anmeldung - negativ - ein bisher installierten Sonicwall Netextender deinstalliert - negativ Ich hab sowas noch nie gesehen bisher... und ein paar Tage mache ich diesen Job nun auch schon... Irgendwelche Ideen?
  7. Hallo zusammen, hab schon mal gegoogelt aber irgendwie nicht so richtig brauchbares gefunden (außer sowas hier ). Es gibt scheinbar Spam Möglichkeit mit Kalendereinladungen, die gesetzt/aktiviert werden, ohne das der/die Nutzer aktiv den Termin bestätigen müssen? Mir war eigentlich immer so, dass man solche "Objekte" aktiv bestätigen muss...
  8. Hallo, Danke für die Rückmeldungen. Noch mal wegen der Office 365 Lizenzthematik und der praktischen Nutzung. Nun bekommen 10 Nutzer je eine Office 365 Lizenz, Lizenzthematik damit abgehakt. Wie kann dann der Zugriff auf einen oder mehrere gemeinsame Datenordner erfolgen, neben der persönlichen Datenablage? Meines Erachtens könnte ich doch weiterhin über einen lokal auf dem PC vorgehaltenen und über NTFS Berechtigungen konfigurierten Ordner diesen Zugriff sicherstellen, hätte aber das Problem mit der Datensicherung weiterhin an der Backe... Einen Synch unterstützt OneDrive in der Konstellation doch nicht oder? Wie gesagt, es geht um einen oder mehrere Gruppenordner der/die in der Regel mindestens für einige der 10 Nutzer, ggf. aber auch für alle nutzbar sein soll. Oder sind wir hier schon bei Sharepoint?
  9. Hallo zusammen, ich brauche mal etwas Input bei meinen Überlegungen für 1-2 Arbeitsplätze, die künftig optimiert werden sollen. Ist-Zustand: Ein Gebäude, nennen wir es mal "autonome Zweigstelle" - Hardware und Nutzer: 1x PC lokale Datenhaltung, Autoanmeldung, es arbeiten ca. 10 Nutzer an dem Rechner, alle über das selbe Konto. - Aufgaben und Anwendungen: MS Office Dokumente, selten mal Videowiedergabe, Webzugriff, E-Mail. - Datensicherung: keine bzw. manuell durch die Nutzer auf USB Stick Es gibt noch weitere "autonome Zweigstellen", die auf die zu findende Ziellösung ggf. aufsetzen wollen/sollen. Auch hier jeweils verschiedene Standorte mit 1 bis 2 PC Arbeitsplätzen. Wunschvorstellung/Zielstellung: - Ein Client System, welches die bisherigen Aufgaben und Anwendungen auch leistet. - Eine entsprechend abgesicherte Rechtestruktur jedoch mit der Möglichkeit, dass jeder auf die Daten der anderen zugreifen kann, sofern dies gemäß Rechtestruktur möglich sein soll/darf. - Zentrale Datenhaltung und Datensicherung. Der 2. Arbeitsplatz ist noch nicht installiert, soll ggf. kommen und sich in das Zielszenario problemlos integrieren lassen können. Besonderheit: Es besteht bereits die Möglichkeit diesen einen PC Arbeitsplatz mittels vorhanderner zentralisierter IT-Lösung (Citrix XenApp via Netscaler Anbindung oder aber IPSEC VPN) eines, nennen wir es mal "Überkonzerns", anzubinden. Hier würden dann lediglich Lizenzkosten (RDS, Windows CAL, Citrix Lizenz) + Dienstleistung anfallen. Aber dieses Szenario ist "politisch" nicht vorangig präferiert. Meine Vorstellungen bisher: Ich überlege nun, was es noch für Möglichkeiten gibt. Denkbar wäre eine gehostete Lösung von einem Provider, der im Grunde genau das Gleiche macht wie der Überkonzern. Allerdings habe ich hierzu folgende Fragen/Bedenken: 1. Gibt es euch bekannte Lösungsanbieter, die fertige RDS oder XenApp Lösungen anbieten, ohne das man das ganze Drumherum (AD, Management, Installation) aufwendig einrichten und bezahlen (Lizenzkosten für OS und ggf. Third Party wie Citrix) muss? Mein Gedanke war hierzu sonst einen Root Server den ich entsprechend herrichte oder aber fertige Lösungen wie bspw. diese hier. 2. Angenommen man würde sich dazu durchringen und auf die Lösung des Überkonzerns aufspringen. Dort setzt man Office 2019 als Volumen Lizenz ein, kein Office 365. Wenn unsere Autonome Zweigstelle aber nun trotzdem mit Office 365 arbeiten wollte stellen sich mir folgende Fragen: 2.1. Wahrscheinlich müsste man für die autonome Zweigstelle einen eigenen Server herrichten, auf dem Office 365 installiert wird. 2.2. Wie bildet man für einen PC Arbeitsplatz bei 10 Nutzern die Office 365 Lizenzierung ab? Muss jeder dieser Nutzer einen Office 365 Account besitzen? 3. Würde nicht auch einfach ein PC mit Office 365 gehen, an dem dann 10 Nutzer arbeiten? Wie würden dann aber die Daten im OneDrive von den Nutzern getrennt bzw. auch gemeinsame Ordner erstellt? Was m.E. überhaupt keinen Sinn macht: Vor-Ort eine Server/NAS Lösung aufzubauen, da diese dann doch wieder unnötig Geld kostet und zusätzliche Vor-Ort Infrastuktur erfordert. Außerdem bleibt das Risiko bspw. bei Einbruch und Feuer bzw. zusätzlichem Aufwand bei der Datensicherung. Bin für Euren Input schon mal vorab dankbar!
  10. Hallo, hat hier wirklich niemand eine Idee?
  11. Hast Du mal einen Link zum RFC? Danke für den Input soweit vom Rest. Dann werden wir da wohl doch anders vorgehen.
  12. ? Ein solches Zert soll es doch auch werden aber im CN müssen in diesem Fall 2 Wildcardeinträge stehen... mein Problem ist nicht der Zertifikatstyp sondern der Exchange Assistent für die Erstellung des Zerts, der beim Versuch 2 Wildcardeinträge anzugeben mit einer Fehlermeldung abbricht... Suche danach hat bisher nichts gebracht.
  13. Hallo zusammen, ich wollte für einen Exchange Server über den Zert Assi des EAC einen CSR mit 2 Wildcard Einträgen erstellen lassen. Das geht so aber nicht, denn scheinbar akzeptiert der Assi nur eine Domain. Gibt es dafür einen Workaround oder muss ich mir das via Powershell zurechtbasteln? Ziel ist *.domain1.de und *.domain2.de im CN des Zerts zu hinterlegen...
  14. Hallo zusammen, ich bin hier auf ein Problem gestoßen, von dem ich ursprünglich dachte, dass es ein Screwdriver/Citrix Porlbem sei. Wir konnten das aber soweit runterbrechen und eingrenzen, dass sich das Problem wie folgt darstellt: 1. Ich verbinde mich mittels RDP auf einen RDS Server (nennen wir ihn RDS_intern.) 2. Auf dem RDS_intern sind lokal installierte Drucker via IP Anschluss installiert. Das Drucken funktioniert soweit problemlos aus RDS Sessions dieses Servers. 3. RDS_intern verbinde ich mich nun wiederum mittels RDP auf den nächsten RDS Server (nennen wir diesen RDS_extern). Der Server kann dabei ein dem eigenen Unternehmen zugehöriger Server sein oder aber auch ein fremder von einem Hoster... Das Problem: Die unter 2. beschriebenen Drucker werden auf den RDS_extern nicht gemappt, wenn man sich wie unter 3. beschrieben verbindet, obwohl der Haken für das Druckermapping gesetzt ist! Jemand eine Idee dazu?
  15. Hallo zusammen, hat sowas schon mal jemand gehabt: Exchange 2013 - ein Nutzerpostfach welches via OWA und Outlook genutzt wird - via Outlook können von anderen Nutzern freigegebene Kalender problemlos angezeigt und genutzt werden - OK Problem: - via OWA werden die freigegebenen Kalender zwar angezeigt, jedoch erscheint folgende Fehlermeldung, wenn man diese anklickt: Kalender konnte nicht geöffnet werden. Es kann keine Verbindung mit dem freigegebenen Kalender hergestellt werden. Entfernen Sie den Kalender und versuchen Sie dann, ihn erneut hinzuzufügen. Bitten Sie andernfalls seinen Besitzer, ihn erneut freizugeben. Der Versuch einen der betroffenen Kalender am betreffenden Postfach zu entfernen und wieder hinzuzufügen brachte keine Änderung. Die Zugriffsberechtigungen des Nutzers passen natürlich, denn schließlich geht der Zugriff ja aus dem Outlook heraus... Ich hab erstmal keine weitere Idee...
  16. Den entscheidenden Hinweis hat mir offenbar testperson gegeben! Das Blech stand in den Energieeinstellungen von Windows auf ausbalanciert! Die Umstellung auf Höchstleistung sorgte bei der Anwendung für einen deutlichen Leistungsschub!!!! Nun ist die Startzeit vergleichbar mit anderen Umgebungen! War ja klar, dass es so eine triviale Sache sein musste. Danke an alle!
  17. Hab übrigens die gleiche CPU bei einem anderen Kunden, auch 2,1GHz getaktet.... dort läuft es schnell... 14 Sekunden im Vergleich zu 30-45 Sekunden... Deaktivierung TSFairshare brachte nichts... nicht mal 5 Sekunden Verbesserung. Ich sehe kaum noch Möglichkeiten außer: 1. Die Art und Weise wie die Anwendung eingerichtet ist ist die Ursache 2. Irgendein Problem mit dem Host, was weder im Bereich Netzwerk noch im Bereich HDD liegt Überlegung geht jetzt auch dahin einfach mal ne 2. Maschine hinzustellen und die TS darauf verschieben um weg vom Blech zu kommen.
  18. Ja, Danke für die Rückmeldungen soweit. Fairshare schaue ich mir noch mal an. War mir so bisher nicht bekannt. Hab hier noch mal eine andere Umgebung geprüft. Dort ist auf dem ESXI Host ne Intel(R) Xeon(R) Silver 4114 CPU @ 2.20GHz verbaut. Der Anwendungsstart rast hier praktisch... Insofern würde das mit der CPU Taktung auch wieder nicht passen, denn was sind schon 0,1GHz mehr... Antivirensoftware konnte ich übrigens bereits ausschließen. Ob installiert oder deinstalliert. Auf dem PC läuft der gleiche AV...
  19. Also in dem Host stecken 2x Intel Xeon E5-2620v4 mit 2,1GHz drin. Der PC hingegen hat ne Intel Core i3-8100 3.6 GHz, 6 MB Cache verbaut. Soll im Umkehrschluss heißen, dass die vermeintlich billige Consumer CPU den teureren Xeon schlägt, nur wegen des deutlich höheren Taktes?
  20. Danke Nils für die Erläuterung! Ich möchte noch mal auf meine Problemkonstellation zurückkommen: Ich muss aktuell Troubleshooting betreiben, weil ich eine Umgebung mit einer Anwendung habe, bei der alle Server virtualisiert sind. Eine bestimmte Anwendung benötigt auf den virtuellen Terminal Servern (1x 2008R2 und 1x 2016) ca. 30 bis 45 Sekunden zum starten. Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden... Wir haben es hier mit einem einzigen Hyper-V Server zu tun. Die besagte Anwendung startet auf den Terminal Servern deutlich langsamer als auf dem PC, für den der VMBus ja nicht zur Verfügung steht. Während die TS VMs damit volle VMBus Bandbreite nutzen können, kräpelt der Anwendungsstart bei über 30 Sekunden herum. Die Anwendung ist, was die Runtime und Startumgebung anbelangt, m.E. recht altbacken: Es wird auf eine Batch verwiesen, die dann wiederum verschiedene Aktionen startet um die Laufzeitumgebung zu initiieren. Soweit ich das verfolgen konnte, werden hier viele kleine Dateien aus dem über ein DFS Laufwerk bereitgestellten Anwendungsordner gezogen. Die Netzwerkauslastung ist gering, es sind aber viele kleine Dateien. Bei dem besagten PC spielt sich haargenau der gleiche Start ab: Viele kleine Datein, hier nur 1GBit Netzwerk zur Verfügung... und trotzdem startet diese Maschine die Anwendung in unter 15 Sekunden. Wenn es nur der Anwendungsstart wäre, OK. Leider sind noch später innerhalb der Anwendungen andere Funktionen im Spiel, die ebenfalls eine schlechte Performance zeigen. Daher gehe ich davon aus, dass alles irgendwie zusammen hängt. Übrigens haben wir die gleiche Anwendung noch in anderen Umgebungen laufen, auch unter ESXI/VMWare... dort geht der Anwendungsstart auf Terminal Server (auch mit Citrix VA) auch deutlich schneller...
  21. Was sind für Dich "echte" Serverkarten? In besagter Maschine laufen Fujitsu Emulex Karten.
  22. Hey zusammen, noch mal eine Nachfrage zum Thema. Ich habe das korrekt verstanden, die VMs untereinander kommunizieren über den VMBus? Trotzdem wird im NIC Adapter der VM ja Auslastung angezeigt, wenn ich bspw. eine große 8GB Datei von einer VM zur anderen kopiere... In dem Zusammenhang mal 2 andere Fragen: 1. Bei früheren Hyper-V Installationen ist es mir oft vorgekommen, dass die VMs 10GBit an den virtuellen NICs der VMs angezeigt haben. Das ist mir zuletzt kaum noch vorgekommen... Weiß jemand, womit das zusammenhängt? 2. Wenn ich die VMs nicht über den VM Bus kommunizieren lassen möchte, was muss ich dann konkret einstellen? Ich muss aktuell Troubleshooting betreiben, weil ich eine Umgebung mit einer Anwendung habe, bei der alle Server virtualisiert sind. Eine bestimmte Anwendung benötigt auf den virtuellen Terminal Servern (1x 2008R2 und 1x 2016) ca. 30 bis 45 Sekunden zum starten. Auf einem relativ neuen PC, der mit 1GBit an das Netzwerk und damit an die VMs angebunden ist benötigt der Start der Anwendung hingegen nur unter 15 Sekunden... //abgetrennt von: https://www.mcseboard.de/topic/218526-10gbit-netzwerkkarten-unter-hyper-v/
  23. Weil ich gern alles sichere, wenn es die Rahmenbedingungen zulassen. Bei der DASI lasse ich mich vom Grundsatz leiten: Haben ist besser als brauchen. Der Host ist nicht Mitglied der Domain, ist Standalone Host in seiner eigenen Arbeitsgruppe. Backup geht auf Band. Nein bisher noch nicht, dazu müsste ich die Windows Sicherung installieren, was ich nicht unbedingt wollte, wenn es keinen anderen Weg gibt um das Problem weiter einzugrenzen. Wir haben solche Server in der vorliegenden Konstellation in vielen Umgebungen... bisher nie mit derartigen Problemen bei der Systemstate Sicherung des Hyper-V Hosts.
  24. Hallo zusammen, ich habe hier einen Hyper-V Server (W2K16), auf diesem läuft auch Backup Exec (20.6). Die Sicherung der VMs klappt soweit problemlos aber beim Hyper-V Server selbst dauert die Sicherung des Systemstate eine Ewigkeit. Ich habe diese mal von der normalen Sicherung separiert, da sie mir sonst das Sicherungszeitfenster zerschießt. Die letzte Systemstate Sicherung dauerte über 11h bei knapp 16GB. Für BE sind die Antivirusausnahmen hinterlegt. Der Veritas Support stochert noch, sammelt Informationen aber Ticket habe ich schon mal auf gemacht. Hat noch jemand schon mal in der Praxis derart schlechte Ergebnisse bei der Systemstate Sicherung gehabt und konnte das Problem eventuell beheben?
×
×
  • Neu erstellen...