Jump to content

Blase

Members
  • Gesamte Inhalte

    504
  • Registriert seit

  • Letzter Besuch

Alle erstellten Inhalte von Blase

  1. Ist das Thema so... "speziell"...?! Oder bin ich hier im falschen Forum gelandet? Würde mich wie geschrieben schlicht über ein paar Anmerkungen, Bestätigungen oder Verbesserungen freuen... Gruß Björn
  2. Moin, ich hoffe ich bin hier im Forum an der richtigen Adresse. Ich habe das Thema Lokalisierung noch nicht ganz verstanden im Bezug auf was da geht und wann da Kosten entstehen. Ausgangslage sind zwei PCs mit deutschem Windows 7 Professional und einem deutschen Office 2010 Home & Business und der andere mit deutschem Office 2013 Home & Business. Diese PCs laufen schon einige Monate so. Die sollen beide jetzt "komplett in englisch" sein, bzw. umgestellt werden, weil die Benutzer das gerne so hätten. In der Ultimate Version von Windows 7 kann man ja die Sprachpakete einfach herunterladen und installieren (über das Windows Update) - wie sieht das mit Windows 7 Professional aus? Hier habe ich bisher die "LIPs" gefunden - jedoch nicht in englisch. Und beim Office 2013 habe ich gesehen, dass man das kaufen kann, bzw. muss, wenn man es denn haben möchte. 19.99 Euro für die englische Version. Beim Office 2010 wird gar nichts mehr angeboten... Sind diese Informationen korrekt und aktuell? Bekomme ich mein Windows 7 Professional nicht auf englisch umgestellt, ebenso wenig wie das Office 2010 und lediglich das Office 2013 wenn man 20 Euro auf den Tisch legt? Würde ich über Aufklärung freuen. Gruß Björn
  3. Hallo Norbert, vielen Dank für die rasche Antwort. Dann noch ein zwei Detailfragen ;-) - Wenn ich mit Exchange 2013 als nötigen Zwischenschritt arbeite und dann letztlich Exchange 2016 dort installiere, wie sieht das lizenztechnisch mit dem Exchange 2013 aus? Muss der für den nötigen Zwischenschritt lizenziert werden? Oder geht das ohne Lizenz? Ich habe bisher einen Exchange immer nur mit einer passenden Lizenz installiert. - bezüglich der Übernahme Exchange 2007 in 2013 in 2016... kann die Übernahme in 2013 und dann in 2016 auf der selben Maschine passieren? Ich installiere auf einer virtuellen Maschine 2013, übernehme die Daten und mache dann dort ein Upgrade auf 2016, ja? Muss mich da allerdings komplett rein lesen... - Wenn es eine klare Empfehlung gegen einen Betrieb von DC und Exchange auf der selben Maschine gibt, weißt du eine Seite für mich zum reinlesen in diese Thematik? Alternativ - wenn du magst - kannst du mir das kurz erklären, was die Probleme sind bzw. warum die Empfehlung klar dagegen ist? Danke Dir! Gruß Björn
  4. Guten Morgen, wir haben einen Kunden mit EINEM physikalischen Server - einem SBS2008 - welcher jetzt in Rente geschickt werden soll. Geplant ist die Übernahme/Migration der Domäne inkl. Exchange und der Übernahme des lokalen SQL Servers (2008 Std) hinter welchem ein ERP System steckt. Wir wollen das nun mit Server 2012 R2 gestalten und virtualisieren, um zukünftig auch etwas flexibler zu sein. Ich habe leider noch keine Erfahrungen mit Exchange 2016, lediglich mit Exchange 2013. Meine Fragen: - Können/dürfen der DC und Exchange auf der selben Maschine laufen? Erfahrungen/Empfehlungen? - Könnte/sollte ich gleich auf Exchange 2016 gehen? Migration vom "SBS 2008 Exchange" in den 2016 Exchange in einem Rutsch möglich? - Und eine Frage bezüglich der Virtualisierung bzw. zu den Lizenzen. Mit einer Standard 2012 R2 Lizenz kann/darf ich ja zwei virtuelle Maschinen installieren (mit der selben Lizenz). Wenn ich DC und Exchange trenne, bräuchte ich aber wahrscheinlich drei virtuelle Maschinen, weil ich ohnehin vorhatte, den SQL Server und das ERP System auf einer getrennten Maschine unter zu bringen. Wäre es lizenztechnisch dann ok, wenn ich hier einfach eine weitere Standard 2012 R2 Lizenz dazu nehme? Dürfte ich dann mit dieser noch zwei weitere (also insgesamt 4) virtuelle Maschinen auf dem selben Host installieren? - allgemeine Anmerkungen/Empfehlungen? Danke schon mal! Gruß Björn
  5. So weit mir bekannt, läuft dort das gute alte "NT-Backup" (*.bkf). Wenn ich nachher mit ihm spreche, frage ich, ob das nicht reicht. Glaube ich aber eher weniger, weil ich dort nur an die Daten/Dateien ran komme (kann ich ein *.bkf überhaupt mit aktuellen Windows Versionen "öffnen/einsehen"?). Und spätestens beim ERP System nutzt das nichts, weil das Programm eben nicht lauffähig ist, bzw. erst sehr umständlich wieder zum Laufen gebracht werden müsste.
  6. Hallo in die Runde, vielen Dank für die Antworten. Ich werde noch mal mit dem Insolvenzverwalter sprechen und ihn auf die möglichen Probleme aufmerksam machen. Aber wie ich letztlich "sichere/umwandle/virtualisiere/..." spielt doch keine Rolle dahingehend, als dass ich anschließend immer noch einen Windows Server 2003 habe. Muss man sich also vom Gedanken verabschieden, dieses Konstrukt "beliebig lange" lauffähig im Zugriff zu haben? Oder gibt es hier kostenpflichtige Alternativen, die "mehr" können? Mal aus purer Neugierde in die Runde gefragt - Disk2VHD - ist das offiziell seitens Microsoft "supported"? In produktiven Umgebungen? Hier würde ich mich über ein paar Meinungen freuen. Bisher installiere ich nämlich immer brav neu... Gruß Björn
  7. Hallo, folgende Ausgangslage. Kleine Firma, welche in Konkurs gegangen ist. Dort steht ein einziger Windows Server 2003 (R2?!) Standard rum, welcher bis heute seine Dienste (DC, DNS, Storage, ERP) verrichtet. Meine Aufgabe ist es, ein wie auch immer geartetes "bootfähiges Image" im Format VHD oder VHDX des IST Zustandes des Servers zu erstellen, welches bei Bedarf dann zu einem beliebigen Zeitpunkt auf einem anderen ("beliebigen") System wieder herzustellen ist. Dies möchte der Konkursverwalter so. Meine Frage ist nun, welche (wenn möglich kostenfreie) Software nutze ich für solche Zwecke? Habe ich zumindest noch nicht gemacht. Empfehlungen? Meinungen? Gruß Björn
  8. Ähm, habe ich was falsches gesagt?! :shock: Ich weiß lediglich nicht, wann ich die nächste Gelegenheit bekommen werde, auf das betroffene System zu schauen und ich kenne eben Dienstleister, die hier regelmäßig die Protokolle "warten", sprich sichten und anschließend löschen... @Nils - ich habe mich hier wohl schlicht unglücklich ausgedrückt. Natürlich soll das Programm des SQL Servers in den Standard Pfaden installiert werden/sein, aber das Daten- bzw. Instanzverzeichnis nicht. Dieser soll auf das D: Laufwerk. Ich könnte einfach auf Dateiebene Pfade auf D: anlegen und meine Datenbank dort hin verschieben, aber der "Standard" Datenpfad des SQL Servers ändert sich dadurch ja nicht. Der SQL Server würde in dieser Konstellation immer in seinem Standard Datenbanken anlegen und sichern wollen - und der Standard wäre ja immer C:\... Kann man diesen so einfach (!) ändern? @XP-Fan - auch wenn das ein virtueller Server ist, wird das Volume ja letztlich über die Datenträgerverwaltung des virtuellen Servers hinzugefügt - müsste also passen. Habe das grade mal an meinem Notebook getestet - hätte vom Gefühl her gesagt, dass das älter sein müsste, kann mich aber irren. Habe noch was gefunden: Eigenschaften des Datenträgers => Reiter "Hardware" => HDD auswählen und "Eigenschaften" starten => Reiter "Details" und als Eigenschaft "Datum der Erstinstallation" auswählen. Ist identisch mit dem Wert des Erstellungsdatums "System Volume Information" :D Super - danke euch! Wüsche allen Beteiligten eine ruhige Woche. MfG Björn
  9. Ok, das behalte ich mal im Hinterkopf. Wenn das Log nicht regelmäßig gelöscht wird, müsste man es zumindest über einen gewissen Zeitraum hin finden können. Danke Dir! Sonstige Möglichkeiten / Vorschläge?
  10. Wenn ich mal tippen sollte, würde ich sagen, dass ohnehin alles auf dem selben Storage mit dem selben EINEN RAID Level liegt. Wo wäre also der Nutzen bezüglich dedizierterer Partitionierung und Auslagerung der einzelnen Datenbanken/Logs...? Dachte das spielt nur ne Rolle, wenn man wirklich verschiedene Festplattensysteme/RAID Level für die verschiedenen Aufgabenbereiche einrichtet. Wird hier aber sicherlich nicht passiert sein. Werde da trotzdem mal nachhaken...
  11. Hallo, ich bräuchte mal bitte eine verlässliche Aussage zu folgendem Sachverhalt. Kurzer Hintergrund: Ich habe auf einem virtualisiertem (glaube das läuft unter VM Ware) Server 2012 R2 ein SQL Server 2014 installiert. Da es nur die Partition C:\ gab habe ich halt in den Standard Pfaden installiert - ist ja kein Thema. Nun sehe ich mich mit der Frage konfrontiert, warum ich nicht auf der eigens hierfür erstellten Partition D: installiert habe. Es gab zum Zeitpunkt meiner Installation keine Partition D: Der IT Betreuer behauptet das aber. Lange Rede kurzer Sinn - an welcher Stelle kann ich unter Windows selbst auslesen, wann die Partition D: erstmalig hinzugefügt worden ist? Ich weiß nicht, was er da gemacht hat und ich will auch gar nicht unterstellen, dass er hier dreist lügt, aber zum Zeitpunkt meiner Installation (insgesamt über 2 Tage für verschiedene Dinge) gab es diese Partition nicht. Nun ist sie natürlich da, aber von wann ist sie tatsächlich...?! Danke! MfG Björn
  12. Moin, ich hätte da mal grundsätzlich eine Frage zur richtigen Lizenzierung eines SQL Servers. 1. Spielt die Hardware (CPU Sockets/Kerne) des Servers, auf welchem der SQL Server läuft, eine Rolle bei der Lizenzierung? 2. Spielt es in diesem Kontext eine Rolle, ob der Server virtualisiert ist oder nicht? Zählt dann die dem virtuellen Server zugewiesene Hardware bei der Lizenzierung oder die des Hosts, auf welchem er läuft? 3. Wann benötige ich die Core Lizenzen? Vielen Dank! MfG Björn
  13. Mal eine Frage in die Runde nach "best practice" oder schlichtweg Erfahrungswerten und Meinungen. Wir haben hier eine Domäne und außer dem Geschäftsführer und mir kennt niemand das Kennwort des Domain Administrators. Sonstige administrativen Benutzer gibt es (zur Zeit) nicht. Der Rest sind "normale" AD Benutzer. In der technischen Abteilung gibt es durchaus den einen oder anderen, der mal an diesem oder jenen Server Dinge konfigurieren muss (und auch eigenverantwortlich macht). Hierfür melde ich mich beispielsweise auf dem betroffenen Server dann als Dom Admin an und der Kollege macht dann, was auch immer er dort machen muss. Dieses "Konstrukt" soll nun etwas abgeändert werden. Konkret sollen die Benutzer Zugriff auf bestimmte Server bekommen und dort dann "administrativ" schalten und walten können. Wie löst ihr das, bzw. wie löse ich das am Besten? Erweitere ich die Rechte der betroffenen AD Benutzer einfach um das Recht, auf Server X,Y,Z Vollzugriff auszuüben? Wenn ja, wie? Einfach lokal auf dem betroffenen Server den Benutzer zur Gruppe der lokalen Administratoren hinzufügen? Oder lege ich hierfür einen eigenen Benutzer im AD an, der eben Vollzugriff auf den betroffenem Server hat, aber darüber hinaus nichts darf? Oder arbeite ich hier mit lokalen Admin Konten auf den betroffenen Servern? Bin an Meinungen/Anregungen interessiert... MfG Björn
  14. Moin Dukel. Will ich das?! Na gut, dann will ich das wohl... ;-) Hast Du Erfahrungen mit dem nachträglichen Einbau? Geht das "locker von der Hand"? Was ist denn bei dir/euch ausgefallen? Und als das gefixt war, war doch auch die Schreibrate wieder ok, oder? Es geht also um die Überbrückung dieser "Ausfallzeit"? Gruß Björn
  15. Guten Morgen! @ Nils - du "klingst" etwas angenervt von mir - das war nicht meine Absicht - bitte entschuldige. Vielleicht hatte ich einfach gehofft, du/ihr erzählt einfach ein wenig aus dem Nähkästchen - Erfahrungswerte. Es ist doch klar, dass das nicht 1:1 für bare Münze genommen werden kann und auf alle Szenarien abbildbar ist. Wie geschrieben - hier in meinem KMU Bereich bewege ich mich ganz sicher in komplett anderen Bereichen als ihr es gewohnt seid. Und ich war mit meiner letzten Fragengestellung auch gar nicht mal mehr so wirklich bei meinem aktuellen Problem (was sich übrigens erledigt hat - siehe unten), sondern eher allgemein daran interessiert, mein "gefährliches Halbwissen" zu reduzieren. Mit deiner Aussage... ... hast du mir meine Frage diesbezüglich beantwortet. Ich danke dir für deine Unterstützung - und bitte nicht die Geduld mit mir verlieren, ich weiß aus anderen Bereichen, wie "schwierig" (um nicht zu sagen "total nervig") Leute mit gefährlichem Halbwissen manchmal sein können ;-) @monstermania - bei dir möchte ich mich quasi gleich doppelt bedanken. Zum Einen, weil du mit deiner Aussage bezüglich Aktivierung des Cache wohl tatsächlich ins Schwarze getroffen hast - und zum Anderen wegen deiner ausführlichen Erklärung - danke! So wie es aussieht, war die Aktivierung des Schreib Cache wohl tatsächlich die Bremse - mit so einer "einfachen" Lösung hätte ich nun nicht gerechnet. Aber soll mir/uns hier natürlich Recht sein. Und im Standard deaktiviert HP das, eben aufgrund der von dir genannten Nachteile bei nicht vorhandener (oder "leerer") BBU?! Hmmm, na gut. Tatsächlich scheint der Controller keine BBU zu haben - sehr wohl aber ein redundantes Netzteil, welches an einer USV hängt. Diese fährt den Server herunter, bei längerem Stromausfall - sollte dann wohl reichen... Also vielen Dank für alle Anregungen und Meinungen hier - ich bin immer daran interessiert, meinen noch recht eingeschränkten Horizont stetig zu erweitern. Ohne dieses Thema hier wäre ich wohl nie auf die Lösung gekommen. Das ERP Programm startet auf dem Terminal Server nun genau so schnell wie auf einem Einplatzgerät - das hätte ich so nicht gedacht. Von über 1 Minute auf ca. 20 Sekunden - wenn das mal keine Steigerung ist :thumb1: Auch das Ansprechverhalten innerhalb und außerhalb der Software ist auf dem TS und den anderen Maschinen nun deutlich schneller - "gefühlte" Werte, ich weiß... ;) Der Server hat noch einige Steckplätze bezüglich RAM frei - da es den für kleines Geld zu kaufen gibt, wird jetzt zusätzlich von 36 auf 64 GByte RAM erweitert. Vielen Dank an alle - mein aktuelles Problem ist behoben und ich habe einiges dazu gelernt - so soll es sein! Gruß Björn
  16. Moin, eine genauere Beschreibung, was denn "Standort" genau heißt (ein PC oder diverse Server etc.) wäre sicherlich hilfreich. Ist eine Arbeitsgruppe dort, ja? Keine eigene Domäne? Wenn ich dich aber ansonsten richtig verstanden habe, dann ist das eine Verbindung über das LAN, nicht über das WAN, ja? Dann bist du ja quasi schon "netzintern" und kannst also sämtliche Geräte des Standortes normal wie gewohnt in die vorhandene Domäne hinzufügen. Entsprechend ist es kein Problem, dann die Clients am Standort normal mit dem Exchange zu verbinden. Wenn du realisieren möchtest, dass auch im Falle eine WLAN Ausfalls "normal" weiter gearbeitet werden kann, kommst du wohl um eine "Backup VPN WAN Verbindung" nicht herum... Gruß Björn
  17. Hallo. Warum nutzt du nicht die GUI der integrierten Windows Server Sicherung? Und was heißt "scheitern"? Gruß Björn
  18. Habt vielen Dank für die rege Beteiligung bisher! @Nils - Ich weiß ja, dass es nie in diesem Kontext allgemeingültige Aussagen gibt... aber "messen" kannst du ja auch eher weniger, wenn ein komplett neues System an steht und du es für die "geplanten" Bedürfnisse ausrichten sollst. Welches RAID System wird denn für welche Anforderungen empfohlen? Gibt es hier seitens MS eine Übersicht. So nach dem Motto "bei SQL Servern ist das am performantesten, bei TS eher das,...". Wir bewegen uns hier eher im KMU Bereich, die Lasten auf den Systemen also i.d.R. eher überschaubar(er). Du bringst eine für mich neue Information ins Spiel... wenn ich CPU Kerne "zähle", dann rechne ich die HT-Kerne raus? Wenn wir von den Verhältnissen reden (1:4 / 1:8), dann zählen nur die realen Kerne, nicht die HT Kerne? @monstermania - Ich bin wirklich an der Information interessiert, wie man das Festplattensystem des Host am sinnvollsten in bestimmten Konfigurationen ausrichtet. Du sprichst die IOPS an - gibt es hie Empfehlungen, welches RAID Level und welche Festplattenkonfiguration man wann nutzen sollte? Auf dem SQL Server laufen aktuell 15 Datenbanken, wobei hier drei im Bereich von 2.x GByte und der Rest unter 1 GByte an Größe haben. Und wo du die Controller Konfiguration ansprichst... Ist das der "Schreib-Cache für physische Laufwerke"? Ich schaue grade mit dem HP Array Configuration Utility auf den Controller. Dieser ist bisher deaktiviert. Wäre doch der Brüller, wenn es "ein Klick" wäre und auf einmal läuft das System schnell :jau: Kann ich das jetzt - im laufenden Betrieb - einfach aktivieren? Muss ich hierbei etwas beachten? @ Dominik Weber - ich habe noch keine Möglichkeit gehabt, die Kiste mal neu zu starten und ins Bios zu schauen. Der Controller hat 256 MByte Cache. Mir sagt allerdings BBU nichts... Gruß Björn
  19. Hallo ihr beiden. Schon einmal vielen Dank für die Antworten. Mir ist bewusst, dass "gefühlte" Werte hier überaus schwammig sind und ich noch etwas mit Informationen gegeizt habe. Letzteres möchte ich hier nun nachholen: - Der Server ist ein HP ProLiant DL380G7 - Festplatten sind jeweils "EG0300FBDSP HP 300GB 2.5" SFF 6G Dual Port SAS 10K RPM Hot Plug Hard Drive" - Smart Array P410i Controller - und KEIN RAID5 (mein Fehler!) sondern ein RAID10 - bestehend aus 4 dieser Platten zzgl. Hotspare. - Das Betriebssystem des Hosts selbst läuft wie geschrieben auf einem RAID1 mit zwei dieser Platten: EH0146FARUB HP 146-GB 6G 15K 2.5 DP SAS HDD Und was die "gefühlten" Werte angeht - beispielsweise benötigt der Start einer ERP Software auf dem TS über doppelt so lange (über 1 Minute) als es beispielsweise als Einplatzlösung auf einem (oberem Mittelklasse) Notebook dauert. Überhaupt ist das Arbeiten auf dem TS oftmals recht träge... @Monstermania - Die Storageperformance habe ich auch im Verdacht diesbezüglich. Aber ich kenne diese Tools nicht. Perfmon ist ja Windows Standard. Aber das Tool scheint sehr mächtig zu sein. Muss ich mich noch mal genauer mit beschäftigen. @Nils - Wir schauen grade in zwei Richtungen. Entweder Erweiterung des aktuellen Server (dann natürlich mit deutlich mehr RAM) oder aber einen zweiten daneben Stellen und ein, zwei der vorhandenen Maschinen auf das andere Hostsystem auslagern. Grundsätzlich würde ich aber gerne wissen, was in dieser konkreten Konstellation tatsächlich der primäre Flaschenhals ist. Mir ist bewusst, dass der RAM eher "Unterkannte" statt "Obergrenze" ist, aber würde eine Erweiterung hier wirklich "spürbar" mehr Leistung bringen? Ich habe halt die Empfehlung aufgeschnappt, dass das Hostsystem 2-4 GB RAM für sich haben sollte. Ist diese Aussage allgemeingültig? Oder ist es eher "2 GB reichen für den Umgang mit ein, zwei kleinen VMs und für mehrere "große" VMs dann eher 4+ GByte für das Hostsystem? Was den RAID Level angeht, so habe ich mich vertan. Es war kein RAID5 sondern ein RAID10. Was sind denn die performantesten RAID Level in Kombination mit Virtualisierung? Kann man hier pauschale Aussagen treffen? Oder kommt es auch hier darauf an, welchen Zweck (TS, SQL, Exchange,...) die VMs da drauf erfüllen? EDIT: Was hältst du von SSD@RAID im Serverbereich? Du bringst ein Verhältnis von vCPU zu RAM ins Spiel. So habe ich es bisher nicht betrachtet. Spielt das Verhältnis hier eine Rolle? Das aktuelle Szenario ist wohl eher aus der Not heraus geboren. vCPUs waren genügend da und 4 scheinen für einen TS dieser Größenordnung "gut" bemessen zu sein. Dass es daneben nur 6 GB RAM sind, ist wahrscheinlich einfach dem Umstand geschuldet, dass man damit auf dem Hostsystem bisher sehr haushalten musste. Deswegen hat auch der Exchange nur 8 GB oder generell halt alle Maschinen eher an der Untergrenze diesbezüglich... ... aber ist es der RAM, der hier "bremst" - hauptsächlich? So aus Erfahrungswerten - wie viele VMs bringt man denn auf einer Hardware unter? In Bezug auf EINEM Festplatten/RAID System? Kommt wahrscheinlich auch hier wie immer darauf an... ;-) Gruß Björn
  20. Guten Morgen allerseits, es "heißt" ja immer, dass in aktuellen Konstellationen (v)CPUs "ohne Ende" vorhanden sind und am ehesten der (zugewiesene) Arbeitsspeicher limitiert - sprich: viel hilft viel. Aber was ist mit der I/O Performance - spielt das Festplattensystem hier gar keine (wirkliche) Rolle? Um mit "Zahlen" zu arbeiten - gegeben ist ein physikalischer Server 2008 R2 mit einem RAID1 für das BS und einem SAS RAID10 für die VHDs - alles intern im Server. Der Server verfügt über 2 Cores á 6 Kernen mit HT, also 24 Kerne, und 36 GB RAM. Hierauf laufen 5 virtuelle Maschinen. - Ein Exchange mit der Zuweisung von 4 vCPUs und 8 GB RAM - Ein SQL Server mit der Zuteilung von 4 vCPUs und 12 GB RAM - Ein Terminal Server mit der Zuteilung von 4 vCPUs und 6 GB RAM - Ein CRM Server mit der Zuteilung von 4 vCPUs und 6 GB RAM - Ein "Archiv Server" mit der Zuteilung von 1 vCPU und 2 GB RAM Dazu muss man noch sagen, dass insgesamt keine 15 Mitarbeiter damit arbeiten. Wenn auf dem TS beispielsweise mal 6 Leute gleichzeitig arbeiten, wäre das viel. Dennoch ist das ganze System gefühlt sehr träge. Der Start der Applikationen auf dem TS dauert z.B. sehr lange. Bei den (v)CPUs kommen wir hier nicht einmal auf ein 1:1 Verhältnis - "verbrauchen" 17 der 24 Kerne Beim RAM sind 34 GB der vorhandenen 36 GB für die virtuellen Maschinen reserviert. Nun zu meinen Fragen in diesem Kontext: 1. "Reichen" die 2 "freien" GByte RAM für das Hostsystem? Ich meine von 2-4 GByte als empfohlene Menge gelesen zu haben. 2. Ich meine zu wissen, dass die Zuweisung von ZU VIELEN vCPUs zu einer VM nicht sinnvoll ist, weil diese Ihre Arbeit erst aufnehmen können, wenn das Hostsystem gleichzeitig alle zugewiesenen freischaufeln kann. Ich habe aber hier nicht einmal eine 1:1 Zuweisung. Kann in diesem konkreten Fall doch also gar nicht passieren, oder? Es heißt ja immer, man solle nicht mehr vCPUs zuweisen, als man es "normalerweise" einer physikalischen Maschine tun würde. Nun, wenn ich heute selbst einen kleinen Server kaufe, der meinetwegen "nur" den DC macht, hat dieser trotzdem mindestens 8 Kerne (4 + HT). Wo setzt ihr an? Wie viele Kerne "braucht" denn eine VM wirklich? Ein SQL Server? Ein Terminal Server? Ein Exchange? Bringt mir der Taskmanager der einzelnen VMs hier sinnvolle Informationen? Sprich - wenn die CPU Auslastung insgesamt nicht zu hoch ist, reichen die zugewiesenen vCPUs? Und wenn doch, weise ich weitere zu? Gilt das "nicht zu viele vCPUs zuweisen!" auch für Systeme, die nicht mal auf eine 1:1 Verteilung kommen? Oder nur für diese, wo sonst abzusehen ist, dass wirklich aufgrund von "Überbelegung" oft nicht die gewünschte Anzahl an vCPUs zur Verfügung steht? 3. Und eine Sache, die mich in diesem Kontext wirklich interessiert - ab wann wird das Festplattensystem denn zum limitierenden Faktor? Wie im konkreten Beispiel habe ich innerhalb eines lokalen RAID5 @SAS Systems 5 virtuelle Maschinen, die ja einiges an Last erzeugen. Wie sind die Erfahrungswerte? Sollte kein Problem sein? Hintergrund ist wie gesagt, dass das System "gefühlt" recht träge ist. Zugegeben, der Arbeitsspeicher steht jetzt nicht im Überfluss zur Verfügung, aber schaue ich in den jeweiligen Taksmanager ist dort noch "jede Menge" diesbezüglich frei. Tatsächlich sind es ja auch nur eine Handvoll Benutzer, die hier arbeiten. Über die Beantwortung meiner Fragen - aber auch über jede andere Anmerkung in diesem Kontext - würde ich mich freuen. Gruß Björn
  21. Alles klar - danke dir!
  22. Hallo Sunny61, das Blech macht nix außer Hyper-V! Darin dann zwei virtuelle - einer davon dann der DC. Du bist dir diesbezüglich (automatisches adprep) also auch nicht ganz sicher? Gruß Björn
  23. Hallo, es soll der einzige Server eines Unternehmens abgelöst werden - ein Server 2003 Standard. Dieser beinhaltet u.a. die Funktion des Domain Controllers. Der Server wird nun durch einen Server 2012 R2 Standard ersetzt, welcher als Hyper-V Server mit schlussendlich zwei virtuellen Maschinen laufen wird. Eine davon wird der neue DC. Die Übernahme der vorhandenen Domäne ist geplant... Meine Frage ist nun, ob es immer noch so ist, dass ich auf der alten Maschine das adprep durchführen muss, oder ob es beim Hinzufügen des neuen 2012er R2 DCs automatisch passiert. Letzteres, so meine ich, hätte ich mal aufgeschnappt. Bitte um kurze Aufklärung :) MfG Björn
  24. Moin! Wenn du mal in die Verlegenheit kommst, so eine Umstellung zu machen (Pop3 zu Direktumstellung) - wie würdest du das zeitlich planen? Also nicht, wie lange du dafür brauchst, sondern eher ob es Ausfallzeiten bezüglich der Mailzustellung beim Kunden gibt und ob/wie du diese berücksichtigst? Läuft das "sofort", wenn man das umstellt? Bei Domainfactory habe ich zumindest gelesen, dass es bis zu 48 h dauern kann, bis sich die Einstellungen (MX) über das WWW verteilt haben... Ist halt so? Keine Zustellung während dieser Zeit? Gruß Björn
  25. Hallo Jan, dann kann ich ja lange bei Domainfactory nach einem PTR suchen :jau: Den Default Connector habe ich nicht angefasst - bisher ja nur ge"POP(3)"t ;) Ich habe nur mehrere "Anleitungen" diesbezüglich gefunden und die von mir verlinkte schien mir die am "einfachsten" erklärte zu sein. Mehr als die von dir genannten Einstellungen sind es bezüglich des Connectors nicht, ja? Klar hast Du Recht, der Exchange steht quasi immer zur Verfügung. Andererseits nimmt die "Backup MX" Geschichte jetzt auch nicht so wahnsinnig viel Zeit in Anspruch. Tatsächlich macht es mehr "Arbeit", die vorhandenen Einträge weg zu machen - denn die sind ja schon da :D Bitte einmal für mich, dass ich es wirklich verstehe (wenn ich in das Thema schon mal rein gehe - dann "richtig"), wo genau liegen denn die Nachteile? Du sprichst hier ja sicherlich aus Erfahrung diesbezüglich... Die von Dir angesprochene Komplexität erschließt sich mir nicht, wenn ich die beiden ohnehin vorhandenen Einträge einfach da lasse (weil ich nicht abschätzen kann, was das "im Hintergrund" für Konsequenzen hat). Wenn die MX Einträge "aktiv" sind, werden also meine Postfächer bei Domainfactory komplett überflüssig? Ich könnte sie auch löschen? Ich nehme an, dass ich dann alle bei DF konfigurierten Einstellungen (Weiterleitungen, Empfang/Erreichbarkeit auch unter anderer Adresse, als der eigenen) bezüglich der einzelnen Postfächer im Exchange selbst abbilden muss? Eine Regel beispielsweise, dass keine Mails >10 MByte angenommen werden... Gruß Björn
×
×
  • Neu erstellen...