rluech 0 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Wir wollen die Performanz des Servers erhöhen. Auf dem Server läuft einzig eine Datenanalyse Software eines Drittanbieters. Die Software soll schneller Daten berechnen. Die Software ist veraltet und rechnet (wohl) auf 32bit. Windows Server 2016 CPU Dual 2.20 GHz Intel Xeon(R)E5-2698 v4 8GB RAM Standard Disk DeviceManager shows two identical entries for the CPU as specified above. TaskManager zeigt an: Max Speed 2.19 GHz Sockets: 2 Virtual Processors: 2 Virtual Machine: 2 L1 cache: N/A Vorschläge: SSD statt standard disk 32 statt 8 GB RAM Zusätzlicher physischer CPU Dual Core durch Quad Core ersetzen Besserer CPU Mehr Cache anderes...? Danke für jegliche Erfahrungen und Erläuterungen Zitieren Link zu diesem Kommentar
Nobbyaushb 1.471 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Wie alt ist die Dose - Frontsitebus? SSD ist immer eine gute Idee, bei Markenserver geht nur die unterstützte Ware des jeweiligen Herstellers, im Zweifelsfall teuer. OT/ alle unsere Server haben minimum 64GB RAM... Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Wenn es wirklich 32 bit ist hilft mehr Ram nicht. Wenn beim Rechnen kein Disk IO passiert helfen SSDs auch nicht. Was sagt der Hersteller dazu? Der sollten wissen, wo man die Performance verbessern kann? Zitieren Link zu diesem Kommentar
testperson 1.677 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Hi, vermutlich wirst du hier sinnvoll nur mit dem Hersteller der Datenanalyse Software weiterkommen. Evtl. ist ja die datenliefernde Software der Flaschenhals. Ansonsten hilft viel (CPU / RAM / Disk) sicherlich "viel". Nur manchmal ist "viel" auch viel zu viel und am Ende weg geschmissenes Geld. ;) Welche Datenanalyse Software ist denn im Einsatz? Evtl. ist hier ja jemand unterwegs, der die Software kennt und sich dazu äußern kann / will. Gruß Jan Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Was heisst eigendlich "die Software ist veraltet"? Von wann ist diese? Gibt es Updates? Wurde sie eingestellt? Zitieren Link zu diesem Kommentar
mwiederkehr 373 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 In einem ersten Schritt würde ich mal prüfen, ob die vorhandenen Ressourcen ausgelastet sind. Wenn die Software fast keine Diskzugriffe macht, bringen auch die schnellsten SSDs nichts. Und auch wichtig: läuft die Berechnung auf einem oder auf mehreren Cores? Falls sie auf einem Core läuft, wird eine neue CPU mit möglichst hohem Takt sehr wahrscheinlich eine Verbesserung bringen. Ansonsten eine neue CPU mit vielen Cores. Kannst Du die Berechnung testweise auf einem aktuellen Arbeitsplatzrechner laufen lassen? Das gäbe mal einen Anhaltspunkt. Hatte kürzlich so einen Fall und war erstaunt, dass das mooresche Gesetz immer noch zu gelten scheint: eine nicht parallelisierbare Datenbankabfrage dauerte auf einem Xeon von 2015 eine Minute und 40 Sekunden, auf einem Arbeitsplatzrechner mit i7 8700 nur noch 20 Sekunden. Zitieren Link zu diesem Kommentar
rluech 0 Geschrieben 22. November 2019 Autor Melden Teilen Geschrieben 22. November 2019 Danke für die Bemerkungen Frontsitebus - Ich denke der erwähnte Prozessor ist moderner SSD, I/O - Gibt es eine möglichkeit herauszufinden wie viel zwischendurch auf Disk geschreiben wird? Hersteller fragen - Ist nicht leicht, die Software wird über eine Zwischenfirma vertrieben, aber ja klar trotzdem versuchen... 32bit 4 GB Grenze - Richtig, das gilt es echt rauszufinden, wie? Kann man 64bit kurz temporär disablen :) Datenliefernde Software der Flaschenhals - Das ist sicher so, ja Nein die Software kennt wohl niemand Die Software ist veraltet - Keine installation, lediglich eine exe mit directories und dlls, Windows Access 2007 database Updates - Files muss man selbst reinkopieren / überschreiben Resourcen Auslastung - Prozessor punktuell bei 100%, aber nicht ständig, RAM nicht ausgelastet ca 50% aber konstant bis kill Cores / CPUs - Jep, sollte ich unbedingt rausfinden ob die Software mehrere CPUs ansprechen kann, sonst macht nur höherer Takt Sinn. Nope ich darf/sollte die Software nicht wo anders laufen lassen, ich wäre jetzt auch auf Azure virtul machine und hätte mit unterschiedlicher hardware rumgetestet i7 - ich glaube auch das Takt mehr bringt als mehrere prozessoren bei dieser alten software Zitieren Link zu diesem Kommentar
Dukel 454 Geschrieben 22. November 2019 Melden Teilen Geschrieben 22. November 2019 Da wird es mal Zeit eine Wartbare alternative zu finden. Du kannst dir den Ressourcen Monitor und Perfmon anschauen um den Flaschenhals herauszufinden. Zitieren Link zu diesem Kommentar
Weingeist 159 Geschrieben 23. November 2019 Melden Teilen Geschrieben 23. November 2019 Für Access Anwendungen zählen eigentlich nur zwei Dinge. Niedrige Latenz und hohe Single Core Leistung. Dann rennts wenn keine Designfehler gemacht worden sind. ;) Sprich: Enterprise SSD mit möglichst tiefer und konstanter Latenz. Intel Optane oder DC's zum Beispiel. Dann kann man noch Code in DLL's auslagern für alles was irgendwie lahm ist und berechnet werden muss (VB6 bzw. C++ ist besser da schneller als .NET --> .NET sind etwas lästig beim Programmstart). Alles in allem sind die Access Lösungen nicht per se schlecht, auch wenn Sie tendenziell anfälliger sind als "richtige" Software. Aber bei grossen Projekten ist das manchmal einfach zu teuer in der Neuentwicklung. Access Lösungen habe ich noch immer portiert, bei neuen .NET ist das nicht immer der Fall. Insofern ist die Portabilität eigentlich sogar eher besser. ;) Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.