AlexD 10 Geschrieben 9. April 2014 Autor Melden Teilen Geschrieben 9. April 2014 So, jetzt muste ich den Thread erst mal suchen... ist ja doch schon eine Weile her. ;)Aber ich halt Euch auf den Laufenden.Ich hab mir immer wieder Gedanken zur Hardware gemacht... eine SAN scheidet einfach aus Kostengründen aus.Über Storage Spaces bin ich aktuell sehr gespalten, auch wenn auf dem Server nicht oft große Daten geschrieben werden.... besonders am Anfang wären ja gut 4 TB auf den Server zu kopieren (Medien-Daten) und wenn's dann mit 10-15 MB/s vorangeht.... dauert das Tage. Alternativ könnte man natürlich die Platte kurz in den Server einbauen und so kopieren. Grundsätzlich hat sich nichts geändert, Telefon und TV über IP.Ich hab mich jetzt auch mit LDAP (openLDAP) etwas beschäftigt um mir ein globales Adressbuch für Telefon, Outlook und meinem Webmailer zu erstellen. Funktioniert soweit ganz gut - obwohl ich zugeben muss, irgendwie ist das Handling mit LDAP mit den ganzen Attributen usw. etwas gewöhnungsbedrüftig. Da steh ich noch am Anfang - aber LDAP bietet ja einiges, wenn man es mal beherrscht. ;) Mal ein paar Gedanken zum Server selbst - ist nicht ganz günstig, aber dieser soll schon ein paar Jährchen seine Arbeit verrichten. CPU: Intel XEON E5-2620 (6-Core mit HT)RAM: 32 GBController: Raid-Controller LSIMegaRAID SAS 9261-8i oder Adaptec 6805 / 7805 Welchen würde Ihr bevorzugen??Der Adaptec könnte die Platten theoretisch schlafen legen... heißt das Storage-Array spin-down oder ganz aus zumindest der 6805 sollte das können. System: 2x SSD 256 GB (Raid-1)VM's: 3x Seagate Constellation ES 500GB SAS2 (Raid-5) Storage: 5x WD RE Enterprise WD4000FYYZ 4TB SATA-3 (Raid-6) Detailiertere Infos in der angehängten PDF!LG Server_Hardwareentwurf.pdf Zitieren Link zu diesem Kommentar
Daniel -MSFT- 129 Geschrieben 9. April 2014 Melden Teilen Geschrieben 9. April 2014 Über Storage Spaces bin ich aktuell sehr gespalten, auch wenn auf dem Server nicht oft große Daten geschrieben werden.... besonders am Anfang wären ja gut 4 TB auf den Server zu kopieren (Medien-Daten) und wenn's dann mit 10-15 MB/s vorangeht.... dauert das Tage. Storage Spaces liefert eine deutlich bessere Performance, vor allem im Mirror-Betrieb. Wen Du Parity-Partitionen betrieben willst, hast Du das Battle Against RAID5-Problem. Hier hilft ein RAID-Controller mit BBU oder SSD-Cache weiter. Zitieren Link zu diesem Kommentar
AlexD 10 Geschrieben 31. Mai 2015 Autor Melden Teilen Geschrieben 31. Mai 2015 Hallo zusammen,laaange ist es her seit dem letzten Posting.Aber es war viel zu tun und aktuell steht der Rohbau, innen verputzt sowie der Estrich.Heißt das Thema Netzwerk rückt immer näher.Ja ich muss zugeben ich hab schon sehr viele Kabel verlegt, ca 1200m Cat7.Cat7 und 1200m einfach deswegen, weil es nachträglich immer schwierig ist weitere Dosen/Leitungen zu legen - Cat7 weil ich nicht in 5 oder 10 Jahren die Kabel erneuern möchte.100 Mbit/s waren vor 10 Jahren sicherlich auch schnell und für was sollte man 1Gbit/s brauchen?? In Zeiten von FullHD oder zukünftig gar 4k würden 100 Mbit schon recht knapp wer hätte das vor 10 Jahren gedacht. Eine für mich aktuell wichtige Frage stellt sich wie ich den Server ins Netzwerk stellen soll. Es wird, wie im Vorfeld schon geschrieben, ein Windows Server 2012 R2 Essentials.Eine Möglichkeit wäre den Win12k auf's Blech zu installieren oder einen Hyper-V Server 2012 nehmen und ALLES virtualisieren. Bei einer kompletten Virtualisierung hätte ich das hier schon oft beschriebene Problem mit der Domäne in der der Hyper-V Host ist oder sein soll. Bei einem Neustart ist die Domäne dann einfach noch gar nicht vorhanden.Wie würdet Ihr das in der kleinen Umgebung machen - verschluckt sich der Hyper-V Host beim Hochfahren wenn noch keine Domäne vorhanden ist oder "kann man mit der Situation leben"?!Ein weiterer DC auf Blech würde ausscheiden, da weder ein zusätzlicher Server noch ein Win Server 2012 R2 Standard gekauft werden soll. Denke das wäre dann schon oversized.Die Anforderungen ans Netzwerk haben sich so nicht verändert. Über Anregungen würde ich mich in jedem Fall freuen!! Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 31. Mai 2015 Melden Teilen Geschrieben 31. Mai 2015 Und warum sollte bei einem Neustart das fehlen der Domäne ein Problem darstellen? Ich seh da kein Problem. Zitieren Link zu diesem Kommentar
daabm 1.366 Geschrieben 31. Mai 2015 Melden Teilen Geschrieben 31. Mai 2015 Computerpolicies werden schwierig, und Startskripts möglicherweise auch :) Ansonsten "eigentlich" kein Problem - wobei ich in diesem Szenario den Host als Standalone-Server betreiben würde. Die Domänenmitgliedschaft bringt dem IMHO keine nennenswerten Vorteile. Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 31. Mai 2015 Melden Teilen Geschrieben 31. Mai 2015 (bearbeitet) Aber auch keine Nachteile. Und computerstartskripte und Policies hätte man ohne Domäne ja auch nur lokal und die Option gibt's mit Domäne ebenfalls. Würd ich mir allein wegen der Kennworte schon nicht antun. ;) bearbeitet 31. Mai 2015 von NorbertFe Zitieren Link zu diesem Kommentar
AlexD 10 Geschrieben 31. Mai 2015 Autor Melden Teilen Geschrieben 31. Mai 2015 (bearbeitet) Vielen lieben Dank für die Antworten.Ich denke ich werd das mal mit der kompletten Virtualisierung genauer ansehen und mal ein wenig lesen worauf ich hier zu achten habe.Der File-Server wäre dann auch der besage Win Server 2012 R2 Essentials. Das Storage wird intern/lokal mit einem Raid-Controller realisiert. Wir wohl ein Raid-6 werden für die Datenspeicherung WD-Red SATA3 5x6TB. Bei einer virtualisierung des File-Servers würde das bedeuten, dass ich den Storage entsprechend als *.vhdx dem File-Server zur Verfügung stellen muss? Für die VM's hätte ich in einem seperaten Raid-5 Array die Seagate Constellation 1TB SAS2 genommen (auch wenn es wohl Nearline-SAS sind).Sind halt Dinge die man sich eben vorher überlegen sollte. bearbeitet 31. Mai 2015 von AlexD Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 31. Mai 2015 Melden Teilen Geschrieben 31. Mai 2015 Ja logisch als vhdx. In so einem Szenario und auch sonst in sehr wenigen Ausnahmen ist ein Raw device Mapping nicht sinnvoll. Zitieren Link zu diesem Kommentar
Daniel -MSFT- 129 Geschrieben 1. Juni 2015 Melden Teilen Geschrieben 1. Juni 2015 Denk mal beim Storage auch an Storage Spaces. Das erspart Dir den RAID-Controller. Bei den Datenträgergrößen ist eine bessere Fehlerbehandlung durchaus sinnvoll. RAID 5 für die VMs halte ich übrigens für keine so gute Idee. Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 1. Juni 2015 Melden Teilen Geschrieben 1. Juni 2015 Naja bei ner Home-VM ;) Mal die Kirche im Dorf lassen. :) Zitieren Link zu diesem Kommentar
daabm 1.366 Geschrieben 1. Juni 2015 Melden Teilen Geschrieben 1. Juni 2015 Wenn die einzelnen Platten größer als 2 TB sind und (wie die WDs) eine 512e Emulation haben, dann sind Storage Spaces beim Schreiben ein "NO GO". Hab ich vor 2 Monaten erleben müssen... Zitieren Link zu diesem Kommentar
Daniel -MSFT- 129 Geschrieben 1. Juni 2015 Melden Teilen Geschrieben 1. Juni 2015 Naja bei ner Home-VM ;) Mal die Kirche im Dorf lassen. :) Zuhause nutzen viele mittlerweile größere Datenmengen als viele Firmen. Siehe Blu Ray Backup & Co. Wenn die einzelnen Platten größer als 2 TB sind und (wie die WDs) eine 512e Emulation haben, dann sind Storage Spaces beim Schreiben ein "NO GO". Hab ich vor 2 Monaten erleben müssen... Meinst Du wegen https://support.microsoft.com/en-us/kb/2515143 und https://msdn.microsoft.com/en-us/library/windows/desktop/hh848035%28v=vs.85%29.aspx? Meiens Wissens unterstützt Server 2012 und Windows 8 Native 4k. Da würde ich im Zweifel keine Emulation nutzen. Zitieren Link zu diesem Kommentar
NorbertFe 2.061 Geschrieben 1. Juni 2015 Melden Teilen Geschrieben 1. Juni 2015 Mag sein. Wichtig ist das alles in meinen Augen nicht. ;) aber da hat jeder seine Meinung zu. Zitieren Link zu diesem Kommentar
daabm 1.366 Geschrieben 2. Juni 2015 Melden Teilen Geschrieben 2. Juni 2015 Meiens Wissens unterstützt Server 2012 und Windows 8 Native 4k. Da würde ich im Zweifel keine Emulation nutzen. Ja, tun sie. Nützt leider nichts, wenn die 512e Emulation der Platte nicht abschaltbar ist (wie bei WD der Fall). Ich meine das hier: http://jeffgraves.me/2014/06/03/ssds-on-storage-spaces-are-killing-your-vms-performance/ Da steht zwar "SSD", aber das betrifft auch HDDs. Gemessene Schreibrate "nativ": Knapp 180 MB/sek. Schreibrate im Storage Space, 3 Platten Parity: 35 MB/sek. :schreck: - erwartet hätte ich mindestens ebenfalls 180 MB. Und nein, die CPU war nicht der Flaschenhals :) Zitieren Link zu diesem Kommentar
Daniel -MSFT- 129 Geschrieben 3. Juni 2015 Melden Teilen Geschrieben 3. Juni 2015 (bearbeitet) Nützt leider nichts, wenn die 512e Emulation der Platte nicht abschaltbar ist (wie bei WD der Fall). Tja, da hast Du dann die falschen Platten gekauft ;-) Schreibrate im Storage Space, 3 Platten Parity: 35 MB/sek. :schreck: - erwartet hätte ich mindestens ebenfalls 180 MB. Und nein, die CPU war nicht der Flaschenhals :) 3 Platten Parity = RAID 5 in Storage Spaces? Da läufst Du auf das Read-after-Write-Problem. Die Schreibgeschwindigkeit wird durch die Schreibperformance einer einzelnen Disk begrenzt, da Du nciht parallel Schreiben kannst. Durch 512e kann sich dieser Effekt bei Random Write IO noch deutlich verschlimmern, da Du pro 512 Bytes ja 4k lesen und schreiben musst. Dass kannst Du derzeit nur durch RAID-Controller mit BBU Write-Cache/SSD-Cache abmildern. Generell gilt: Parity-Spaces sind schreibend nur für sequentielle Workloads wie Backup-Streams, Archive, etc. und read-only Zugriffe empfehlenswert. Nicht für Random Write IO. Also bitte keine VHDs auf Parity-Spaces packen und die Erwartungshaltung bei Parity Spaces anpassen :-) Siehe http://social.technet.microsoft.com/wiki/contents/articles/15200.storage-spaces-designing-for-performance.aspx The caveat of a parity space is low write performance compared to that of a simple or mirrored storage space, since existing data and parity information must be read and processed before a new write can occur. Parity spaces are an excellent choice for workloads that are almost exclusively read-based, highly sequential, and require resiliency, or workloads that write data in large sequential append blocks (such as bulk backups). ... Power Protected Mode: Storage Spaces allows administrators to enable “power protected mode”, which assumes that disk caches have batteries or are otherwise resilient to power failures. This mode can improve the performance of random workloads because metadata flushes to the disk are disabled and the disk has control over flushing of its cache. Note that enabling power protected mode without battery-backed caches or resilience to power failure puts your data at risk of loss or corruption. ... Best Practices: Do not use parity spaces for workloads that are predominantly random in nature. Parity spaces are optimized for highly sequential / append-style workloads, such as archiving. bearbeitet 3. Juni 2015 von Daniel -MSFT- Zitieren Link zu diesem Kommentar
Empfohlene Beiträge
Schreibe einen Kommentar
Du kannst jetzt antworten und Dich später registrieren. Falls Du bereits ein Mitglied bist, logge Dich jetzt ein.