ChristianZ 10 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Performance-GAU, weil Dinge, die der Prozessor im RAID Controller macht, nun von der Host-CPU erledigt werden. Davon höre ich zum ersten Mal, wie soll das denn gehen z.B. bei einem Drei-Platten-RAID5 mit einer ausgefallenen Platte? Was genau soll da die Host-CPU "erledigen"? Link zu diesem Kommentar
Weingeist 159 Geschrieben 6. Oktober 2012 Autor Melden Teilen Geschrieben 6. Oktober 2012 @Zahni: Wartung: Logisch, hier können aber Third-Party Erweiterungen wie es auch sonst für Windows gibt hinzukommen. Dafür gibt es API's, Schnittstellen und dergleichen. Für kleine und mittlere Umgebung reicht Benachrichtigung und auto Hotspare-verwendung völlig aus. Zu High-Performance: Schau dir mal die neuen Scale-Out-Features aus. Da sind nur die IOPS des Datenträgersystem die Limitierung. Ansonsten geschehen Reads über alle ClusterNodes gemeinsam. Quasi Out Of the Box. Aktuell extra für VHD's und SQL-Datenbanken. Zu den Pools: Da Windows es total egal ist wie gross die Platten sind, kann man einfach alles reinhängen was 'rumsteht'. Der Rest erledigt es selber aufgrund der Definition welche man für die virtuellen Datenträger angegeben hat. Die jeweiligen Platten sucht er sich selber aus. Es steht einem natürlich nichts im Wege - sofern man Windows nicht richtig traut oder als zusätzliche Sicherheit - erstmal RAID-Volumes als Basis für den Aufbau zu nehmen. Und noch eine gute Nachricht: Bei Pools funktioniert Trim trotzdem! sowohl mit NTFS als auch mit dem neuen. Habe da einen kleinen Fehler gemacht (leicht zu kleines Files für den Trim-Test verwendet). Zum ZFS: Das ist eigentlich richtig nett. In der höchsten Ausbaustufe, die allerdings auch nicht günstig zu haben ist, sogar mit transparentem Failover über mehrere Nodes. Dazu extrem gutes Dedup, übelste Performance (trotz verwendung von SATA Platten, weil Read und WriteCaching machbar, sowohl mit SSD's als auch mit RAM). Da kannst zbsp. auch pro Block jeweils Doppel, Dreier, Viererpakete von HDD's oder soviel Du willst machen. Die DiskBlocks hängst dann zusammen. Speichererweiterung in dem du einfach einen identischen Block wieder dazufügst. Windows geht da aber weiter, da hängst einfach Platten rein und definierst in der virtuellen HD, was für Voraussetzungen sie erfüllen muss. Entweder mit JPOD's auf welche mehrere Server gemeinsam Zugriff haben oder eben auch direkt mit lokalen Discs. @ChristianZ: Die HostCPU muss Paritäten berechnen, das braucht sicher etwas mehr Leistung als Mirror-Lösungen. Da habe ich noch keine Tests gefahren, ist aber auch nicht meine Priorität. Ich verwende "nur" Mehrfachspiegel. Aber wie gesagt, bei den Leistungen welche heutige CPU's bringen, zusammen mit dem RAM-Cache, ich glaube da müssen sie sich den wenigsten Einsteiger oder Mittel SAN's geschlagen geben in Sachen Performance und mit den neuen Features sicher auch in Sachen Flexibilität. ;) Link zu diesem Kommentar
Weingeist 159 Geschrieben 6. Oktober 2012 Autor Melden Teilen Geschrieben 6. Oktober 2012 @Zahni: Wartung: Logisch, hier können aber Third-Party Erweiterungen wie es auch sonst für Windows gibt hinzukommen. Dafür gibt es API's, Schnittstellen und dergleichen. Für kleine und mittlere Umgebung reicht Benachrichtigung und auto Hotspare-verwendung völlig aus. Zu High-Performance: Schau dir mal die neuen Scale-Out-Features aus. Da sind nur die IOPS des Datenträgersystem die Limitierung. Ansonsten geschehen Reads über alle ClusterNodes gemeinsam. Quasi Out Of the Box. Aktuell extra für VHD's und SQL-Datenbanken. Zu den Pools: Da Windows es total egal ist wie gross die Platten sind, kann man einfach alles reinhängen was 'rumsteht'. Der Rest erledigt es selber aufgrund der Definition welche man für die virtuellen Datenträger angegeben hat. Die jeweiligen Platten sucht er sich selber aus. Es steht einem natürlich nichts im Wege - sofern man Windows nicht richtig traut oder als zusätzliche Sicherheit - erstmal RAID-Volumes als Basis für den Aufbau zu nehmen. Und noch eine gute Nachricht: Bei Pools funktioniert Trim trotzdem! sowohl mit NTFS als auch mit dem neuen. Habe da einen kleinen Fehler gemacht (leicht zu kleines Files für den Trim-Test verwendet). Zum ZFS: Das ist eigentlich richtig nett. In der höchsten Ausbaustufe, die allerdings auch nicht günstig zu haben ist, sogar mit transparentem Failover über mehrere Nodes. Dazu extrem gutes Dedup, übelste Performance (trotz verwendung von SATA Platten, weil Read und WriteCaching machbar, sowohl mit SSD's als auch mit RAM). Da kannst zbsp. auch pro Block jeweils Doppel, Dreier, Viererpakete von HDD's oder soviel Du willst machen. Die DiskBlocks hängst dann zusammen. Speichererweiterung in dem du einfach einen identischen Block wieder dazufügst. Windows geht da aber weiter, da hängst einfach Platten rein und definierst in der virtuellen HD, was für Voraussetzungen sie erfüllen muss. Entweder mit JPOD's auf welche mehrere Server gemeinsam Zugriff haben oder eben auch direkt mit lokalen Discs oder iSCSI/FC Zielen. @ChristianZ: Die HostCPU muss Paritäten berechnen, das braucht sicher etwas mehr Leistung als Mirror-Lösungen. Da habe ich noch keine Tests gefahren, ist aber auch nicht meine Priorität. Ich verwende "nur" Mehrfachspiegel. Aber wie gesagt, bei den Leistungen welche heutige CPU's bringen, zusammen mit dem RAM-Cache, ich glaube da muss sich Windows den wenigsten Einsteiger oder Mittel SAN's geschlagen geben in Sachen Performance und mit den neuen Features sicher auch in Sachen Flexibilität. Ich kann von den IOPS-Werten in meinem TestLab auf meiner (für meine Verhältnisse) teuren SAN mit minimalen Features nur Träumen. ;) Link zu diesem Kommentar
bla!zilla 10 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Zusammen mit iSCSI (was dankbarerweise auch endlich legal verwendet werden darf und nicht nur in Testlabs oder bei kauf des Storage-Servers) würde sich das ganze sogar komplett über mehrere Gebäude/Brandabschnitte zusätzlich gespiegelt erstellen lassen. Hochverfügbarkeit mit Standard-Server-Hardware und Transparentem Failover sowie teilweise Scale Out (also lesen von allen Nodes). Für die absolute Paranoia ;) Also die eierlegende Wollmilchsau für alle Kunden in jeder Größe zum geringen Preis und maximaler Verfügbarkeit? Entschuldige meinen Sarkasmus, aber deine Beiträge lesen sich wie eine Aneinanderreihung von Marketing und "Hab ich im Internet gelesen". Du kannst damit gerne in deinem Testlab rumspielen, aber vom Praxisbetrieb würde ich doch mal absehen. Zu Scale-Out gehört noch etwas mehr als Windows Server 2012. Zudem gilt bei solchen Lösungen immer GIGO - Garbage in, garbage out. Das gilt auch für ZFS. ZFs ist nice, du magst das ganz toll finden, aber ich kann dir gerne Kontakt zu Leuten aus der Praxis vermitteln, die dich je nach Anwendungsfall ganz schnell wieder auf den Boden der Tatsachen zurückholen. Ich teile auch deine Ansichten hinsichtlich lokalem Speicher füt VDI Umgebungen nicht. Die tägliche Praxis präferiert hier andere Lösungen. Link zu diesem Kommentar
bla!zilla 10 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Davon höre ich zum ersten Mal, wie soll das denn gehen z.B. bei einem Drei-Platten-RAID5 mit einer ausgefallenen Platte? Was genau soll da die Host-CPU "erledigen"? Die "Berechnung" der fehlenden Daten aus vorhandenen Daten und Parity. Jeder Read-IO auf einen Block, der auf der ausgefallenen Platte liegt, wird aus den vorhandenen Daten und den Paritätsdaten berechnet. Vom Rebuild ganz zu schweigen, der kommt noch dazu. Link zu diesem Kommentar
ChristianZ 10 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Die "Berechnung" der fehlenden Daten aus vorhandenen Daten und Parity. Jeder Read-IO auf einen Block, der auf der ausgefallenen Platte liegt, wird aus den vorhandenen Daten und den Paritätsdaten berechnet. Vom Rebuild ganz zu schweigen, der kommt noch dazu. Wir sprechen hier schon von Hardware-RAID, oder? K.A. was Leute hier mit ZFS wollen, wir sind hier im "IT Pro Forum zu Windows Server 2012 / 2008 R2 / 2008 / 2003 & Windows 8 / Windows 7 / Vista / XP" und diese Betriebssysteme können ZFS _nicht_, zumindest nicht nativ. Mein Verständnis von einem "Drei-Platten-RAID5" mittels Hardware-RAID-Controller wie z.B. Adaptec 5405 oder HP p400, mit batterie-gestützten Cache ist: Das Betriebssystem wirft dem Treiber eine Anforderung vor "Ändere in logischen Datenträger 0 im logischen Block 417 das 17. Byte auf 111", damit ist für die Host-CPU der Käse gegessen, die weiss - behaupte ich - _nicht_ mal ob Datenträger 0 ein RAID 0, 1 oder 5 ist. Schlimmstenfalls meldet der Treiber zurück "du heute nicht", z.B. weil alle mechanischen Platten ausgefallen sind. Dass die Anforderung vielleicht bei RAID0 kürzer oder länger dauert als bei RAID5 damit hat die Host-CPU _nüschd_ zu tun. Mal sehen, welches Szenario zahni meinte mit " Performance-GAU, weil Dinge, die der Prozessor im RAID Controller macht, nun von der Host-CPU erledigt werden. " Link zu diesem Kommentar
bla!zilla 10 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Wir sprechen hier schon von Hardware-RAID, oder? War auf Software-RAID bezogen. Mal sehen, welches Szenario zahni meinte mit " Performance-GAU, weil Dinge, die der Prozessor im RAID Controller macht, nun von der Host-CPU erledigt werden. " AFAIK war das auf Software-RAID bezogen. Link zu diesem Kommentar
Dr.Melzer 191 Geschrieben 6. Oktober 2012 Melden Teilen Geschrieben 6. Oktober 2012 Ich denke es ist hierzu alles Relevante gesagt worden. Wir fassen zusammen: Was Weingeist hier beschrieben hat für Labor Umgebungen und um zu testen ganz nett. Als professionelle Lösung für Produktivumgebungen aber nicht zu gebrauchen. Ich schließe den Beitrag bevor die üblichen Trolle das Thema übernehmen. Link zu diesem Kommentar
Empfohlene Beiträge