Spitzentechnologie auf dem Schreibtisch
Egg, 1. Dezember 2016: Die neue Serie BigFoot der ArchivistaVM-Server bietet bis zu 18 CPU-Kerne und maximal 64 TByte an Speicher an. Damit die Daten in Echtzeit gleichzeitig auf mehreren Maschinen gespeichert werden können, enthält die BigFoot-Serie je zwei 10 und 40 GBit-Netzwerkkarten. Der nachfolgende Blog stellt das neue Flagschiff vor und verdeutlicht anhand eines Gespräches anlässlich des diesjährigen linxuday.at, warum es sich lohnt, bei Server-Virtualisierung genau(er) hinzusehen.
SSD-Festplatten und schnellste Prozessoren
Bei ArchivistaVM-Clustern werden die virtualisierten Gäste immer dreifach und in Echtzeit auf zumindest zwei Rechnern gespeichert. Galten 10 Gbit-Netzwerkkarten bisher als Mass aller Dinge, so sind diese Karten mittlerweile bei zwei schnellen SSD-Festplatten plus/minus ausgelastet. Bereits bei vier SSD-Platten wird ein Durchsatz von ca. 2 GByte / Sekunde benötigt, um die Redundanz mit vollem Speed zu bewerkstelligen.
Ein solcher Durchsatz mag auf den ersten Blick nicht zwingend notwendig erscheinen, doch warum sollte darauf verzichtet werden, wenn die Technologie mittlerweile zu moderaten Konditionen erhältlich ist. Die BigFoot-Serie startet bei weniger als 5'000 Franken / Euro pro Maschine, bei drei Knoten ist dies zwar noch immer ein tiefer fünfstelliger Betrag, doch im Unterschied zu anderen Lösungen fallen bei den BigFoot-Systemen keine weiteren Kosten an, vielmehr sind darin sämtliche Komponenten enthalten, inklusive der Wartung für das erste Jahr.
Server-Infrastruktur auf dem Desktop
Fast noch wichtiger, die BigFoot-Server benötigen explizit keine Server-Räume mit hohen Folgekosten. Dank Wasserkühlung bleiben die BigFoot-Server selbst mit den leistungsfähigsten Intel-CPUs angenehm kühl. Der Strombedarf pro Rechner liegt (auch unter Last) kaum über 100 Watt, im Leerlauf sind es keine 70 Watt, dies bei einer Ausstattung mit 12 SSD-Festplatten und je zwei 10 und 40 GBit-Netzwerkkarten. In der Desktop-Bauweise sind maximal 16 Festplatten pro Rechner mit 64 TByte möglich. Bereits bei 12 Festplatten und dreifacher Redundanz resultiert der folgende Durchsatz:
# hdparm -tT /dev/md8
Timing cached reads: 13256 MB in 2.00 seconds = 6637.05 MB/sec
Timing buffered disk reads: 6374 MB in 3.00 seconds = 2124.66 MB/sec
Beim gleichzeitigen Schreiben aus mehreen Jobs, der Standard-Aufgabe einer jeden Server-Virtualisierung, wird in einem RAID 10-Verbund und gleichzeitiger Übertragung der Daten mit DRBD auf den zweiten Rechner noch immer ein Durchsatz von 1.8 GByte / Sekunde erreicht.
Bei der Rack-Bauweise können bis zu 24 Festplatten und maximal 96 TByte zum Einsatz kommen, dabei ist ein Durchsatz bis zu 4 GByte / Sekunde realisierbar, wobei damit das Leistungspotenzial der 40 GBit-Netzwerkkarten ausgeschöpft ist. Mehr Leistung würden 100 GBit-Karten bringen, doch bringt ein Einsatz solcher Karten im Moment wenig, ganz einfach, weil das RAM diesen Durchsatz (noch) nicht 'verkraftet'.
Mit der BigFoot-Serie lassen sich ArchivistaVM-Cluster mit der derzeit leistungsfähigsten Server-Plattform (LGA 2011-3) realisieren. Dank flexiblen Hauptplatinen können Prozessoren von Intel in allen Preis- und Leistungsklassen eingesetzt werden und auch beim Hauptspeicher sind die BigFoot-Modelle sehr flexibel. Zwischen 16 und 512 GByte RAM-Speicher lassen sich verbauen, bei den CPU-Kernen stehen zwischen 6 und 18 Prozessoren bereit. Mit Rack-Bauweise sind gar Systeme mit der zwei bis vierfachen Leistung (36 Kerne bzw. 2 TByte RAM) möglich.
Open Source und Standard-Komponenten
Die BigFoot-Serie zeigt eindrücklich, was derzeit mit Open Source und Standard-Komponenten machbar ist, auch wenn dann und wann IT-Fachkräfte noch immer glauben, dies gehe nur mit den allerteuersten Server-Komponenten. An dieser Stelle sei auf ein längeres Gespräch anlässlich des linuxday.at verwiesen. Zwei smarte Informatiker begutachten die Modellreihe ArchivistaVM. Was denn da drinnen stecke? Xeon-D mit bis zu 16 CPUs. Mit Erstaunen wird nachgehackt, ob denn ein Hardware-Raid-Kontroller zum Einsatz komme, weil ohne Hardware-Raid bringe es ja eh nix, und obendrein müsste es ein Hardware-Kontroller mit voller Bauhöhe sein. Ein Durchsatz von 800 MByte sei ja ganz nett, aber nur die Raid-Controller vom Hersteller X könnten einen Durchsatz von 2 GByte / Sekunde stemmen.
Natürlich ist dem nicht so, doch dreht sich die Diskussion nun um redundante Netzteile, die sie beim Hersteller X für 30 Prozent des Endkundenpreises beziehen könnten. Ob 70 Prozent Marge nicht unseriös seien, die Rückfrage. Keinesfalls, die Endkunden bekämen mit 4000 Euro ja noch immer sehr preisgünstige Server. Nachgefragt, was darin enthalten sei, wird immerhin zugestanden, dass darin weder das Aufsetzen (ca. 1000 Euro), die Software (bis zu 6 Sockel sei die Software Y ja fast geschenkt, die Backup-Software ebenso) und die Wartung enthalten ist.
Stichwort Open Source. Die Frage insofern berechtigt, da an den Leibchen zu erkennen ist, dass die Jungs für eine Firma werben (wohl arbeiten), die den linuxday.at seit Jahren sponsert. Nun, etwas XEN hätten sie mal gemacht, doch Y, wenn auch proprietär, koste mittlerweile bei Kleinkunden ja fast nichts mehr.
Ob sie denn die Gäste redundant auf mehreren Maschinen führen würden, die Nachfrage. Dies sei bei kleineren Kunden nicht notwendig, 40 GBit, auch dies sei kein Thema. Wie sie denn die 2 GByte / Sekunde über die Leitung bringen wollten? Erstauen und dann Nachdoppeln, dies sei bei der Backup-Software nicht notwendig. Nachhaken, dass es hier nicht um die Sicherung, sondern um den Live-Betrieb und allfällige Ausfälle eines Rechners bzw. das Abfangen dieser Fälle gehe. Dafür hätten sie den 24-Stunden-Service des Lieferanten.
Natürlich sind derartige Konzepte für Informatik-Dienstleister ganz praktisch, 70 Prozent Marge auf die Komponenten, pro Server ein Tag Arbeit für den Aufbau, Hardware-Einsätze an Dienstleister wegdelegiert, und sollte die Installation doch auf mehrere Server anwachsen, dann wird erst recht kräftig über die Lizenzen zuverdient. "Ja, alle kochen nur mit Wasser. Auch wir verwenden den gleichen Rohstoff wie alle anderen: Die Hard- und Software, die es heute gibt", dies stand zwar nicht auf den Leibchen der smarten Herren, findet sich aber auf der Homepage jenes Anbieters.
Einverstanden, alle kochen nur mit Wasser. Aus diesem Grunde verwendet die BigFoot-Serie ja auch 40 GBit bei den Netzwerkkarten, die CPUs des Marktführers und potente SSD-Platten. Trotzdem kann mit Standard-Komponenten und Open Source mit weniger Aufwand in aller Regel deutlich mehr erreicht werden, gerade bei Server-Virtualisierung.
Dass dem so ist, beweisen die Infrastruktur-Lösungen der Internet-Player, die ihre Server-Infrastruktur mit Standard-Hardware und Open Source realisieren. Nun sind Cluster-Lösungen für Tausende von Servern für KMU-Firmen zu komplex (dazu z.B. das Ganeti-Projekt). Deswegen auf Standard-Hardware und Open Source zu verzichten, dies muss — gerade mit ArchivistaVM — nicht sein.
Die BigFoot-Serie kann sowohl hier in Egg als auch vor Ort jederzeit beschnuppert werden, denn wer mit Wasser kocht, hat bekanntlich ja nichts zu verbergen.
P.S: Zum diesjährigen Vortrag anlässlich des linuxday.at gibt es das Skript zum Download. Wer das Konzept von ArchivistaVM kennenlernen möchte oder gar einen Cluster mit ArchivistaMini selber aufsetzen möchte, dem sei die Lektüre gerne empfohlen.