OS Validierung

Das Betriebssystem soll die Hardware verwalten, überwachen und mit möglichst wenig Ressourcenverbrauch die virtuellen Maschienen ausführen.

Folgende Betriebssysteme habe ich installiert und ausprobiert:

FreeNas.

FreeNas ist BSD basiert und hat viele Vorteile. Zum einen kann man es auf einem USB-Stick installieren und nach dem booten läuft es komplett im Ram. Zum anderen erfüllt es viele meiner Anforderungen out of the box. Ein Nachteil ist wie ich finde die extrem lange Bootzeit von fast 3 Minuten, dabei ist es egal ob ich einen langsamen, preiswerten USB-Stick oder einen richtig schnellen verwende. Mit der aktuellen Version haben die FreeNas – Entwickler wieder einen Plug-in Support eingebaut. Der basiert auf BSD Virtualisierung, d.h. alle Plugins teilen sich eine zweite IP – Addresse und müssen BSD als Betriebssystem haben. Zu meinem Testzeitpunkt gab es nur 2 fertige Plugins zum installieren, allerdings ist die Request-Liste sehr lang und fast alles was ich brauche steht da drauf, ist also in Arbeit oder zumindest geplant.

Ein großer Vorteil ist das Dateisystem zfs. Das Erstellen einen Software RAID5 war in Sekunden erledigt und Betriebsbereit. FreeNAS braucht, wenn man ZFS verwenden will mindestens 4GB Ram. Beim Schreiben aufs ZFS Software RAID hat das System die vorhandenen 8GB Ram fast restlos ausgenutzt. Ich vermute das FreeNAS die Daten im RAM puffert bis die Platten alles weg geschrieben haben. Zur Geschwindigkeit kann ich nur sagen: super. Ich habe von Windows7 über eine RAM-Disk Daten kopiert und kam auf Werte die vermutlich nur durch das Gigabitethernet begrenzt wurden.

Die beiden Gründe warum ich es letztlich nicht verwendet habe, waren das es „noch“ nicht alle Anwendungen, die ich benötige, als Plugin gibt und ein sehr nerviger Bug, bei dem ich einen bestimmten Kernelparameter nach dem Booten übergeben muss damit FreeNAS mit meinen Festplatten richtig zusammenarbeitet. Leider ist nach dem Booten das RAID dann schon degraded.

NAS4Free.

Nas4Free ist der Vorgägner von FreeNas, also die letzte Version, die allerdings weiter entwickelt wird. Der Grund ist das FreeNas mehr in Richtung professionelle Datacenter Fileserver OS geht und NAS4Free mehr das Small Office / Home Office Betriebssystem, die RAM Anforderungen zeigen das am besten, wo FreeNas mindestens 4GB braucht, kommt NAS4Free mit 384MB aus.

NAS4Free bringt viele Plugins mit, aber wieder leider nicht alles was ich benötige. Das nachträgliche Installieren von weiterer Software habe ich nicht ausprobiert, glaube aber das es nicht ganz so einfach ist wie bei FreeNas. Hauptproblem ist aber das gleiche wie bei FreeNas. Irgendwie mag das BSD mein Board nicht.

Windows 2008 R2 Datacenter.

Zusammen mit VMWare Server 2. Erstmal zum Betriebsystem, die Installation verlief ohne Probleme. Allerdings musste ich bei den Netzwerkkartentreibern und ein zwei anderen Treibern tricksen, da Intel eigentlich nicht möchte das man ein Serverbetriebsystem auf seinen DesktopSerie Boards laufen läßt. So versagen die Klick-Weiter-Fertig Treiberpakette von Intel. Ich bin da dieser Anleitung gefolgt und danach war die Hardware und das Betriebsystem einsatzbereit.

Der erste kleine Schock kam dann beim einrichten des Software RAID5. Es dauerte ewig, ich habe gewartet bis er endlich 3% anzeigt hat und dann mal hochgerechnet, 29 Stunden sollte es dauern. Ich habs dann durchlaufen lassen, aber das dies nicht wirklich praktikabel ist war mir schon klar, wenn mal eine Platte ausfällt muss ich immer mindestens 29 Stunden warten bis ich weiß ob alles wieder in Ordnung ist.

Ich habe dann VMWare Server 2 installiert um die VMs laufen zu lassen. Ich habe nicht den Hyper-V genommen, da ich immer noch nicht rausbekommen habe wie ich VMs importieren und exportieren kann. VMWare Server 2 ist aber leider im EndOfLife-Status, also macht VMWare da nicht mehr wirklich was. Was mich sehr störte war das WebInterface, zumal die Konsolen für die VMs erst nach einigen Versuchen und Experimenten mit verschiedenen Browsern mit mir reden wollte. VMWare Server 2 unterstützt auch keine „shared folders“, also das direkte durchreichen bestimmter Ordner in die VM. Alles was in der VM geschieht und auf dem RAID gespeichert werden soll und nicht in der VM, muss man per Netzwerkfilesystem mounten und das erzeugt viel Traffic, CPU-Last und ist daher nicht so performat.

Das Aus für diese Konfiguration kam dann nach einem (ungünstig provozierten) Neustart. Ich wollte eine SATA Platte im Betrieb anschliessen und hatte den SATA Port noch nicht als HotPlug fähig konfiguriert, vielleicht lag es auch an der Spannungs bzw. Stromspitze als ich die Platte anschloss. Auf jedenfall startete der Rechner neu und das RAID5 war nicht mehr synchron. Das wäre nicht DAS Problem gewesen, gut 29 Stunden warten wäre auch nicht schön, aber was viel schlimmer war: Windows 2008 R2 hat nirgends einen Logeintrag oder etwas dergleichen gemacht. Hätte ich nicht in die Datenträgerverwaltung geschaut, hätte ich es nicht mal gemerkt. Bis irgendwann mal eine 2. Platte ausfällt und alles unwiederbringlich weg ist. Der Grund war letztlich das ein paar Blöcke auf der Platte als unstable geflaggt wurden. Das wurde beim nächsten SMART-Check wieder auf stable zurückgesetzt und damit war wieder alles in Ordnung. Nur da auch dies nicht geloggt worden ist, hätte ich die Ursache im Nachhinein nicht ermitteln können.

Dazu kam noch das ich echte Probleme hatte die Sensordaten der Mainboards zu Monitoren, letztlich habe ich SpeedFan gefunden und mit Hilfe der FileLogFunktion von SpeedFan hätte ich meine Nagioswerte schon bekommen.

Aber das Software RAID5 war der ShowStopper. Das geht einfach nicht, dass da was schief geht, ich das nicht mitbekomme und ich im schlimmsten Fall nicht mal nachträglich sehen kann woran es eigentlich lag.

ProxMox aka Debian.

ProxMox ist ein Debian mit KVM und OpenZV fertig mit einer WebOberfläche. Mein erster Versuch war ProxMox so zu installieren, dass ich einer VM den direkten Plattenzugriff gebe und in der VM wird das dann Software RAID5 gebaut und die Freigaben verwaltet. Das klappt auch, aber die Performance war schlecht, nur etwa 50% von dem was möglich gewesen wäre.

Dann habe ich das Software RAID direkt auf dem Debian eingerichtet und noch einen minimalen SAMBA aufgesetzt. Die ContainerVMs bekommen die Freigaben direkt per „mount –bind“. Bei den richtigen VMs muss es dann doch per Netzwerk gemountet werden. Mehr dazu unter Betriebsystem.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.