11.09.2017

Hochverfügbarkeit: Die Verfügbarkeitsrate einschlägiger Cloud- und anderer Service-Angebote

Hochverfügbarkeit ist ein spannendes Thema - nicht zuletzt, wenn Sie Ihre Daten einem Cloud-Service anvertrauen wollen. Vertrauen Sie dessen Zuverlässigkeit, ist dieses letztlich eine Gleichung mit mindestens einem Unbekannten.

Von: Lars Behrens   Drucken Teilen   Kommentieren  

Lars Behrens, Dipl.-Paed

Lars Behrens ist Geschäftsführer der Firma MaLiWi IT. Staatlich geprüfter Netzwerkadministrator, Microsoft MCP/Linux LCP. Er hat langjährige Erfahrung in der Beratung bei Planung und Einrichtung von IT-Systemen und Netzwerken und dem Support heterogener Systeme (Apple Macintosh, Microsoft Windows, Linux). Universitätsstudium der Pädagogik, mehrere Jahre Tätigkeit im Ausland. Seminar- und Kursleiter, Referent und Fachbuchautor. Weiterhin ist er Herausgeber von dem Online-Fachportal «InformatikPraxis» bei der WEKA Business Media AG.

MaLiWi IT

 zum Portrait

Zu diesem Artikel wurden noch keine Kommentare geschrieben. Wir freuen uns, wenn Sie den ersten Kommentar zu diesem Artikel verfassen.
 
Kommentar schreiben

Bitte Wert angeben!

Bitte Wert angeben!

Bitte Wert angeben! Bitte geben Sie eine gültige E-Mail-Adresse ein!

Bitte Wert angeben!

Bitte Wert angeben!

Bitte Wert angeben!

Bitte alle fett beschrifteten Pflichtfelder ausfüllen.
Zurücksetzen
 

Die Verfügbarkeitsrate bewegt sich zwischen 95 und 99,9 Prozent

Die Verfügbarkeitsrate einschlägiger Cloud- und anderer Service-Angebote bewegt sich zwischen 95 und 99,9 Prozent.

Gerne haften die Provider ihrem Angebot das Prädikat «hochverfügbar» an. Der durchschnittliche Nutzer schätzt eine Hochverfügbarkeit auf der Skala von 0 bis 100 Prozent bei über 90 Prozent üblicherweise als gut ein und geht davon aus, dass ein solcher Dienst quasi nie ausfällt - das kann allerdings ein Trugschluss sein. Wir haben an dieser Stelle (genauer gesagt, auf InformatikPraxis) bereits mehr als einmal einen näheren Blick auf die vorgeblich so hohen Zahlenwerte der Verfügbarkeit eines IT-Systems geworfen. Auch bezüglich der Cloud-Dienste helfen wir Ihnen, die Zahlen in den richtigen Kontext einzuordnen und sich der eigenen Ansprüche an die notwendige Verfügbarkeit der geplanten IT-Umgebung bewusst zu werden.

Prozentangaben werden oftmals überbewertet oder gar falsch eingeordnet

Dass Prozentangaben oftmals überbewertet oder gar falsch eingeordnet werden, dürfte auf dem Feld der Hochverfügbarkeit inzwischen hoffentlich ein Allgemeinplatz sein. 99 % sind sehr viel, aber eben nicht das Ganze! Um die Verfügbarkeit von Systemen zu klassifizieren, muss man einen Gesamtblick darauf werfen, welche Teile des Systems im Laufe eines Jahres verfügbar sind. Die Anbieter der Dienste nutze gerne Begriffe wie «double nine» oder «triple nine», die in der IT für 99 oder 99.9 Prozent Verfügbarkeit stehen.

Tatsächlich stehen hinter den teils erstaunlich hohen Prozentzahlen nüchtern betrachtet sogar relativ hohe Ausfallzeiten:

  • eine Verfügbarkeit von 90% bedeutet einen Ausfall von 36 Tagen und 12 Stunden
  • eine Verfügbarkeit von 95% sogar einen Ausfall von 18 Tagen und 6 Stunden
  • bei 99% reden wir «nur noch» von 3 Tagen, 15 Stunden und 36 Minuten
  • 99.9% entsprechen 8 Stunden, 45 Minuten und 36 Sekunden
  • 99.99% lediglich 52 Minuten und 33 Sekunden
  • bei 99.999% geht es um knappe 5 Minuten und 15 Sekunden
  • und in der «Königsklasse» 99.9999% darf ein IT-System nur noch an 31.5 Sekunden im Verlauf eines Jahres ausfallen.

Solche Zahlen bewerten die (Hoch-)Verfügbarkeit zwar eher aus der (vertraglichen) Sicht eines Service Level Agreements, also im Sinne eines Vertragsmanagements- sie können aber bei der Bewertung der Zuverlässigkeit eines Dienstes helfen. Eine höhere Prozentzahl spricht für einen besseren Service. «Jedoch muss man dabei beachten, dass diese Zahlen immer nur die Gesamtsicht auf ein komplettes Jahr wiedergeben und eine hohe Prozentzahl an Verfügbarkeit in bestimmten Situationen nicht die beste Option darstellen muss», stellen die IT-Experten des EDV-Dienstleisters Univention fest.

Dazu soll folgendes Beispiel dienen:

«In einem Krankenhaus stehen zwei lebenserhaltende Geräte. Eines von beiden fällt alle 30 Minuten für eine Viertelsekunde aus, was insgesamt 73 Minuten pro Jahr ausmachen würde. Die meisten Personen würden dennoch dieses System mit 99.9% Verfügbarkeit gegenüber einem System bevorzugen, das zwar eine 99.999 prozentige Verfügbarkeit garantiert, dabei aber fünf Minuten am Stück ausfallen könnte. Denn so ein Ausfall hätte fatale Folgen. Obwohl System Nummer Zwei auf dem Papier zuverlässiger ist, ist die Überlebenschance für den Patienten bei Gerät Eins deutlich besser» (zit. n. https://www.univention.de).

Dieses Beispiel kann als Beleg dafür herangeführt werden, dass es auf dem Themenfeld der Hochverfügbarkeit neben den reinen Zahlen noch weitere Faktoren gibt, die beachtet werden müssen. Ein wichtiger Punkt, den wir auf InformatikPraxis immer wieder betonen, ist das Disaster Recovery - also die Zeit, die benötigt wird, um ein (komplett) ausgefallenes IT-System wieder lauffähig zu bekommen: «Time to Recovery».

Ein vermeintlich weniger zuverlässiges System kann in manchen Fällen das bessere sein.

Das soeben erwähnte Beispiel zeigt, dass auch ein vermeintlich weniger zuverlässiges System in manchen Fällen das bessere sein kann, «da es nach einem Ausfall schneller wieder in den normalen Betriebszustand geht» (zit. n. ebd.). Ein Ausfall, den der Nutzer nicht bemerkt, ist also wesentlich unproblematischer als einer, der eine erhebliche und spürbare Unruhe ins System bringt und beispielsweise viele Mitarbeiter von ihrer Arbeit abhält.

Zum Thema Hochverfügbarkeit gehören auf jeden Fall geplante Ausfallzeiten - das sind Zeiten, die der Erhaltung und Betriebsfähigkeit eines Systems dienen, mithin zwingend notwendig sind und schlimmstenfalls für eine Unterbrechung des Betriebsablaufs sorgen. Der einzige Trost hierbei ist, dass solche Ausfälle geplant ablaufen und beispielsweise in betriebsarme Zeiten gelegt werden können. Der Idealfall ist natürlich ein System, welches derart redundant (also doppelt oder mehrfach verfügbar) ausgelegt ist, dass unumgängliche Wartungsarbeiten an einem Teil des Systems durchgeführt werden können, der für diese Zwecke «ausgeklinkt» wird. Auch hier hängt es vom jeweiligen System ab, ob derlei geplante Ausfallzeiten eingeplant werden können und ins Gesamtbild passen.

Die Autoren der Univention-Studie machen dies an folgendem Beispiel deutlich: In einer Eisenhütte mit 50 Angestellten ist die Schmelze am Wochenende geschlossen. Eine Downtime der Computer am Wochenende ist daher kein Problem, ein Ausfall während der Arbeitszeit hätte jedoch (erheblichen) Schaden zur Folge. Als Gegenstück dient das Beispiel einer Fluglinie - hier «spielt es keine Rolle, ob eine Downtime geplant oder ungeplant ist. Wenn das System ausfällt, wird es teuer. Denn jede zusätzliche Minute, die ein Flugzeug am Boden verbringt, führt zu erheblichen Mehrkosten» (zit. n. ebd).

Hochverfügbarkeit von IT-Systemen

Wenn es um die Hochverfügbarkeit von IT-Systemen geht, sind also folgende Fragen entscheidend:

  • wie oft können Ihre Systeme ausfallen?
  • wie lange können diese maximal nicht-verfügbar sein?
  • können Sie Ihre Umgebung für geplante Updates abschalten?

«Diese Fragen müssen für jeden benötigten Dienst beantwortet werden», erläutert Univention. Und weiter: «Besonders bei Systemen mit hohen Anforderungen muss überprüft werden, welche Systeme das betrifft. Dabei darf man nicht ausser Acht lassen, dass es unpraktisch und zu teuer sein kann, alle Systeme auf dem höchsten Niveau zu betreiben» (zit. n. ebd).

Redundante Systeme

Hierbei steht mindestens ein Reserve-System bereit, um die Aufgaben des Hauptsystems im Falle eines Ausfalles zu übernehmen. Dabei gibt es für die Anzahl benötigter Systeme folgende Faustregel: «Man nimmt die Zahl der Systeme, die man braucht, um die Arbeit zu erledigen plus zwei. Eins, um geplante Arbeiten durchzuführen und ein weiteres System, welches ausfallen kann. Dies ist jedoch nur eine Faustregel. Die Nutzererwartungen an das System müssen im Detail analysiert werden, um die Investitionen zu rechtfertigen», wird in dem UCS-Bericht konstatiert.

Caching

Der andere Ansatz erledigt die Aufgabe mittels Caching - hierbei werden beispielsweise Daten, die hochverfügbar gehalten werden sollen, temporär auf einem anderen System zwischengespeichert, bis das Hauptsystem wieder verfügbar ist. Für welches Szenario auch immer man sich entscheidet, muss man unbedingt auf die sogenannte Konsistenz der (Nutz-)Daten achten. Haben User Datenbestände vom Stand 15:17 Uhr geöffnet, muss man sich eine Strategie überlegen, wie man den wiederhergestellten Stand des Restores von 14 Uhr damit abgleicht. Der einfachste Weg, um solche Probleme mit einem Fileserver zu umgehen, ist Caching auf dem Client. Unter Windows bietet sich hierzu Folder Redirection an. Neben dem SMB/Samba-Fileserver kann Caching auch für das unter Linux genutzte NFS eine Option darstellen.

Bei einem Netzwerkdienst wie DNS, der sich aus einer zentralen Datenbasis bedient, muss sichergestellt werden, dass die Clients mehrere DNS-Server ansprechen können, um eine Hochverfügbarkeit zu erreichen. Das Domain Name System (DNS) ist bereits per Design auf verteilte Systeme und somit quasi zwangsläufig Hochverfügbarkeit angelegt, ebenso wie Verzeichnisdienste wie LDAP und das im weitesten Sinne darauf aufbauende AD DS (Active Directory) aktueller Windows-Serversysteme.

Im Falle von DHCP (dem IP-Adressvergabesystem) hängt die Hochverfügbarkeit von dem Einsatzszenario ab. Wenn jeder Client in einer DHCP-Umgebung «seine eigene IP hat, reicht es bereit aus, DHCP auf mehreren Servern zu installieren. Sollen jedoch freie Adressen verwendet werden, müssen Failover Peers konfiguriert werden» (zit. n. ebd).

Hochverfügbarkeit berührt viele Dienste wie z. B. Storage, Webservices, Virtualisierung und so weiter. Ein ausfallsicheres System bedingt eine tiefgreifende Analyse. Hochverfügbarkeit ist nach wie vor eines der «Hot Topics» der IT - richtig geplant und umgesetzt, «kann Hochverfügbarkeit viele Vorteile bieten. Wenn die Planung aber nicht stimmt, kann Hochverfügbarkeit viele Ressourcen verschlingen, ohne Probleme zu lösen» - mit diesem Fazit der UCS-Experten wollen wir die Betrachtungen zu diesem Thema an dieser Stelle schliessen.

 

 

Seminar-Empfehlung

Praxis-Seminar, 1 Tag, ZWB, Zürich

Workshop Datenschutz in der Praxis

Die neue DSGVO und deren Folgen für Schweizer Unternehmen

Nächster Termin: 30. November 2017

mehr Infos

Seminar-Empfehlung

Praxis-Seminar, ½ Tag, ZWB, Zürich

Update Datenschutz

Neuerungen in der EU und der Schweiz

Nächster Termin: 07. November 2017

mehr Infos

Produkt-Empfehlungen

  • InformatikPraxis

    InformatikPraxis

    DIE ultimative Praxislösung für IT-Entscheider!

    ab CHF 168.00

  • Rechtssicher

    Rechtssicher

    Sicherheit bei Rechtsfragen im Geschäftsalltag

    Mehr Infos

  • Download-Paket IT-Musterverträge

    Download-Paket IT-Musterverträge

    Über 120 Mustervorlagen für ein sicheres und effizientes IT-Management

    Mehr Infos

Seminar-Empfehlungen

  • Praxis-Seminar, 1 Tag, ZWB, Zürich

    Compliance und Wettbewerbsrecht für Profis mit Prof. Dr. Patrick Krauskopf

    Neuste Entwicklungen und aktuelle Rechtspraxis

    Nächster Termin: 09. November 2017

    mehr Infos

  • Praxis-Seminar, ½ Tag, ZWB, Zürich

    Update Datenschutz

    Neuerungen in der EU und der Schweiz

    Nächster Termin: 07. November 2017

    mehr Infos

  • Praxis-Seminar, 1 Tag, ZWB, Zürich

    Workshop Datenschutz in der Praxis

    Die neue DSGVO und deren Folgen für Schweizer Unternehmen

    Nächster Termin: 30. November 2017

    mehr Infos