5 Mythen über Hochverfügbarkeit in der Cloud

Es ist nicht zu verkennen, dass immer mehr Unternehmen den Weg der Verlagerung ihrer Anwendungen in die Cloud wählen. Gerade in aktuellen Zeiten ist das ein nachvollziehbarer Schritt, den vor allem große Unternehmen in Angriff nehmen. Das Outsourcing auf Cloud-Computing ist gerade für Anwendungen, die kurze Ausfallzeiten tolerieren, ein Gamechanger. Bei geschäftskritischen Anwendungen wie beispielsweise SQL Server, Oracle oder SAP, die eine hohe Verfügbarkeit und Disaster Recovery einfordern, sieht das jedoch etwas anders aus. Wir zeigen Ihnen Heute gegenwärtige Missverständnisse bei Sicherheitsanwendungen innerhalb von Cloud Umgebungen und räumen mit 5 Mythen darüber auf.

Mythos 1

Clouds sind High Availability Umgebungen

Public-Cloud-Implementierungen, insbesondere die von führenden Cloud Anbietern, sind automatisch hochverfügbare Umgebungen, in den Ausfallzeiten von Anwendungen vernachlässigt werden können.

Wahrheit:

Die meisten Public-Cloud-Implementierungen sind keine Hochverfügbarkeitsumgebungen, sofern kein HA-Schutz hinzugefügt wurde. Studien besagen, dass die durchschnittliche Ausfallzeit bei plus/minus 10 Stunden pro Jahr liegt. Im Gegensatz dazu liegt schätzungsweise die durchschnittliche Verfügbarkeit bei rund 99,9%. Dies würde mehr als einen Tag Ausfallzeit bedeuten und damit die erwartete Verfügbarkeit bei geschäftskritischen Anwendungen nicht erreichen. Redundanz ist oftmals nicht genug. Cloud-Lösungen wie z.B. Azure bieten standardisiert ein gewisses Maß an Anwendungsschutz durch ebendiese Redundanz. Durch Hinzufügen von Webservern wie IIS, in dem Fehlerdomänen gesetzt und Lastenausgleich aktiviert werden, kann der Verfügbarkeitsschutz erhöht werden. Bei Anwendungen wie SQL Server oder Dateiserver sind jedoch weitere Konfigurationen für HA und DR notwendig.

Mythos 2

Es gibt keinen Schutz durch Cluster

Geschäftskritische Anwendungen können in einer Public- oder Private Cloud nicht mit einem Cluster geschützt werden.

Wahrheit:

Typischerweise verwendet man das Windows Server Failover Cluster, um Hochverfügbarkeit in einer physischen Bereitstellung zu gewährleisten. WSFC wird dann mit einem gemeinsam genutzten Speicher – zB. mit einem SAN, ausgeführt. Public Clouds wie Amazon EC2 oder Azure haben allerdings kein Konzept für ein clusterfähiges, gemeinsames Speichergerät. Daher ist es notwendig, eine Cluster-Software hinzuzufügen und eine WSFC Umgebung zu konfigurieren. Die Cluster-Software synchronisiert den lokalen Speicher der Cloud durch fortwährende Echtzeitreplikation der Blockebene. Im Falle eines Ausfalls kann so sofort auf Daten zugegriffen werden. So bietet sich eine einfache und kostensparende Möglichkeit, Anwendungen wie SQL Server, Oracle oder SAP in einer Windowsumgebung vor Ausfallzeiten und Datenverlust zu schützen.

Mythos 3

Man braucht keine Remotereplikation für Disaster Recovery

Anwendungen und Daten sind in der Cloud ohne zusätzliche Konfiguration vor Katastrophen geschützt.

Wahrheit:

Cloud Anbieter erleben, genau wie andere große Organisationen, Ausfallzeiten oder regionale Katastrophen. Vor Ausfallzeiten können sie beispielsweise die Hochverfügbarkeit durch Auslagerung und Bereitstellung ihrer Anwendungen in die Cloud vor normalen Hardwareausfällen schützen. Regionale Katastrophen machen davor jedoch keinen Halt. Die simpelste Lösung zum Schutz vor regionalen Katastrophen ist die Konfiguration eines geographisch getrennten Multisite-Clusters. So können Sie beispielsweise ein Cluster in der Cloud aufbauen und es mit weiteren Knoten eines in einer anderen Region ansässigen Rechenzentrums, erweitern. Fügen Sie sogar noch einen dritten geographisch getrennten Knoten zum Cluster hinzu, können sie das Wiederherstellungspunktziel (RPO) von nahezu null Datenverlust und einem Wiederherstellungszeitziel (RTO) von ca. einer Minute erreichen.

Mythos 4

Die Cloud zu nutzen ist eine ‘Alles oder Nichts’ Entscheidung.

Man kann die Anwendung entweder in der Cloud oder in einem on-premise Rechenzentrum betreiben.

Wahrheit:

Um den Aufbau eines eigenen DR-Standort oder die Anmietung eines Rack-Speicherplatzes zu umgehen, können Sie als kosteneffizientere Lösung Ihr on-premise Rechenzentrum als primäres Rechenzentrum und die Cloud als sekundären Hot-Standby-DR-Standort nutzen. So können die on-premise Server traditionelle Cluster oder sogar einzelne Server sein, die derzeit nicht am Cluster teilnehmen.

Mythos 5:

High Availability in der Cloud ist kostspielig und kompliziert

Eine Hochverfügbarkeitsumgebung in einer Cloud zu erstellen, erfordert komplexe Skripte und spezielle Kenntnisse.

Wahrheit:

Natürlich bedarf die Erstellung einer Hochverfügbarkeitslösung entsprechendes Know-how und sollte sorgfältig geplant werden. Um so besser, wenn man experten an der Seite hat. Die Mainzer Datenfabrik kann Sie dabei Unterstützen in nur 3 Schritten eine Hochverfügbarkeit in ihrer Cloud-Umgebung sicherzustellen. Teure Enterprise Versionen von Windows Anwendungen sind damit von Gestern.

Unter Berücksichtigung der aktuellen Lage, empfehlen wir das Server-Outsourcing in eine Cloudumgebung in Erwägung zu ziehen. Hier werden lokale Daten, Softwares und Anwendungen in die Cloud-Server migriert, auf virtueller Basis betrieben und über das Internet zur Verfügung gestellt. Sie erreichen damit beispielsweise eine noch leistungsfähigere, sichere und kalkulierbare Serverumgebung. Zudem werden lokale, physische Speicher entlastet, was der Leistungsfähigkeit positiv entgegen kommt.

In diesem Artikel haben wir mit den 5 gängigsten Mythen um Cloudumgebungen aufgeräumt und aufgezeigt, was durchaus mit entsprechender Software in der Cloud möglich ist.