Navigation überspringen
article cover
Ein- und Ausgang: Der Weg in die Cloud muss keine Einbahnstraße sein. - Quelle: jmimagefactory - 123RF

So gelingt der Cloud-Exit

Anfang März brannte in Straßburg eines der größeren Rechenzentren in Frankreich aus und der betroffene Provider OVHcloud musste alle seine Dienste kurzzeitig unterbrechen. Nur Tage später wurde der Massenhack gegen Microsoft Exchange publik: Tausende von Firmen in Deutschland mussten erfahren, dass ihre lokalen Groupware-Systeme angreifbar waren. Kurz darauf verschlechtert sich das politische Klima zwischen Großbritannien und der EU. Die EU wirft der britischen Regierung vor, wegen der Warenkontrollen in Nordirland gegen den Brexit-Vertrag verstoßen zu haben. Diese turbulenten Tage zeigen exemplarisch, welche externen Faktoren ein Unternehmen dazu bewegt, Daten zu verschieben oder ganze Applikationen zu migrieren.

Aber auch interne Faktoren können eine Firma motivieren, ein Migrationsprojekt zu starten. Das können reine Kostenfragen sein, weil ein anderer Provider günstiger ist. Oder es sind Sicherheitsfragen, weil Daten zu sensibel sind und daher nicht in der Cloud oder in bestimmten Regionen von dieser liegen dürfen. Den Workload wieder ins eigene Rechenzentrum zu holen, kann unter Umständen Entwicklungszyklen verkürzen, da man auf eigenen Systemen schneller und effizienter entwickeln kann.

Unabhängig des jeweiligen Impulses ist die Aufgabe weniger trivial als sie auf den ersten Blick erscheint. Die Herausforderung hängt stark davon ab, wie viele Daten zu bewegen sind und wie sehr die Cloud die Applikationen und Dienste im Unternehmen bereits durchdrungen hat. Es gilt das Prinzip: Je komplexer die Netzinfrastruktur, je mehr Ebenen eine Applikation besitzt und je mehr diese externe Cloudressourcen miteinander koppelt, desto schwieriger ist eine Migration der Workloads und Daten. Je nachdem, wo sich ein Unternehmen auf der Reise bei der Cloudadaption befindet, bieten sich verschiedene Ansätze und Best Practices an. Alle helfen Firmen, die Migration der Daten so schnell und sicher wie möglich abzuwickeln, ohne dass ungeplante Ausfallzeiten auftreten.

Mit einem Zeh in der Cloud

Gerade kleine und mittelgroße Firmen sowie stark reglementierte Branchen sind oft noch am Anfang ihrer Reise in die Cloud und haben erste Dienste eingeführt, beispielsweise der Zukauf externer Speicher, und erste Cloud-Workloads. Insbesondere durch den Lockdown sind viele Firmen kurzfristig auf Dienste wie Microsoft 365 und Teams oder Zoom ausgewichen, damit ihre Mitarbeiter von zu Hause weiterarbeiten können. Der Massenhack von Exchange, so erwarten es die Analysten, wird die Migration von Groupware in die Cloud weiter beschleunigen.

Wer also mit einem Zeh in die Cloud gehen will oder bereits ist und sich nun entschieden hat, auf andere Angebote auszuweichen, der sollte eine der wichtigsten und für alle Phasen der Cloudadaption gültige Best Practice anwenden: Es ist wichtig, sich im ersten Schritt einen Überblick über alle Dienste und vor allem über die darüber getauschten Daten zu verschaffen. Tools wie "Data Insight" von Veritas sammeln hierzu die Metadaten des Dateisystems ein, unabhängig davon, ob die Daten lokal oder in Cloudspeichern abgelegt sind. Diese Daten besagen, wie alt die Files sind, welchem User oder welcher Abteilung sie zugeordnet sind, zu welchem Applikationstyp sie gehören und wann sie zuletzt geöffnet wurden. Dieses Wissen können KMU dann an Programme wie Power BI von Microsoft exportieren, um die Massen von unstrukturierten Informationen zu kartographieren. Außerdem sind Firmen dazu in der Lage, auf Basis dieses Wissens mögliche Risiken, veraltete Daten und wertvolle Informationen zu identifizieren. Sie können also vorab entscheiden, welche Daten sie migrieren und welche sie löschen oder archivieren wollen.

Neue Erkenntnisse durch Verknüpfung von Metadaten

Wenn Firmen die Daten genauer analysieren möchten, können sie Werkzeuge wie Data Insight mit Archivlösungen koppeln: Die Daten werden nach frei definierbaren Richtlinien klassifiziert und mit vordefinierten Mustern und Filtern – beispielsweise für personenbezogene Daten – abgeglichen. Jede Datei, die archiviert ist, wird automatisch untersucht und nach Bedarf gekennzeichnet.

Firmen können dank der Verknüpfung der Metadaten und der Klassifizierung beispielsweise sofort erkennen, ob Mitarbeiter sensible Daten auf offenen Shares abgelegt haben, die bei der Migration sofort in gesicherte Speicher transferiert werden müssen. Unternehmen können alte Datenbestände aufstöbern, die ehemaligen Mitarbeitern gehören und längst gelöscht sein müssten. Sie können redundante Files, beispielsweise mehrfach abgelegte Kopien von Datenbanken, die zu Entwicklungszwecken angelegt wurden, finden. All das hilft, den Datenberg besser zu verstehen und Löschbares zu finden, damit am Ende die zu migrierende Menge der Files möglichst klein bleibt. Schließlich hat die Anzahl der Daten immensen Einfluss auf die Dauer des gesamten Migrationsprozesses.

Im Archiv können Firmen zudem entscheiden, ob bestimmte Daten nach der Klassifizierung genauer zu untersuchen sind, bevor deren Migration erfolgt. Archive wie Enterprise Vault von Veritas koppeln direkt Clouddienste wie Microsoft Office 365, Teams oder Zoom an und erkennen ebenso, welche Daten über diese Programme geteilt wurden. Dieser Einblick in die Collaboration-Umgebung ist wichtig, da nach dem Lockdown viele Firmen unabhängig von ihrer Größe auf diese gesetzt haben, um Remote Offices zu schaffen.

Unternehmen können auf Basis dieses Wissens auch strenge Vorgaben aus der Datenschutzgrundverordnung besser einhalten. Das Compliance-Risiko wird gesenkt, was ein schöner Nebeneffekt der Datenmigration ist. Und wer alte Daten löscht, räumt im Idealfall wertvollen Speicher frei und senkt dadurch Kosten.

Die komplexe Multicloud-Szenerie

In Deutschland haben mittelgroße und große Firmen im Schnitt mehr als elf Clouddienste im Einsatz. Dies ist ein Ergebnis aus der Ransomware-Multicloud-Umfrage von Veritas vom November 2020. Die IT-Umgebungen der befragten Unternehmen verknüpfen On-Premises-Infrastrukturen, Private und Public Clouds in einer so genannten Hybrid Cloud. Dies wird laut Analysten bei den meisten mittelgroßen Firmen in den kommenden Jahren die vorherrschende Architektur sein.

Auch in diesem Fall sollte in einem ersten wichtigen Schritt eine genaue Inventur der Dienste und Daten erfolgen. Nur ist diese Aufgabe um einiges schwieriger als bei Firmen, die gerade erste Schritte in die Cloud machen. Im ersten Fall sind oft geschäftskritische Applikationen an die Cloud gekoppelt und verbinden unterschiedliche lokale sowie virtuelle Ressourcen miteinander. Zudem sind diese hybriden Umgebungen stark heterogen und bringen eine bunte Mischung aus Hard- und Software mit. Wer hier den Überblick gewinnen und sich ungern in fragmentierten Einzeltools separater Anbieter isolieren lassen will, kann die verschiedenen Tools und deren Ergebnisse an einer Stelle konsolidieren und gewinnt so einen Hardware-agnostischen Überblick.

Lösungen wie Aptare IT Analytics konsolidieren hierzu bis zu 30.000 Datenpunkte und helfen Unternehmen dabei, eine Übersicht ihrer Infrastruktur zu gewinnen. Setzen Firmen bereits eine Configuration Management Database ein, lassen sich diese Daten importieren. Dann erkennt das Unternehmen auf einen Blick, welche Ressourcen lokal und welche Cloudapplikation genau Verwendung finden. Das ist für Migrationsprojekte entscheidend.

Kostenstruktur durchschauen

Der IT-Verantwortliche kann im Idealfall im Detail nachvollziehen, welche virtuellen Maschinen einem Workload tatsächlich welchen physischen Speicher im Netz zuweisen. So kann er sicherstellen, dass er bei einer Migration das gesamte Applikations-Stack mit Speicher migriert und keine VM vergessen oder kein Speicherbereich übersehen wird. Dieser Gesamtblick auf die Workloads wird immer wichtiger, da Firmen vermehrt auf Container-basierende Anwendungen setzen. Hierbei werden in extrem kurzer Zeit völlig neue Instanzen ausgerollt. Wer in eine solch dynamische Umgebung migrieren möchte, muss den Überblick behalten.

Ein weiterer Vorteil: IT-Verantwortliche haben die Möglichkeit, ihre Kostenstruktur gegenüber dem Management wesentlich effizienter und genauer zu dokumentieren. Damit können sie wirtschaftlich argumentieren, warum die Migration der Daten notwendig wird. Dabei helfen Prognosefunktionen den Einkauf eines Speichers wesentlich besser zu steuern: Wer bei einem Speicheranbieter von Zeit zu Zeit kleinere Tranchen an Storage ordert, ist schließlich in einer schlechteren Verhandlungsposition als derjenige, der über eine genaue Bedarfsprognose für die kommenden zwei Jahren verfügt.

Damit sich all diese Analysen leichter mit konkreten Kosten verbinden lassen, gibt es außerdem die Möglichkeit, entsprechende Einträge für die verschiedenen Speicheranbieter vorzunehmen. So lassen sich beispielsweise die Verrechnungsdaten von AWS Glacier hinterlegen. Die Software erkennt anschließend sofort, welche Daten immer wieder kostspielig aus dem Speicher gezogen werden und deshalb auf einer preiswerteren und leichter verfügbaren Alternative untergebracht wären. Aber auch global liefert die Lösung über ein Dashboard sofort Einblicke darüber, welche Teile der IT-Infrastruktur aus Backupsicht immer wieder für Probleme sorgen.

Die hohe Schule der Migration

Bisher haben Firmen ihren Datenbestand exakt erfasst und wissen so genau, welche Daten sie behalten, welche sie löschen und welche sie migrieren wollen. Bewegt wurde aber noch kein einziges Bit. Um die Daten zu migrieren, braucht es eine zentrale Instanz, die nicht nur mit den Data Movern aller gängiger Cloudprovider spricht. Diese Instanz muss zudem alle möglichen lokalen und hybriden Speicher ankoppeln und Files klug über schmale WAN-Trassen transferieren können, damit die Migration möglichst schnell funktioniert. Außerdem sollte der aktuelle Betrieb der wichtigen Anwendung nicht gestört werden, die Migration muss während des Betriebs geschehen.

Veritas hat daher sein zentrales Tool "Veritas Resiliency Platform" (VRP) in sein Backupwerkzeug "NetBackup" integriert, damit ein Unternehmen seine Daten flexibel ohne Ausfallrisiko migrieren kann. Dazu erkennt VRP die Struktur komplexer mehrstufiger Applikationsarchitekturen, sowie die Abhängigkeiten der Assets und erlaubt es einer Firma, den gesamten Migrationsprozess per simplem Drag & Drop einzurichten. Ein in die grafische Oberfläche integriertes webbasiertes Dashboard liefert in Echtzeit Messergebnisse dazu, ob die Geschäftsanwendungen die festgelegten Service-Ziele einhalten. Die Kunden finden dort unter anderem auch statistische Daten darüber, wie lange die Wiederherstellung während der Tests gedauert hat und das in einer eigenen Sandbox, die die Produktion nicht beeinflusst.

Workloads lassen sich aus der Cloud in alle Richtungen verschieben, zum Beispiel innerhalb von Azure Stack, oder zwischen verschiedenen Azure-Regionen. Eine Notfallwiederherstellung ist auf Knopfdruck unter vollständiger Einbindung der VRP steuerbar. Daten und Workloads lassen sich so nahtlos in Hybrid- und Multicloud-Umgebungen portieren.

Auf dieser Grundlage sind ebenfalls Disaster-Recovery-as-a-Service-Konzepte möglich. Sollte, wie in Frankreich geschehen, das Rechenzentrum eines Providers komplett ausfallen, ließe sich über VRP ein Failover auf den DRaaS-Provider aktivieren. Umschaltzeiten, das Verhalten der Applikation und der gesamte Failover-Prozess lassen sich vorher testen und praxisnah simulieren, ohne dass die kritischen Applikationen in der Produktion davon beeinträchtigt werden. Auf diese Weise wird auch die Migration komplexer großer Anwendungen in hybriden Cloudinfrastrukturen beherrsch- sowie mess- und vor allem kontrollierbar.

Fünf wichtige Schritte für die Exit-Strategie aus der Cloud

  1. Sorgfältige Planung: Der Wechsel zurück zu einem On-Premises-System ist ein langfristiger Prozess. Deshalb müssen IT-Verantwortliche einen gründlichen Schritt-für-Schritt-Plan aufstellen und auf viele Herausforderungen gefasst sein.

  2. Auf den Einsatz vorbereiten: Automatisieren Sie die Bereitstellung der Daten und führen Sie einen vollständigen Test durch, damit Sie sicher sein können, dass sic Ihre Anwendung schnell und zuverlässig einsetzen lässt.

  3. Datentransfer sicherstellen: Jede Migration bedeutet, dass es einige Zeit dauern wird, bis Daten sowohl in der Cloud als auch vor Ort vorhanden sind. Eine solche Situation verursacht in der Regel einige unnötige Verzögerungen bei der Zusammenschaltung. Die Anwendung sollte in der Lage sein, diese zu bewältigen.

  4. Verantwortung übernehmen: Ein Unternehmen muss sich mit alldem befassen, was bisher in der Verantwortung eines Cloudanbieters lag, wie Infrastruktur und Sicherheit.

  5. Daten sichern: Der Backupplan sollte aktualisiert werden und der Schutz von Daten vor kleinen, aber schwerwiegenden Unfällen – wie einem Stromausfall – muss gewährleistet sein. Ein Hybrid-Computing-Modell könnte hier helfen.

Fazit

Es gibt unterschiedliche Gründe, warum ein Unternehmen eine Applikation aus der Public Cloud wieder in die eigene Infrastruktur zurück migrieren möchte. Dabei gilt: Je komplexer die Infrastruktur, je mehr Ebenen eine Applikation besitzt und je mehr die externe Cloudressourcen miteinander koppelt, desto aufwendiger ist eine Migration der Workloads und Daten. Deswegen ist es wichtig, diese in die ein oder andere Richtung zu planen und dafür zu sorgen, dass die Dienste und Anwendungen trotz des Umzugs störungsfrei weiterarbeiten. Aber wie bei allen Phasen der Cloudadaption ist es relevant, die Daten vorher aufzuräumen. Das hält den Prozess so schlank und effizient wie möglich.

Autor: Patrick Englisch, Regional Sales Engineer Leader bei Veritas Technologies

Kommentare

IT-Administrator schreibt über Praxiswissen für Admins.

IT-Administrator ist das Praxismagazin für System- und Netzwerkadministratoren und liefert jeden Monat passgenaues, sofort umsetzbares Fachwissen. Auf zahlreichen Intensivseminaren und Trainings vor Ort sowie online können sich Admins zudem umfassend fortbilden. Auf Xing informiert die Redaktion über aktuelle Trends und Themen aus der IT.

Artikelsammlung ansehen