Navigation überspringen
article cover
Gerade bei wachsenden Datenmengen spielt Objektspeicher in Verbindung mit Storage-Virtualisierung seine Stärken aus. - Quelle: maxxyustas - 123RF

Mit Objektspeicher zur Storage-Virtualisierung 2.0

Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.

In der IT leben wir in einer zunehmend virtuellen Welt. In dieser virtualisieren viele Unternehmen nicht nur ihre Server, sondern auch den Storage. Die Speichervirtualisierung, wie sie vor zehn bis 15 Jahren populär wurde, bezeichnet den Prozess der gemeinsamen Nutzung von Speicherressourcen, bei dem der physische Speicher unterschiedlicher Systeme in einem zentralisierten Pool an verfügbarer Kapazität zusammengeführt wird. Ziel für Unternehmen ist es hierbei, ihre Agilität und Leistung zu verbessern und gleichzeitig die Hardware- und Ressourcenkosten zu senken. Der Ansatz und die Umsetzung der Speichervirtualisierung waren jedoch – zumindest bis heute – nicht so homogen und effizient wie bei der Servervirtualisierung.

Mit der zunehmend populären objektbasierten Speicherung allerdings lassen sich Veränderungen beobachten. Dabei werden die Objekte innerhalb eines einzigen Speicherpools anstelle einer veralteten LUN/Volume-Blockspeicherstruktur verwaltet und mit den dazugehörigen Metadaten gebündelt, um einen zentralisierten Speicherpool zu bilden.

Einheitlicher Zugriff auf Objektspeicher-Pool

Objektspeicherung bringt die Speichervirtualisierung auf das nächste Level – auch als Speichervirtualisierung 2.0 bezeichnet. Mit ihr ist es einfacher, eine höhere Speicherkapazität, beispielsweise durch Inline-Deduplizierung, Komprimierung und Verschlüsselung, bereitzustellen. Darüber hinaus ermöglicht sie es Unternehmen, Speicher bei Bedarf mühelos neu zuzuweisen und gleichzeitig die damit verbundene Verwaltungskomplexität zu eliminieren.

Ein weiterer Vorteil besteht darin, dass sich Administratoren keine Gedanken über die Zuweisung einer bestimmten Kapazität an einen bestimmten Server machen müssen. Alle Server haben den einheitlichen Zugriff auf den Objektspeicher-Pool. Dadurch brauchen Unternehmen keine Kristallkugel mehr, um ihren Speicherbedarf vorherzusagen. Stattdessen können sie jederzeit und genau dosiert die Speichermenge hinzufügen, die sie benötigen. Noch besser: Sie können ihren Speicherpool ohne Unterbrechungen und ohne Ausfallzeiten ausbauen.

Mehr Sicherheit durch unveränderliche Snapshots

Der vielleicht bedeutendste Vorteil der Speichervirtualisierung 2.0 besteht darin, dass sich Daten wesentlich besser schützen und sichern lassen als mit herkömmlichen Iterationen der Speichervirtualisierung. Zwar lassen sich auch mit Legacy-Speicherlösungen Snapshots der Daten erstellen. Das Problem dabei ist aber, dass diese Snapshots nicht unveränderlich sind. Es steht zwar ein Snapshot zur Verfügung, aber wenn sich Daten ändern oder überschrieben werden, besteht keine Möglichkeit, das Original erneut zu erfassen. Sobald eine Aktualisierung vorgenommen wird, ist eine Rückkehr zu den ursprünglichen Daten nicht mehr möglich. Die alten Snapshots gehen zugunsten der neuen verloren. Mit wenigen Ausnahmen gilt dieses Prinzip bei den meisten älteren Speicherlösungen.

Beim Objektspeicher sind Snapshots unveränderlich. Aus diesem Grund können Unternehmen ihre Daten jetzt nahezu in Echtzeit erfassen und kostengünstig sichern. Unveränderliche Snapshots schützen Informationen kontinuierlich, weil sie alle 90 Sekunden erstellt werden. So ist selbst im Falle eines Datenverlusts oder eines Cyberangriffs immer ein Backup vorhanden.

Unstrukturierte Daten bändigen

Neben allen anderen Vorteilen ist Speichervirtualisierung 2.0 aber auch effektiver als die ältere Variante – insbesondere wenn es darum geht, den enormen Datenzuwachs zu bändigen. Vor allem kann sie dabei helfen, extrem große Datenmengen zu verwalten. Die meisten dieser neuen Inhalte und Daten sind unstrukturiert, und Unternehmen stellen immer häufiger fest, dass traditionelle Speicherlösungen nicht in der Lage sind, diese Daten zu managen.

Denn Unternehmen stehen vor einem Problem: Unstrukturierte Daten benötigen riesige Mengen an Speicherkapazität. IDC schätzt, dass 80 Prozent der Daten in fünf Jahren unstrukturiert sein werden. Der größte Teil dieser Daten nimmt primären Tier-1-Speicherplatz auf virtuellen Maschinen in Anspruch, was sehr kostspielig sein kann. Das muss nicht sein, denn ein Großteil dieser unstrukturierten Daten lässt sich mithilfe der Speichervirtualisierung 2.0 und der unveränderlichen Snapshots sowie zentralisierter Pooling-Funktionen auslagern.

Unternehmen müssen durch die Verlagerung der unstrukturierten Daten in den Objektspeicher diese Daten also nicht auf VMs gespeichert haben und keine Backups im herkömmlichen Sinne mehr durchführen. Da der Objektspeicher unveränderliche Snapshots erstellt und auf einem anderen Offsite-Cluster repliziert, entfallen 80 Prozent der Backup-Anforderungen eines Unternehmens. Das sorgt für eine drastische Kostensenkung. Anstatt 80 Prozent der Daten in primären Tier-1-Umgebungen zu speichern, wird jetzt alles im Objektspeicher gespeichert und geschützt.

Dieses Prinzip reduziert zudem die Wiederherstellungszeit unstrukturierter Daten von Tagen oder sogar Wochen auf weniger als eine Minute. Und das unabhängig davon, ob es sich um TByte oder sogar PByte an Daten handelt. Gleichzeitig ist das Netzwerk weniger belastet, weil es die Daten nicht mehr von einem Punkt zum anderen bewegt. Außerdem sinkt das Risiko, dass Datensicherungen fehlschlagen, weil es keine Backups im herkömmlichen Sinn mehr gibt.

Fazit

Da der Speicherbedarf steigt, benötigen Unternehmen mehr als nur eine Virtualisierung. Sie müssen bei der Speicherverwaltung einen neuen Ansatz wählen. Sie können nicht einfach die gleiche alte Technologie verwenden und auf ein anderes Ergebnis hoffen. Es ist an der Zeit, einen genaueren Blick auf unterschiedliche Speicherarchitekturen zu werfen und besser zu verstehen, welche die größten Vorteile bieten. Die Speichervirtualisierung 2.0 gibt Unternehmen die Möglichkeit, sowohl strukturierte als auch unstrukturierte Daten effizienter zu verwalten und sich gleichzeitig besser vor einem Datenverlust zu schützen. Mit anderen Worten: Objektspeicherung kann die drängendsten Probleme von IT-Administratoren und Unternehmen auf innovative und kosteneffiziente Weise lösen.

Autor: Florian Malecki, International Product Marketing Senior Director bei StorageCraft

Kommentare

IT-Administrator schreibt über Praxiswissen für Admins.

IT-Administrator ist das Praxismagazin für System- und Netzwerkadministratoren und liefert jeden Monat passgenaues, sofort umsetzbares Fachwissen. Auf zahlreichen Intensivseminaren und Trainings vor Ort sowie online können sich Admins zudem umfassend fortbilden. Auf Xing informiert die Redaktion über aktuelle Trends und Themen aus der IT.

Artikelsammlung ansehen