Beim Speicher wird's komplex

Im Vergleich zur Server-Virtualisierung hat die Storage-Virtualisierung noch Aufholbedarf. Die Evaluation und Implementierung ist komplizierter und kostspieliger; die Investitionen brauchen länger, bis sie sich rechnen. Das immer rasantere Datenwachstum bringt den Markt auf Trab.

Artikel erschienen in Swiss IT Reseller 2008/21

     

Während sich die Servervirtualisierung bereits gut im Markt etabliert hat, hinkt die Virtualisierung im Speicherumfeld laut diversen Studien noch weit hinterher. «Hinter Storage-Virtualisierung steht ein längerfris­tiges Konzept.», erklärt Roger Lüthy, Storage Platform Leader bei IBM Schweiz das Phänomen. «Da der Einstiegspreis höher ist, dauert der Return on Investment länger als im Server-Bereich.» Die Investitionen würden sich erst nach zwei bis drei Jahren auszahlen. «Die Speichervirtualisierung ist etwas im VMware-Hype untergegangen», bestätigt Andreas Bechter, Principle Presales Specialist Netbackup Product Family von Symantec.


Wie eine Studie des Speicherspezialisten Onstor zeigt, setzen in Europa erst 27 Prozent der Unternehmen Speichervirtualisierungs-Lösungen ein. In den USA sind es rund 35 Prozent. Die Studie basiert auf den Angaben von 650 Unternehmensvertretern aus Europa und den USA. Doch der Druck nimmt zu. 40 Prozent der befragten Europäer gaben an, dass ihre aktuelle Speicherlösung bei gleichbleibendem Datenwachstum noch auf zwei Jahre hinaus genügend skalierbar sei. Auf beiden Seiten des Atlantiks geht man deshalb davon aus, dass Speichervirtualisierung künftig zu einer absoluten Notwendigkeit wird.

Speicher und Endgeräte legen zu

Eine weitere Untersuchung des Spezialisten für Application Delivery Networking, F5 Networks, bestätigt diesen Nachholbedarf in Sachen Speichervirtualisierung. Die Umfrage unter 324 mittelständischen und grossen Unternehmen in Europa ergab, dass mit einem starken Wachstum im Markt zu rechnen ist. Verantwortlich dafür seien beispielsweise die hohen Personalkosten, die Schwierigkeit, überhaupt geeignetes Personal zu finden, die ausufernden Datenmengen sowie steigende Anforderungen im Bezug auf Leistung und Zuverlässigkeit. 28 Prozent der befragten Unternehmen verfügen über eine Speicherkapazität von über einem Petabyte, acht Prozent sprengen gar die Exabyte-Grenze. So rechnet F5 mit einem Wachstum bei der Massenspeicher-Virtualisierung von 65 Prozent in den kommenden zwei Jahren. 80 Prozent der europäischen Auskunftgeber nannten die Konsolidierung heterogener Speicherlandschaften als wichtigen Beweggrund zum Einsatz von Virtualiersierungslösungen. Das Markt­forschungsunternehmen Gartner setzt die Virtualisierung zuoberst auf die Liste der wichtigsten Technologietrends für das kommende Jahr - mit dem Hinweis, dass zwar bislang die Server-Virtualisierung im Vordergrund gestanden hätte, im nächsten Jahr hingegen die Storage- und Endgeräte-Virtualisierung stärker in den Fokus der Verantwortlichen rücken werde.

Personalknappheit als Markttreiber

Während das Thema im Marktsegment der Unternehmen mit grossem Speicherbedarf also an Bedeutung gewinnt, brauchen kleinere Firmen noch etwas Zeit. Laut Angaben des IT-Dienstleisters S&T werden entsprechende Projekte im KMU-Umfeld erst in einigen Jahren, beginnend 2010, interessant sein. Sukzessive würden die Hersteller der Lösungen auch kostengünstigere Varianten auf den Markt bringen, diese müssten sich aber erst noch in der Praxis bewähren. Diese «Von-oben-nach-unten»-Tendenz wird auch vom Marktforscher und Berater Techconsult bestätigt: Während bei Unternehmen mit weniger als 100 Mitarbeitern gerade mal 9 Prozent entsprechende Lösungen einsetzen, sind es bei Firmen mit mehr als 500 Angestellten bereits 16 Prozent. Allerdings, präzisiert Roger Lüthy, seien es im Moment vor allem Mittelstandsfirmen denn die internationalen Konzerne, welche den Markt vorantreiben würden. «Kunden mit grossem Datenaufkommen sind eigentlich permanent mit der Evaluation neuer Speichersysteme beschäftigt. Die Virtualisierung gibt ihnen eine grössere Unabhängigkeit vom Hersteller und erleichtert so die Anschaffung zusätzlicher Kapazitäten.» Ausserdem lässt sich so der Personalaufwand reduzieren, der bei mittelständischen Firmen verhältnismässig heftiger zu Buche schlägt als bei Konzernen. «Für viele Firmen ist es heute schwierig, genügend qualifiziertes Personal zu finden», bestätigt Jay Kidd, Chief Marketing Officer bei Netapp. Der Management-Aufwand für die rasant wachsenden Speicherlandschaften kann durch die Virtualisierung reduziert werden, was den Personalbedarf in Grenzen hält. Laut Lüthy beträgt die Zeitersparnis rund 30 Prozent. Während der Druck bei grossen Mittelstandsfirmen sehr akut sei, stünden Konzerne wie beispielsweise Grossbanken noch nicht dermassen unter Zugzwang.

Virtualisierung nicht immer sinnvoll

Doch Storage-Virtualisierung macht nur in gewissen Fällen Sinn. Insbesondere für Unternehmen mit kleinen Datenmengen sieht man bei IBM wenig Handlungsbedarf. «Für sie bringt eine solche Lösung nur wenige Vorteile. Einzig von der höheren Verfügbarkeit können sie profitieren.» Für alle anderen gilt es laut S&T, zunächst zwei wichtige Kriterien zu berücksichtigen: Speichervirtualisierung ist nur dort sinnvoll, wo eine heterogene Storage-Landschaft vorhanden ist oder wo die Notwendigkeit besteht, Daten ohne Betriebsunterbruch häufig von einem Storage-Sys­tem zum nächsten zu transferieren. Dies treffe vor allem auf Grosskunden wie beispielsweise Telekom-Unternehmen und Outsourcer zu. «Der typische Mittelstand hat im Bereich der Storage-Systeme oft nur Lösungen eines Anbieters im Einsatz und tauscht diese regelmässig nach Ablauf des Wartungsvertrags aus», sagt Martin Ortner, Sales Consultant bei S&T. In diesem Fall stelle sich die Frage, ob die Komplexität durch die Virtualisierung der Speicherlandschaft nicht eher erhöht denn gesenkt werde. Es sei durchaus möglich, dass zusätzliche Fehlerquellen und Limitierungen, beispielsweise aufgrund mangelhafter Bandbreiten, entstehen könnten, sagt Ortner

Auf die Methode kommt es an

Virtualisierung ist nicht gleich Virtualisierung. Nicht nur die Frage nach den Vor- und Nachteilen ist für Unternehmen zentral, sondern auch die Frage, welcher Virtualisierungsansatz für die Firma der richtige ist: File- oder blockbasierend? In- oder Out-Of-Band? Im Netzwerk, auf dem Storage-Device oder dem Applikations-Server?

Blockbasierte Virtualisierung bezieht sich auf den Umgang mit logischen Laufwerken, ohne Inhalte wie Dateisysteme, Dateien oder Datenbanken zu berücksichtigen. Alle Blöcke eines logischen Laufwerkes werden in einem Pool abgebildet, der aus mehreren physikalischen Laufwerken bestehen kann. Diese Variante eignet sich insbesondere für Umgebungen mit unterschiedlichen Speichersystemen, während die dateibasierte Variante auf NAS-Umgebungen ausgelegt ist. Die Dateien werden im «Global Namespace» indiziert, der dank Virtualisierung vom physikalischen Speicherort unabhängig wird. Die Datenmigration wird dadurch wesentlich vereinfacht und beispielsweise der Aufbau von Architekturen mit je nach Anforderung unterschiedlichen Speicherklassen ermöglicht.


Die kostengünstigste Variante wird direkt auf den Storage-Devices vorgenommen. «Für kleine Unternehmen genügt diese Methode vollumfänglich», sagt Marcel Brunner, Virtualization Infrastructure Specialist bei EMC. Hier stünden vor allem Management-Aspekte und die Zuverlässigkeit im Vordergrund. Eine weitere Möglichkeit bietet die Virtualisierung über die mit dem Speicher verbundenen Applikationsserver.
Die wohl zukunftsträchtigste Variante ist die netzwerkbasierte Virtualisierung. Sie ist insbesondere in Sachen Interoperabilität den anderen Methoden überlegen. Hier wird die Virtualisierungsschicht mittels intelligenten SAN-Switches oder Appliances zwischen die Speichergeräte und Anwendungsserver geschaltet, wobei beide entweder im Datenpfad (In-Band) oder ausserhalb (Out-Of-Band) arbeiten. Bei der In-Band-Variante benutzen die Anwendungsdaten, die von den Servern angefordert werden und die Kontrolldaten der Virtualisierungshardware denselben Datenpfad, wodurch die Gefahr eines Flaschenhalses bestehen kann. Da hier die Virtualisierungskomponente zwischen Server und Speicher liegt, muss sie zwecks Ausfallsicherheit unbedingt redundant ausgelegt sein. Bei der Out-Of-Band-Variante ist die Gefahr eines Engpasses kleiner, weil Kontroll- und Anwendungsdaten getrennte Wege gehen. Hier wird die Verbindung zwischen Server und Speicher bei einem Ausfall nicht unterbrochen. Redundanz sollte dennoch auch hier grossgeschrieben werden, weil es passieren kann, dass Anwendungsdaten im Problemfall nicht mehr zugeordnet bzw. gefunden werden können.

Engere Kundenbindung

Speichervirtualisierung, da sind sich die Hersteller einig, hilft nicht nur den Endanwendern, sondern auch den Vertriebspartnern. «Die Kundenbindung wird viel enger», ist Roger Lüthy überzeugt. Der Partner liefert und installiert nicht mehr nur die Hardware, sondern wird an das «Allerheiligste», nämlich die Daten der Unternehmen herangelassen. Andreas Bechter weist auch auf die Herstellerunabhängigkeit hin, welche nicht nur die Kunden, sondern auch die Partner betrifft. Hardware wird so definitiv das Mittel zum Zweck. Ausserdem betont er die Krisenresistenz dieses Geschäftes: «Der Speicher gehört zur zentralen Infrastruktur. Hier können die Investitionen nicht aufgeschoben werden.»


Datenwachstum gehe meist einher mit einem Wachstum der Geschäftstätigkeit, sagt auch Jay Kidd. «Ich habe noch nie erlebt, dass jemand aufgrund von Speicherknappheit auf Geschäfte verzichtet.» Den Partnern würden sich durch das rasante Wachstum der Speichervirtualisierung jenseits vom Preis- und Margenzerfall im Hardware-Umfeld neue Geschäftsfelder eröffnen. «Hier sind hochwertige Services gefragt», sagt Kidd. (Markus Gross)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Was für Schuhe trug der gestiefelte Kater?
GOLD SPONSOREN
SPONSOREN & PARTNER