Aufräumarbeiten im Datendschungel

Die rasant wachsende Datenflut stellt Unternehmen vor grosse Herausforderungen. Insbesondere der zunehmende Anteil an unstrukturierten Daten macht das Einhalten von gesetzlichen Vorgaben zum Abenteuer. Lösungen, um das Wachstum zu stoppen, kann die Storage-Branche noch keine bieten. Jetzt gilt es, so gut wie möglich die Ordnung zu wahren.

Artikel erschienen in Swiss IT Reseller 2008/11

     

Storage-Hersteller haben es schön: Die Datenflut wächst und mit ihr die jährlichen Ausgaben der Unternehmen. Laut dem Marktforschungsunternehmen MSM Research investierten Schweizer Firmen im vergangenen Jahr rund 1,15 Mrd. Franken in Services, Management Software und Hardware rund um Speicherlösungen. Für 2008 rechnet MSM bereits mit 1,26 Mrd. Franken und für 2009 gar mit 1,36 Mrd. Franken. In diesem Jahr entspricht das einem ordentlichen Wachstum von durchschnittlich neun Prozent.


Was die Speicheranbieter freuen mag, bereitet ihren Kunden Kopfzerbrechen: Die Datenflut wächst schier unaufhaltsam – um rund 60 Prozent pro Jahr, wie die Marktforscher von IDC zu wissen glauben. Im vergangenen Jahr soll die gesamte Datenproduktion rund 281 Billionen Gigabytes betragen haben (281 Exabytes). Über 95 Prozent dieser Daten sind unstrukturiert. In Unternehmen beträgt dieser Wert immerhin noch 80 Prozent. «Ohne ein automatisiertes Datenmanagement lässt sich dieser Flut nicht beikommen», sagt Matthias Werner, Member of the Board der Branchenorganisation Snia Europe (Storage Networking Industry Association), gegenüber IT Reseller. Die Non-Profit-Organisation kümmert sich neben der Sicherstellung eines Dialogs zwischen Hersteller und Anwender auch um branchenweit verbindliche Industriestandards, welche die Kompatibilität der Soft- und Hardware-Lösungen verschiedenster Anbieter sicherstellen sollen.

Druck auf Firmen nimmt langsam zu

«Der Leidensdruck ist einfach noch zu klein», stellt Werner fest. Solange die Speicherpreise weiter sinken, ist es für Unternehmen am günstigsten, einfach alles aufzubewahren, anstatt die Daten effizient zu verwalten. Nicht zuletzt deshalb stieg die Kapazität der im vierten Quartal 2007 weltweit ausgelieferten Disk-Storage-Systeme auf 1,65 Petabytes, 56,3 Prozent mehr als noch im Vorjahreszeitraum. Bezeichnenderweise wuchs der Umsatz im selben Zeitraum um lediglich 7,6 Prozent auf 7,5 Mrd. Dollar. Dieser Trend wird sich laut IDC weiter akzentuieren: Bezahlte man 2006 noch rund 7,8 Dollar je Gigabyte Speicherkapazität, soll dieser Wert bis 2011 auf gerade noch einen Dollar sinken.

Mit der aktuell im Trend liegenden Massenspeicherung von Daten wird das Problem lediglich vertagt, jedoch nicht gelöst. «Die aktuelle Situation kann man mit einem Lager voller Konservendosen ohne Etiketten vergleichen», macht Werner das Problem deutlich: «Um zu wissen, was drin ist, muss man jede einzelne Dose öffnen.» Das daraus resultierende Problem liegt auf der Hand: Das Gesetz schreibt vor, gewisse Daten während mehrerer Jahre aufzubewahren und diese «innert nützlicher Frist» offenlegen zu können. Was heisst das konkret? Innert zwei Monaten, Wochen, Tagen? «Diese Interpretierbarkeit der regulatorischen Vorschriften sorgt bei den Unternehmen für grosse Unsicherheit», hält Robert Wigger, Storage-Verantwortlicher bei HP Schweiz, fest. Kommt hinzu, dass die Zahl der Regulierungen weiter anwächst, und zwar auf kantonaler, nationaler und internationaler Ebene. Während multinatio­nale Konzerne längst damit konfrontiert sind, stehen die zunehmend grenzübergreifend aktiven KMU noch am Anfang ihrer Bemühungen.


Folglich haben auch kleinere Unternehmen das Bedürfnis, ihre Daten aktiv zu verwalten und im Bedarfsfall schnell wieder zu finden. Dementsprechend zeigt auch der Verkauf von Neulizenzen für Daten-Management-Software in der Schweiz nach oben: Laut Schätzungen von MSM Research betrugen die Ausgaben für entsprechende Produkte 2007 rund 77 Mio. Franken. In diesem Jahr steigt dieser Wert leicht auf 81,6 Mio. Franken, im folgenden Jahr etwas kräftiger auf 86,8 Mio. Franken.

Das ganz grosse Geschäft lauert jedoch nicht im Lizenzgeschäft, sondern bei der Beratung und der Integration der entsprechenden Lösungen. Gemäss MSM steigen die Ausgaben für Services im Zusammenhang mit Datenmanagement-Produkten von 654,3 Mio. Franken 2007 sprunghaft auf 713,8 Mio. Franken 2008 und 770,4 Mio. Franken im nächsten Jahr.

Symptombekämpfung statt Heilung

Dieser Trend wird wohl weiterhin anhalten, denn die Branche betreibt momentan bestenfalls Symptombekämpfung. Deduplizierung, Virtualisierung und Information Lifecycle Management (ILM) lauten einige der Antworten der Branche. Während Virtualisierung vor allem auf eine bessere Auslastung der bestehenden Speicherressourcen abzielt und ILM den Informationsberg in aktive und passive Daten einteilt (um so das kostengünstigste Speichermedium für die jeweilige Datenkategorie zu bestimmen), schafft es die Deduplizierung, die Datenmenge erheblich zu reduzieren. «Duplikate gehören zu den signifikantesten Belastungen von Speichersystemen und sind für den Anwender ohne Nutzen», so Andreas Ulrich von EMC Schweiz: «Bei der Deduplizierung werden identische Datensegmente unabhängig von ihren Datenformaten erkannt und nur einzigartige werden gespeichert.» Das Potential ist gross. Laut IDC verursacht eine einzige E-Mail mit einem Attachement von einem Megabyte Grösse, das an vier Personen weitergeleitet wird dank Backups und redundanten Systemen einen Speicherbedarf von 51,5 Megabyte. Die Auswirkungen auf das Storage-Bedürfnis von Unternehmen sind offensichtlich.


«Mit Technologien wie beispielsweise Deduplizierung und Virtualisierung lässt sich das Wachstum bestenfalls verlangsamen aber nicht stoppen», räumt Robert Wigger von HP ein. Um trotz anhaltendem Wachstum die Herrschaft über die Datenberge zu wahren, müssen Unternehmen strikte Management- und Compliance-Regeln festlegen und durchsetzen. «Am Ende gilt es aber dort ansetzen, wo die Daten produziert werden.»
Das wird auch bei IBM so gesehen. «IBM verfolgt den Ansatz, das Wachstum bereits an der Datenquelle zu stoppen, also beim Anwender, im Betriebssystem oder im E-Mail-System», so Susan Orozco, Mediensprecherin bei IBM Schweiz. Allerdings, ergänzt Werner, könne man sich dabei nicht auf die Anwender verlassen. Um zu gewährleisten, dass die Daten richtig abgelegt und klassifiziert werden, müssten die Arbeitsschritte weitestgehend automatisiert werden. «Und dazu braucht es branchenweit gültige Standards», so Werner.

Standardisierung der Metadaten

Insbesondere die Langzeitarchivierung von Daten verlangt nach einer funktionierenden Interoperabilität zwischen verschiedenen Speichersys­temen und Applikationen. «Im Hardware-Bereich ist die Standardisierung mittlerweile soweit vorangeschritten, dass Anwender und Systemintegratoren mit der Situation leben können», sagt Werner. Deshalb habe sich der Fokus von Snia in den letzten drei Jahren weg vom Storage- und Daten-Management hin zum Thema Information-Management bewegt.

«Viele Firmen bevorzugen heute heterogene Infrastrukturen, um eine jeweils für ihre Umgebung optimale Lösung einsetzen zu können und nicht von einem einzigen Anbieter abhängig zu werden», so Werner. Vor rund acht Jahren rief die Snia deshalb zunächst die SMI-S (Storage ­Management Initiative Specification) ins Leben. Dabei handelt es sich um eine Standard-Basis für Management-Umgebungen von Storage Area Networks (SAN). Heterogene SAN-Landschaften lassen sich dank standardisierten Schnittstellen einfacher implementieren und in eine gemeinsame Management-Umgebung einbinden.


Die nun von der Snia entwickelte Schnittstelle XAM (Extensible Access Method) für Applikationen und Archivierungslösungen soll Storage-Bausteine verschiedener Hersteller problemlos zusammenarbeiten lassen. «Insbesondere die schnell wachsende Menge an unstrukturierten Daten stellt die Kunden vor grosse Probleme», so Werner. Im Rahmen der XAM-Initiative soll es den Unternehmen nun ermöglicht werden, diese Daten mittels eines standardisierten Metadatensystems zu «etikettieren». Der erste Release des Standards und der von Snia gratis zur Verfügung gestellten Software wird in diesem Sommer erwartet.

Die Probleme, welche die immer neuen Werkzeuge zur Erstellung von Daten verursachen, sind damit natürlich noch längst nicht gelöst. Bis es so weit ist, gilt es die Dämme zu erhöhen und zu hoffen, dass sie der steigenden Flut standhalten können.
www.snia-europe.org (Markus Gross)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER