Storage, Trends und Channel
Quelle: Swiss IT Reseller

Storage, Trends und Channel

In der Tafelrunde von "Swiss IT Reseller" zum Thema Storage diskutieren Serge Bourgnon von HPE, Ralf Damerau von IBM und Christoph Schnidrig von Netapp über die aktuellen Trends und die Herausforderungen für den Channel und zeigen auf, wohin die Reise in Zukunft gehen könnte.

Artikel erschienen in Swiss IT Reseller 2017/07

     

"Swiss IT Reseller": Zum Start: Was sind die neusten Trends im Storage-Bereich?
Serge Bourgnon: Der Markt ändert sich. Heute sehen sich Unternehmen einer dynamischen Marktsituation ausgesetzt. Zudem werden immer mehr Analytics-Anwendungen Teil der Geschäftsstrategie, was die Anforderung an Storage-Lösungen grundlegend verändert. Die Workloads können sich täglich ändern, deshalb muss die Infrastruktur heute deutlich flexibler sein als früher. Wir sehen momentan vor allem eine wichtige Weiterentwicklung, nämlich den Wandel von klassisch drehenden Medien hin zu All-Flash, verstärkt durch die sinkenden Kosten der All-Flash-Systeme. Wegen der höheren Performance und Effizienz wird All-Flash zu einem wichtigen Baustein der Digitalisierungsstrategie. Da immer mehr Applikationen im Einsatz sind, wird die dezentrale Datenhaltung und Verarbeitung immer wichtiger. Wo zuvor eher konvergente Blöcke aus Speicher, Netzwerk und Server standen, werden heute hyperkonvergente Systeme benötigt, die an dem Ort agieren, wo sie gerade gebraucht werden.
Auffallend ist, dass trotz der zahlreichen technischen Neuerungen viele Unternehmen weiterhin althergebrachte Technologien wie zum Beispiel Bandlaufwerke verwenden. Wie stehen sie dazu?
Serge Bourgnon: Dies beobachten wir auch. Vor allem bei grösseren Unternehmen sehen wir, dass zuerst parallel zum alten System ein neues Storage-Ökosystem aufgebaut und danach die Migration vollzogen wird. Kleinere Unternehmen sind da meist flexibler und stellen direkt zum neuen System um. Dies ist aber letztlich nicht nur eine technologische Frage, sondern vor allem eine organisatorische, bei der es darum geht zu definieren, ob und wie man seine Abteilungen umstrukturiert. Hier stehen viele Unternehmen noch am Anfang. Erst ein kleiner Teil des Workloads wird mit neuen Technologien wie Hybrid Cloud, Composable Infrastructure oder Hyper-Converged Storage aufgebaut und löst alte Systeme ab. Bei kleineren Kunden hat man eher die Flexibilität, auf der grünen Wiese zu beginnen und das neue Ökosystem aufzubauen, um danach relativ schnell zu migrieren. Bei grossen Kunden ist die Dauer einer solchen Umstellung oftmals länger.
Wie sehen Sie diese Situation bei Netapp?
Christoph Schnidrig: Wir betrachten die Sache eher aus der Sicht eines Deployment-Modells. Wir schauen, welche Applikationen im Data Center eines Kunden laufen. Aufgrund dessen wird definiert, wie dieser die IT-Infrastruktur konsumieren will. Es gibt hier die Möglichkeit, dass er entweder On Premise arbeitet oder Dienstleistungen aus der Cloud bezieht, jeweils mit oder ohne lokale Partner. Und ja, es gibt zwei parallele Welten im Storage-Bereich, die althergebrachten Technologien und die neuen, die zum Beispiel auf Container-Plattformen aufgebaut werden. Als Storage-Hersteller muss man sich dann natürlich überlegen, wie man dem Kunden helfen kann, die anfallenden Daten zu bewirtschaften. Wir glauben, dass der Fokus weg von Hardware und Software geht und hin zu den Daten. Die Frage ist dann, wie man diese schützen, aber auch transportieren kann, zum Beispiel von einem Data Center in die Cloud und auch wieder zurück. Diese Themen sind oftmals auch mit Ängsten verbunden. So hört man beispielsweise von Kunden, die ihre Daten in die Cloud verschoben haben, und diese nach einer Kostenexplosion wieder zurück transferieren wollten und dies nicht konnten. Hier ist unsere Strategie, dass wir einen rechenzentrenübergreifenden Data Management Layer einsetzen. Die Lösungen in unserem Portfolio kommunizieren miteinander. So können beispielsweise in kurzer Zeit virtuelle Netapp-Systeme bei Amazon oder Azure hochgefahren werden. Man kann dann Daten im grossen Stil dahin transferieren, aber auch wieder zurück.
Die Sicht der Analysten auf den Markt widerspiegelt weitgehend unsere eigene. So sind etwa fünf Prozent der Infrastrukturen Hyper-Converged. Und das ist ein grosser Hype. Betrachtet man den Gartner Hype Cycle, dann finden sich zuoberst die drei Themen Hyper-Converged, Open Source und Software Defined. Diese Technologien müssen sich aber erst noch beweisen respektive man erfährt jetzt, was damit eben nicht möglich ist. Was All-Flash Storage angeht, so gehe ich mit Herrn Bourgnon einig. Die Technologie ist im Massenmarkt angekommen. Wobei die Analysten dazu sagen, dass bis 2020 rund 50 Prozent der Tier-1-Workloads von All-Flash Storage bewältigt werden. Das heisst, dass viele Unternehmen noch immer Disks oder hybride Konfigurationen einsetzen. Zwei Drittel des Marktes werden ausserdem nach wie vor von massgeschneiderten Lösungen dominiert. Das heisst, dass der Kunde ein Stück Storage kauft und daneben noch Netzwerk- und Computer-Komponenten. Dieser Bereich wächst allerdings nicht weiter, im Gegensatz zu Converged- und Hyper-Converged-Infrastrukturen. Diese sind einfacher aufzubauen, auch für die Partner.
Sind solche Infrastrukturen denn auch kostengünstiger?
Christoph Schnidrig: Nicht zwingend, deshalb gibt es auch noch diesen grossen Brocken an massgeschneiderten Lösungen. Dafür sind unter anderem die Investitionszyklen verantwortlich. So betreibt man zum Beispiel ein Netzwerk rund sieben Jahre lang, die Recheneinheiten wechselt man vielleicht alle vier Jahre aus und den Storage etwa alle fünf Jahre. Das ist in einer Hyper-Converged-Infrastruktur nicht mehr möglich, zumindest mit den Systemen, die heute auf dem Markt sind. Ich würde deshalb unterscheiden, was wirklich als Trend betrachtet werden kann. Ganz klar gehören All-Flash dazu sowie die Anbindung über IP. Ausserdem sind einfachere Produkte und Dienstleistungen gefragt. Die Kunden wollen ihre Infrastruktur auf möglichst einfache Weise einrichten, nutzen und bewirtschaften können oder gar nichts damit zu tun haben und das Ganze als Managed Services beziehen. Sie wollen sich nicht mehr darum kümmern müssen, welche Technologie dahinter steckt.
Demgegenüber stehen die zuvor angesprochenen Hypes. Software Defined Storage ist so einer. Dieses Konzept versteht man im Allgemeinen noch nicht so ganz, genauso wie damals die Cloud. Wo sich die Geister scheiden ist, ob es sich um eine reine Software handelt, die auf jeglicher Hardware eingesetzt werden kann. So gibt es Kunden, die damit zu kämpfen haben, dass sie nun den gesamten Stack selber betreuen müssen. Es hat sich dabei herausgestellt, dass sich dieses Konzept nicht durchsetzen wird. Open Source ist auch so ein Thema. Das finden wir gut und setzen selbst Open-Source-Lösungen ein respektive tragen auch zur Weiterentwicklung bei. Letztlich kommt es aber auf das Package an. Es muss auf Enterpreise-Ebene zur Verfügung gestellt werden können, mit den entsprechenden Services, und zwar als fertiges Produkt, das einfach zu handhaben ist, also weg vom Do-it-yourself-Storage.
Herr Damerau, welche Position nimmt IBM in Bezug auf die aktuellen Trends ein?
Ralf Damerau: Ich bin in vielen Punkten mit meinen Vorrednern einverstanden, möchte aber an einigen Stellen Differenzen aufzeigen. Im Grundsatz sind die allgemeinen Trends, dass man vereinfachen, automatisieren und Kosten optimieren muss. Ich glaube, das betrifft alle Hersteller und ist bei jedem Kunden ein Thema. Was wir sehr stark merken, ist, dass das Thema Cognitive Computing anfängt, Fuss zu fassen. Das heisst, Applikationen werden mit kognitiven Komponenten ergänzt. Kunden fangen an, immer mehr Daten zu sammeln. Ein Kunde, der vor zwei Jahren im Storage-Bereich noch ein Wachstum von 25 Prozent hatte, hat jetzt beinahe deren 50, und zwar im Legacy-Bereich. Dieser wird daher vermutlich weiter wachsen, wenn auch nicht mehr so, wie in der Vergangenheit. Aber die Stossrichtung ist klar, diese geht hin zu mehr Daten und zu Data Lakes. Das, was noch vor zwei Jahren auf den Flipcharts und in Powerpoint-Präsentationen stand, wird jetzt umgesetzt. Big Data also. Wo beispielsweise bei einer Versicherung früher nur ein Schadensformular ausgefüllt wurde, kommen heute oft weitere Daten wie zum Beispiel Sprachaufnahmen, Fotos oder Videos dazu. Mit kognitiven Technologien kann man nun diese unstrukurierten Daten auswerten. Diesen Trend sehen wir deutlich, und daher haben wir vermutlich eine unterschiedliche Sichtweise auf Software Defined Storage. Wir setzen schon seit zwanzig Jahren darauf. Software Defined Storage definiert man so, dass die Intelligenz und die Funktionalität komplett unabhängig sind von der Hardware. Das heisst, dass ich mich für eine Funktionalität entscheide und dann wird die darunter liegende Hardware passend dazu bereitgestellt. Es kann unsere sein, aber auch diejenige eines Mitbewerbers. Diese Nachfrage spüren wir stark. Wir haben schon viele Lösungen im traditionellen Umfeld bereitgestellt, aber vor allem im Bereich High Performance Computing (HPC) ist das Wachstum enorm. Die Kunden wachsen teilweise so schnell, dass sie sich einfach nur um die Software kümmern wollen und dann die Hardware daran anschliessen, die zum gegebenen Zeitpunkt das beste Preis-Leistungs-Verhältnis hat.
Wie gesagt sind die Themen Data Lake und Data Ocean sehr wichtig. So zum Beispiel im Pharma-Umfeld, wo wir gerade einen Trend sehen, eigene Daten mit Daten von Partnern, wie zum Beispiel Spitälern, zusammenzubringen und zu analysieren. Dies bedingt offene Schnittstellen, aber auch Object Storage, und auch hier sehen wir eine klar steigende Nachfrage. Bei Flash Storage bin ich derselben Meinung wie meine Vorredner, die Tage der Disks sind gezählt. Wenn man sich die Roadmap der Flash-Technologie anschaut mit den grösser werdenden Kapazitäten und den kleiner werdenden Formfaktoren, dann ist klar, dass die Disk nicht mithalten kann.
Ist es nicht so, dass Cognitive Computing zwar hilft, grosse Datenmengen zu analysieren, aber dadurch gleichzeitig auch viele Daten produziert?
Ralf Damerau: Cognitive Computing produziert Daten, aber es schafft auch neue Bedürfnisse. Vor kurzem sagte eine Bank, man würde sich überlegen, alte Daten, die auf Tapes archiviert wurden, wieder hervorzuholen, zum Beispiel in einen Object Storage, um sie im Nachhinein zu analysieren. Die effektive Kapazität der Speichermedien wird immer erschwinglicher, weshalb man viel mehr Daten speichern kann, was die Nachfrage nach Analytics anfacht.
Christoph Schnidrig: Wobei es aber beim Flash Storage ein gewichtiges Problem gibt, nämlich dass der Markt die Nachfrage nicht abdecken kann. Es gibt nur wenige Hersteller und To­shiba verkauft gerade seine Chip-Sparte. Sie wären nach Samsung die nächsten gewesen, die 3D-NAND auf den Markt gebracht hätten. In 2D-NAND wird momentan nicht mehr investiert und rund 30 Prozent der Chips gehen an Apple. Samsung baut aber jetzt eine neue ­Fabrik für die Fertigung von 3D-NAND, weshalb wir davon ausgehen, dass die Lieferengpässe im kommenden Jahr abnehmen und die ­Preise nachgeben werden. Dies wiederum wird die Nachfrage ankurbeln.
Serge Bourgnon: Die Datenexplosion bereitet unseren Kunden genau so viele Probleme wie die Zunahme unstrukturierter Daten, und bei praktisch allen ist das Internet of Things ein grosses Thema. Entweder man nutzt die Daten oder man bleibt zurück. Nehmen Sie einen Kran auf einem Schiff. Die daran befestigten Sensoren generieren grosse Datenmengen. Meist sind die Geräte aber ausserhalb des Firmennetzwerks und können die Infrastruktur nicht nutzen. Das bedeutet, dass die Daten vor Ort ausserhalb des Datacenters mit Edge Computing analysiert und verarbeitet werden müssen. Aufgrund der riesigen Datenmenge und dem enormen Potenzial glaube ich, dass sich Object Storage immer weiter etablieren wird.
Ralf Damerau: Spannend ist allerdings auch, dass die Nachfrage nach Tapes steigt. Dies hat auch mit der wachsenden Datenmenge zu tun. Tapes sind als Speichermedium zur Archivierung von Daten, auf die man nur sporadisch zugreifen muss, rein preislich noch immer absolut ungeschlagen.
Christoph Schnidrig: Das sehe ich nur bedingt so. Als Medium ist Tape unschlagbar günstig. Rechnet man aber die Kosten der Gesamtlösung mit Software, Hardware, Medium und Management, dann lohnt sich eine solche Lösung in vielen Fällen nicht mehr. Deshalb wechseln viele unserer Kunden mittlerweile zu Object Storage.
Wir haben nun die Trends analysiert. Verändern diese die Zusammenarbeit mit den Partnern oder die Arbeit der Partner selbst?
Ralf Damerau: Ich habe den Eindruck, dass in diesem Bereich bereits viel geschehen ist. Wenn ich mit meinen Business-Partnern spreche, dann haben die meisten schon vor Jahren angefangen, in ihr eigenes Cloud-Angebot zu investieren, und sichern sich hierdurch nun immer mehr kleinere Kunden. Das meiste Potential sehe ich dort, wo On Premise operiert wird, aber dennoch eine gewisse Flexibilität vorhanden sein muss, wo man Teile in die Cloud geben möchte oder Cloud Services braucht, aber von Anbietern, die Daten in der Schweiz halten.
Serge Bourgnon: Wie vorhin beschrieben, wird der Storage-Markt noch von klassischen Lösungen dominiert. Die simple und sichere Datenverschiebung ist eine Hauptanforderung an moderne Speichersysteme und unsere Kunden müssen sich immer stärker am Business orientieren. Für unsere Partner bedeutet dies vor allem, dass sie ihre Kunden kennen und vor allem verstehen müssen. Zudem müssen sie mit den Trends gehen und sich Innovationen aneignen. Nur so können sie ihre Produkte und Services dementsprechend weiter entwickeln und diese letztlich in eine Infrastruktur oder eine Lösung übersetzen, welche die Kunden optimal unterstützt.
Ralf Damerau: Wir sehen auch, dass traditionelle Infrastruktur-Partner damit beginnen, sich in neuen Technologien wie zum Beispiel den Cognitive Services ausbilden zu lassen, um damit ihre Leistungen zu ergänzen und beispielsweise Produkte und Services im Bereich des Internet of Things oder Analytics anbieten zu können und damit einen Mehrwert zu erzeugen.
Christoph Schnidrig: Das sehe ich auch so. Bei den traditionellen Infrastrukturen geht es sicher darum, diese zu modernisieren. Hierfür muss der Channel-Partner das nötige Know-how haben, wobei viel davon aber organisch im System mitgewachsen ist, so wie zum Beispiel Flash. Andererseits sind oft die Kunden noch nicht soweit. Wenn ich mit CTOs oder IT-Leitern spreche, bin ich manchmal überrascht. Ich erwarte dann eine Diskussion über Hybrid Cloud und darüber, wie man die Daten dahin transferiert, und am Schluss diskutiert man über das Backup eines alten Systems, das fest im Unternehmen verankert und deshalb für das Tagesgeschäft von zentraler Wichtigkeit ist. Für die Partner heisst das dennoch, dass sie sich laufend neue Fertigkeiten aneignen müssen. Bei den neuen Angeboten sehen wir, dass vor allem Container-Umgebungen gefragt sind.
Ein anderer wichtiger Bereich für die Partner ist das Consulting. Hier zählt die Erfahrung, um zu wissen, was bei den Kunden funktioniert und was nicht. Die Schweiz ist ein KMU-Land, und während grosse Kunden sich mit Themen wie Object Storage auseinandersetzen, geht es bei kleineren Unternehmen eher um Flexibilität. Unsere Strategie ist, die Daten dahin zu bewegen, wo sie jeweils gebraucht werden, entweder von einem Data Center in die Cloud und wieder zurück oder aber im Sinn von Backup as a Service in Zusammenarbeit mit einem lokalen Partner.
Serge Bourgnon: Eine wichtige Entwicklung ist sicherlich auch, dass sich viele Partner von reinen Integratoren zu Service Brokern weiterentwickelt haben. Sie haben viele kleine Kunden, die auf einer Infrastruktur laufen. Das macht dann Konzepte wie beispielsweise Object Storage wieder interessant. Diese rechnen sich normalerweise für einzelne kleine Kunden nicht, machen aber im Verbund durchaus Sinn. Hier kann der Service Provider sein Angebot laufend verbessern, die Preise senken und seine Marge maximieren.
Sie sind sich also alle einig, dass der Channel fit ist und mitgewachsen ist mit den technischen Entwicklungen der letzten Jahre?
Ralf Damerau: Die wichtigen Partner haben diesen Schritt gemacht, ja.
Serge Bourgnon: Dem pflichte ich bei.
Christoph Schnidrig: Wenn Partner den Kunden gewisse Technologien nicht anbieten können, dann verlieren sie Projekte, das ist relativ einfach. Es ist schon so, dass die Zeit drängt. Wir unterstützen aber unsere Partner auf dem Weg in die neue Storage-Welt und bilden sie aus.
Die meisten heute besprochenen Themen und Technologien sind ja nicht neu, diese gibt es schon seit Jahren. Ist es tatsächlich so, dass der Zeitfaktor jetzt stärker zum Tragen kommt?
Serge Bourgnon: Der Zeitfaktor ist heutzutage sicherlich kritischer. Ich denke, dass sich der Markt momentan verschiebt. In Zusammenarbeit mit unseren Partnern haben wir drei vorrangige Ziele: Wir wollen, dass sie wachsen, dass sie profitabel sind und dadurch weiter in die Technologie investieren können. Dies kann aber nur erreicht werden, wenn unsere Partner Innovationen mittragen und übernehmen und zwar in einer kurzen Zeit. Nur so können sie die Kundenbedürfnisse von Morgen stillen.
Christoph Schnidrig: Die Vielzahl der Produkte, die heute auf dem Storage-Markt erhältlich sind, stellen für die Partner aber ein Problem dar.
Ralf Damerau: Ich glaube, es hängt von der Grösse der Partner ab. Kleinere Partner und Kunden wollen oftmals gar nicht alle Produkte, weil sie schlichtweg keinen Bedarf dafür haben. Aber wenn der Partner oder der Kunde eine gewisse Grösse hat, kann ein breiteres Portfolio durchaus Sinn machen, um mehrere Lösungen für unterschiedliche Bedürfnisse zu haben. Zum Beispiel dann, wenn es um die Latenz geht. So betrifft dies ein kleines Unternehmen vielleicht weniger, das dafür auf ein Standard-Produkt zurückgreifen kann, aber eine grosse Firma, die im grossen Stil Analytics mit riesigen Datenmengen betreibt, ist auf eine möglichst geringe Latenz der Verbindungen angewiesen.
Serge Bourgnon: Wenn wir über Themen sprechen, die schon seit Jahren thematisiert werden, dann ist sicherlich Big Data ein solches. Ich habe einige Kunden gesehen, die vor rund drei Jahren plötzlich gesagt haben, dass sie an Big Data interessiert sind. Kurz darauf haben sie einfach angefangen, Daten zu sammeln, ohne dabei zu wissen, was sie dereinst damit anstellen wollen. Heute werden diese analysiert und genutzt, um Entscheidungen zu treffen und einen Business Value zu generieren.
Ralf Damerau: Auch Hadoop war noch vor wenigen Jahren nur ein Schlagwort, und heute werden bereits Lösungen implementiert oder stehen in der Pipeline. Dies ist der Punkt, an dem Business-Partner beginnen müssen, sich zu öffnen und sich auf die neuen Technologien einzulassen und zu konzentrieren, denn auch ­ihre bestehenden Kunden werden eine immer grössere Nachfrage nach mehr Dienstleistungen rund um die Auswertung von Daten haben.
Müssen die Channel-Partner das Know-how für diesen technologischen Shift selber aufbauen beziehungsweise welche Rolle spielen die Hersteller darin?
Serge Bourgnon: Das ist ein Mix. Auf der einen Seite können die Hersteller die Entwicklung und Innovationen über die Partnerprogramme und die Zertifizierungen steuern und vorantreiben. Auf der anderen Seite steht der Partner natürlich auch selbst in der Verantwortung und sollte ein Interesse daran haben, sich dahin zu bewegen, wo seine Kunden und damit auch der Markt hingehen. Im Storage-­Markt bewegen wir uns in der Schweiz in einem relativ stabilen Umfeld, was den Umsatz angeht. Dieser wächst nicht mehr so rasant. Dies bedeutet für alle Beteiligten automatisch, dass durch die Konkurrenz die Margen kleiner werden und man sich deshalb schnellstmöglich an die technologischen Entwicklungen anpassen muss.
Ralf Damerau: Ein Business-Partner muss am Ende des Monats die Löhne zahlen, und zwar aus der Marge, die er erwirtschaftet hat und die auf der Bank liegt. Das führt dazu, dass die Partner Business suchen, das sich schnell umsetzen lässt und idealerweise wenig Aufwand verursacht. Das müssen wir akzeptieren. Auch, dass sie unter Umständen nicht in die allerneusten Technologien investieren wollen, weil es sein kann, dass deren Wichtigkeit bereits wieder abflacht, wenn sie darauf aufmerksam werden. Die Partner sind darauf angewiesen zu wissen, wohin die Reise geht. Es ist nicht mehr so, dass ein Business-Partner für einen Hersteller den Markt aufbaut, sondern umgekehrt. Der Hersteller muss den Markt aufbauen und die Partner an Bord holen.
Serge Bourgnon: Mit dieser Aussage bin ich nur bedingt einverstanden. Natürlich muss ein Partner profitabel sein und sucht daher auch kurzfristige Abschlüsse. Es ist aber vor allem auch der Service, den ein Partner nach dem Abschluss für seine Kunden erbringt, welcher zu einem grossen Teil zu seiner Gesamtmarge beiträgt. Wir als Hersteller hätten es sicher gern, dass sich unsere Partner nur auf unsere Technologie fokussieren, aber die ­Realität ist, dass die meisten Mitarbeiter unserer Partner nicht Verkäufer sind, sondern Ingenieure, die mit Beratungsleistungen und den dazugehörigen Services zu einem wesentlichen Teil des Umsatzes beitragen.
Christoph Schnidrig: Der Teufel liegt im Detail. Am Ende des Tages geht es darum, wie die Lösungen effektiv aussehen. Hat man nur eine Software als Upper Layer, die das ganze System verwaltet, und die ist überall die gleiche, dann ist man am Markt sehr vergleichbar. Oder aber man hat eine Lösung, die mehr zu bieten hat. Ich spreche hier den Bereich Hybrid Cloud an, in dem es eine klare Strategie braucht. Verständlicherweise passen sich die Marketingabteilungen der verschiedenen Hersteller den aktuellen Hype-Themen an und klingen dann oftmals sehr ähnlich, obwohl sich die Lösungen in der Praxis erheblich unterscheiden. Einverstanden bin ich damit, dass As-a-Service-Lösungen gefragt sind beziehungsweise der Managed-Markt wächst. Hier positionieren wir uns so, dass wir die Partner unterstützen und explizit nicht mit ihnen in Konkurrenz treten. (luc)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Aus welcher Stadt stammten die Bremer Stadtmusikanten?
GOLD SPONSOREN
SPONSOREN & PARTNER