Wie AWS KI in die Unternehmenspraxis übersetzen will
Quelle: AWS

Wie AWS KI in die Unternehmenspraxis übersetzen will

AWS investiert massiv in die Themen KI und Generative KI. Die Technologie soll die ­Business-Welt ­komplett umkrempeln – noch steht der Markt aber ganz am Anfang. Das schafft ­Potenzial für Partner, vor allem in Kombination mit der Public Cloud.

Artikel erschienen in Swiss IT Reseller 2023/11

     

Der Schweizer Markt hat für AWS eine zentrale Bedeutung, wie der Hyperscaler am AWS Cloud Day 2023 Ende September in Zürich abermals vehement bekräftigte. Christian Keller, seit März 2023 General Manager Switzerland & Austria, untermauerte dieses Bekenntnis zugleich mit passenden Zahlen: 5,9 Milliarden Franken an Investitionen sollen bis 2036 in die Schweiz fliessen, um neue lokale Rechenzentren zu bauen, diese zu betreiben und die Nachfrage seitens der hiesigen Kunden weiter zu befeuern. Das soll zudem direkt und indirekt Arbeitsplätze schaffen – im Schnitt 2500 neue Stellen bei Drittanbietern pro Jahr – und das Bruttoinland­produkt der Schweiz gar um satte 16,3 Milliarden Franken steigern. Auf diesem Wachstumskurs steht fraglos allem voran die Public-Cloud-Transformation bestehender und neuer Kunden des weltgrössten Cloud Providers im Fokus. AWS liess auf der Veranstaltung aber kaum Zweifel, was aus technologischer Sicht gleich an zweiter Stelle folgt: Künstliche Intelligenz beziehungsweise Generative KI waren die bestimmenden Themen des Tages und in verschiedenster Form omnipräsent.

«Künstliche Intelligenz wird jede Branche verändern», versicherte auch Archana Vemulapalli, Director of Product Management and Global Strategy for Data, Analytics and AI & ML bei AWS, in ihrer Keynote. Um dieses Potenzial zu nutzen, benötige es laut Vemulapalli vor allem starke Foundation Models (FMs) beziehungsweise Basismodelle. Diese Modelle liefern Unternehmen ein KI-Grundgerüst, um darauf aufbauend eigene Modelle und Anwendungen entwickeln zu können. Hier kommt Amazons jüngst gestarteter Fully Managed Service Bedrock ins Spiel. Das AI-as-a-Service-Angebot erlaubt es, eigene Applikationen auf Basis Generativer KI mithilfe von verschiedenen Foundation Models entwickeln zu können, ohne eine entsprechende Infrastruktur aufbauen, betreiben oder verwalten zu müssen. Die verschiedenen FMs von Start-ups und Amazon selbst lassen sich dann über unternehmenseigene Daten weiter individualisieren. Laut AWS bleiben diese Daten stets verschlüsselt, im Account des Kunden und sie werden nicht für das Training des jeweiligen Foundation Models genutzt.


Im KI-Portfolio führt AWS seit ­einigen Monaten zudem das KI-Tool Codewhis­perer. Der Anbieter hat den «KI-Coding-Begleiter» mit Milliarden von Codezeilen trainiert und ihn so befähigt, auf Grundlage von Kommentaren oder bereits vorhandenem Code eigene Vorschläge zu generieren. Das soll die Software-Entwicklung deutlich beschleunigen, AWS spricht von einem bis zu 57 Prozent schnelleren Prozess. Das Tool prüft vorhandenen Code zudem auf Sicherheitslücken und potenzielle Fehler.

Investitionen auf drei Ebenen

«Wir wollen es Kunden so einfach wie möglich machen, Gen AI zu konsumieren und in die eigenen Applikationen einzubinden», führt Christoph Schnidrig, Head of Technology bei AWS, im Gespräch mit «Swiss IT Reseller» die Strategie des US-Konzerns über die Services hinaus näher aus. Grundsätzlich investiere der Anbieter im KI-Bereich auf drei Ebenen. Zum einen bietet AWS Unternehmen die passende Infrastruktur, unter anderem GPUs, Cluster und Instanzen, um eigene Machine-Learning (ML)-Umgebungen aufzubauen und zu betreiben. Die zweite Ebene ziele laut Schnidrig auf die «Demokratisierung von Machine Learning und Gen AI» ab. Für diesen Zweck stellt AWS entsprechende Tools als vollumfängliche Managed Services bereit, damit sie potenziell jedes Unternehmen hürdenlos nutzen kann, ohne sich vorab mit der infrastrukturellen Basis auseinandersetzen zu müssen. Dazu zählt auf der ML-Seite beispielsweise Amazon Sagemaker, auf der Gen-AI-Seite der erwähnte Dienst Bedrock. Die dritte Ebene bilden zudem fertige KI-Anwendungen wie Codewhisperer, die direkt in die Kundenumgebung implementiert und eingesetzt werden können. «AI und Gen AI werden auf kurz oder lang in jeder Applikation eine Rolle spielen», ist der Head of Technology überzeugt.

Use Cases identifizieren

Vorab muss es aber darum gehen, diese Werkzeuge und das Potenzial der KI von der Theorie in die individuelle Unternehmenspraxis zu übersetzen, geeignete Use Cases zu identifizieren und die Lösungen in die Systemlandschaft zu implementieren. Denn trotz des öffentlichen Hypes hadern viele Betriebe noch damit, ob und wie sie die Technologie einsetzen sollen und können. «Natürlich fragen alle: Was habt ihr für Use Cases?» Viele greifbare Beispiele gibt es laut Schnidrig aber schon heute, er führt unter anderem den IT-Helpdesk an. Hier würden in grossen Organisationen täglich Tausende Anfragen und Problemmeldungen von Mitarbeitenden und Kunden auflaufen, während parallel doch bereits eine umfassende Knowledge Base existiere. Auf dieser Datenbasis könnte die KI dann automatisiert Problemlösungen definieren und passende Antworten auf die Anfragen generieren. Spannend sind zudem die automatische Generierung von Produktbeschreibungen beispielsweise mit Fokus auf individuelle Kundenmehrwerte, die Erstellung von Texten, Bildern und Videos im Medienumfeld oder die Zusammenführung von Unternehmensinformationen über natürliche Sprache im Rahmen von Chat-Tools. Das Spektrum ist enorm, die Möglichkeiten vielschichtig.


Wo und wie die KI-Lösungen aber letztlich zum Einsatz kommen, das liegt stets in den Händen der Unternehmen selbst. AWS kann bei der Findung lediglich unterstützen. Wichtig sei es laut Schnidrig, konkrete Problemstellungen zu verstehen und darauf aufbauend passende Szenarien zu entwickeln. Denn der Einsatz von KI mache nur Sinn, wenn sie auch ganz konkrete Mehrwerte schaffe. Unternehmensgrösse und -ausrichtung sollen hingegen keine Rolle spielen. Die Technologie sei grundsätzlich für alle Organisationen relevant, erklärt der AWS-Manager. Lediglich die jeweilige Schnelligkeit bei der Einführung kann sich unterscheiden. So haben Unternehmen mit eigenen Entwicklern Vorteile bei der raschen Umsetzung, alle anderen Unternehmen will AWS jedoch mit entsprechenden Werkzeugen und Diensten unterstützen, um fehlende Ressourcen gegebenenfalls auszugleichen. An diesem Punkt kommen auch die Partner des Hyperscalers ins Spiel. Sie sollen Gen-AI-Anwendungen für ihre Kunden bauen und die Entwicklungsleistung erbringen, können aber als ISV auch selbst die Dienste nutzen, um auf dieser Basis eine entsprechende SaaS-Lösung zu konzipieren.

In einer sehr frühen Phase

Von einem Massenmarkt kann aktuell aber nicht die Rede sein. «Obwohl der Hype um Gen AI riesig ist, befinden wir uns noch in einer sehr frühen Phase». Das lasse sich auch an den aktuellen Diskussionen rund um Security, um das potenzielle Bias der Modelle oder auch um mögliche Regulierungen ablesen, erklärt Schnidrig. «Ich kann noch nicht sagen, dass bereits Tausende SMBs die Technologie nutzen. Aber sehr viele sind am Experimentieren, es ist das Thema Nummer eins bei zahlreichen unserer Bestandskunden.» Und die Entwicklung kann sehr schnell gehen. Entsprechende Lösungen lassen sich laut dem AWS-Manager in kürzester Zeit entwickeln und in die Praxis tragen. Und er ist überzeugt, dass Gen AI das Business in gleichem Masse beeinflussen wird wie die Einführung des Internets. «Das wird nicht nur unser Geschäftsleben, sondern auch unser Privatleben komplett auf den Kopf stellen.» Von diesem gewaltigen Potenzial sei der Markt gar überrascht worden. Zwar arbeite man schon lange an entsprechenden Modellen, niemand habe aber erwartet, wie gut diese bereits funktionieren würden. Und das hat letztlich den jetzigen Hype ausgelöst.

Vor diesem Hintergrund empfiehlt der Head of Technology AWS-Partnern, zusammen mit ihren Kunden in den Austausch zu gehen, gemeinsam konkrete Use Cases zu identifizieren und anschliessend erste Projekte umzusetzen. Einige Partner sollen in diesem Bereich relativ weit vorangeschritten sein. Dabei handelt es sich aber meist um IT-Unternehmen, die sich schon zuvor intensiv mit der Thematik Machine Learning auseinandergesetzt haben und die über entsprechende Entwicklungserfahrung verfügen – hingegen weniger um klassische IT-Dienstleister. Die von AWS bereitgestellten Managed Services sollen es aber ermöglichen, sich schnell in den Gen-AI-Bereich einzuarbeiten, auch ohne sich vorab allzu sehr mit der Grundlagenarbeit beschäftigen zu müssen.


Für die nahe Zukunft prognostiziert Schnidrig nun einen raschen technischen Fortschritt, die Lösungen sollen für die Kunden sukzessive einfacher in der Anwendung werden – aber auch eine Preissteigerung erfahren. Denn sobald sich der Massenmarkt öffnet, steigen laut dem Manager auch die Kosten. Er rechnet daher mit einer Vielzahl an kleineren Modellen, die auf Branche oder Use Case zugeschnitten sind und somit eine ganz klar eingegrenzte Leistungsanforderung haben. Fest steht dabei für den Hyperscaler wenig überraschend: Diese Entwicklung ist ohne die Public Cloud nicht denkbar. «Der Aufwand, sich das intern aufzubauen, ist so immens, und die Halbwertszeit der Technologie ist so gering. Unternehmen, die Tools aus der Cloud nutzen, werden daher immer viel schneller sein.» Daher sei das Thema Gen AI gleichzeitig auch ein mächtiges Werkzeug für Partner, um Kunden für den Weg in die Public Cloud zu begeistern. (sta)


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Welchen Beruf übte das tapfere Schneiderlein aus?
GOLD SPONSOREN
SPONSOREN & PARTNER