Liebe KI
Pardon, natürlich heisst es in diesem Fall: liebe generative Künstliche Intelligenz. Für die einen bist du Heilsbringer, für die anderen Teufelszeug (ähnlich wie Schokolade also). Die Wahrheit dürfte in der Mitte liegen (bei Schokolade ganz bestimmt). Und wie bei allen grossen Würfen – heisst neuen Errungenschaften oder sogenannten Basisinnovationen – liegt es schliesslich an uns Menschen, was wir aus den Möglichkeiten machen und wo wir Grenzen ziehen. Der Umgang mit Chancen und Risiken, gerade was dich betrifft, ist herausfordernd. Vieles ist neu, und der Stern der Bequemlichkeit und Optimierung überstrahlt alles. Umso wichtiger ist es, dass wir uns gut um dich kümmern, mit dir auseinandersetzen und dich, ganz wichtig, proaktiv und konsequent in unsere Sicherheitsstrategie und -politik einbinden.
Unsicherheit schafft Misstrauen und Berührungsängste und verhindert, dass wir das Beste aus dir herausholen. Sicherheit hingegen steht dir gut und sorgt dafür, dass dir (mehr) Vertrauen entgegengebracht wird und dein überbordendes Temperament nicht auf Abwege gerät.
Sicherheit beginnt mit Wissen. Es liegt an uns, dich besser kennenzulernen, uns ein Grundlagenwissen über dich anzueignen und ein gemeinsames Verständnis von dir zu etablieren. Wir müssen uns mit deiner Geschichte, deinen Ausprägungen und Begrifflichkeiten bekannt machen. Wir müssen in einem ständigen Prozess verstehen und einordnen, wie du dich auf die Informationssicherheit, den Datenschutz, die IT-Sicherheit, auf Business Continuity Management-Systeme, Cybersecurity und jede andere Sicherheitsdisziplin auswirkst. Und wir müssen auf diese Auswirkungen angemessene, aber wirkungsvolle Antworten finden. Immer wieder. Und ja, einige Antworten gibt es bereits.
Dabei spreche ich gar nicht einmal von den ganz grossen Antworten. Also zum Beispiel vom EU AI Act, der unter anderem die Anwendungen von KI-Systemen in «inakzeptabel risikoreich», «hoch risikoreich» und «risikoarm» einteilt. Oder von den Leitlinien des Bundes zum Umgang mit dir. Oder davon, dass der Bundesrat bis Ende 2024 eine Auslegeordnung zu einer möglichen KI-Regulierung machen will, die sich mit grosser Wahrscheinlichkeit an den EU AI Act anlehnen wird.
Vielmehr spreche ich von den Antworten, die jedes Unternehmen im Zusammenhang mit dir in Sachen Schwerpunkte, Anwendung und Sicherheit für sich erarbeiten muss. Denn an dir führt kein Weg vorbei. Dein Potenzial ist schlicht zu gross, um dich links liegenzulassen. Gerade in der Schweiz. Das hat etwa die Studie
«Embracing the GenAI Opportunity» von PwC im März 2024 klar aufgezeigt. Sie kommt zum Schluss, dass die Schweizer Wirtschaft dank dir unter den 20 analysierten Ländern das grösste Wachstumspotenzial hat.
Was heisst das für Unternehmen aber konkret? Oder anders gefragt: Was müssen Unternehmen tun, damit du als vertrauenswürdig, zuverlässig und transparent wahrgenommen wirst? Sie müssen für klare Verantwortlichkeiten sorgen, für die nötige Transparenz im Umgang mit dir, für Informationssicherheit, Datenschutz und IT-Sicherheit. Sie müssen Risiken, die mit dir verbunden sind, verstehen und kontrollieren, Missbräuche verhindern und geistiges Eigentum (sowohl fremdes als auch eigenes) respektieren. Und: Wer sich mit dir befasst, darf den Menschen nicht aussen vor lassen. Deshalb sind Verhältnismässigkeit und Selbstbestimmung (Stichwort: menschliche Aufsicht) im Umgang mit dir so wichtig, ist die Wahrung der Rechte der Betroffenen unabdingbar und das Erklären deiner Anwendungen (Was? Warum? Wie? Auswirkungen?) essenziell. Ohne Vertrauen wird die Beziehung zu dir nämlich ziemlich schwierig. Ohne unser aktives Mitwirken übrigens auch.
In diesem Sinne auf gute und konstruktive Zusammenarbeit, liebe generative KI.
MfG Reto C. Zbinden
PS: Meine Zeilen an dich dürften dir nicht bekannt vorkommen. Ich habe sie nämlich ohne deine Hilfe geschrieben…