Wenn KI mitarbeitet
Quelle: Swico

Wenn KI mitarbeitet

Viele Unternehmen haben noch keine Richtlinien für den Einsatz von Künstlicher Intelligenz. Swico bietet Orientierung und stärkt den verantwortungsvollen Umgang mit KI.

Artikel erschienen in IT Reseller 2025/06

   

Künstliche Intelligenz hält Einzug in den Berufsalltag, doch vielerorts fehlt der Kompass. Die neue Swico-­Leitlinie zeigt, wie Unternehmen klare Rahmenbedingungen schaffen und ihre Mitarbeitenden im verantwortungsvollen Einsatz von KI-Tools befähigen.

Damit Unternehmen den vollen Nutzen aus KI-Lösungen ziehen können, müssen Mitarbeitende lernen, KI verantwortungsvoll im Arbeitsalltag einzusetzen. Laut dem Swiss AI Impact Report 2024 hat jedoch fast die Hälfte der befragten Schweizer Unternehmen noch keine klare Strategie oder Richtlinien für den KI-Einsatz. Viele wollen das ändern.

Prompt rein, Verantwortung raus

KI kann heute Texte schreiben, Bilder generieren, Stimmen imitieren und Programmiercode entwickeln. Wer etwa ein Konzept für einen Kunden-Pitch vorbereitet, lässt sich von ChatGPT bei der Gliederung unterstützen. Wer einen Produktflyer überarbeitet, nutzt DeepL oder einen anderen Übersetzer, um sprachlich zu feilen. Solche Anwendungen werden in der Leitlinie als sinnvoll eingestuft. Das, solange keine sensiblen Daten verarbeitet werden.

In der Praxis heisst das, wer eine interne Präsentation mit Kundennamen, Preisen oder Marktprognosen in ein KI-Tool eingibt, riskiert einen Verstoss gegen das Geschäftsgeheimnis. Gleiches gilt bei ­Bewerbungsunterlagen, Arbeitszeugnissen oder Personaldossiers. Selbst dann, wenn die Namen abgekürzt sind. Denn oft reichen Informationen zu Position und Zeitraum im Unternehmen bereits aus, um Rückschlüsse auf eine Person zuzulassen.


Swico macht klar, dass es keine automatische Entlastung durch die Maschine gibt. Wer ein Ergebnis verwendet, trägt auch Verantwortung. Das beginnt beim Prompt. Je präziser und strukturierter die Eingabe, desto besser das Resultat. Doch auch bei guter Vorbereitung bleiben Risiken. Etwa fehlerhafte Fakten, diskriminierende Formulierungen oder unpassende Tonalitäten.

Ein Beispiel: Ein Team will ein inklusives Stelleninserat schreiben und bittet ein KI-Tool um Vorschläge. Das Resultat wirkt zunächst korrekt, bis auffällt, dass gewisse Formulierungen stereotype Bilder bedienen oder bestimmte Gruppen ausschliessen. Die Verantwortung für die Korrektur liegt nicht bei der KI, sondern bei den Nutzenden.

Die neue Unsichtbarkeit

Besondere Umsicht ist bei visuellen Medien geboten. So sollte beispielsweise die Erstellung eines Bildes mit Midjourney gekennzeichnet werden. Wer ein fotorealistisches Porträt ohne Hinweis veröffentlicht, verletzt möglicherweise die Pflicht zur Transparenz. Noch kritischer ist der Einsatz bei Personenbildern. Selbst wenn das Gesicht einer realen Person nur leicht ­verändert wird, kann dies Persönlichkeitsrechte verletzen. Besonders, wenn es ohne Zustimmung geschieht. Ein weiteres Beispiel: Eine interne Schulung soll per Video erfolgen, der Text wird von einer synthetischen Stimme gesprochen. Die Leitlinie erlaubt das, empfiehlt aber eine klare Kennzeichnung wie «KI-generiertes Audio mit Eleven Labs». Was banal klingt, schafft Vertrauen und schützt vor Missverständnissen. Auch bei Videos gilt, keine Täuschung und kein Missbrauch. Die Technik macht vieles möglich, erlaubt ist längst nicht alles.


Im Bereich Programmierung ergeben sich andere, aber ebenso relevante Fragen. KI kann beim Debugging helfen, Code ergänzen oder vereinfachen. Das ist erlaubt, solange keine urheberrechtlich geschützten Codesegmente verwendet oder sensible Daten in die Eingabe integriert werden. Ein Beispiel: Ein Entwickler bittet ein Tool wie Github Copilot um eine Lösung für ein Performance-Problem. Das ist legitim. Problematisch wird es, wenn der Code aus einem proprietären Projekt stammt oder Sicherheitslücken enthält, die später unbemerkt in die Produktivumgebung wandern. Die Leitlinie empfiehlt daher, jedes KI-generierte Code-­Snippet zu überprüfen. Und das auf Qualität, Funktionalität und Konformität mit den internen Governance-Vorgaben.

Verantwortung ist nicht delegierbar

Verantwortung liegt und bleibt bei den Menschen. Das gilt auf zwei Ebenen. Mitarbeitende sind verantwortlich für ihre Eingaben und die Verwendung der Ergebnisse. Das Unternehmen wiederum trägt die Verantwortung für die systematische Umsetzung der Leitlinie. Diese beinhalten klare Rollen, technische Schutzmassnahmen und Schulungen.
Die Leitlinie ist als offenes Dokument konzipiert. Unternehmen sind angehalten, die Leitlinie als Ausgangspunkt zu nutzen und sie an ihre spezifischen Bedürfnisse, Kultur, Risiken und Branchenrealitäten anzupassen. Ergänzend dazu gibt es eine Wegleitung, die aufzeigt, wie die Leitlinie in der Praxis konkret angewendet werden kann. Beide Dokumente stehen auf der Swico-Website bereit und werden fortlaufend aktualisiert.

Der Autor

Quelle: Swico
Simon Ruesch ist Mitglied der Geschäftsleitung von Swico und vertritt in seiner Rolle als Head Legal & Public Affairs aktiv die Interessen der Schweizer Digitalbranche. Seine Erfahrungen umfassen unter anderem leitende Positionen im Public Affairs und Community Management eines globalen ICT-Beschaffers, bei der Schweizerischen Bankiervereinigung mit Fokus auf Digital-Themen sowie als politischer Mitarbeiter eines ­Mitglieds des Nationalrats. Ruesch hat einen Master in International Affairs & Governance von der Universität St. Gallen (HSG) und einen CAS in International Policy and Advocacy von der ETH Zürich.


Artikel kommentieren
Kommentare werden vor der Freischaltung durch die Redaktion geprüft.

Anti-Spam-Frage: Wie hiess im Märchen die Schwester von Hänsel?
GOLD SPONSOREN
SPONSOREN & PARTNER