Risikomanagement bei der Nutzung von Künstlicher Intelligenz in Unternehmen

In den jüngsten Berichten zu Lecks innerhalb von KI-Systemen wurde aufgedeckt, dass, während die Anfragen und generierten Inhalte selbst nicht offenbart wurden, persönliche Informationen der Nutzer betroffen waren. Dazu zählen Namen, E-Mail-Adressen, Identifikationsnummern von Organisationen und Nutzern sowie ungefähre Standorte und IP-Adressen, so die Pressemitteilung.

Wichtigkeit der Cybersicherheit für Unternehmen

Darius Povilaitis, Leiter der Cybersicherheitsabteilung bei „Telia“, hebt hervor, dass diese Informationen eine bedeutende Botschaft für Unternehmen darstellen. Wenn ein Unternehmen automatisierte KI-Lösungen einsetzt, ist es wahrscheinlich, dass diese Systeme über eine API funktionieren. Die API (Application Programming Interface) fungiert dabei als Schnittstelle, die den automatischen Datenaustausch zwischen internen Systemen, wie etwa Kundenservice-Plattformen oder HR-Tools, und den Modellen von „OpenAI“ ermöglicht.

Datenspuren: Wo die Risiken liegen

Nach Povilaitis haben alle Integrationen in irgendeiner Form ein Risiko. Selbst wenn die KI-Modelle sicher sind, hinterlassen die Schnittstellen zu ihnen Datenspuren, die potenzielle Sicherheitslücken darstellen, welche von Betrügern ausgenutzt werden können.

„Die Integration muss von der Unternehmensseite her klar definieren, was zugänglich ist und welche genauen Funktionsprinzipien gelten. Die Daten, die bereitgestellt werden, sollten auf das Minimum für den jeweiligen Bedarf beschränkt sein, und in Drittstaaten dürfen sie nicht gespeichert werden – sie sollen lediglich genutzt und sofort gelöscht werden. Das Unternehmen muss kontinuierlich überwachen, welche Daten an Dritte übergeben werden, wohin sie gelangen und ob sie missbraucht werden. All dies muss in Echtzeit geschehen“, erklärt Povilaitis.

Empfehlungen zur Risikominderung

Um Risiken zu minimieren, wird Unternehmen geraten, ihre Informationen nach Sensibilität zu kategorisieren. KI-Systeme sollten nur anonymisierte Inhalte erhalten – beispielsweise Texte ohne spezifische Details oder technischen Code. Anonymisierte Daten sind akzeptabel, doch sensitive Informationen wie persönliche Daten, Passwörter oder vertrauliche Dokumente sollten auf keinen Fall geteilt werden.

Beliebtheit von ChatGPT und der Einsatz von KI

ChatGPT und andere KI-Tools sind für viele Menschen bereits Teil des Alltags geworden. Die Entwickler von ChatGPT berichten, dass ihre Anwendung wöchentlich von 700 Millionen aktiven Nutzern verwendet wird. Aufgrund der Breite des Tools fällt es jedoch manchmal schwer zu erkennen, ob man dessen volles Potenzial ausschöpft oder ob man etwas nicht weiß.

„Die Verwendung von ChatGPT ist so umfangreich, dass man bei Treffen mit Freunden immer ein Thema zum Reden hat – Nutzt du es dafür? Ich habe es so verwendet. Hat es bei dir geklappt? Ich würde es anders fragen. Offensichtliche Vorteile bringen ChatGPT und ähnliche Chatbots vor allem denjenigen, die Programmiercode schreiben oder Text bearbeiten. Anderen, basierend auf ihrem Arbeitsbereich, bleibt oft die Suche nach Anwendungsfällen“, berichtet Lukas Keraitis, Innovationsspezialist bei „Tele2“.

Laut den Schöpfern von ChatGPT, OpenAI, nutzen die Anwender das Tool hauptsächlich für das Schreiben und Bearbeiten von Texten und Code. In dritter Stelle stehen gesundheitsbezogene Anfragen. Es ist jedoch wichtig zu beachten, dass solche Antworten bestenfalls als eine weitere Meinung betrachtet werden sollten und keinesfalls blind Vertrauen geschenkt werden darf. Eine Bewertung, wie ChatGPT häufig angewendet wird, ist kompliziert. Vor einiger Zeit erschien im Harvard Business Review ein Artikel mit dem Titel „How People are Really Using Generative AI Now“, der sich mit den 100 häufigsten Anwendungsfällen generativer KI beschäftigt und zeigt, wie sich diese im Laufe eines Jahres verändert haben.

Das Problem des Shadow AI in der Praxis

Der Vorfall hat auch auf das Problem von „Shadow AI“ hingewiesen, bei dem Mitarbeiter KI-Tools eigenständig verwenden. In dem Bericht zur Cybersicherheit von „Cisco“ aus dem Jahr 2025 wird festgestellt, dass 60 Prozent der IT-Abteilungen in Unternehmen nicht über diese Praxis informiert sind.

„Wenn Unternehmen keine sicheren, benutzerfreundlichen KI-Tools anbieten, suchen sich die Mitarbeiter selbst welche – und das nicht aus böser Absicht. Die Menschen möchten einfach schneller, besser und effizienter arbeiten. An dieser Stelle entsteht jedoch das Problem, denn gute Absichten können unbeabsichtigt Sicherheitsrisiken öffnen“, erklärt der Cybersicherheitsleiter.

Maßnahmen für die Datensicherheit in der Zukunft

Um Daten in der Zukunft zu schützen, empfiehlt der Experte, umfassende Maßnahmen zu ergreifen. Zunächst müssen persönliche und berufliche Konten strikt getrennt werden. Unternehmen müssen ihren Mitarbeitern Zugang zu zentralisierten, sicherheitskonformen KI-Werkzeugen gewähren, und die interne Politik der Organisation sollte die Nutzung dieser Werkzeuge klar definieren.

Nutzern wird geraten, in den Einstellungen von „ChatGPT“ die Funktion zu deaktivieren, die es erlaubt, Gesprächsinformationen für das Training von Modellen zu verwenden, und in allen Konten die Zwei-Faktor-Authentifizierung (MFA) zu aktivieren.

Zusätzliche Sicherheit bieten technische Hilfsmittel, wie „Telia Safe“. Diese Anwendung schützt davor, dass persönliche Daten in die falschen Hände geraten, und warnt sofort im Falle eines Datenlecks.