
Cyber Security Gefahren
Warum alltägliche Prompting-Fehler Ihre Unternehmensdaten gefährden
Welche Mitarbeitenden haben noch nie KI am Arbeitsplatz verwendet? Vielleicht will man die E-Mail an einen Kunden überprüfen oder beim Verfassen eines Kostenvoranschlags Zeit sparen. KI-Tools tragen sicher zu mehr Produktivität und Effizienz der Belegschaft bei. Was bei ihrem Einsatz jedoch schnell vergessen wird, ist, dass KI-Prompts oft vertrauliche Elemente enthalten, die Datenschutzverstöße und Datenlecks zufolge haben können.

Der vorliegende Artikel zeigt, warum alltägliche Prompting-Fehler Sicherheitslücken darstellen, und welche Schritte Sie ergreifen können, um einen sicheren Umgang mit KI in Ihrem Unternehmen zu gewährleisten.
Kurz zurück zu den Basics: Was ist Prompting eigentlich?
Prompts sind Fragen oder Anweisungen, die in ein generatives KI-Tool eingegeben werden. Wenn Sie von ChatGPT beispielsweise verlangen, einen Bericht zusammenzufassen oder eine E-Mail zu schreiben, dann ist das ein Prompt. Die meisten Prompts enthalten in der Regel Informationen oder Daten.
Das Verfassen wirksamer Prompts ist eine Kompetenz, die als Prompt-Engineering bezeichnet wird. Ein guter Prompt ist klar und spezifisch, gibt Kontext und erteilt dem KI-Tool eine präzise Aufgabe. Anstatt also eine Anweisung wie „Schreibe über unser Projekt“ zu erteilen, könnte ein wirksamer Prompt so aussehen: „Fasse das interne Projektmeeting in zwei Absätzen zusammen.“
Achtung: Selbst durchdachte Prompts können vertrauliche Informationen erhalten.
Die versteckten Risiken des täglichen KI-Gebrauchs
Mitarbeitende kopieren Unternehmensdaten aus Bequemlichkeit in KI-Tools, was zu blinden Flecken im System führt. Alarmierende 8,5% der Prompts von Arbeitnehmernenthalten sensible oder regulierte Daten, wozu Kunden-, Rechnungs- oder Anmeldedaten, Mitarbeiterdaten, wie persönliche Identifikation und Lohndaten, sowie rechtliche, finanzielle oder Sicherheitsdaten zählen.
Der routinemäßige und unkontrollierte Einsatz von KI kann zu Datenlecks führen. Die Folgen können schwerwiegend sein: Einer Studie von IBM zufolge kosten Datenlecks deutsche Unternehmen durchschnittlich 4,9 Millionen Euro pro Fall.
Große Datenlecks
Dem Bundesinstitut für Berufsbildung zufolge gaben rund 60% der Mitarbeitenden in Deutschland zu, Unternehmensdaten in KI-Tools eingegeben zu haben. Im Grunde kann jede Anweisung einen Datenabfluss zufolge haben, der von normalen DLP-Maßnahmen (Data Loss Prevention) nicht verhindert werden kann.
Der Einsatz von nicht genehmigten-KI-Tools
Viele Mitarbeitende verwenden kostenlose oder persönliche KI-Konten. Das Problem dabei ist, dass eingegebene Daten oft wiederverwendet oder zum Training der Modelle verwendet werden. Der unkontrollierte Einsatz von kostenlosen Chatbots ohne das Wissen des Unternehmens bedeutet, dass Daten gespeichert und extern verarbeitet werden können, wodurch sie sich jeglicher Kontrolle durch das Unternehmen entziehen. Im schlimmsten Fall drohen dadurch hohe Bußgelder, weil gegen die Datenschutz-Grundverordnung (DS-GV) verstoßen wurde.
Trügerisches Gefühl der Privatsphäre
Mitarbeitende nehmen oft an, dass KI-Chats privat sind und ihre Eingaben nicht gespeichert werden. Das stimmt aber nicht. Gerade kostenlose KI-Tools speichern die Eingaben, um damit die eigenen Modelle zu trainieren. Diese Daten könnten in KI-Ausgaben oder Protokollen landen.

Aufsichtsrechtliche und Prüfrisiken
Die Eingabe von persönlichen oder regulierten Daten in ein externes KI-Tool kann gegen die DSGVO oder andere Vertraulichkeitsbestimmungen verstoßen. Selbst Daten, die Mitarbeitende für anonym halten, können zu einer Identifikation führen. Wenn Daten an KI weitergegeben werden, verliert das Unternehmen den Prüfpfad, und die Daten können nicht mehr gelöscht werden.
Schulungen und Unternehmenskultur
Viele Unternehmen haben keine KI-Richtlinien. Nur 47% der Mitarbeitenden gaben in der globalen Studie der Universität Melbourne und der Unternehmensberatung KPMG an, dass sie im Umgang mit KI geschult wurden. Nur 40% der Befragten sagten, dass ihr Arbeitgeber KI-Richtlinien entwickelt habe.
Wenn Prompts zu Datenlecks beitragen
Generative KI trägt zum Datenabfluss bei. 32% der Mitarbeitenden haben bereits vertrauliche Unternehmensdaten in ein KI-Tool übertragen, 37% haben interne Unternehmensdaten über nicht genehmigte Tools geteilt, und 53% nutzen private Geräte für KI-Aufgaben am Arbeitsplatz. Das bedeutet, dass jeder unkontrollierte KI-Prompt zu Datenlecks führen kann, da traditionelle Sicherheitsfunktionen, wie E-Mail-Filter, Netzwerkmonitore und DLP-Maßnahmen, diese Tools in der Regel nicht überwachen.
Erfahren Sie, wie Sie in Ihrem Unternehmen die KI-Kompetenz verbessern und einen verantwortungsvollen Umgang mit KI fördern können. Laden Sie unseren aktuellen Bericht über KI-Kompetenz und Mitarbeiterschulung herunter und gewährleisten Sie so die sichere und rechtskonforme Anwendung von KI-Tools.
Wie lässt sich die Gefahr von Datenlecks reduzieren?
Wichtig ist, dass Prompts keine sensiblen Informationen enthalten. Prompt-Engineering bedeutet, dass KI-Prompts mit der gleichen Sorgfalt wie vertrauliche Daten behandelt werden. Benutzer sollten persönliche Informationen auslassen oder maskieren, beispielsweise, indem Kundennamen oder Zahlen mit Platzhaltern ersetzt werden (z. B. „KUNDE“). Die Anonymisierung ist eine einfache Maßnahme, mit der sich Datenlecks wirksam verhindern lassen. Ihre Mitarbeitenden sollten sich daran gewöhnen, kurz innezuhalten und jeden Prompt zu überprüfen, so wie sie es auch bei einer E-Mail vor dem Absenden tun.
Obwohl 23% der Befragten dieser Studie auf der Arbeit nicht autorisierte Tools nutzen, sollte sich der Einsatz von KI am Arbeitsplatz auf genehmigte Tools beschränken. Beispielsweise könnten sich Mitarbeitende ausschließlich in KI-Plattformen einloggen, die vom Unternehmen abgesegnet sind und keine Prompts speichern.
Wie sehen die Lösungen aus?
Gerade Deutschland hat noch viel Aufholbedarf, was einen sinnvollen und sicheren Umgang mit KI betrifft: „Nahezu zwei Drittel der deutschen Unternehmen“ werden KI-Anforderungen noch nicht gerecht. Der beste Weg, um Ihr Unternehmen vor potenziellen KI-Datenlecks zu schützen, ist ein mehrgleisiger Ansatz, der auf Mitarbeitende, Prozesse und technologische Integration abzielt:
- KI-Kompetenz: Schulen Sie Ihre Mitarbeitenden im sicheren Umgang mit KI, erklären Sie, welche Daten in Prompts nichts zu suchen haben, und zeigen Sie Ihnen, wie sich Prompts anonymisieren lassen. Hier setzen kurze Workshops, kleine Erinnerungshilfen oder Online-Module an. Wenn sie wissen, warum bestimmte Daten nicht geteilt werden dürfen, halten sich Ihre Mitarbeitenden mit viel größerer Wahrscheinlichkeit an Best Practices.
- Klare Richtlinien: Erklären Sie, welche KI-Tools erlaubt sind, und welche Daten nie in Prompts verwendet werden dürfen, beispielsweise Kundendaten, Finanzdaten oder Betriebsgeheimnisse. Verwenden Sie einfache Sprache und Beispiele aus dem Alltag, zum Beispiel: „Nie die Kreditkartennummer des Kunden in einen Chatbot kopieren“. Wenn die Regeln klar kommuniziert werden, können Teams KI selbstbewusst in einem sicheren Rahmen nutzen. Berufen Sie sich auf die Grundsätze des DSGVO, und halten Sie Ihre Mitarbeitenden dazu an, die für den jeweiligen Zweck („Zweckbindung“) nur absolut notwendige Daten („Datenminimierung“) zu verwenden.
- Sichere KI-Plattformen: Vergewissern Sie sich, dass Sie spezielle KI-Tools für Unternehmen anstatt kostenlose Chatbots nutzen. Diese Dienste ermöglichen es nämlich, die Datenspeicherung und das Trainieren der Modelle an diesen Daten zu verweigern. Indem Unternehmen kostenpflichtige oder interne Lösungen verwenden, stellen sie sicher, dass vertrauliche Daten nicht auf öffentlichen Servern landen.
- Kontrolle: Implementieren Sie DLP- und Inhaltskontrollen für KI-Interaktionen. Moderne Sicherheitstools können Text analysieren, der an Chatbots oder APIs gesendet wird, sodass Sie DLP-Regeln aufstellen können, um Eingaben mit Schlüsselbegriffen wie Kunden-IDs oder Projektnamen zu kennzeichnen. Sie können auch Echtzeitprüfungen verwenden. Wenn beispielsweise jemand einen riskanten Eingabeversuch unternimmt, wird Ihnen eine Warnung angezeigt.
- Unternehmenskultur: Führungskräfte sollten den sicheren, teamübergreifenden Umgang mit KI fördern. Alle Abteilungen sollten gemeinsam den Einsatz von KI überwachen. Betonen Sie, dass KI-Sicherheitsmaßnahmen dazu da sind, um alle zu schützen. Wenn Ihre Mitarbeitenden darauf vertrauen, dass das Unternehmen verantwortungsbewusst mit KI umgeht, halten sie sich mit größerer Wahrscheinlichkeit an die Richtlinien.
Wenn Sie alle diese Maßnahmen umsetzen, können Sie Ihr Datenleck schnell dichten, und Ihre Teams können generative KI problemlos und gewinnbringend einsetzen.
Mit den richtigen Prompts die Vorteile der generativen KI erschließen
Generative KI kann die Produktivität enorm steigern. Das ergab auch das Gutachten des Instituts der Deutschen Wirtschaft. So wird für Deutschland ein durchschnittliches Produktivitätswachstum von 0,9% für die Jahre 2025 bis 2030 und 1,2% für die Jahre 2030 bis 2040 prognostiziert.
Wichtig ist aber, diese Tools verantwortungsbewusst einzusetzen. Beachten Sie, dass Prompting-Fehler eher mit Menschen und Prozessen zu tun haben als mit Technologie. Schulen Sie Ihre Mitarbeitenden darin, Prompts ganz bewusst zu formulieren.
Anstatt KI-Tools zu verbieten, sollten sich Führungskräfte darauf konzentrieren, KI-Kompetenz zu fördern, klare Richtlinien und Sicherheitsmaßnahmen festzulegen und eine Strategie zu entwickeln, bei der der Mensch im Mittelpunkt steht. Unterstützen Sie Ihre Belegschaft beim selbstbewussten Umgang mit KI, ohne dabei die Offenlegung von Geschäftsgeheimnissen zu riskieren. Im Lauf der Zeit werden sichere Prompts für Ihre Belegschaft zu einer Selbstverständlichkeit. Die Integration von Best Practices in tägliche Arbeitsflüsse bedeutet, dass Unternehmen die Vorteile von KI erschließen können, ohne dabei ihre Daten zu gefährden.
Entdecken Sie Ressourcen, die den sicheren Umgang Ihrer Belegschaft mit KI beschleunigen
Entdecken Sie unsere Fachressourcen, um den sicheren und verantwortungsbewussten Einsatz von KI in Ihrem Unternehmen zu fördern. Wir haben die Gartner-Analyse, unseren KI-Kompetenzleitfaden, eine Aufnahme des Webinars mit praktischen Tipps und vieles mehr für Sie.













