Exklusive Phishing-Daten, Expertenmeinungen und Strategien, mit denen Sie sicher durch die Cyber-Bedrohungslage kommen.
Keine Zeit zu lesen? Einfach anhören:
ChatGPT ist zum Vorzeigebeispiel des grenzenlosen Potenzials von KI geworden. Es hat eine Technologierevolution losgetreten, die zahlreiche Bereiche unseres Alltags beeinflusst und die Zusammenarbeit zwischen Mensch und Maschine neu definiert. Die neueste Version, ChatGPT-4, beherrscht nicht nur die Kunst, menschliche Sprache und Interaktion präzise nachzuahmen – sie ist auch in der Lage, Code in verschiedenen Programmiersprachen zu schreiben. Doch nicht nur wir interessieren uns für die Vorteile und Einsatzmöglichkeiten dieser revolutionären Anwendung. Auch Cyberkriminelle nutzen das Potenzial des KI-Tools für ihre betrügerischen Zwecke. Mit der Hilfe von ChatGPT generieren sie extrem effektive Phishing-Mails und für technische Filter kaum erkennbare Malware – und skalieren so ihre Angriffsmethoden.
Doch ChatGPT kann nicht nur in kriminellen Händen zum Sicherheitsrisiko werden. Auch die scheinbar harmlose Nutzung des Tools ist unter Umständen mit einigen Risiken verbunden. Das Sprachmodell wurde mit gigantischen Datenmengen aus den verschiedensten Quellen trainiert und lernt anhand der User-Eingaben ständig weiter. Wenn man bedenkt, dass darunter sensible Daten sein könnten, wirft dies viele Fragen zur Sicherheit der Datenverarbeitung, insbesondere im Hinblick auf Datenschutz- und Urheberrechtsverletzungen, auf.
Diese Problematik wird zwar bereits von verschiedenen öffentlichen und privaten Organisationen untersucht. Es gibt derzeit aber noch keine offiziellen Richtlinien oder gesetzlichen Regelungen zur Nutzung des Tools. In Anbetracht dieser Herausforderungen ist es umso wichtiger, die größten Cyber-Sicherheitsrisiken bei der Nutzung von ChatGPT zu kennen und einige Security-Best-Practices zu verinnerlichen. Im Folgenden erfahren Sie, wie Sie den richtigen Mittelweg finden, um die Innovationskraft von ChatGPT auszuschöpfen, dabei aber Ihre Informationssicherheit nicht zu gefährden.
Was ist ChatGPT und wie funktioniert es?
ChatGPT ist ein modernes KI-Sprachmodell, das entwickelt wurde, um schlüssige, grammatikalisch nahezu fehlerlose Texte zu generieren, indem es von Menschen erstellte Inhalte sowie die Eingaben der User verarbeitet. Dieser Prozess wird auch „Natural Language Processing“ (kurz NLP) genannt. Zum Grundtraining des Algorithmus wurden bei ChatGPT die vielfältigsten Quellen verwendet, um möglichst viele Themenbereiche abzudecken. Zudem lernt das Tool, indem es Wort für Wort abschätzt und prognostiziert, welche Art von Inhalt im jeweiligen Kontext am meisten Sinn ergibt.
Das Modell folgt einem Machine-Learning-Ansatz namens Transfer Learning. Dabei wird es zunächst mit umfangreichen Trainingsdaten gefüttert und später gezielt auf eine bestimmte Aufgabe vorbereitet. Während der ersten Phase vor dem eigentlichen Training werden gigantische Datensätze aus dem Internet in das Sprachmodell eingespeist, ohne Informationen zu Quellen oder Webseiten, die für die Sammlung der Daten genutzt wurden. ChatGPT ruft die Informationen für seine Antworten nach dem Grundtraining nicht aus dem Internet ab. Das heißt, sein Wissen ist auf die Informationen beschränkt, die ihm während des Trainings zugeführt wurden. Bei ChatGPT endete dieses Training im September 2021.
Über das Grundtraining hinaus lernt ChatGPT dann anhand des Feedbacks und der Eingaben der User immer weiter. In dieser Phase geben KI-Trainer Gesprächsbeispiele ein und bewerten die Qualität der vom Sprachmodell erzeugten Antworten. Dadurch verbessert sich zwar die Nutzererfahrung, es entstehen jedoch auch verschiedene Datenschutzkonflikte.
Datenschutz im KI-Zeitalter: Nutzerrechte in der Welt von ChatGPT
In Bezug auf die Sicherheit persönlicher Nutzerdaten gibt es drei große Konfliktbereiche bei der Nutzung von ChatGPT: Datenschutz- und DSGVO-Compliance, Verletzung des geistigen Eigentums und Urheberrechts, und die Verbreitung von Fehlinformationen bzw. gesellschaftliche Manipulation.
Datenschutz- und DSGVO-Compliance
In den Datenschutzrichtlinien weist OpenAI darauf hin, dass persönliche Daten von Usern gesammelt werden. Dazu gehören von Nutzerinnen und Nutzern bereitgestellte Informationen wie Kontodaten und Chat-Eingaben (also Befehle an das Tool, sogenannte “Prompts”), aber auch technische, aus der Nutzung des Service hervorgehende Daten – darunter Log-Daten, Nutzungsdaten, Gerätedaten, Cookies und Analysedaten. Die Sammlung und Nutzung dieser Informationen unterliegen den in der Datenschutz-Grundverordnung (DSGVO) von der EU festgelegten Anforderungen.
Seit der Einführung von ChatGPT wurden innerhalb Europas zahlreiche Expertenmeinungen mit Bedenken zur DSGVO-Compliance und zum Datenschutz insgesamt laut. Die Konfliktbereiche reichen vom Datenverarbeitungsort bis hin zur Anfälligkeit für Datenlecks und Hacker-Angriffe. Auf Basis dieser Bedenken leiteten europäische Behörden verschiedene Untersuchungen ein, was in Italien sogar das vorübergehende Verbot von ChatGPT zur Konsequenz hatte. Das sind einige der aktuell größten Spannungsfelder:
- Keine rechtliche Grundlage zum Sammeln der Daten von Privatpersonen: Zum Zeitpunkt der Veröffentlichung dieses Beitrags stellt OpenAI kein rechtliches Dokument bereit, das die sichere und korrekte Nutzung personenbezogener Nutzerdaten gewährleistet, wie durch die DSGVO vorgeschrieben. Für die geschäftliche Nutzung bietet OpenAI einen Nachtrag zur Datenverarbeitung, der nur für seine Unternehmensdienste gilt (API zur Dateneingabe, Bilderstellung, Einbettungen, Moderationen usw.), aber nicht für Endverbraucherdienste wie ChatGPT oder DALL-E.
- Erfüllung des „Rechts auf Vergessenwerden“ nicht umsetzbar: Gemäß Artikel 17 der DSGVO haben Nutzende das Recht, die unverzügliche Löschung ihrer personenbezogenen Daten zu verlangen, wenn diese für die Zwecke, für die sie erhoben wurden, nicht mehr notwendig sind. Large-Language-Modelle wie ChatGPT können Datenpunkte jedoch nicht mehr vollständig löschen, sobald sie zum Lernen eingesetzt wurden. Sie können ihnen lediglich weniger Gewicht beimessen, sodass diese Daten weniger häufig genutzt werden. Hinzu kommt, dass mit den Daten stetig neue Antworten generiert werden – Antworten, die daraufhin veröffentlicht und weiterverarbeitet werden. Das ist ein weiterer Grund, warum es nahezu unmöglich ist, alle persönlichen Daten rückstandslos zu löschen.
- Anfälligkeit für Datenlecks und Cyberangriffe: Mit der Speicherung massiver Datenmengen auf großen Servern gehen einige Risiken einher, wie ein Zwischenfall erst kürzlich zeigte. Ein Bug sorgte dafür, dass ChatGPT-User die Chatverläufe und sogar E-Mail-Adressen, Zahlungsdaten und Telefonnummern anderer User einsehen konnten. Während die Folgen dieses Zwischenfalls noch überschaubar waren, warnen Sicherheitsexpertinnen und -experten davor, dass Cyberkriminelle diese riesige Datensammlung auch zu großflächig angelegten Datendiebstählen nutzen könnten. Durch fortschrittliche Angriffstechniken wie Reverse Engineering könnten sie den Chat-Output zurückverfolgen und so an personenbezogene Nutzerdaten gelangen.
- ChatGPT’s Nutzung erfasster Daten könnte gegen Nutzungsbedingungen anderer Webseiten verstoßen. Die Daten, mit denen ChatGPT trainiert wurde, stammen vermutlich von mehreren hunderttausenden verschiedenen Webseiten, von denen einige in ihren Nutzungsbedingungen die kommerzielle Nutzung der Daten untersagen. Expertenmeinungen zufolge ist ChatGPT als kommerzielles Produkt zu betrachten, das folglich unrechtmäßig Daten erfasst.
Verletzung des geistigen Eigentums und Urheberrechts
Der mögliche Diebstahl geistigen Eigentums und eventuelle Urheberrechtsverletzungen sind beim Output von ChatGPT nicht ganz unbedenklich. Laut Nutzungsbedingungen von ChatGPT erhalten User das Eigentum der ausgegebenen Daten, bei denen es sich um originale – wenn auch nicht zwingend einzigartige – Texte handele. Diesen Angaben zufolge wäre die kommerzielle Nutzung des Chat-Outputs durchaus möglich. Es kommen jedoch weitere Aspekte ins Spiel, wie die zum Training des Modells genutzten Daten und deren Verarbeitung.
Doch es geht über die offensichtlichen Datenschutzkonflikte, die mit dem Zusammenschaben von Milliarden Datenpunkten unzähliger Webseiten verbunden sind, hinaus. Wir können unmöglich wissen, ob der Chat-Output auf urheberrechtlich geschützten Inhalten basiert – was eben jene Eigentumsrechte verletzen würde. Im Gegensatz zu menschlich verfassten Texten macht ChatGPT keine Angaben dazu, aus welchen Quellen es seine Informationen bezieht. Aus diesem Grund ist es ratsam, den Output von einem Rechtsexperten auf urheberrechtlich geschützte Informationen prüfen zu lassen, bevor er zu kommerziellen Zwecken genutzt wird.
Verbreitung von Fehlinformationen und gesellschaftliche Manipulation
Die mangelnde Transparenz vonseiten OpenAI in Bezug auf die verwendeten Trainingsdaten lässt Zweifel zur Richtigkeit, Integrität und Objektivität des Chat-Outputs aufkommen. Wie von OpenAI angegeben, besteht die Möglichkeit, dass „ChatGPT falsche Informationen über Personen, Orte oder Fakten ausgibt“ – ein Phänomen, das KI-Fachleute als „Halluzinationen“ bezeichnen. Besonders besorgniserregend ist es, wenn veraltete oder falsche Nutzerdaten verwendet werden. Gemäß der europäischen Datenschutz-Grundverordnung haben Nutzende das Recht, ihre Daten zu bearbeiten oder unkorrekte Daten löschen zu lassen. Derzeit bietet ChatGPT seinen Usern jedoch keine Möglichkeit zur Datenlöschung – sie haben keine Kontrolle über ihre eigenen Daten. Da der Chat-Output auf Trainingsdaten basiert, besteht zudem das Risiko voreingenommener Antworten, die ohne eine genauere Überprüfung und Korrektur soziale Stereotypen befeuern könnten.
Es ist also nicht ausgeschlossen, dass ChatGPT inkorrekte Aussagen macht, die zur (absichtlichen oder versehentlichen) Verbreitung von Falschinformationen und Fake News genutzt werden könnten. Mit der Bekanntheit von ChatGPT steigt gleichermaßen das Risiko, dass sich Personen mit wichtigen Fragen an das Tool wenden, anstatt beispielsweise rechtliche oder medizinische Beratung bei Expertinnen und Experten in Anspruch zu nehmen. Auch wenn das Sprachmodell in vielen Bereichen nützlich sein kann – bei sensiblen Fragestellungen, bei denen falsche Aussagen schwerwiegende Konsequenzen haben können, sind wir mit einer professionellen Meinung stets besser beraten.
Wie der Missbrauch von ChatGPT Cyberbedrohungen verschärft
Die Risiken von ChatGPT für die Datensicherheit sind nur eine Seite der Medaille. Während Organisationen und Privatpersonen nach und nach die Vorteile von ChatGPT für sich entdecken, sind sie damit nicht allein. Auch Cyberkriminelle – selbst jene mit kaum technischen Fähigkeiten – suchen nach neuen Methoden, um die fortschrittliche Technologie für ihre böswilligen Zwecke zu nutzen.
OpenAI hat zwar bestimmte Einschränkungen eingeführt, um die Nutzung des Tools für gesetzeswidrige Zwecke zu unterbinden. Wie so oft haben Cyberkriminelle dennoch einen Weg gefunden, diese zu umgehen und ChatGPT für ihre betrügerischen Ziele und zur Skalierung ihrer Angriffe zu missbrauchen. Die Nutzung von ChatGPT zu betrügerischen Zwecken wird die Cyber-Bedrohungslage weiter verschärfen – dabei waren sich 74 % der Sicherheitsbeauftragten in einer von SoSafe durchgeführten Umfrage einig.
Am besorgniserregendsten ist die Möglichkeit, dass ChatGPT zum Coding von Schadsoftware, zum Verfassen höchst effektiver Phishing-Mails und zum Identitätsdiebstahl oder für Catphishing-Scams eingesetzt werden könnte.
Coding von Schadsoftware
ChatGPT wurde bereits zur Entwicklung von Schadsoftware missbraucht. Es wurden unter anderem verschlüsselte Skripte generiert, die zur Anwendung in Ransomware-Angriffen oder zur Optimierung von bestehendem Malware-Code genutzt werden können. Eines der besorgniserregendsten Anwendungsszenarien ist die Möglichkeit, Code für polymorphe Malware zu erstellen. Diese ausgeklügelte Schadsoftware basiert auf wandelbarem Code, der in der Lage ist, traditionelle Sicherheitsmechanismen einfach zu umgehen – und so die Effizienz von Cyberangriffen drastisch zu steigern.
Als besonders bedenklich bewerten Security-Verantwortliche auch die Tatsache, dass ChatGPT den Programmiervorgang stark vereinfacht und selbst Laien ohne technische Kenntnisse funktionierenden Code erstellen können. Die Coding-Fähigkeiten von ChatGPT sind zwar noch begrenzt und der Output erfordert meist eine Nachbearbeitung. Trotzdem könnte es Amateur-Hackern den Weg ebnen und die Demokratisierung der Cyberkriminalität vorantreiben.
Massenerstellung überzeugender Phishing-Mails
Eine aktuelle vom SoSafe Social-Engineering-Team durchgeführte Studie zeigt, dass Hacker-Gruppen betrügerische Phishing-Mails mit generativen KI-Tools um mindestens 40 Prozent schneller erstellen und so ihre Cyberangriffe skalieren könnten. Hinzu kommt, dass Phishing-Angriffe dank der Tools immer schwerer zu erkennen sind: ChatGPT ist in der Lage, geschickt ausformulierte, fehlerfreie E-Mails zu verfassen, und das in mehreren Sprachen. So erweitern Cyberkriminelle nicht nur ihre Zielgruppe, sondern steigern auch die Effektivität der Angriffe. Bei der anonymen Auswertung von circa 1.500 Phishing-Simulationen von der SoSafe Awareness-Plattform stellte sich heraus, dass durch KI erstellte Phishing-Mails von 78 Prozent der Personen geöffnet werden und jede fünfte Person zudem auf schädliche Elemente wie Links oder Anhänge klickt.
Identitätsdiebstahl und Catphishing
ChatGPT kann überzeugende Charaktere schaffen, die sich bei Cyberangriffen das Vertrauen der Zielpersonen erhaschen, um so letztlich an große Geldsummen oder sensible Daten zu gelangen.
Romance Scams sind für Angreifende bereits jetzt eine lukrative Angriffstaktik. Berichten der US Federal Trade Commission zufolge wurden 2022 knapp 70.000 Verbraucherinnen und Verbraucher in den USA Opfer dieser Betrugsmasche – mit einem Gesamtverlust von etwa 1,3 Milliarden US-Dollar. Das Tempo und die Einfachheit, mit der ChatGPT schlüssige Texte erstellen und dabei in Rollen schlüpfen kann, bringen das Risiko mit sich, dass die Häufigkeit und Effektivität von Romance Scams in Zukunft weiter steigen werden.
Mehr über die verheerenden Folgen neuer Technologien im Bereich Cyberkriminalität erfahren Sie in unserem neuen Human Risk Review 2023.
Human Risk Review 2023
Best Practices zur sicheren Nutzung von ChatGPT
ChatGPT ist ein mächtiges Tool mit großem Potenzial. Um dieses für Ihre Organisation nutzen zu können, gilt es, die damit verbundenen Risiken auf ein Minimum zu reduzieren. Verantwortungsvoll und sicher verwendet kann ChatGPT Ihre Produktivität steigern, zu Brainstormings beitragen, Recherchearbeit erleichtern und Sie bei vielen weiteren Aufgaben im Alltag unterstützen. Damit Sie den richtigen Mittelweg finden, haben wir einige Best Practices für die sichere Nutzung von ChatGPT zusammengestellt:
- Lassen Sie sich rechtlich beraten, bevor Sie ChatGPT-Output für Geschäftszwecke nutzen. Ihre Datenschutzbeauftragten können Sie über Einschränkungen und Empfehlungen im Hinblick auf Datenschutz, geistiges Eigentum und Urheberrecht informieren.
- Bedenken Sie stets, dass Geschäftsinformationen mitunter sensible Daten enthalten und vertraulich sind. Die Eingabe solcher Daten in ChatGPT kann gegen die internen Richtlinien Ihrer Organisation und gegen bestehende Kundenverträge (oder Non-Disclosure Agreements) verstoßen.
- Falls Ihr Input personenbezogene Daten enthält, ersetzen Sie diese durch fiktive Angaben. Nachdem Sie die Chat-Ausgabe kopiert haben, können Sie die korrekten Daten außerhalb von ChatGPT einfügen.
- Hinterfragen Sie die Glaubwürdigkeit der ausgegebenen Inhalte. Um keine Fehlinformationen zu verbreiten, stellen Sie stets durch eine weiterführende Recherche sicher, dass die Chat-Ausgabe inhaltlich korrekt ist.
- Machen Sie keine Chat-Anfragen, die unethisch sind oder Diskriminierung und Hassreden unterstützen.
- Konsultieren Sie ChatGPT nicht zu medizinischen oder rechtlichen Belangen. Da die Chat-Antworten ungenau oder inhaltlich inkorrekt sein können, verlassen Sie sich bei solch wichtigen Themen lieber auf die Meinung von Expertinnen und Experten.
- ChatGPT bietet seit Kurzem die Option, den Chatverlauf nicht zu speichern. Wenn Sie das Speichern deaktivieren, werden die Daten aus Ihren Chats nicht zum Training des Sprachmodells genutzt.
Ausblick: Nutzerrechte und KI-Innovation vereinen
Die rasante Entwicklung generativer KI-Tools wie ChatGPT stellt ein großes Potenzial dar und führt gleichzeitig zu massiven Sicherheitsrisiken. KI-Technologien sind immer stärker mit unserem Alltag verwoben. Umso wichtiger ist es, dass OpenAI und die europäischen Institutionen am selben Strang ziehen, um zu kritischen Themen – wie der DSGVO-Compliance, Urheberrechtsverletzungen und Verbreitung von Fehlinformationen – eine gemeinsame Lösung zu finden.
Während KI zweifellos großen Nutzen bietet, sollten wir die Anwendungen der Tools dennoch kritisch hinterfragen und damit einhergehende Bedenken, Zweifel und Sorgen nicht außer Acht lassen. Dass es in Zukunft spezialisierte Aufsichtsbehörden für künstliche Intelligenz geben muss, kristallisiert sich immer mehr heraus. In der Zwischenzeit arbeitet die EU an den weltweit ersten Vorschriften für künstliche Intelligenz. Das Gesetz über künstliche Intelligenz (engl. “Artificial Intelligence Act”) ist bereits ein erster Schritt in die richtige Richtung.
Um ihre personenbezogenen Daten über diese Regelungen hinaus zu schützen, sollten Einzelpersonen einige wichtige Empfehlungen für den sicheren Umgang mit KI-Tools beachten. Indem Organisationen ihre Sicherheitskultur und Security Awareness steigern, können sie den Schutz vertraulicher und sensibler Daten fest im Arbeitsalltag der Mitarbeitenden verankern. Cyber Security Awareness Training – wie das von SoSafe – vermittelt Mitarbeitenden, wie sie Innovationen offen gegenüberstehen und das Potenzial von KI-Tools nutzen können, ohne die Sicherheit und Daten der Organisation zu gefährden.
FAQ
- Ist die Nutzung von ChatGPT für Organisationen sicher?
Beraten Sie sich mit Ihrer Rechtsabteilung, bevor Sie ChatGPT für geschäftliche Zwecke nutzen. Je nach Art des Unternehmens sollten Sie möglicherweise verschiedene Einschränkungen im Hinblick auf Datenschutz und Urheberrechtsverletzungen berücksichtigen.
- Warum fragt mich ChatGPT nach meiner Telefonnummer?
ChatGPT fragt User als Teil der Zwei-Faktor-Authentifizierung, die Accounts vor Sicherheitsverstößen schützen soll, nach ihrer Mobiltelefonnummer. Zudem erhält ChatGPT dadurch eine Bestätigung, dass Sie ein Mensch sind, und kann die Telefonnummer auch zur Passwortwiederherstellung nutzen.
- Speichert ChatGPT meine Daten?
ChatGPT sammelt verschiedene Arten von Nutzerdaten: Kontodaten (personenbezogene Daten und Zahlungsdaten), eingegebene Inhalte – wobei man diese Funktion heute deaktivieren kann – und technische Daten, wie Nutzungsdaten, Geräteinformationen, Log-Daten, Cookies und Analysedaten.