Wie Generative AI Cyberangriffe und Datenlecks verändert
KI-generiertes Beispielbild – dient nur zur Illustration.
📅 25.04.2026

Wie Generative AI Cyberangriffe und Datenlecks verändert

Generative AI gilt als eine der prägendsten Technologien der vergangenen Jahre – und zugleich als neuer Beschleuniger für Cyberangriffe und Datenlecks. Systeme, die bisher vor allem mit beeindruckenden Texten, Bildern oder Code auffielen, entwickeln sich zunehmend zu Werkzeugen, die Angreifende nutzen, um Attacken zu automatisieren, zu skalieren und schwerer erkennbar zu machen. Parallel wächst das Risiko, dass Unternehmen und Einzelpersonen durch unbedachte Nutzung eigene Daten in Modelle einspeisen – mit schwer absehbaren Folgen für Vertraulichkeit und Compliance.

Der aktuelle Diskurs um Generative AI als Risikoquelle für Cyberangriffe und Datenabflüsse markiert einen Wendepunkt: Statt nur über Produktivität und Kreativität zu sprechen, rückt die systemische Verwundbarkeit digitaler Infrastrukturen in den Vordergrund. Der technologische Sprung erzeugt eine neue Asymmetrie zwischen Angreifenden und Verteidigenden.

Vom Tool zum Angriffsverstärker: Was sich durch Generative AI ändert

Generative AI unterscheidet sich in einem zentralen Punkt von vielen bisherigen Automatisierungen: Sie ist nicht auf starre Regeln angewiesen, sondern kann auf Basis großer Datenmengen flexibel neue Inhalte erzeugen – Texte, Code, Dialoge. Diese Eigenschaft verschiebt das Kräfteverhältnis im Cyberraum.

Für Angreifende entstehen drei entscheidende Hebel:

  • Skalierung: Inhalte wie Phishing-Mails, Fake-Profile oder Social-Engineering-Skripte lassen sich massenhaft und mit geringem Aufwand erzeugen.
  • Personalisierung: Generative Modelle können Texte in Sprache, Stil und Tonlage anpassen und so glaubwürdiger erscheinen lassen.
  • Niedrigere Einstiegshürde: Technisches Detailwissen wird teilweise durch natürlichsprachliche Anweisungen („Prompts“) ersetzt.

Dadurch verschwimmt die Grenze zwischen klassischen Skriptangriffen und adaptiven, kontextsensitiven Attacken. Angreifende müssen weniger programmieren, sondern immer häufiger formulieren.

Phishing 2.0: Wenn Mails kaum noch nach Spam aussehen

Ein besonders sichtbares Feld ist Phishing. Wo früher schlecht übersetzte, orthographisch auffällige Nachrichten dominierten, können heute generative Modelle fehlerfreie, stilistisch angepasste E-Mails erstellen – in praktisch jeder Sprache.

Das verändert mehrere Dimensionen gleichzeitig:

  • Qualität: Grammatikfehler, unpassende Anredeformen oder untypische Formulierungen – lange ein wichtiger Indikator für viele Empfänger – werden deutlich seltener.
  • Kontext: Die Texte lassen sich inhaltlich stärker auf Szenarien zuschneiden, etwa Jahresabschlüsse, Urlaubszeiten oder Branchenjargon.
  • Variabilität: Jede einzelne Nachricht kann leicht variiert werden, was die Erkennung durch klassische Signatur- oder Muster-basierte Filtersysteme erschwert.

Mit Generative AI entsteht damit eine Art Fließbandproduktion für glaubwürdige, individuelle Angriffe auf die Inbox. Verteidigungsmechanismen, die stark auf Wiedererkennung bekannter Muster setzen, geraten unter Druck.

Code, Exploits und Automatisierung: Wie sich technische Angriffe verschieben

Neben Social Engineering steht der Software-Stack im Fokus. Generative Modelle können Code-Beispiele liefern, Skripte anpassen oder bei der Fehlersuche unterstützen. Das ist aus Sicht von Entwicklerinnen und Entwicklern produktiv – aus Sicht der Angreifenden aber genauso.

Die Risiken liegen weniger darin, dass Modelle „perfekte Exploits“ auf Knopfdruck generieren, sondern in der Beschleunigung von Routine- und Fleißarbeiten:

  • Skripte zur Automatisierung von Abläufen (etwa zur Massenerfassung von Zielsystemen) lassen sich schneller entwerfen.
  • Code-Varianten können in hoher Zahl erzeugt werden, um Signatur-basierte Erkennungssysteme zu umgehen.
  • Trotz Sicherheitsbremsen können durch iterative Anfragen Teilstücke entstehen, die sich zu funktionalen Angriffstools kombinieren lassen.

Generative AI wirkt damit wie ein Multiplikator für diejenigen, die bereits über ein Grundverständnis von IT-Sicherheit und Angriffsmethoden verfügen. Der Flaschenhals verlagert sich weg von der Implementierung hin zur Kreativität in der Angriffskonzeption.

Datenlecks durch Nutzung: Wenn das Modell zum Schatten-Archiv wird

Während über Angriffe von außen viel gesprochen wird, entstehen zahlreiche Risiken aktuell im Inneren von Unternehmen – durch die Art, wie Mitarbeitende Generative-AI-Dienste verwenden. Die Versuchung ist groß, vertrauliche Inhalte in Chat- oder Code-Assistenten zu kopieren, um Texte umschreiben, Analysen erstellen oder Code erklären zu lassen.

Dadurch ergeben sich mehrere Problemfelder:

  • Vertraulichkeit: Geschäftsgeheimnisse, Quellcode-Auszüge oder personenbezogene Daten können in Drittsysteme wandern, deren Speicher- und Trainingsmodalitäten nicht transparent genug sind.
  • Compliance: Je nach Branche und Rechtsraum können regulatorische Vorgaben zur Datenhaltung verletzt werden, wenn etwa Daten von Kunden in unkontrollierte Umgebungen hochgeladen werden.
  • Rückführungseffekte: Abhängig von Konfiguration und Dienstleistung ist denkbar, dass Fragmente sensibler Inhalte später in Ausgaben für andere Nutzerinnen und Nutzer auftauchen.

Das Risiko ist hier weniger ein gezielter Angriff als ein schleichendes Datenleck, das aus gut gemeinter Effizienzsteigerung entsteht. Für Organisationen wird es zur Kernaufgabe, Nutzung zu regeln, ohne Innovation vollständig zu unterbinden.

Prompt-Injection und Modellmanipulation: Angriffe direkt auf die KI

Mit Generative AI verändert sich auch die Angriffsfläche: Nicht nur die klassische IT-Infrastruktur ist Ziel, sondern die Modelle selbst. Eine wichtige Klasse sind sogenannte Prompt-Injection-Angriffe. Dabei versuchen Angreifende, den ursprünglichen Systemkontext des Modells auszuhebeln.

Typische Muster bestehen darin, dass innerhalb von Dokumenten, Websites oder Schnittstellen versteckte Anweisungen platziert werden, die von einem angebundenen Modell als neue Priorität interpretiert werden. Wenn etwa ein KI-Assistent Webseiten analysiert, können dort eingebettete Instruktionen ihn dazu bringen, vertrauliche Informationen preiszugeben oder gewünschte Aktionen auszuführen.

Solche Angriffe sind kein klassischer Malware-Infekt, sondern eine Form der semantischen Manipulation: Die Sicherheitslogik muss verstehen, welche Anweisungen legitim sind und welche versuchen, das Verhalten zu kapern. Das ist konzeptionell neu und erfordert andere Werkzeugketten als herkömmliche Signaturscanner.

Halluzinationen als Sicherheitsproblem

Ein weiterer Spezialfall generativer Modelle sind Halluzinationen – Ausgaben, die mit großer Überzeugung präsentiert werden, aber faktisch falsch sind. Das wurde zunächst vor allem als Qualitätsproblem diskutiert, entwickelt sich jedoch zunehmend zu einem Sicherheitsrisiko.

Wenn Systeme etwa technische Konfigurationen, Sicherheitseinstellungen oder Code-Vorschläge liefern, können fehlerhafte Empfehlungen Verwundbarkeiten erzeugen oder verstärken. Besonders riskant wird dies, wenn generative Ausgaben ohne menschliche Prüfung automatisiert in Abläufe übernommen werden.

Damit entsteht ein neues Spannungsfeld: Die gleiche Eigenschaft, die Generative AI so flexibel und kreativ macht, erschwert verlässliche Sicherheitsbewertungen der generierten Inhalte.

Datensicherheit im Entwicklungsprozess: Trainingsdaten als Achillesferse

Die Risiken konzentrieren sich nicht nur auf die Nutzung der Modelle, sondern auch auf deren Entstehung. Bei der Entwicklung spielen große Datenmengen eine zentrale Rolle. Wenn diese Daten nicht hinreichend bereinigt und kontrolliert werden, können sensible Informationen in Trainingssets landen.

Die Herausforderung besteht unter anderem darin:

  • robuste Anonymisierungs- und Pseudonymisierungsverfahren anzuwenden,
  • doppelte oder verwaiste Datensätze zu vermeiden, die sich technisch nicht mehr sauber zurückverfolgen lassen,
  • und dennoch genügend Vielfalt im Datensatz zu sichern, um die Modelle leistungsfähig zu halten.

Fehlende Transparenz entlang der Daten-Pipeline kann dazu führen, dass Organisationen später nicht mehr nachvollziehen können, welche Datenbasis in welchen Modellen steckt. In einem Umfeld verschärfter Datenschutzanforderungen ist dies nicht nur ein Reputations-, sondern auch ein Haftungsrisiko.

Verteidigung neu denken: Von Regeln zu probabilistischen Systemen

Die beschriebenen Entwicklungen zwingen Sicherheitsarchitekturen zum Umdenken. Klassische Abwehrstrategien basieren oft auf festen Regeln: Wenn bestimmte Muster auftauchen, werden Alarme ausgelöst oder Aktionen blockiert. Generative Angriffe zeichnen sich jedoch gerade dadurch aus, dass sie variabel und adaptiv sind.

Daraus ergeben sich mehrere Konsequenzen:

  • Mehr Kontext: Systeme müssen nicht nur Inhalte isoliert bewerten, sondern auch Interaktionsverläufe und Metadaten einbeziehen.
  • Probabilistische Erkennung: Statt harter Ja/Nein-Regeln gewinnen statistische und verhaltensbasierte Ansätze an Bedeutung.
  • Kontinuierliches Lernen: Verteidigungssysteme müssen sich ähnlich dynamisch weiterentwickeln wie die Angriffsstrategien, die sie abwehren sollen.

Interessanterweise kommen dabei wiederum Machine-Learning-Methoden zum Einsatz, um anomale Muster oder untypische Kommunikationsprofile zu erkennen. Der Cyberraum entwickelt sich so zu einem Feld, in dem lernende Systeme aufeinander treffen – auf beiden Seiten.

Organisatorische Antworten: Richtlinien, Schulung, Datenhygiene

Die technische Dimension ist nur eine Seite. Für Unternehmen, Verwaltungen und Bildungseinrichtungen stellt sich die Frage, wie sie den Einsatz von Generative AI organisatorisch rahmen. Drei Bereiche stehen dabei im Zentrum:

Nutzungsrichtlinien

Statt generelle Verbote auszusprechen, setzen viele Organisationen zunehmend auf abgestufte Richtlinien. Typische Elemente sind:

  • Klare Definition, welche Datenkategorien niemals in externe generative Dienste gegeben werden dürfen.
  • Unterscheidung zwischen Experimentierumgebungen und produktiven Prozessen.
  • Transparenzanforderungen, etwa Kennzeichnung generierter Inhalte in bestimmten Kontexten.

Solche Regeln sind nur dann wirksam, wenn sie verständlich formuliert und regelmäßig aktualisiert werden – der technologische Wandel ist zu schnell für statische Regelwerke.

Kompetenzaufbau

Generative AI verändert das Kompetenzprofil vieler Rollen. Für Cybersecurity-Teams bedeutet das, sich nicht nur mit klassischen Protokollen und Systemen auszukennen, sondern auch mit Prompt-Dynamiken, Modellgrenzen und Angriffspfaden, die spezifisch für generative Systeme sind.

Auf der anderen Seite benötigen Mitarbeitende, die täglich mit Text-, Code- oder Analysemodellen arbeiten, ein grundlegendes Verständnis der Risiken: Was passiert mit eingegebenen Daten? Wo liegen typische Fallen? Wie erkennt man Anzeichen manipulativer Inhalte?

Datenhygiene

Je stärker generative Systeme in Prozesse eingebunden werden, desto wichtiger wird Datenhygiene als Daueraufgabe. Dazu gehören:

  • Regelmäßige Überprüfung, wo sensible Daten gespeichert sind und wer Zugriff hat.
  • Strukturen, um versehentlich veröffentlichte Informationen schnell zu identifizieren und zu bereinigen.
  • Mechanismen, um Datenflüsse zu und von generativen Diensten zu protokollieren.

Ohne solche Grundlagen riskieren Organisationen, in einer wachsenden Zahl von Schnittstellen den Überblick zu verlieren.

Die Rolle von Data Science: Sicherheitsdenken von Anfang an

Mit der Ausbreitung generativer Systeme verschmilzt die Welt der Data Science zunehmend mit der der IT-Sicherheit. Wer Modelle entwickelt, bewertet oder integriert, beeinflusst direkt die Angriffsfläche einer Organisation.

Ein fundiertes Verständnis der zugrundeliegenden Verfahren – von Datenvorbereitung über Modellarchitekturen bis hin zu Evaluationsmetriken – wird damit zu einem strategischen Faktor. Inhalte, die Data Science aus ersten Prinzipien vermitteln und nicht nur auf fertige Bibliotheken setzen, können helfen, Risiken systematischer zu erkennen: etwa, welche Vorannahmen in Modellen stecken, wie Verzerrungen entstehen oder wo Trainingsdaten ungewollte Informationen preisgeben.

Security-by-Design in generativen Projekten bedeutet, diese Fragen nicht erst am Ende zu stellen, sondern von Beginn an mitzudenken: Welche Daten werden wirklich benötigt? Welche Alternativen gibt es zu produktiven Live-Daten? Welche Formen der Auswertung lassen Rückschlüsse auf sensible Inhalte zu?

Zwischen Innovation und Angriffsfläche: Ein neues Gleichgewicht finden

Generative AI erweitert die Möglichkeiten im positiven wie im negativen Sinne. Sie kann Prozesse beschleunigen, kreative Arbeit unterstützen und Zugang zu Wissen erleichtern – aber sie senkt auch die Schwelle für Angriffe, verschleiert klassische Warnsignale und eröffnet neue Wege, Daten abzugreifen oder zu manipulieren.

Die zentrale Frage für die kommenden Jahre lautet daher nicht, ob Generative AI genutzt wird, sondern wie. Der technologische Vorsprung allein genügt nicht; entscheidend ist, ob Gesellschaften, Organisationen und Teams bereit sind, Sicherheitsfragen als integralen Bestandteil dieser Entwicklung zu behandeln.

In dieser Perspektive ist die wachsende Aufmerksamkeit für die Risiken kein Dämpfer für Innovation, sondern ein notwendiger Korrekturfaktor: Generative AI verlässt die Experimentierphase und wird Teil kritischer Infrastrukturen. Je früher das Spannungsverhältnis aus Nutzen, Verwundbarkeit und Verantwortung offen adressiert wird, desto größer ist die Chance, dass der langfristige Effekt nicht nur in einer Zunahme von Cyberangriffen und Datenlecks besteht – sondern in robusteren, bewusster gestalteten digitalen Ökosystemen.

Laura Bergmann
Verbraucherexpertin & Redaktion
Laura übersetzt technische Daten in verständliche Texte und bewertet Alltagstauglichkeit und Qualität.