Warum KI-Agenten ein Datenschutz-Thema sind
KI-Agenten sind keine isolierten Chatbots. Sie planen eigenständig, treffen Entscheidungen und führen Aktionen aus — oft über mehrere Systeme hinweg. Dabei verarbeiten sie fast immer personenbezogene Daten: Kundennamen aus dem CRM, E-Mail-Adressen aus dem Posteingang, Vertragsdaten aus dem ERP.
Das bedeutet: Jeder KI-Agent, der auf Unternehmensdaten zugreift, fällt unter die DSGVO. Und ab dem 2. August 2026 gelten zusätzlich die Anforderungen der KI-Verordnung (EU AI Act) — insbesondere für Hochrisiko-Anwendungen.
Laut McKinsey erreicht nur etwa ein Drittel der Organisationen ein Reifeniveau von 3 oder höher bei Strategie, Governance und Agentic-AI-Governance. Die Mehrheit der Unternehmen setzt KI-Agenten ein, ohne die regulatorischen Anforderungen vollständig abzudecken.
DSGVO-Anforderungen im KI-Kontext
Drei Artikel der DSGVO sind für KI-Agenten besonders relevant:
Artikel 5: Grundsätze der Datenverarbeitung
Die Verarbeitungsgrundsätze gelten uneingeschränkt auch für KI-Agenten: Rechtmäßigkeit, Zweckbindung, Datenminimierung, Richtigkeit, Speicherbegrenzung und Integrität. In der Praxis heißt das:
- Zweckbindung: Der Agent darf Daten nur für den definierten Zweck verarbeiten — nicht für alles, worauf er technisch Zugriff hat
- Datenminimierung: Der Agent sollte nur die Daten erhalten, die er für seine Aufgabe braucht — nicht den gesamten Datenbestand
- Richtigkeit: Wenn ein Agent auf veraltete Daten zugreift und daraus falsche Schlüsse zieht, ist das ein DSGVO-Problem
Artikel 25: Datenschutz durch Technikgestaltung (Privacy by Design)
Artikel 25 verlangt, dass Datenschutz von Anfang an in die Systemarchitektur eingebaut wird — nicht nachträglich aufgeklebt. Für KI-Agenten bedeutet das konkret:
- Zugriffsrechte müssen vor dem Deployment definiert werden, nicht im laufenden Betrieb
- Der Standardzustand muss restriktiv sein: Ein Agent hat zunächst keinen Zugriff und bekommt nur das freigeschaltet, was er nachweislich braucht
- Datenschutzmaßnahmen müssen technisch durchgesetzt werden — nicht nur als Policy-Dokument existieren
Artikel 35: Datenschutz-Folgenabschätzung (DSFA)
Eine DSFA ist verpflichtend, wenn eine Datenverarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen birgt. KI-Agenten erfüllen dieses Kriterium in der Regel, weil sie:
- Neue Technologien einsetzen (automatisierte Entscheidungsfindung)
- Systematisch und umfassend Daten verarbeiten
- Potenziell Profiling betreiben oder automatisierte Einzelentscheidungen treffen
Praxis-Tipp: Für jeden KI-Agenten, der auf personenbezogene Daten zugreift, sollte eine DSFA durchgeführt werden — auch wenn man nicht sicher ist, ob sie rechtlich zwingend ist. Die Dokumentation schützt im Prüffall.
KI-Verordnung: Was ab August 2026 gilt
Die KI-Verordnung (EU AI Act) wird gestaffelt wirksam:
- Februar 2025: Verbotene KI-Praktiken und KI-Kompetenz-Anforderungen
- August 2025: Governance-Regeln und Pflichten für General-Purpose-AI-Modelle
- 2. August 2026: Hauptteil der Verpflichtungen, insbesondere für Hochrisiko-KI-Systeme
- August 2027: Hochrisiko-KI in bereits regulierten Produkten (Übergangsfrist)
Artikel 10: Daten-Governance für Hochrisiko-KI
Für KI-Systeme, die als hochriskant eingestuft werden, stellt Artikel 10 konkrete Anforderungen an die verwendeten Daten:
- Trainings-, Validierungs- und Testdaten müssen relevant, hinreichend repräsentativ und fehlerfrei sein
- Daten-Governance-Praktiken müssen dokumentiert werden: Design-Entscheidungen, Datenerhebung, Datenvorbereitung, Bias-Erkennung
- Geografische, kontextuelle und verhaltensbezogene Merkmale der Daten müssen berücksichtigt werden
- Besondere Kategorien personenbezogener Daten dürfen ausnahmsweise zur Bias-Erkennung verarbeitet werden — mit angemessenen Schutzmaßnahmen
Bei Verstößen gegen Artikel 10 drohen Bußgelder von bis zu 20 Millionen Euro oder 4 % des weltweiten Jahresumsatzes.
Zero Trust für KI-Agenten
Microsoft hat im März 2026 ein Zero-Trust-Framework speziell für KI-Agenten veröffentlicht (Zero Trust for AI, kurz ZT4AI). Die drei Kernprinzipien:
- Explizit verifizieren: Jeder Zugriff eines Agenten wird individuell geprüft — keine pauschalen Freigaben. Identität, Kontext und Berechtigung werden bei jedem Request validiert.
- Least Privilege: Agenten bekommen nur die minimalen Rechte, die sie für ihre aktuelle Aufgabe brauchen. Rechte werden zeitlich begrenzt und aufgabenbezogen vergeben.
- Breach annehmen: Jedes System wird so designt, als ob der Agent bereits kompromittiert sein könnte. Segmentierung, Monitoring und automatische Eskalation sind Pflicht.
Diese Prinzipien erstrecken sich über den gesamten KI-Lebenszyklus: von der Datenaufnahme über das Modelltraining bis zum Deployment und laufenden Betrieb.
Compliance-as-Code: Der IAPP-Ansatz
Die International Association of Privacy Professionals (IAPP) hat einen einflussreichen Ansatz veröffentlicht, der fordert: Compliance muss Code werden — nicht nur ein Policy-Dokument, das im SharePoint liegt.
Konkret empfiehlt die IAPP vier Engineering Controls für KI-Agenten:
1. Purpose Locks und Goal-Change Gates
Die Ziele des Agenten werden als inspizierbare Objekte behandelt. Wenn ein Agent seinen Zweck zur Laufzeit ändern will (z. B. von „Kundenanfrage beantworten" zu „Kundendaten exportieren"), muss das durch ein Gate genehmigt werden.
2. Durchgängige, ausführbare Protokolle
Jede Aktion des Agenten wird in dauerhaften, maschinenlesbaren Traces dokumentiert — nicht nur in Logs, die niemand liest. Diese Traces müssen DSAR-fähig sein (Data Subject Access Requests): Auf Anfrage einer betroffenen Person muss nachvollziehbar sein, was der Agent mit ihren Daten gemacht hat.
3. Speicher-Governance mit Stufen
Der Agent-Speicher wird in Stufen unterteilt: kurzlebig (Session) vs. dauerhaft (Persistent). Jeder Speicherbereich hat eigene Zweckbindungen und Löschfristen. Das verhindert, dass ein Agent Daten aus einer Konversation in die nächste mitnimmt, wenn das nicht vorgesehen ist.
4. Live Controller-Processor Mapping
Die DSGVO unterscheidet zwischen Verantwortlichen (Controller) und Auftragsverarbeitern (Processor). Bei KI-Agenten, die mit mehreren Diensten interagieren, kann sich diese Zuordnung zur Laufzeit ändern. Ein Runtime-Registry löst diese Zuordnung dynamisch auf — statt sie einmal in einem AVV (Auftragsverarbeitungsvertrag) festzuschreiben und zu vergessen.
7 Schritte zur compliance-sicheren Implementierung
Basierend auf den regulatorischen Anforderungen und Best Practices ergibt sich ein pragmatischer Implementierungsweg:
- 1. KI-Inventar erstellen: Alle KI-Systeme und Agenten im Unternehmen erfassen — auch die, die Mitarbeiter eigenständig nutzen (Shadow AI)
- 2. Risiko-Klassifizierung: Jedes System nach KI-Verordnung einstufen (minimal, begrenzt, hoch, unakzeptabel). Hochrisiko-Systeme haben die strengsten Anforderungen.
- 3. Rechtsgrundlagen klären: Für jeden Agenten die DSGVO-Rechtsgrundlage definieren (Art. 6) und Auftragsverarbeitungsverträge (AVVs) mit LLM-Anbietern abschließen
- 4. DSFA durchführen: Für jeden Agenten, der personenbezogene Daten verarbeitet, eine Datenschutz-Folgenabschätzung erstellen
- 5. Interne Richtlinien + Schulung: KI-Nutzungsrichtlinien definieren und alle Mitarbeiter schulen — inklusive der Grenzen, was Agenten dürfen und was nicht
- 6. Transparenz sicherstellen: Betroffene Personen müssen wissen, dass ein KI-Agent ihre Daten verarbeitet. Ab August 2026 verschärft die KI-Verordnung die Transparenzpflichten zusätzlich.
- 7. Technische Schutzmaßnahmen: Verschlüsselung, Zugriffskontrolle, Audit-Logging, automatische Datenlöschung — und regelmäßige Überprüfung, ob die Maßnahmen noch greifen
DSFA für KI-Agenten: Wann und wie?
Die Datenschutz-Folgenabschätzung (DSFA) ist für KI-Agenten besonders wichtig — und besonders anspruchsvoll, weil sich das Verhalten eines Agenten über die Zeit verändern kann.
Wann ist eine DSFA Pflicht?
Immer, wenn mindestens zwei dieser Kriterien erfüllt sind:
- Einsatz neuer Technologien (KI-Agenten = ja)
- Systematische Überwachung oder Profiling
- Verarbeitung besonderer Datenkategorien (Gesundheit, Religion, Gewerkschaft)
- Umfangreiche Verarbeitung personenbezogener Daten
- Automatisierte Entscheidungen mit rechtlicher Wirkung
In der Praxis erfüllen die meisten KI-Agenten in Unternehmen mindestens zwei dieser Kriterien.
Was gehört in die DSFA?
- Beschreibung: Was macht der Agent? Auf welche Daten greift er zu? Welche Entscheidungen trifft er?
- Zweck und Rechtsgrundlage: Warum wird der Agent eingesetzt? Welche DSGVO-Rechtsgrundlage greift?
- Risiko-Bewertung: Welche Risiken bestehen für betroffene Personen? Wie wahrscheinlich und wie schwer?
- Maßnahmen: Welche technischen und organisatorischen Maßnahmen minimieren die Risiken?
- Überprüfungsplan: Wann wird die DSFA aktualisiert? (Empfehlung: mindestens jährlich oder bei wesentlichen Änderungen am Agenten)
Wichtig: Die DSFA muss vor dem Einsatz des Agenten durchgeführt werden — nicht nachträglich. Sie ist ein lebendes Dokument, das regelmäßig aktualisiert werden muss.
Fazit
KI-Agenten sind kein rechtsfreier Raum. Die DSGVO gilt bereits heute für jeden Agenten, der personenbezogene Daten verarbeitet. Ab August 2026 kommen die Anforderungen der KI-Verordnung hinzu — insbesondere für Hochrisiko-Anwendungen.
Die gute Nachricht: Wer jetzt mit den Grundlagen anfängt — Datenklassifizierung, Zugriffskontrolle, DSFA und interne Richtlinien — ist für beide Regulierungen gut aufgestellt. Der Aufwand ist überschaubar, wenn man systematisch vorgeht. Wer hingegen wartet, bis die KI-Verordnung am 2. August 2026 durchsetzbar wird, hat ein Problem.