Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit

Navigation und Service

Konsultation zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen

Hier finden Sie alle Informationen zum abgeschlossenen Konsulatationsverfahren der BfDI zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen.

Serverraum mit schwebenen Personensymbolen
Quelle: Getty-Yuichiro Chino

Den ausführlichen Bericht über das Konsultationsverfahren können Sie als PDF-Dokument herunterladen.

KI-Modelle, insbesondere große Sprachmodelle (LLMs), werden mit teils enormen Datenmengen trainiert. Darin befinden sich häufig personenbezogene Daten. Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) sah dementsprechend die Notwendigkeit, datenschutzrechtliche Herausforderungen bei der Planung, dem Training und der Nutzung solcher Modelle systematisch zu thematisieren.

Im Zeitraum vom 10. Juli 2025 bis zum 31. August 2025 führte die BfDI ein Konsultationsverfahren zum datenschutzkonformen Umgang mit personenbezogenen Daten in KI-Modellen durch. Ziel der Konsultation war es, konkrete praktische Erfahrungen, technische Einschätzungen und normative Überlegungen von Akteurinnen und Akteuren aus verschiedenen Bereichen einzuholen. Der Schwerpunkt der Betrachtung lag hierbei auf großen Sprachmodellen.

Zusätzlich zur schriftlichen Konsultation führte die BfDI mehrere Austauschformate mit Vertreterinnen aus Wissenschaft, Wirtschaft, Zivilgesellschaft und öffentlichen Stellen durch. Insgesamt wurden 30 Stellungnahmen für diesen Konsultationsbericht ausgewertet. Die Ergebnisse weisen ein differenziertes Bild auf.

Als Haupterkenntnisse lassen sich die folgenden Ergebnisse festhalten:

  • Bzgl. der Frage der Anonymität eines großen Sprachmodells lässt sich ein diverses Meinungsbild feststellen. Eine Mehrheit spricht sich für eine Anonymität des Modells unter gewissen Umständen aus.
  • Die Positionen bzgl. des Risikos der Extraktion personenbezogener Daten variieren.
  • Es wurden diverse technische Maßnahmen zur Reduktion des Extraktionsrisikos identifiziert.
  • Die Eingabe eines Prompts führt nach mehrheitlicher Auffassung nur dann zu einer Verarbeitung der memorisierten Daten im KI-Modell, wenn sich diese Daten im Output wiederfinden.
  • Es wurden einige Methoden zur Abschätzung der Menge personenbezogener Daten in LLMs vorgeschlagen.
  • Bzgl. der Menge an personenbezogenen memorisierten Daten verwies die Mehrheit an Stellungnahmen darauf, dass eine rein quantitative Einschätzung nicht zielführend sei.
  • Zu der Frage der Betroffenenrechte wurde für das Auskunftsrecht empfohlen, die entsprechenden Trainingsdaten, sofern vorhanden, aufzulisten. Bzgl. der Löschung memorisierter Daten aus dem Modell sprach sich eine Mehrheit der Stellungnahmen für Maßnahmen auf Systemebene aus, insbesondere da Methoden wie Machine Unlearning noch nicht einwandfrei einsetzbar seien.

Die BfDI wird die gewonnenen Erkenntnisse in ihre weitere Beratungs- und Aufsichtstätigkeit einfließen lassen. Ziel bleibt es, Innovation im Bereich der künstlichen Intelligenz zu ermöglichen und zugleich ein hohes Schutzniveau für betroffene Bürgerinnen und Bürger sicherzustellen. Der Dialog mit allen relevanten Akteuren soll daher fortgeführt und weiter vertieft werden.

Die Ergebnisse der Konsultation wurden in einer Veranstaltung der Stiftung Datenschutz vorgestellt.

Eingegangene Stellungnahmen

Hier finden Sie die Stellungnahmen die bei der BfDI im Rahmen des Konsultationsverfahrens eingegangen sind.

Daneben wurden folgende Publikationen im Konsulationsbericht berücksichtigt:

  • Hense in: Kaulartz/Merkle, Rechtshandbuch Künstliche Intelligenz (2026)
  • Stalla-Bourdillon, S., & Rossi, A. (2025). A critical assessment of EDPB Opinion 28/2024: Towards a principle-based approach to innovation? Privacy and Data Protection, 25(6).