06

Kernpunkte:


  • Prüfleitfaden KI
  • Standard-Datenschutzmodell – ein Update
  • Datenpannen in Verbünden und verteilten Systemen KI-Fachgespräch: „Frag‘ für ‘nen Freund“

6          Systemdatenschutz

6.1          Landesebene

6.1.1          Zusammenarbeit mit dem Zentralen IT-Management (ZIT SH)

Auch 2025 war das ULD Gast in der Konferenz der IT-Beauftragten (ITBK), in der das Zentrale IT-Management (ZIT) zusammen mit den IT-Beauftragten der Ressorts über aktuelle und geplante IT-Projekte von zentraler Bedeutung beraten. Ebenso hat das ULD auch 2025 am ITBoard in Sankelmark teilgenommen. In diesem zweitägigen Workshop der IT-Beauftragten der Ressorts und nachgeordneter Behörden zusammen mit dem ZIT wird jährlich über aktuelle Planungen und Arbeiten berichtet.

Ein Schwerpunkt dieses Jahres waren Migrationen zu Open-Source-Produkten, insbesondere im Bereich der Office-Software. Dies betraf insbesondere die Nutzung von E-Mails, bei der zeitgleich sowohl die Software für die Beschäftigten als auch die Hintergrundsysteme (E-Mail-Server) gewechselt wurden. Bei dieser Migration kam es neben längeren Umstellungszeiten (und somit verlängerten Zeiten bei Zugriff auf E-Mails) auch zu einer Datenpanne durch eine Fehlkonfiguration, bei der kurzzeitig E-Mails in falschen Postfächern sichtbar waren.

Ein weiterer Schwerpunkt war die Bereitstellung von Alternativsoftware für einzelne Teile der Microsoft-Bürokommunikationssoftware (MS Office), die insbesondere im nachgeordneten Bereich in spezifischen Verfahren zur Anwendung kommt (lokale kleinere datenbankgestützte Verfahren). Durch den Wegfall der Software MS Office sind Migrationen notwendig, die nicht zentral erfolgen können. Die Hauptlast liegt daher bei den einzelnen Behörden.

Zentral werden hingegen Softwarefunktionen wie Kollaborationssoftware bereitgestellt, bei der ebenfalls Produkte von Microsoft durch Open-Source-Produkte ersetzt werden.

Jegliche Software-Umstellung ist mit Aufwand, Änderungen und möglichen Fehlern verbunden – unabhängig davon, ob es sich um Open-Source-Software handelt oder nicht. Durch den Einsatz von Open-Source-Software steigt aber die Unabhängigkeit von Marktbeteiligten und ihren Betriebsmodellen, da es typischerweise Alternativen gibt.

Es kann weiterhin eine Entwicklung zu Cloud-Modellen beobachtet werden. Dies ist zwar nicht per se sicherheits- oder datenschutzkritisch, bedarf aber einer genauen Analyse und Steuerung. Daher ist es von Vorteil, wenn das Land einer Entscheidung Dritter („Alles in die Cloud“) nicht ausgeliefert ist, sondern realistische alternative Handlungsoptionen hat (Stichwort digitale Souveränität, vgl. 42. TB, Tz. 6.2.4).

Im Bereich der zentralen Steuerung der Informationssicherheit war das ULD ab September wieder als Gast in der AG Informationssicherheit beteiligt. In dieser Arbeitsgruppe arbeitet die zentrale Steuerung der Informationssicherheit des Landes beim ZIT („Chief Information Security Officer“ (CISO)), die 2025 neu organisiert und mit weiteren Ressourcen hinterlegt wurde, mit den jeweils Zuständigen in den Ressorts und Behörden zusammen. Ebenfalls 2025 wurden zentrale Leitlinien im Bereich der Informationssicherheit neu gefasst und in Kraft gesetzt.

 

6.1.2          Zusammenarbeit mit dem ITV.SH

Auch in diesem Berichtsjahr wurde mit dem ITV.SH an der Erstellung und Überarbeitung von Dokumenten für das Projekt „SiKoSH“ (siehe auch 43. TB, Tz. 6.1.2) gearbeitet: Diese Dokumente zum Aufbau eines Sicherheitsmanagements im kommunalen Bereich müssen kontinuierlich angepasst werden, denn sie berücksichtigen Texte und (Sicherheits-)Standards wie die des IT-Grundschutzes, die ihrerseits regelmäßig verändert werden. Gleichzeitig gibt es auch Veränderungen in der Methodik des IT-Grundschutzes, die berücksichtigt werden müssen.

Weitere Berührungspunkte waren Fragen der Umsetzung des Onlinezugangsgesetzes (OZG) für den kommunalen Bereich, bei der der ITV.SH eine wichtige Rolle einnimmt und stellvertretend für die Kommunen OZG-Verfahren pilotiert und sie diesen bereitstellt. Hier ist es sinnvoll, notwendige Arbeiten, z. B. zur Dokumentation, zentral und nur einmal zu bearbeiten.

Selbst wenn die technische Bereitstellung von Onlinediensten zentral erfolgt, sind es am Ende die kommunalen Behörden, die die Verwaltungsverfahren bearbeiten und die datenschutzrechtlich für die Verfahrensschritte bei der Bearbeitung verantwortlich sind. Hierbei gibt es typischerweise örtliche Unterschiede, z. B. bei eingesetzten Fachverfahren oder Dienstleistern, die zu beachten sind.

Die Kunst bei der Dokumentation und Bereitstellung von Informationen gemäß Artikel 13 DSGVO ist nun, alles Identische „vor die Klammer zu ziehen“ und gleichzeitig die örtlichen Unterschiede und Gegebenheiten berücksichtigen zu können. Dazu sind die Informationen entsprechend aufzuteilen.

Da an einigen Dienstleistungen auch zentrale, vom Land bereitgestellte Komponenten (z. B. Servicekonten oder Bezahlverfahren) beteiligt sind, sind diese entsprechend zu berücksichtigen. Im Ergebnis muss hier die technische Aufgabenteilung zwischen Land, ITV.SH und Kommunen sowie den beteiligten Dienstleistern auch in der datenschutzrechtlichen Verantwortlichkeit und in der Dokumentation und Information nachgebildet werden.

Was ist zu tun?
Die Zusammenarbeit mit dem ITV.SH bei der zentralen Bereitstellung von Verfahren und Diensten sollte fortgesetzt werden.

6.1.3          Prüfleitfaden KI – Zusammenarbeit mit dem Landesrechnungshof

In Zusammenarbeit mit dem ULD erarbeitet der Landesrechnungshof (LRH) derzeit einen Prüfleitfaden für KI-Systeme, um einen einheitlichen und nachvollziehbaren Prüfrahmen bereitzustellen. Das Ziel besteht darin, einen Prüfrahmen zu erarbeiten, der die datenschutzrechtlichen Anforderungen der Datenschutz-Grundverordnung (DSGVO) mit den Vorgaben des europäischen Rechtsrahmens für künstliche Intelligenz (KI-VO) sowie mit anerkannten Kriterien für vertrauenswürdige KI verbindet. Der Prüfleitfaden ist als praxisorientierte Orientierungshilfe geplant und erhebt keinen Anspruch auf Vollständigkeit oder die abschließende Regelung sämtlicher denkbarer Anforderungen.

Ein Schwerpunkt der Arbeiten liegt auf der Klärung der Frage, ob eine Anwendung, die vom Verantwortlichen eingesetzt wird, als KI-System im Sinne der KI-Verordnung einzuordnen ist. Hierzu werden klare Abgrenzungskriterien herangezogen. Insbesondere wird berücksichtigt, ob es sich um ein automatisiertes, maschinenbasiertes System handelt, das Ziele verfolgt, Schlüsse ziehen kann und in der Lage ist, Vorhersagen, Entscheidungen oder Empfehlungen zu treffen bzw. Inhalte zu erzeugen. Ein Mindestmaß an eigenständigem Handeln wird vorausgesetzt. Weitere Eigenschaften wie eine Anpassungsfähigkeit im laufenden Betrieb oder eine Einflussnahme auf die Umwelt können vorliegen, sind jedoch nicht zwingend erforderlich.

Auf dieser Grundlage werden Aspekte der Risikoeinstufung von KI-Systemen mit zentralen Gewährleistungszielen verknüpft. Dabei stehen insbesondere die Aspekte Vertraulichkeit, Integrität, Intervenierbarkeit, Nichtverkettbarkeit, Verfügbarkeit sowie Zielerreichung und Wirtschaftlichkeit im Fokus. Ergänzend fließen übergreifende Anforderungen an Fairness, Transparenz, Autonomie und Kontrolle, Verlässlichkeit, Sicherheit sowie Datenschutz in die Betrachtung mit ein. Der Prüfleitfaden zielt dabei nicht auf die Vorgabe detaillierter Einzelmaßnahmen, sondern auf die strukturierte Einordnung relevanter Risiken und Schutzziele im jeweiligen Einsatzkontext ab.

Darüber hinaus werden haftungsrechtliche Fragestellungen beim Einsatz von KI-Systemen behandelt. Schwerpunkte sind dabei Verantwortlichkeiten, Haftungszurechnung sowie die Bedeutung angemessener Dokumentations- und Steuerungsstrukturen für Nachvollziehbarkeit und Rechenschaftspflichten.

Der Prüfleitfaden folgt einem lebenszyklusorientierten Ansatz und umfasst alle Phasen des Einsatzes von KI-Systemen: von Design und Entwicklung über Einführung und Betrieb bis hin zu Monitoring und Weiterentwicklung. Entlang dieses Lebenszyklus wird ein beispielhafter Prüfkatalog erarbeitet. Dieser strukturiert prüfrelevante Fragestellungen und unterstützt eine einheitliche Betrachtung von KI-Systemen über ihre gesamte Lebensdauer hinweg.

Mit dem Abschluss der Arbeiten wird im Frühjahr 2026 gerechnet.


6.2          Deutschlandweite und internationale Zusammenarbeit der Datenschutzbeauftragten

6.2.1       AK Technik

AK Technik
Der Arbeitskreis Technik (AK Technik) beschäftigt sich mit technischen Fragestellungen, die in der Datenschutzberatung und Aufsichtspraxis aufgeworfen werden. Auch Fragen der organisatorischen Datensicherheit gehören zum Aufgabenbereich. Neben Vertretern der Datenschutzaufsichtsbehörden des Bundes und der Länder gehören auch Vertreter des Datenschutzes aus den Kirchen und dem Rundfunk, der Medienaufsicht aus Bayern sowie Datenschutzaufsichtsbehörden im deutschsprachigen Ausland dem Arbeitskreis an.

Die Schwerpunkte der Arbeit des AK Technik lagen auch in diesem Jahr bei Arbeiten am Standard-Datenschutzmodell (SDM, Tz. 6.2.2) sowie zahlreichen Zuarbeiten, etwa im Bereich der künstlichen Intelligenz (Tz. 6.2.5) und der Umsetzung des OZG (Onlinezugangsgesetz). Hier gab es Beiträge zu einem Dokument der Datenschutzkonferenz (DSK), das einen standardisierten Prüfprozess für sogenannte „EfA-Onlinedienste nach Onlinezugangsgesetz“ beschreibt. EfA-Onlinedienste sind Onlinedienste, die einmal entwickelt werden, dann aber durch zahlreiche Länder bzw. Kommunen als Onlinedienst genutzt bzw. für diese bereitgestellt und betrieben werden können („Einer für Alle“).

Dokument zum Prüfprozess von Onlinediensten:

https://www.datenschutzkonferenz-online.de/media/dskb/DSK_Standardisierter_Pruefprozess_OZG.pdf[Extern]
Kurzlink: https://uldsh.de/tb44-6-2-1a

Relevant in diesem Zusammenhang sind auch Gespräche mit der FITKO (Föderale IT-Kooperation), die als „operativer Unterbau des IT-Planungsrats“ auch mit der Konzeption und dem Betrieb von Verfahren und Kommunikationsstrukturen bei der Umsetzung der OZG-Dienste befasst ist. Dadurch ergeben sich zahlreiche Berührungspunkte zu den Bundesländern.

Technology Expert Subgroup
Die Technology Expert Subgroup ist ein Fachausschuss des Europäischen Datenschutzausschusses (EDSA), der sich auf europäischer Ebene mit technischen Fragestellungen beschäftigt. Aufträge für die Erstellung umfangreicher Dokumente erteilt der EDSA.

Im AK Technik entstand auch ein Dokument, dass die Grenzen des sogenannten „Confidential Cloud Computing beleuchtet. Hierbei handelt es sich um Verfahren, die auch den Betreiber einer Cloud-Infrastruktur davon abhalten können bzw. sollen, Kenntnis der verarbeiteten Daten zu nehmen. Während dies bei ruhenden Daten (z. B. einem Onlinearchiv) oder Datenübertragungen (Stichwort SSL/TLS) vergleichsweise einfach umzusetzen ist, ist diese Anforderung bei der Verarbeitung von Daten im Hauptspeicher eines Servers, etwa bei der Bereitstellung eines Webdienstes, dem Durchsuchen von Datenbeständen oder dem Betrieb einer Datenbank, nur schwer umzusetzen. Confidential Cloud Computing kann hierbei den Kreis der Zugriffsberechtigten stark einschränken. Gegen ein Angreifermodell, in dem der Angreifer Zugriff auf Hardware, Software und kryptografische Schlüssel hat, hilft Confidential Cloud Computing allerdings nur eingeschränkt.

Hier ist das Dokument zu „Confidential Cloud Computing“ abrufbar:

https://www.datenschutzkonferenz-online.de/media/en/DSK-Entschliessung_Confidential_Cloud_Computing.pdf[Extern]
Kurzlink: https://uldsh.de/tb44-6-2-1b

Weitere Zulieferungen gab es für die Technology Expert Subgroup, insbesondere im Bereich der Anonymisierung und Pseudonymisierung (siehe auch Tz. 6.2.3) sowie zu Leitlinien für die Übermittlung von Telemetrie- und Diagnosedaten. Hier sind die Arbeiten aber noch nicht abgeschlossen.


6.2.2       Standard-Datenschutzmodell – ein Update

Im Jahr 2025 wurde an der Modernisierung des SDM gearbeitet, nachdem die Datenschutzkonferenz (DSK), das Gremium der unabhängigen deutschen Datenschutzaufsichtsbehörden des Bundes und der Länder, im Jahr zuvor die Bedeutung des SDM erneut herausgehoben hatte und die Datenschutzbeauftragten Deutschlands beschlossen hatten, mehr Ressourcen aus ihren Häusern für die Pflege und Weiterentwicklung der Methode bereitzustellen.

Die Aufträge der DSK

Die Aufträge der DSK Ende 2024 an die Unterarbeitsgruppe SDM (UAG SDM) hatten es in sich: Englischübersetzung des SDM, Erarbeitung einer neuen Gliederung für Maßnahmenbausteine, Überarbeitung des generischen Maßnahmenkatalogs, Erarbeitung eines Glossars mit Bereinigung begrifflicher Unzulänglichkeiten, Erarbeitung eines Leitfadens zur Anbindung externer SDM-Expertinnen und -Experten, Erarbeitung einer Checkliste zum Vergleich SDM mit anderen Vorgehensmodellen, Erarbeitung einer SDM-Sonderedition („SE“), Erarbeitung weiterer Bausteine sowie die Vorstellung des SDM auf der europäischen Bühne.

Bis auf die Checkliste und die Vorstellung des SDM auf EU-Ebene, die beide sinnvollerweise erst nach Abschluss der anderen Arbeiten erfolgen sollten, wurden die Arbeiten aufgenommen – mit bereits ersten Zwischenergebnissen. Das Jahr 2026 wird davon gekennzeichnet sein, die Zustimmung der Gremien für die teilweise inzwischen vorliegenden Entwürfe zu erreichen.

Einblick ins Labor

Die neue Gliederung für Bausteine wurde am Beispiel des Bausteins „Protokollierung“ erarbeitet und liegt als Entwurf vor. Während dieser Überarbeitung – sowie an der parallel durchgeführten Überarbeitung auch des generischen Maßnahmenkatalogs – entschied sich die Entwicklergruppe, eine Innovation des IT-Grundschutzes zu übernehmen. In Anlehnung an die OSCAL-Orientierung des „Grundschutz++“ werden zukünftig auch SDM-Maßnahmen in Form von Satzschablonen formuliert. Eine solche Satzschablone ist eine vordefinierte syntaktische Struktur, die umgehend mehr Klarheit verschafft. Langfristig besteht das Ziel darin, Datenschutzprüfungen auf der operativen Ebene stärker zu automatisieren und „vollständiger“ durchführen zu können.

Intensiv hat sich die Arbeitsgruppe auch mit der Analyse beschäftigt, warum das SDM in der Praxis noch zu wenig genutzt wird. Das Ergebnis dieser Analyse lautete, dass das SDM zwar ein sehr gutes Modell zur wechselseitigen Transformation von normativen und operativen Anforderungen, aber keine Schritt-für-Schritt-Methode für die konkrete typische Durchführung von Prüfungen und Beratungen biete. Für erfahrene DSB reicht die Kenntnis des Modells, insbesondere mit der Anwendung des SDM-Würfels, um daraus dann eine für die eigene Organisation angepasste Methodik zu entwickeln. Weniger erfahrene DSB mit kleinen Zeitanteilen für den operativen Datenschutz möchten dagegen ungleich stärker durch die Prozesse geführt werden. Dabei muss dann immer klar sein, welcher Bezug zu Anforderungen der DSGVO besteht und welche konkrete Hilfe das SDM dafür vorgesehen hat. Deshalb stand das letzte Drittel des Jahres unter dem wegweisenden Motto „Vom Modell zur Methode“. Die Lösung wird in der Herausgabe einer Sonderedition („SE“) des SDM gesehen. Die Beratungen zur Sonderedition sind noch nicht abgeschlossen, ein erster belastbarer Entwurf des Konzepts liegt vor.

Im Rahmen der Arbeiten am Glossar wurde entschieden, dass begriffliche Klärungen zunächst im Modelltext herbeigeführt werden müssen und dass das Glossar nur passiv wiedergibt, was im Text steht. Klärungen im Methodentext herbeizuführen sind allerdings langwierig und unterliegen Beratungen des AK Technik und häufig auch der DSK. Eine besondere Zusatzfunktion des Glossars wird darin bestehen, verstärkt auch Quellen (z. B. SDM-Eigenentwicklung, DSK- oder EDSA-Beschluss, Gerichtsurteil) auszuweisen.

Auch die Klärung der Anbindung von externen SDM-Expertinnen und -Experten an die UAG SDM, die außerhalb der Gremien der Datenschutzbehörden agieren, ist vorangekommen. Bislang wurde nur ein „Patenmodell“ angeboten, wonach Externe sich ein Mitglied aus dem Kreis der UAG SDM suchen mussten, über das externe Zuarbeiten in die Entwicklungen der UAG SDM eingespeist werden konnten. Diese nach wie vor bestehende Lösung wurde bislang noch nie gewählt. Es liegt deshalb ein Entwurf vor, wonach zunächst eine Grundsatzentscheidung der DSK zur Möglichkeit externer Zuarbeiten für die UAG SDM herbeigeführt werden soll. Wenn diese vorliegt, sieht das Konzept vor, bestimmte Formen der Zusammenarbeit zu erproben. Dies kann in der gemeinsamen Durchführung eines „SDM-Tages“ bestehen und bis zur gemeinsamen Bearbeitung von Bausteinen reichen.

Das SDM-V3.1 ist unter dem folgenden Link abrufbar:

https://www.datenschutz-mv.de/static/DS/Dateien/Datenschutzmodell/SDM-Methode_V31.pdf[Extern]
Kurzlink: https://uldsh.de/tb44-6-2-2a


6.2.3       EDSA-Guidelines zu Pseudonymisierung und Anonymisierung – ein Update

Im Tätigkeitsbericht des Vorjahres wurde bereits über die Arbeiten an zwei Leitlinien des Europäischen Datenschutzausschusses (EDSA) zu den Themen Pseudonymisierung und Anonymisierung berichtet (43. TB, Tz. 6.2.4). An der Erstellung beider Leitlinien sind wir beteiligt. Die Arbeiten sind weit fortgeschritten, aber noch nicht abgeschlossen.

Die Leitlinie zur Pseudonymisierung behandelt die Frage, wie die Vorgaben der DSGVO zur Pseudonymisierung (Art. 6 Buchst. e, Art. 25 Abs. 1, Art. 32 Abs. 1 Buchst. a DSGVO) praktisch umgesetzt werden können, sodass die eingesetzten Pseudonymisierungsverfahren die Vorgaben der Definition in Art. 4 Nr. 5 DSGVO erfüllen.

Zu Beginn des Jahres erfolgte eine öffentliche Konsultation durch den EDSA, deren Ergebnisse in eine neue Fassung eingearbeitet werden sollen. Unterbrochen wurden die Arbeiten durch ein Urteil des EuGH (C-413/23 P), das sich mit Fragen der Pseudonymisierung und des Personenbezugs in der Verordnung (EU) 2018/1725 befasst. Diese regelt die Verarbeitung personenbezogener Daten durch die Organe, Einrichtungen und sonstigen Stellen der Europäischen Union. Da das Urteil auf die Regelungen der DSGVO übertragbar ist, wird derzeit die Leitlinie angepasst, um die Aussagen des Urteils zu berücksichtigen.

In der Leitlinie zur Anonymisierung wird betrachtet, wann es sich bei Daten um „personenbezogene Daten“ im Sinne von Art. 4 Nr. 1 DSGVO handelt, und es werden entsprechende Kriterien entwickelt. Aus technischer Sicht hätte man gerne einen Prüfalgorithmus, mit dem eindeutig über einen Personenbezug entschieden werden kann.

Doch so einfach ist die Welt nicht: eine Schwierigkeit bei der Entscheidung „Personenbezug ja/nein“ besteht darin, dass im zugehörigen Erwägungsgrund 26 auch Aspekte genannt sind, die einer Auslegung und Einschätzung bedürfen. Beispielsweise sollen für eine Entscheidung „alle Mittel berücksichtigt werden, die von dem Verantwortlichen oder einer anderen Person nach allgemeinem Ermessen wahrscheinlich genutzt werden, um die natürliche Person direkt oder indirekt zu identifizieren, wie beispielsweise das Aussondern“.

Dies führt zu der Frage, wie der Begriff „nach allgemeinem Ermessen wahrscheinlich“ in konkrete Prüfschritte übersetzt werden kann. Und zu der Frage, ob es über „Aussondern“ hinaus weitere Möglichkeiten gibt, einen direkten oder indirekten Personenbezug herzustellen, welche das sind und wie man diese Möglichkeiten überprüft. Die Kunst ist dabei, bei der Beschreibung alle realistischen Fälle zu erfassen, ohne dabei fernliegende Fälle mit einzuschließen.

Auch die Arbeiten an dieser Leitlinie wurden zwischenzeitlich unterbrochen: Zum einen sollen gemäß einer neuen Verfahrensregelung Dritte frühzeitig und vor der Erstellung von Leitlinien eingebunden werden. Dieser Verfahrensschritt passt zwar nicht zum derzeit fortgeschrittenen Entwurfsstadium, ist aber dennoch Ende 2025 „nachgeholt“ worden; die Ergebnisse müssen eingearbeitet werden. Zum anderen gibt es seit dem Herbst 2025 Änderungsvorschläge für die DSGVO (Tz. 2.5), die insbesondere die Definition des Personenbezugs betreffen. Da dies ein zentraler Punkt ist, ist der Abschluss der Leitlinien erst sinnvoll, wenn die Rechtslage feststeht.

Zwischenzeitlich haben einige Datenschutzbehörden in Deutschland in einem Modellverfahren versucht, den bisherigen Stand beider Leitlinien auf konkrete Verfahren anzuwenden, beispielsweise auf die Anonymisierungen von Daten aus dem Straßenverkehr oder die Pseudonymisierung von Daten für ein fiktives KI-Training. Schwerpunkte waren hier die realistische Beschreibung fiktiver Fälle, ihre Einordnung in den Rechtsrahmen (beispielsweise Regelungen des Straßenverkehrsrechts und der medizinischen Forschung) und die Beschreibung von Anonymisierungs- und Pseudonymisierungsverfahren. Der letzte Schritt, nämlich die Beurteilung, ob die beschriebenen Verfahren den Anforderungen der Leitlinien genügen, kann erst nach der Fertigstellung der Leitlinien abgeschlossen werden.

Der Abschluss beider Leitlinien wird 2026 erwartet.


6.2.4       Orientierungshilfe RAG-Systeme

Im Berichtszeitraum war das ULD aktiv an der Erarbeitung der „Orientierungshilfe zu datenschutzrechtlichen Besonderheiten generativer KI-Systeme mit RAG-Methode“ der Datenschutzkonferenz beteiligt. Dieses Papier beleuchtet die datenschutzrechtlichen Anforderungen beim Einsatz von Retrieval Augmented Generation (RAG) – einer neueren KI-Technologie, bei der große Sprachmodelle durch gezielten Zugriff auf z. B. organisationsinterne Wissensbestände ergänzt werden, um kontextspezifische und überprüfbare Antworten zu erzeugen. Die RAG-Methode ist dabei eine Alternative zum Nachtrainieren von KI-Modellen mit zusätzlichen Informationen.

Die Orientierungshilfe hat sich als äußerst praxisrelevant erwiesen, da viele innovative Unternehmen und Behörden derzeit erste konkrete Anwendungsfälle mit RAG-Systemen entwickeln oder entsprechende Services implementieren möchten. Sie bietet nicht nur eine verständliche Definition und technische Grundlagen der RAG-Methode, sondern insbesondere rechtliche und technische Hinweise, wie die Grundsätze der DSGVO in diesem Kontext umgesetzt werden können.

Ein zentrales Anliegen unserer Mitarbeit war es, datenschutzrechtliche Schwerpunkte schon in diesem frühen Entwicklungsstadium der Technologie zu setzen. Dabei konnten wesentliche Hinweise zur Sicherstellung von Transparenz, Zweckbindung, Datenminimierung und zur Wahrung der Betroffenenrechte eingebracht werden – mit dem Ziel, den weiteren technologischen und regulatorischen Entwicklungsprozess in datenschutzfreundliche Bahnen zu lenken.

Die Orientierungshilfe wurde von der Fachöffentlichkeit mit großem Interesse aufgenommen. Da das Papier angesichts der dynamischen Entwicklung der KI-Technologie gegebenenfalls mittelfristig einer Anpassung bedarf, können Rückmeldungen für eine Überarbeitung sehr hilfreich sein. Auch vor diesem Hintergrund wird die frühzeitige Bereitstellung dieser praxisorientierten Hilfestellung als wichtiger Beitrag bewertet, um die Potenziale der Technologie nutzbar zu machen, ohne datenschutzrechtliche Risiken aus dem Blick zu verlieren.

Ausblickend bietet die aktuelle Orientierungshilfe eine solide Grundlage, die in weiteren Iterationsschritten noch stärker auf spezifische Einsatzszenarien und weiterführende technische Entwicklungen eingehen kann. Insbesondere eine weiter gehende Spezialisierung von Modellen auf spezifische Fachdomänen und die datenschutzfreundliche Gestaltung von Trainingsprozessen könnten dazu beitragen, die Vorteile von RAG-Systemen noch stärker auszuschöpfen und datenschutzkonform zu realisieren.

Die Orientierungshilfe zu datenschutzrechtlichen Besonderheiten generativer KI-Systeme mit RAG-Methode ist hier abrufbar:

https://www.datenschutzkonferenz-online.de/media/oh/DSK_OH_RAG.pdf[Extern]
Kurzlink: https://uldsh.de/tb44-6-2-4a

Was ist zu tun?
Jedes Feedback zur Orientierungshilfe mit Kritikpunkten, Änderungs- und Konkretisierungswünschen ist herzlich willkommen und kann an das ULD gegeben werden.

6.2.5          Orientierungshilfe zu Maßnahmen bei Entwicklung und Betrieb von KI-Systemen

Mit der zunehmenden Entwicklung von KI-Anwendungen und -Services in verschiedenen Bereichen stellen sich auch immer mehr Fragen zur konkreten Umsetzung von datenschutzrechtlichen Anforderungen. Das ULD hat aktiv an der Erstellung der „Orientierungshilfe zu empfohlenen technischen und organisatorischen Maßnahmen bei der Entwicklung und beim Betrieb von KI-Systemen“ der Datenschutzkonferenz mitgewirkt. Diese 28-seitige Orientierungshilfe richtet sich gezielt an Hersteller sowie Betreiber von KISystemen und geht damit über das traditionelle Adressatenfeld datenschutzrechtlich verantwortlicher Stellen hinaus. Die Ausrichtung auf Entwicklungsteams und Betreiber ist eine direkte Reaktion auf den erkennbaren Beratungsbedarf und zahlreiche Anfragen aus dieser Gruppe, die in der Praxis zunehmend vor datenschutzrechtliche Herausforderungen bei der Entwicklung und Nutzung von KI-Systemen gestellt werden. Damit dient die Orientierungshilfe auch der Anforderung aus Artikel 25 DSGVO und unterstützt den Datenschutz durch Technikgestaltung.

Ein zentrales Merkmal der Orientierungshilfe ist ihre strukturierte Gliederung entlang des Lebenszyklus eines KI-Systems. Die Arbeitshilfe gliedert die datenschutzbezogenen Anforderungen in vier aufeinanderfolgende Phasen – Design, Entwicklung, Einführung sowie Betrieb und Monitoring – und ordnet zu jeder Phase die relevanten technischen und organisatorischen Maßnahmen systematisch an. Durch diese lebenszyklusorientierte Darstellung erhalten unterschiedliche Beteiligte entlang der Entwicklungs- und Betriebsprozesse jeweils präzise Hinweise, welche Anforderungen in ihrem Tätigkeitsbereich zu beachten sind.

Die Orientierungshilfe verfolgt dabei konsequent eine Analyse anhand der Gewährleistungsziele des Standard-Datenschutzmodells (SDM). Die sieben Gewährleistungsziele werden jeweils in den einzelnen Phasen erläutert und mit konkreten technischen Maßnahmen verknüpft. Diese Strukturierung unterstützt auch Personen mit wenig Vorkenntnissen im Datenschutz dabei, die Hintergründe und rechtlichen Grundlagen der Anforderungen zu verstehen und praktisch umzusetzen.

Trotz der komplexen und vielseitigen Anforderungen, die mit dem Einsatz von KI-Technologien verbunden sind, ist es gelungen, die Orientierungshilfe auf kompakten 28 Seiten zu verfassen. Für viele Anwenderinnen und Anwender sind die wesentlichen Passagen für ihre konkrete Aufgabe klar und prägnant zusammengefasst, sodass sie die relevanten datenschutzrechtlichen Aspekte schnell erfassen und in der Praxis anwenden können.

Die Orientierungshilfe konnte bereits in mehreren Fällen erfolgreich als praxisnahe Hilfestellung empfohlen werden, insbesondere wenn die Gesprächspartner einen fundierten ersten Überblick über datenschutzrechtliche Anforderungen an KI-Systeme suchten und diese in ihren Entwicklungs- oder Implementierungsprozessen berücksichtigen wollten. Sie leistet somit einen wichtigen Beitrag, datenschutzkonforme Gestaltung und Innovation in der KI-Entwicklung zu fördern.

Die Orientierungshilfe zu empfohlenen technischen und organisatorischen Maßnahmen bei der Entwicklung und beim Betrieb von KI-Systemen ist hier verfügbar:

https://www.datenschutzkonferenz-online.de/media/oh/DSK-OH_KI-Systeme.pdf[Extern]
Kurzlink: https://uldsh.de/tb44-6-2-5a


6.3          Ausgewählte Ergebnisse aus Prüfungen, Beratungen und Meldungen nach Artikel 33 DSGVO

6.3.1       Erkenntnisse aus Datenpannenmeldungen

Weiterhin beschäftigen uns Meldungen nach Artikel 33 DSGVO über Datenschutzverletzungen, umgangssprachlich „Datenpannenmeldungen“, sehr.

Ein Schwerpunkt liegt bei typischen internen Fehlern, etwa einer Fehlbedienung eines Geräts, einer Fehleingabe einer E-Mail-Adresse oder Verwechslungen beim postalischen Versand, die dann zu einer unbefugten Datenoffenbarung führen. Auch eine fehlerhafte Konfiguration der Berechtigungsverwaltung, die zu weite Einsichtsrechte in Datenbestände erlaubt, gehört dazu. Nicht immer lassen sich technische Maßnahmen finden, um dies zukünftig zu vermeiden; hier ist die Stärkung organisatorischer Prozesse, z. B. Kontrollen nach dem Vieraugenprinzip, zielführend.

Handelt es sich um technische Konfigurationen, z. B im Berechtigungsmanagement, ist neben der richtigen Festlegung der Sollvorgaben (etwa im Rechtemanagement: „Wer soll was dürfen?“) auch die richtige Umsetzung („Was wurde konfiguriert?“) zu prüfen. Dies sollte nicht nur auf der Ebene der Konfiguration („Welche Konfigurationseinstellungen wurden vorgenommen“?) erfolgen, sondern es ist, soweit möglich, auch die tatsächliche Wirksamkeit zu überprüfen: Wird das Ziel durch die vorgenommene Konfiguration tatsächlich erreicht? Typisches Beispiel ist die Überprüfung, ob Personen, Nutzergruppen oder Geräte, die keine Zugriffsberechtigung haben sollen, tatsächlich nicht zugreifen können oder ob die programmierten Back-up- und Löschzyklen tatsächlich eingehalten werden.

Durch Überprüfungen können Fehlkonfigurationen erkannt werden: Nicht immer wirkt eine Konfiguration wie erwartet oder wie gedacht. Dies kann an Softwarefehlern oder aber an falschen Annahmen über die genaue Wirkungsweise der Konfiguration liegen. Gerade im Berechtigungsmanagement auf Dateiebene (z. B. NTFS-Berechtigungen im Windows-Umfeld) oder im Management von Berechtigungsgruppen (z. B. in Verzeichnisdiensten) lauern Fehlerquellen. Wenn diese nicht erkannt werden, sind Datenschutzverletzungen vorprogrammiert.

Ein weiterer Schwerpunkt lag auf Verletzungen des Schutzes der Verfügbarkeit von Daten – sie waren schlicht gelöscht, unbefugt verschlüsselt oder sind als Nachrichten nicht übertragen worden. Ursachen waren zum einen Cyberangriffe mit Verschlüsselungstrojanern (vgl. 42. TB, Tz. 6.3.2), aber auch Fehlbedienungen (Tz. 4.1.4) oder Konfigurationsfehler. Dies kann große negative Auswirkungen auf Betroffene haben, wenn es keine Datensicherungen (Back-ups) gibt oder ein Fehlen von Nachrichten schlicht unbemerkt bleibt: Absender von elektronischen Anträgen oder Bewerbungen gehen davon aus, dass sie den Empfänger erreichen. Handelt es sich um Erstkontakte, so werden ausbleibende Nachrichten von den Empfängern nicht vermisst. Erst nach längerer Zeit fragen dann die Absender nach ausbleibenden Antworten – möglicherweise über den gleichen, nicht funktionierenden Kommunikationsweg. Bis diese Art von Kommunikationspanne erkannt wird und aufgeklärt ist, kann wertvolle Zeit vergehen. Und auch die Ermittlung der Ursache, an welcher Stelle genau es gehakt hat, kann schwierig sein (Tz. 6.3.2).

Weiterhin ein Klassiker sind unbefugte Zugriffe auf E-Mail-Konten, die meist durch Missbrauch (z. B. Versand von Spam im Namen des Kontoinhabers) erkannt werden. Im Raum steht dann aber nicht nur die missbräuchliche Verwendung durch Dritte, sondern auch ein unbefugter Datenzugriff: Wer mit einem fremden E-Mail-Konto Spammails versenden kann, kann auch die E-Mails lesen, umleiten, Kennwörter ändern usw. Daher ist der Spamversand erst der Anfang der Datenschutzverletzung, und es muss ermittelt werden, ob unbefugte lesende Zugriffe erfolgten.

Die Ursache sind meist abgefangene Zugangsdaten (Stichwort Phishing), gepaart mit der Möglichkeit, allein mit Nutzernamen und Passwort über das Internet auf (cloudbasierte) EMail-Systeme zugreifen zu können. Wie bereits im 42. TB, Tz. 6.3.2 und 43. TB, Tz. 6.3.1 ausgeführt, sind daher zusätzliche Sicherungsmaßnahmen zu ergreifen, beispielsweise eine Zwei-Faktor-Authentifizierung oder die Begrenzung des Zugriffs auf bestimmte Netze (z. B. über ein VPN oder IP-Adresskreise) oder bestimmte Endgeräte (z. B. dienstlich genutzte Geräte).

Auch die Sensibilisierung der Kundinnen und Kunden oder Beschäftigten gegen diese Art von Angriffen kann helfen, sie aber nicht unterbinden: Während der Rat „kein Passwort-Recycling, sondern unterschiedliche Passwörter für unterschiedliche Nutzerkonten“ vergleichsweise leicht durch die Nutzerinnen und Nutzer umzusetzen ist, ist dies beim Ratschlag „Falle nicht auf Phishing herein!“ nicht der Fall: Mittlerweile sind Phishing-E-Mails sprachlich so ausgereift und überzeugend, dass sie wirklich schwer zu erkennen sind. Kombiniert mit täuschend ähnlichen gefälschten Webdiensten und Eingabefenstern für Zugangsdaten muss man schon genau aufpassen, um nicht in die Falle zu tappen.

Was ist zu tun?
Um Datenschutzverletzungen zu vermeiden, sind sorgfältige technische Konfiguration, zeitnahes Einspielen von Sicherheitspatches und zusätzliche Sicherheitsmaßnahmen beim Zugriff auf Cloud-Dienste notwendig.

 

6.3.2       Datenpannen in Verbünden und verteilten Systemen

Im vergangenen Jahr erreichten uns verschiedene Meldungen nach Artikel 33 über Datenpannen, die in Verbundsystemen aufgetreten waren. Meist handelte es sich um Nachrichten in Onlineportalen, die aus technischen Gründen nicht korrekt weitergeleitet wurden. Aufgefallen ist dies meist durch Nachfragen von Betroffenen beim Empfänger, der die Nachrichten aber nicht erhalten und daher nicht bearbeitet hat.

Insbesondere bei Webformularen, deren Inhalte an andere Institutionen oder Behörden weitergeleitet werden, führen Fehler in der Weiterleitung schnell zu Problemen. Um dies nachvollziehen zu können, sei zunächst der technische Ablauf kurz erläutert: Nutzerinnen und Nutzer rufen ein Webformular auf, geben entsprechende Inhalte ein und laden gegebenenfalls Anhänge hoch. Während der Eingabe können Inhalte auf Vollständigkeit geprüft werden; ebenso können nicht lesbare Anhänge oder nicht unterstützte Dateiformate abgelehnt werden. Mit dem Ende des Dialogs und dem Absenden endet der Kontakt des Portals zu den Nutzenden.

Nach dem Absenden der Eingabe wird technisch eine Nachricht (Datenpaket) erzeugt und dem Empfänger direkt übermittelt (z. B. über E-Mail-artige Systeme) oder zum Abruf bereitgestellt. Wer der Empfänger ist, hängt von den Eingaben (z. B. zuständige Behörde des Wohnortes) ab. Je nach Empfänger und technischer Anbindung kommen zur Übermittlung zwei Möglichkeiten in Betracht. Der Abruf kann direkt durch den Empfänger oder durch einen beauftragten Dritten erfolgen, der dann seinerseits für die Weiterleitung an den Empfänger zuständig ist. Diese Option wird häufig gewählt, wenn die Anzahl möglicher Empfänger sehr groß ist (z. B. alle Kommunalverwaltungen in Deutschland): Damit nicht sämtliche möglichen Empfänger und ihre technische Adressierung in dem Portalsystem verwaltet werden müssen, kommen Zwischenstellen, z. B. Landesdienstleister, zum Einsatz. Diese rufen die Nachrichten ab und sind dann ihrerseits dafür zuständig, sie an den richtigen Empfänger zu übermitteln. Der Empfänger verarbeitet schließlich die Nachrichten eigenständig weiter, z. B. in einem zentralen Posteingang oder direkt in seinen Fachverfahren.

Technische Fehler bei der Übermittlung können dabei an verschiedenen Stellen auftreten: Zum einen können Adressierungsinformationen veraltet oder falsch sein, sodass das Portal die Nachrichten nicht den korrekten Empfängern zuordnen oder zustellen kann. Zum anderen kann es Probleme bei der Weiterleitung in nachfolgenden Systemen geben, z. B. bei beauftragten Dritten (Stichwort Landesdienstleister) oder innerhalb der Empfängerorganisation, etwa bei der Übertragung in Fachverfahren. Man kann die Fehlermöglichkeiten etwa mit dem Versand bei Briefen oder Paketen vergleichen – auch hier gibt es zahlreiche Fehlerquellen, die von unleserlichen oder falschen Anschriften über Fehlsortierungen, kaputte Fahrzeuge, vergessene Zustellungen bis hin zu Irrläufern im Hause des Empfängers reichen.

Zu dem Zeitpunkt, zu dem die Fehler auftreten oder bemerkt werden, gibt es keinen Kontakt zu den Absendenden der Nachricht – diese können über Fehler nicht benachrichtigt werden. Stattdessen haben sie nach dem Absenden der Nachricht eine Meldung erhalten, dass die Nachricht erfolgreich abgesendet wurde. Diese besagt aber nicht, dass die Nachricht erfolgreich beim Empfänger angekommen ist – ähnlich wie ein Einlieferungsbeleg einer Paketsendung auch keine Aussage über die Auslieferung treffen kann. Und anders als bei Paketen oder E-Mails tragen die Nachrichten auf der Außenseite keine Absenderkennung. Die Betroffenen haben auf die technischen Fehler der Nichtzustellung keinen Einfluss. Sie rechnen mit einer korrekten Zustellung, und erst wenn diese scheitert, erfahren sie von einer Nichtzustellung.

Daher ist es wichtig, dass der Zustellprozess reibungslos läuft. Dies ist umso wichtiger, wenn Betroffene auf eine schnelle Bearbeitung angewiesen sind (etwa bei Leistungen wie Wohngeld) und zukünftig ausschließlich Onlineverfahren eingesetzt werden. Die Möglichkeiten, auf technische Fehler zu reagieren, sind eingeschränkt. Sie bestehen in erster Linie darin, Fehler zu protokollieren, die Protokolle zu überprüfen und daraus Handlungen abzuleiten, z. B. einen erneuten Versand, die Information der Empfänger (etwa wenn diese wiederholt Nachrichten nicht abrufen) oder eine manuelle Ermittlung der korrekten technischen Empfängeradresse. Hier musste in der Vergangenheit nachgesteuert werden, wenn an der Zustellung beteiligte Stellen nicht die richtigen Schlüsse aus den Fehlerprotokollen gezogen haben: Anders als in der Paketwelt werden Nachrichten in den Zwischensystemen nur eine begrenzte Zeit vorgehalten oder nach erfolgreicher Übertragung an das nächste System automatisch gelöscht. Wenn dann später das Fehlen einer Nachricht bemerkt wird, ist diese im absendenden System meist nicht mehr vorhanden. Wenn eine Nachricht gar nicht zugestellt werden kann, müsste man sie analysieren, um den Absender ermitteln und informieren zu können. Eine Inhaltsanalyse ist aber aus gutem Grund nicht vorgesehen.

Was ist zu tun?
Bei der Verarbeitung von Nachrichten in Portal- und Verbundsystemen ist wegen der Vielzahl von Beteiligten und Datenübertragungen besonders darauf zu achten, dass Fehler protokolliert, durch ein fortlaufendes Monitoring erkannt und abgestellt werden.

6.3.3          KI-Fachgespräch: „Frag' für 'nen Freund"

Grafik einer Person mit einer Sprechblase über dem Kopf. In der Sprechblase ist eine andere Person zu sehen, die eine Frage stellt.Die zunehmende Integration von KI-Anwendungen in Unternehmen und Behörden stellt nach wie vor hohe Anforderungen an alle Beteiligten. Neben der dynamischen technischen Entwicklung führen neue gesetzliche und regulatorische Vorgaben zu zusätzlichen Anforderungen an die Planung, Entwicklung und den Einsatz von IT-Anwendungen. Somit stehen Organisationen vor der Herausforderung, technische Innovationen und rechtliche Anforderungen frühzeitig miteinander zu verknüpfen. Gleichzeitig sind Aufsichtsbehörden darauf angewiesen, Einblicke in die praktischen Fragestellungen und Erfahrungen aus der Umsetzung von KI-Technologien zu erhalten, um praxisnahe und umsetzbare Hinweise geben zu können.

Vor diesem Hintergrund hat sich das Veranstaltungsformat „Frag' für 'nen Freund“ als geeigneter Rahmen für einen offenen und fachlichen Austausch zwischen Organisationen und Aufsichtsbehörden bewährt. Die Veranstaltung bietet Gelegenheit, Fragen zu neuer KI-Technologie, rechtlichen Rahmenbedingungen und praktischen Fragen der Umsetzung zu stellen und gemeinsam zu diskutieren. Durch den direkten Dialog können unterschiedliche Sichtweisen eingebracht und bestehende Unklarheiten frühzeitig angesprochen werden.

Seit der ersten Veranstaltung im November 2024 hat „Frag' für 'nen Freund“ bereits fünfmal stattgefunden und stößt weiterhin auf großes Interesse. Die Termine werden dabei abwechselnd unter den Titeln „Frag' für 'nen Freund“ und „Frag' für 'ne Freundin“ durchgeführt. Die Vorstellung von aktuellen Fragen und auch Lösungsansätzen aus öffentlichen und nichtöffentlichen Stellen im Land steht im Mittelpunkt und regt immer wieder weiter gehende Fragen und Überlegungen in der wachsenden Gruppe an Teilnehmenden an. Typische Fragestellungen betreffen die Anbindung und Nutzung großer Sprachmodelle (Large Language Models, LLMs) sowohl im Eigenbetrieb als auch bei Dritten. Ebenso wurden verschiedene Nutzungsszenarien (z. B. als Werkzeug für allgemeine Textgenerierung und -analyse oder die Nutzung als spezifischer Wissensspeicher in Form eines RAG, siehe Tz. 6.2.4) diskutiert. Häufige Fragen waren auch, ob und gegebenenfalls nach welchen Regeln vorhandene Datenbestände zum KI-Training genutzt werden dürfen – eine Fragestellung, die im Hinblick auf Zweckänderungen auch jenseits von KI-Training, etwa bei der Ausbildung, bei Weiterbildungen oder bei Sammlungen in Form von Musterbeispielen oder internen Wissenssammlungen, eine Rolle spielt. Ebenso gab es Fragen nach Umfang und Intensität von KI-Schulungen für Beschäftigte.

Die Veranstaltungsreihe hat sich für viele Interessierte als sehr wertvoll erwiesen und wird fortgeführt. Sie bietet den Teilnehmenden die Möglichkeit, sich zu aktuellen technologischen Entwicklungen auszutauschen, voneinander zu lernen und Kontakte zu knüpfen. Unternehmen, Behörden und Aufsichtsbehörden treten dabei in einen direkten fachlichen Austausch auf Augenhöhe und befassen sich gemeinsam mit praktischen Fragestellungen rund um den Einsatz neuer KI-Technologien.

Unter diesem Link gibt es weitere Informationen:

https://www.datenschutzzentrum.de/artikel/1495-Frag-fuern-Freund-Austausch-rund-um-KI-und-Datenschutz.html
Kurzlink: https://uldsh.de/tb44-6-3-3a

Was ist zu tun?
Auf der Website des ULD können sich interessierte Personen auf einer Mailingliste eintragen, um Informationen zu KI und Datenschutz zu erhalten und über zukünftige „Frag' für 'nen Freund“-Veranstaltungen informiert zu werden.


Zurück zum vorherigen Kapitel Zum Inhaltsverzeichnis Zum nächsten Kapitel