Wenn KI halluziniert: Warum Faktenprüfung bei ChatGPT & Co. unverzichtbar ist

KI-generiertes Bild einer Halluzination
KI-generiertes Bild einer Halluzination

Wenn KI halluziniert: Warum Faktenprüfung bei ChatGPT & Co. unverzichtbar ist

Dass eine Künstliche Intelligenz halluziniert, klingt zunächst etwas merkwürdig, weil es sich um eine Wahrnehmungsstörung und damit um ein Phänomen handelt, das typischerweise bei Menschen auftreten kann.

Halluzination im Zusammenhang mit KI meint, dass diese Informationen hinzuerfindet, die so gar nicht stimmen. Doch was ist der Grund dafür?

Zunächst liegt es an den Fakten, die von dem KI-Modell zugrunde gelegt werden. Handelt es sich um seltene Fakten, sind diese nicht anhand von Mustern vorhersehbar. Das Modell ist aber darauf trainiert, eine Antwort geben zu wollen. Irgendeine Antwort ist danach besser als gar keine. Außerdem besteht statistisch gesehen die Möglichkeit der Richtigkeit bei Abgabe einer Antwort. Wenn keine Antwort gegeben wird, kann das Ergebnis in jedem Fall nicht richtig sein.

Was sollte also bei dem Gebrauch von KI immer beachtet werden?

Die Antworten sollten niemals ohne kritisches Hinterfragen hingenommen werden. Wenn Fußnoten angegeben werden, sollten diese auch tatsächlich überprüft werden. Dabei ist wichtig, dass nicht nur die Existenz der Fußnote, sondern auch die richtige Wiedergabe der dort enthaltenen Informationen abgeglichen werden.

Das bedeutet aber nicht, dass man ganz von der Nutzung von Künstlicher Intelligenz absehen sollte. Die Verwendung kann vor allem im Hinblick auf Texterstellung hilfreich sein. Dennoch ist ein Fakten-Check unentbehrlich.

Lesen Sie hier die Veröffentlichung von OpenAI zum Thema Halluzinationen von Large Language Modellen: https://openai.com/de-DE/index/why-language-models-hallucinate/

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

EU-AI-Act und KI im Personalwesen: Neue Regeln für den verantwortungsvollen Einsatz von HR-Tech

AI-Act und Personalwesen
AI-Act und Personalwesen

EU-AI-Act und KI im Personalwesen: Neue Regeln für den verantwortungsvollen Einsatz von HR-Tech

Künstliche Intelligenz (KI) ist bereits Bestandteil technikaffiner Personalabteilungen. Von automatisierten Bewerbungsanalysen über Chatbots im Recruiting bis hin zu KI-gestützter Mitarbeiterentwicklung – sogenannte HR-Tech-Lösungen versprechen mehr Effizienz und objektivere Entscheidungen. Doch mit der zunehmenden Automatisierung wächst auch die Verantwortung, insbesondere im Hinblick auf Datenschutz, Fairness und Transparenz.

Mit dem EU-AI-Act hat die Europäische Union nun den weltweit ersten umfassenden Rechtsrahmen für künstliche Intelligenz geschaffen. Er soll sicherstellen, dass KI-Systeme im Einklang mit europäischen Werten und Grundrechten eingesetzt werden. Für Unternehmen bedeutet das: Der Einsatz von KI im Personalwesen wird künftig strenger reguliert und fällt in vielen Fällen sogar unter die Kategorie der Hochrisiko-KI.

1. Kernpunkte des Beschäftigtendatenschutzes

Der AI-Act (Artificial Intelligence Act) wurde im Frühjahr 2024 verabschiedet und tritt schrittweise in Kraft. Sein Ziel ist es, Vertrauen in KI zu schaffen, Innovation zu fördern und gleichzeitig Risiken zu minimieren.

Das Gesetz verfolgt einen risikobasierten Ansatz: Je höher das Risiko eines KI-Systems für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Dabei werden vier Risikostufen unterschieden:

  1. Unannehmbares Risiko: KI-Anwendungen, die gegen fundamentale Rechte verstoßen, werden verboten (z. B. soziale Bewertungssysteme oder manipulative KI).
  2. Hohes Risiko: KI-Systeme, die erhebliche Auswirkungen auf Menschen haben können, unterliegen strengen Auflagen.
  3. Begrenztes Risiko: Systeme müssen bestimmte Transparenzpflichten erfüllen.
  4. Minimales Risiko: keine besonderen Pflichten, z. B. KI-gestützte Spamfilter.

Gerade HR-Tech-Lösungen wie Bewerbermanagement-Software, automatisierte Eignungstests oder Tools zur Leistungsbewertung gelten laut EU-AI-Act in der Regel als Hochrisiko-KI, da sie direkte Auswirkungen auf Beschäftigte oder Bewerber haben können.

2. Warum HR-Tech oft als Hochrisiko-KI gilt

Der Personalbereich ist besonders sensibel, da hier über Menschen und ihre berufliche Zukunft entschieden wird. KI-gestützte Systeme im HR-Umfeld können – bewusst oder unbewusst – Diskriminierungen verstärken, wenn sie etwa auf verzerrten Datensätzen trainiert wurden.

Beispiele für Hochrisiko-Anwendungen im Personalwesen sind:

  • Automatisierte Bewerberauswahl: KI-Tools, die Lebensläufe, Bewerbungsschreiben oder Video-Interviews analysieren.
  • Predictive Analytics: Systeme, die die Wahrscheinlichkeit einer Beförderung, Kündigung oder Leistung vorhersagen.
  • Mitarbeiterüberwachung: Tools, die Produktivität oder das Verhalten in Echtzeit erfassen.

Für solche Systeme fordert der AI-Act umfangreiche Maßnahmen, um Transparenz, Nachvollziehbarkeit und Fairness sicherzustellen.

3. Anforderungen des EU-AI-Acts an den Einsatz von KI im Personalwesen

Unternehmen, die KI im HR-Kontext einsetzen oder entwickeln, müssen eine Reihe von Pflichten erfüllen. Dazu zählen:

a) Risikobewertung und Konformitätsprüfung

Bevor eine Hochrisiko-KI in Betrieb genommen wird, ist eine Konformitätsbewertung erforderlich. Dabei müssen Unternehmen dokumentieren, dass das System den gesetzlichen Anforderungen entspricht, ähnlich wie bei einer CE-Kennzeichnung.

b) Datenqualität und Verzerrungs(Bias)-Vermeidung

Die Trainingsdaten müssen relevant, repräsentativ und frei von Diskriminierung sein. Das bedeutet: Historische HR-Daten müssen auf Verzerrungen geprüft und gegebenenfalls bereinigt werden.

c) Technische Dokumentation und Nachvollziehbarkeit

Unternehmen müssen detailliert festhalten, wie und auf welcher Grundlage die KI Entscheidungen trifft. Diese Dokumentation ist auch Grundlage für mögliche Audits durch Aufsichtsbehörden.

d) Transparenzpflichten gegenüber Betroffenen

Bewerber:innen und Mitarbeitende müssen darüber informiert werden, dass und wie KI-Systeme eingesetzt werden. Zudem sollen sie das Recht haben, eine menschliche Überprüfung der Entscheidung zu verlangen.

e) Überwachung und menschliche Aufsicht

Auch nach der Einführung müssen KI-Systeme regelmäßig überwacht werden. Der Mensch bleibt letztlich verantwortlich; eine vollständige Automatisierung von Personalentscheidungen ist nicht zulässig.,

4. Datenschutz bleibt zentral

Neben den neuen KI-Regeln bleibt die Datenschutz-Grundverordnung (DSGVO) weiterhin uneingeschränkt gültig.
Das bedeutet:

  • Personenbezogene Daten dürfen nur verarbeitet werden, wenn eine rechtliche Grundlage besteht.
  • Betroffene haben Anspruch auf Auskunft, Berichtigung und Löschung ihrer Daten.
  • Bei automatisierten Entscheidungen, die rechtliche Wirkung entfalten, ist laut Artikel 22 DSGVO eine menschliche Intervention vorgeschrieben.

Das Zusammenspiel von AI-Act und Datenschutzrecht macht den HR-Bereich besonders komplex. Unternehmen müssen beide Regime sorgfältig aufeinander abstimmen, technische Compliance allein reicht nicht aus. Auch rechtliche Compliance ist vonnöten.

5. Chancen für verantwortungsvolle HR-Innovation

Trotz der neuen Pflichten bietet der EU-AI-Act auch Chancen. Wer frühzeitig in transparente, erklärbare und ethisch verantwortbare KI-Lösungen investiert, kann bei Bewerber:innen, Mitarbeitenden und Aufsichtsbehörden Vertrauen aufbauen.

Zudem fördert die Regulierung eine neue Generation von HR-Tech-Lösungen, die Fairness und Datenschutz by Design umsetzen. Beispiele sind:

  • KI-gestützte Systeme, die Verzerrungen (Bias) aktiv erkennen und ausgleichen.
  • Tools mit Explainable AI-Funktionen, die Entscheidungen nachvollziehbar machen.
  • Plattformen, die Bewerbern Kontrolle über ihre Daten geben.

Langfristig kann die Regulierung so zu mehr Qualität und Fairness im Recruiting und Personalmanagement führen.

6. Handlungsempfehlungen für Unternehmen

Damit Unternehmen auf den AI-Act vorbereitet sind, sollten sie frühzeitig handeln:

  1. Bestandsaufnahme durchführen: Welche KI-Systeme werden im HR-Bereich eingesetzt oder geplant?
  2. Risikoklassifizierung prüfen: Handelt es sich um Hochrisiko-KI im Sinne des Gesetzes?
  3. Datenmanagement optimieren: Bias-Prüfungen und Datenqualität sicherstellen.
  4. Compliance-Strukturen aufbauen: Zuständigkeiten, Dokumentation und Prozesse festlegen.
  5. Schulungen und Sensibilisierung: HR-Teams und IT-Abteilungen müssen die neuen Pflichten kennen.
  6. Transparenz schaffen: Mitarbeitende und Bewerber:innen aktiv über KI-Einsatz informieren.

Fazit

Der EU-AI-Act markiert einen Wendepunkt für den Einsatz von KI im Personalwesen. Während HR-Tech-Lösungen weiterhin große Effizienzpotenziale bieten, steigt der regulatorische Anspruch erheblich. Der Einsatz von Hochrisiko-KI in sensiblen Bereichen wie Recruiting oder Leistungsbewertung erfordert künftig ein hohes Maß an Verantwortung, Transparenz und rechtlicher Sorgfalt.

Unternehmen, die jetzt in Compliance, Datenqualität und ethische KI investieren, können nicht nur rechtliche Risiken minimieren, sondern auch das Vertrauen ihrer Belegschaft stärken und den Weg für eine zukunftsfähige, faire und datenschutzkonforme HR-Technologie ebnen.

Kontaktieren Sie uns – wir beraten Sie gerne!

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

UN-Konvention zur Bekämpfung von Cyberkriminalität

Aufbau von Computern für cyberkriminelle Aktivitäten
Aufbau von Computern für cyberkriminelle Aktivitäten

UN-Konvention zur Bekämpfung von Cyberkriminalität

Ab dem 25. Oktober bis Ende 2026 können die Mitgliedsstaaten der Europäischen Union der UN-Cybercrime-Konvention beitreten.

Dadurch soll die internationale Zusammenarbeit zur Bekämpfung bestimmter Straftaten, die mithilfe von Informations- und Kommunikationstechnik begangen werden, gestärkt werden. Außerdem soll die Weitergabe sogenannter E-Evidence, d.h. elektronischer Beweismittel für schwere Straftaten erleichtert werden. Unter die weiterzugebenden Beweismittel fallen insbesondere auch personenbezogene Daten aus Cloud-Diensten.

Die unterzeichnenden Mitgliedsstaaten verpflichten sich dazu, Handlungen wie Online-Betrug oder illegales Abfangen von Nachrichten durch nationale Gesetze unter Strafe zu stellen.

Schwere Straftaten, die künftig eine erleichterte Beweismittelweitergabe ermöglichen, sind beispielsweise international organisierte Kriminalität, sofern das Verhalten mit einer Mindestfreiheitsstrafe von vier Jahren geahndet wird.
Der breite Anwendungsbereich des Abkommens stößt jedoch auch auf Kritik. Das Niveau der rechtsstaatlichen Kontrolle sei hier abgesenkt und damit auch die Schwelle, in die Privatsphäre und Meinungsfreiheit Dritter einzugreifen. Die Sicherheitsvorkehrungen seien zu gering und die Beweiserhebungsbefugnisse unbegrenzt, auch wenn nur ein geringer oder sogar gar kein Bezug zu Cyberkriminalität bestehe.

Der EU-Rat entgegnet hingegen, dass die Rechtfertigung in der Prävention von IT-Betrug, Hackerangriffen, sexuellem Kindsmissbrauch, Grooming sowie sonstiger Cyberkriminalität liege. Außerdem seien wichtige Schutzmechanismen eingehalten worden, damit die Rechte Dritter keinen Schaden nehmen.

Ob es zur Ratifizierung des umstrittenen Abkommens in allen Mitgliedsstaaten der Europäischen Union kommen wird, erfahren Sie hier!

Unter folgender URL finden Sie die Veröffentlichung der Vereinten Nationen zur Konvention: https://www.unodc.org/unodc/cybercrime/convention/home.html

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

Neue EU-Vorschriften für politische Werbung

Buttrons mit Partei-Werbung
Buttrons mit Partei-Werbung

Neue EU-Vorschriften für politische Werbung

Ab heute gelten EU-weit neue Vorschriften für bezahlte politische Werbung. Künftig muss jede entsprechende Anzeige klar als solche gekennzeichnet sein. Darüber hinaus muss offengelegt werden, wer hinter der Werbung steht und welcher finanzielle Aufwand dafür betrieben wurde.

Nach Angaben der EU-Kommission sollen diese Maßnahmen Bürgerinnen und Bürger dabei unterstützen, zwischen individueller Meinungsäußerung und gezielt platzierter politischer Werbung unterscheiden zu können. Ziel ist es, die Meinungs- und Informationsfreiheit wirksam zu schützen.

Besonders betroffen von den neuen Regelungen sind soziale Netzwerke, auf denen politische Inhalte häufig verbreitet werden.

Lesen Sie hier dazu die Pressemitteilung der Europäischen Kommission:
https://germany.representation.ec.europa.eu/news/transparenz-politischer-werbung-kommission-veroffentlicht-leitlinien-2025-10-08_de

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

EuGH erklärt die Aufsichtsgebühr des Digital Services Act für nichtig

Sitz des Europäischen Gerichtshofs in Luxemburg
Sitz des Europäischen Gerichtshofs in Luxemburg

EuGH erklärt die Aufsichtsgebühr des Digital Services Act für nichtig

Am 10. September 2025 erklärte das Gericht der Europäischen Union (EuGH) in der Rechtssache T-55/24 die Beschlüsse der EU-Kommission über die Festlegung der Aufsichtsgebühr für Facebook, Instagram und TikTok für nichtig. 

Als Grundlage für die Beschlüsse diente das Gesetz über digitale Dienste (Digital Services Act, DSA), das der Kommission die Aufgabe überträgt, sehr große Online-Plattformen (VLOPs) und Suchmaschinen zu beaufsichtigen. Hierfür darf die Kommission eine jährliche Aufsichtsgebühr erheben, welche anhand der durchschnittlichen monatlichen Nutzerzahl berechnet wird. Die Kommission hatte daraufhin für Facebook, Instagram und TikTok entsprechende Gebühren durch Durchführungsbeschlüsse festgesetzt.

Trotz rechtswidriger Methodik, Zahlungspflicht für 2023 bleibt bestehen

Das Gericht stellte fest, dass die verwendete Methodik zur Berechnung der Nutzerzahlen essentiell sei und deshalb in einer delegierten Verordnung hätte geregelt werden müssen. Die Durchführungsbeschlüsse seien daher formell rechtswidrig.

Um Regelungslücken zu vermeiden und der Kommission Zeit für eine korrekte Umsetzung der Erhebung der Aufsichtsgebühr zu geben, entschied das Gericht, dass die Wirkung dieser Beschlüsse jedoch vorerst bestehen bleibt und damit auch die Zahlungspflicht für 2023 für Unternehmen. Das Gericht beschränkte die Übergangssituation auf höchstens zwölf Monate nach Rechtskraft des Urteils. Gegen die Entscheidung ist ein auf Rechtsfragen beschränktes Rechtsmittel zum EuGH möglich.

Veränderungen bei Gebührenhöhe möglich

Neben der Zahlungspflicht für 2023 müssen Unternehmen damit rechnen, dass die Kommission bald eine rechtssichere Regelung erlässt, die zu einer veränderten Gebührenhöhe führt. Dadurch können sowohl Rückerstattungen, aber auch Nachforderungen entstehen. Empfehlenswert ist daher auch, interne Systeme zur Erfassung der aktiven Nutzerzahlen zu verbessern und diese Daten transparent vorzuhalten, um bei künftigen Verfahren abgesichert zu sein.

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

EuGH weist Klage auf Nichtigkeitserklärung des Data Privacy Framework ab

Glasfaserkabel zur Datenübertragung in die USA
Glasfaserkabel zur Datenübertragung in die USA

EuGH weist Klage auf Nichtigkeitserklärung des Data Privacy Framework ab

Am 03. September 2025 hat das Gericht der Europäischen Union (EuGH) in der Rechtssache T-553/23 (Latombe/Kommission) eine Klage gegen den neuen Angemessenheitsbeschluss der EU-Kommission zum Data Privacy Framework (DPF) zurückgewiesen.

Die USA bieten ein angemessenes Datenschutzniveau

Die Klägerseite kritisierte zum einen die Praxis umfassender Datenerhebungen durch US-Dienste und stellte zum anderen die Unabhängigkeit der gerichtlichen Kontrolle in Frage. Der EuGH sah wiederum die erlassenen Vorgaben und die gerichtliche Kontrolle durch den Data Protection Review Court (DPRC) zur Sicherstellung des Rechtschutzes bei Datenzugriffen als ausreichend an und wies die Klage vollständig ab. Damit bestätigt der EuGH, dass die USA zum Zeitpunkt des Beschlusses ein angemessenes Datenschutzniveau gewährleisteten.

Datenübermittlung an US-Unternehmen

Für Unternehmen heißt das: Eine Datenübermittlung an US-Unternehmen ist rechtmäßig, sofern diese nach dem DPF zertifiziert sind. In diesen Fällen sind weder Standardvertragsklauseln (SCCs) noch zusätzliche Genehmigungen erforderlich.

Unternehmen in der EU stehen jedoch weiterhin in der Verantwortung, sorgfältig zu prüfen und zu dokumentieren, ob ihre US-Dienstleister tatsächlich in der offiziellen Zertifizierungsliste geführt werden. Liegt keine Zertifizierung vor, bleiben weiterhin SCCs oder Binding Corporate Rules (BCRs) notwendig. Zudem bestehen die Pflichten zur Transparenz gegenüber Betroffenen fort, etwa durch Anpassung der Datenschutzerklärung und klare Hinweise auf Datenübermittlungen in die USA.

Weiterhin Risiken bei der Datenübermittlung an US-Unternehmen

Es bleibt jedoch weiterhin Vorsicht geboten, da die Vorgängerabkommen („Safe Harbor“ und „Privacy Shield“) beide wegen des unzureichenden Schutzniveau der Überwachungspraxis in den USA durch den EuGH aufgehoben wurden („Schrems I“ (C‑362/14) und „Schrems II“ (C‑311/18)). Daher sollten EU-Unternehmen weiterhin vorsorglich SCC bereithalten und die weitere Rechtsentwicklung beobachten.

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft

KI-Training und personenbezogene Daten: Einige Erkenntnisse aus dem Urteil des OLG Köln im Fall Meta

Frau, auf die Code projiziert wird: Datenschutz beim KI-Training
Frau, auf die Code projiziert wird: Datenschutz beim KI-Training

KI-Training und personenbezogene Daten: Einige Erkenntnisse aus dem Urteil des OLG Köln im Fall Meta

Metas Umgang mit der Einwilligung der Nutzer

Für das Training von KI-Modellen werden umfangreiche Datenmengen benötigt. Viele Anbieter suchen nach geeigneten Quellen. Im Fall von Meta entschied sich das Unternehmen, öffentlich zugängliche Daten volljähriger Nutzer von Facebook und Instagram für das Training seiner KI-Modelle zu verwenden. Diese Maßnahme wurde den Nutzern vor der Umsetzung angekündigt. Anstelle einer ausdrücklichen Einwilligung setzte Meta jedoch auf ein Opt-out-Modell.

Dieses Vorgehen rief rechtliche Bedenken hervor und führte zu einem Antrag auf Erlass einer einstweiligen Verfügung durch den Verein zur Wahrnehmung kollektiver Verbraucherinteressen in Nordrhein-Westfalen. Das Oberlandesgericht Köln entschied am 23. Mai 2025 (Az. 15 UKl 2/25) über den Fall. Nachfolgend die wichtigsten Erkenntnisse zur Verarbeitung personenbezogener Daten im Rahmen des KI-Trainings von diesem Fall.

Dürfen personenbezogene Daten für das KI-Training verwendet werden?

Grundsätzlich ist die Verarbeitung personenbezogener Daten zum Zweck des Trainings von KI zulässig, sofern sie mit der Datenschutz-Grundverordnung (DSGVO) vereinbar ist. Während die EU-Verordnung über Künstliche Intelligenz (KI-VO) die Anforderungen an KI-Systeme regelt, bleibt jede Verarbeitung personenbezogener Daten dem Datenschutzrecht, insbesondere der DSGVO, unterworfen.

Im vorliegenden Fall wurde versucht, Meta die Verwendung öffentlich zugänglicher Nutzerdaten für das KI-Training zu untersagen. Das Gericht wies den Antrag auf Erlass einer einstweiligen Verfügung zurück, was darauf schließen lässt, dass personenbezogene Daten unter bestimmten Voraussetzungen für das Training von KI-Systemen verarbeitet werden dürfen, auch wenn der ursprüngliche Zweck ihrer Erhebung nicht das KI-Training war.

Das Urteil stellt jedoch keine generelle Freigabe dar. Unternehmen müssen bei der Nutzung von Kundendaten für KI-Entwicklung mit besonderer Sorgfalt vorgehen.

Ist das KI-Training ein „berechtigtes Interesse“?

Gemäß Art. 5 Abs. 1 Buchst. b DSGVO dürfen personenbezogene Daten nur für festgelegte, eindeutige und legitime Zwecke erhoben werden. Nach der Erhebung dürfen sie nicht für andere, nicht vorher festgelegte Zwecke verwendet werden.

Zwar kann eine Einwilligung eine Rechtsgrundlage für die Verarbeitung darstellen, sie muss jedoch:

  • für einen oder mehrere bestimmte Zwecke gegeben;
  • durch eine eindeutige bestätigende Handlung erteilt werden.

Im Fall Meta wurde keine ausdrückliche Einwilligung eingeholt. Stattdessen berief sich das Unternehmen auf das berechtigte Interesse gemäß Art. 6 Abs. 1 lit. f DSGVO. Das Gericht akzeptierte, dass die Entwicklung von KI-Systemen unter bestimmten Umständen ein berechtigtes Interesse darstellen könne, sofern die Nutzer informiert werden und die Möglichkeit haben, Widerspruch einzulegen.

Zentrale Empfehlungen für Unternehmen

  1. Transparenz ist unerlässlich
    Nutzer müssen klar und proaktiv darüber informiert werden, wie ihre Daten verwendet werden. Das Gericht akzeptierte Metas Opt-out-Modell, da die Nutzer informiert wurden und widersprechen konnten.

  2. Informierung vor Datenerhebung
    Nur Daten, die nach erfolgter Information und gewährtem Widerspruchsrecht erhoben wurden, dürfen für das KI-Training verwendet werden. Eine nachträgliche Zweckänderung ohne Offenlegung ist unzulässig.

  3. Berechtigtes Interesse konkret darlegen
    Die Verarbeitung muss einem konkreten, nachvollziehbaren Unternehmenszweck dienen. Allgemeine oder spekulative Interessen genügen nicht.

Fazit: Vorsicht ist geboten

Auch wenn das Gericht den Antrag gegen Meta abgewiesen hat, bedeutet dies nicht, dass personenbezogene Daten uneingeschränkt für KI-Training verwendet werden dürfen. Jede Verarbeitung muss einzelfallbezogen geprüft werden unter Berücksichtigung von:

  • Art und Umfang der angebotenen Dienste,
  • Art von personenbezogenen Daten,
  • Rechtsgrundlage der Verarbeitung.

Da sich das regulatorische Umfeld – insbesondere im Bereich der KI-Regulierung – fortlaufend weiterentwickelt, sind Unternehmen gehalten, sich kontinuierlich über neue Entwicklungen zu informieren und die geltenden Vorschriften einzuhalten. Wer beabsichtigt, personenbezogene Kundendaten für das Training von KI-Systemen zu nutzen, muss die damit verbundenen rechtlichen Risiken sorgfältig prüfen und für Transparenz sowie rechtskonforme Verarbeitung sorgen. 

Gerne unterstützen wir Sie dabei, diese komplexen Anforderungen zu erfüllen und Ihre Compliance-Maßnahmen effektiv umzusetzen. Sprechen Sie uns an, wir beraten Sie zu DSGVO-Compliance und IT-Recht.

NOCH FRAGEN?

Wir freuen uns auf Ihre Anfrage zu diesem und weiteren Themen!
Logo 25 Jahre Rickert Rechtsanwaltsgesellschaft