Zum Inhalt springen
Home » Datenschutz-News » Navigating the Future: Wenn KI sich irrt und halluziniert

Navigating the Future: Wenn KI sich irrt und halluziniert

Die Integration künstlicher Intelligenz (KI) in unseren Alltag, sowohl privat als auch geschäftlich, nimmt stetig zu. Vor diesem Hintergrund beleuchten wir in unserer Beitragsreihe „Navigating the Future“ die zentralen Aspekte der rechtlichen Rahmenbedingungen für KI. Dieser Beitrag widmet sich den Folgen, wenn KI sich irrt.

Wenn KI sich irrt und halluziniert

KI kann halluzinieren. Man spricht dann von einer KI-Halluzination, wenn Large Language Models (LLM) wie ChatGPT oder Mistral AI falsche Informationen oder Fakten erfinden, die nicht auf realen Daten oder Ereignissen beruhen. Diese Halluzinationen sind so häufig, dass OpenAI sogar eine Warnung an die Nutzenden von ChatGPT ausgibt. Chatbots können nämlich jede Art von Sachinformationen fabrizieren, von Namen, Daten und historischen Ereignissen bis hin zu Zitaten oder auch Gerichtsurteilen. Dies geschieht mit so viel Vertrauen und Autorität, dass es für Nutzende kaum erkennbar ist, ob diese Informationen wahr sind oder nicht.

Max Schrems und noyb gehen gegen OpenAI vor

In einer bemerkenswerten Entwicklung hat noyb – Europäisches Zentrum für digitale Rechte, geführt von dem bekannten Datenschutzaktivisten Max Schrems – eine formelle Beschwerde gegen OpenAI eingereicht. Der Vorwurf lautet, dass OpenAI gegen die Datenschutz-Grundverordnung (DSGVO) verstoßen haben soll. Die Beschwerde, die umfangreiche Details und Vorwürfe gegen die Praktiken von OpenAI enthält, stellt ein bedeutendes Ereignis in der sich entwickelnden Debatte über KI und Datenschutz dar.

Kernpunkte der Beschwerde

noyb argumentiert, dass OpenAI personenbezogene Daten von EU-Bürgern ohne angemessene Datenschutzmaßnahmen verarbeitet und verwendet. Insbesondere wird beanstandet, dass OpenAI diese Daten zum Trainieren und Verbessern ihrer KI-Modelle nutzt, ohne die erforderliche Zustimmung der betroffenen Personen einzuholen oder angemessene Transparenz zu gewährleisten.

In einem unserer letzten Beiträge haben wir schon über die Einhaltung der DSGVO bei Trainingsdatensammlungen von KI detaillierter berichtet.

Ein weiterer Vorwurf betrifft die fehlende Transparenz und Kontrolle, die Nutzer über ihre Daten und deren Verwendung haben. Laut noyb ist es für die betroffenen Personen nahezu unmöglich, Auskunft über die erfassten Daten zu erhalten oder diese korrigieren zu lassen. Dies sei ein klarer Verstoß gegen die Betroffenenrechte der DSGVO.

Was war passiert?

Der Beschwerdeführer stellte einen Antrag auf Auskunft seiner personenbezogenen Daten und Löschung eines falschen Geburtsdatums, das ChatGPT mit ihm in Verbindung bringt. OpenAI ging in dem Antwortschreiben des Auskunftsersuchens nur auf die Accountdaten des Beschwerdeführers ein. Die Verarbeitung personenbezogener Daten im System wurde nicht thematisiert, auch nicht im Hinblick darauf, welche Trainingsdatensammlungen zugrunde liegen.

Dem Löschbegehren konnte ebenfalls nicht Folge geleistet werden. OpenAI habe lediglich die Möglichkeit die Anzeige von personenbezogenen Daten zu sperren. Allerdings würde die Sperrung auch andere Informationen zum Beschwerdeführer beeinträchtigen. Die falschen Daten blieben also weiterhin im System, würden lediglich den Nutzern nicht mehr angezeigt. Somit hat OpenAI keine Kontrolle über die Datenverarbeitung. ChatGPT kann falsche Informationen verbreiten, ohne dafür haftbar gemacht werden zu können – im Gegensatz zu beispielsweise Medienunternehmen.

OpenAI verletzt damit nicht nur das Auskunftsrecht nach Art. 15 DSGVO, sondern auch den Grundsatz zur Einhaltung der Richtigkeit personenbezogener Daten gemäß Art. 5 Abs. 1 Buchst. d) DSGVO.

Mögliche Folgen der Beschwerde

Die Beschwerde von noyb könnte weitreichende Folgen für OpenAI und andere Technologieunternehmen haben, die auf ähnliche Weise KI-Modelle entwickeln und trainieren. Zunächst könnte dies zu strengeren Regulierungen führen, um sicherzustellen, dass die Verwendung von KI im Einklang mit den Datenschutzgesetzen steht. Dies könnte beispielsweise strengere Anforderungen an die Einwilligung der Nutzer, verbesserte Transparenzmechanismen und stärkere Kontrollen zur Datensicherheit umfassen.

Darüber hinaus könnte diese Beschwerde auch eine Signalwirkung für andere Datenschutzorganisationen in Europa haben, ähnliche Schritte zu unternehmen, was die regulatorische Landschaft für KI-Anwendungen erheblich verändern könnte. Dies wiederum könnte die Innovationsdynamik beeinflussen, da Unternehmen möglicherweise strengere Compliance-Maßnahmen einhalten müssen, was Zeit und Ressourcen beanspruchen könnte.

Abschlussgedanken

Die Beschwerde von noyb gegen OpenAI ist ein bedeutendes Ereignis. Sie unterstreicht wachsende Bedenken hinsichtlich der Auswirkungen von KI auf die Privatsphäre und den Datenschutz. KI-Technologien haben das Potenzial, viele Aspekte unseres Lebens zu verbessern. Dennoch ist es unerlässlich, dass diese Entwicklungen nicht auf Kosten fundamentaler Datenschutzrechte erfolgen. Die Entscheidungen, die in den kommenden Monaten und Jahren getroffen werden, werden maßgeblich darüber bestimmen, wie die Balance zwischen technologischem Fortschritt und dem Schutz der Privatsphäre gehalten wird.

Es bleibt abzuwarten, wie die Aufsichtsbehörde auf diese Beschwerde reagieren wird. Auch die Auswirkungen auf die globale Diskussion über Datenschutz und KI bleit abzuwarten. Sicher ist jedoch, dass diese Beschwerde eine wichtige Diskussion über die Notwendigkeit einer ethischen und rechtskonformen Entwicklung von KI-Technologien entfacht hat.

Bildnachweis: KI generiert