Zum Inhalt springen
Home » Datenschutz-News » Microsoft Abuse Monitoring und der Datenschutz

Microsoft Abuse Monitoring und der Datenschutz

Immer mehr Unternehmen setzen in ihrem Unternehmen Künstliche Intelligenz ein, um repetitive Prozesse zu optimieren und die Produktivität zu steigern. Aber auch zur Verarbeitung großer und unübersichtlicher Datenmengen bieten KI-Tools Chancen. Doch wie werden die Daten verarbeitet? Nicht nur aus Datenschutzperspektive machen sich hier immer mehr Unternehmen Gedanken. Auch der Schutz von Know-How und die Wahrung von Non-Disclosure-Agreements macht immer mehr Anwendenden Sorgen. An dieser Stelle erklären wir, warum Microsoft bei Azure OpenAI Service alle Ihre Verläufe durch Microsoft Abuse Monitoring mitlesen kann und speichert, wann das ein Problem für den Datenschutz sein kann und wie Sie dies lösen.

Was ist eigentlich… Microsoft Abuse Monitoring?

Microsoft Abuse Monitoring überwacht und analysiert Verhaltensmuster und Datenströme, um ungewöhnliche oder verdächtige Aktivitäten zu identifizieren. Gewisse Verhaltensweisen sind bei der Nutzung des Azure OpenAI Services durch Microsofts Code of Conduct untersagt. Dies umfasst insbesondere Verstöße gegen die Microsoft Product Terms. Diese wiederum untersagen eine Vielzahl von Verhaltensweisen, etwa: Verstöße gegen Gesetze, Crypto-Mining, missbräuchliche Meta-Prompts zur Umgehung von Beschränkungen der KI etc.

Wie werden Daten durch das Microsoft Abusive Monitoring verarbeitet?

Nach den Datenschutzinformationen von Microsoft für den Azure OpenAI Service werden die Daten (sämtliche Verläufe) getrennt von anderen Kundendaten 30 Tage gespeichert. Bei entsprechendem Verdacht können diese Informationen zudem von Beschäftigten von Microsoft oder Dienstleistern von Microsoft geprüft werden.

Was spricht für den Einsatz des Abuse Monitorings?

Klar ist: Abuse Monitoring ist nicht per se schlecht. Im Gegenteil: Dass komplexe KI-Systeme überwacht werden, ist zunächst einmal positiv zu sehen. Künstliche Intelligenz bietet immense Chancen für unsere Gesellschaft, aber auch die Risiken sind noch nicht wirklich abzusehen. Dies hat auch der EU-Gesetzgeber erkannt und stuft mit dem neuen AI Act nun gewisse Anwendungen als Hochrisiko-KI-Systeme ein (lesen Sie hier in unserer Beitragsreihe zu KI mehr dazu: Navigating the Future: Der rechtliche Rahmen von KI).

Nicht jedes KI-System ist ein Hochrisiko-KI-System. Wenn KI jedoch z.B. im Bereich kritischer Infrastruktur, für das Personalmanagement oder bei Behörden zur Gewährung von Leistungen und Diensten im Einsatz ist, kann unter bestimmten Voraussetzungen ein Hochrisiko-KI-System gegeben sein. In diesen Fällen müssen nach Kapitel 2 des AI Acts einige Maßnahmen ergriffen werden.

Rechtlicher Exkurs:

Diese Maßnahmen umfassen beispielsweise den Betrieb eines Risikomanagementsystems nach Art. 9 des AI Acts, die Erstellung einer umfassenden technischen Dokumentation nach Art. 11 AI Act und die Aufzeichnungspflichten nach Art. 12 AI Act. Neben diese speziellen Maßnahmen treten die allgemeinen Pflichten des AI Acts, insbesondere das Verbot bestimmter Praktiken nach Art. 5 des AI Acts. Bei der rechtlichen Compliance-Bewertung muss vor allem geprüft werden, ob man Nutzer, Einführer Kleinanbieter, oder Anbieter im Sinne des Art. 3 Nr. 2 bis 8 des AI Acts ist.

Warum ist der Einsatz datenschutzrechtlich relevant?

Trotz seiner Vorteile birgt das Microsoft Abuse Monitoring auch deutliche Risiken. Ein wesentlicher Nachteil ist die Möglichkeit, dass sensible Daten ohne Anweisung oder Kontrolle des Auftraggebers an Microsoft und Subdienstleister übermittelt und von diesen 30 Tage gespeichert werden. Der Auftraggeber hat hierbei keinen Einfluss darauf, was mit den Daten geschieht. Das ist problematisch, da das Unternehmen datenschutzrechtlich verantwortlich ist. Macht beispielsweise eine Betroffener Betroffenenrechte nach der DSGVO geltend, kann das Unternehmen diese ggf. nicht erfüllen, da die Daten nicht mehr in seiner Kontrolle sind.

Besonders problematisch wird dies, wenn sensible Informationen verarbeitet werden. Verantwortliche müssen ohnehin schon in den meisten Fällen Datenschutz-Folgenabschätzungen durchführen, wenn sie KI-Systeme einsetzen. Eine Datenverarbeitung sämtlicher eingegebener Daten führt hier zu einer Risikoerhöhung. Verantwortliche müssen dann noch mehr Ressourcen aufwenden, um dieses Risiko abzumildern, etwa durch mehr Schulungen der Anwender. Auf der anderen Seite müssen Verantwortliche ohne Abuse Monitoring selbst Maßnahmen prüfen, um missbräuchlichen KI-Einsatz zu verhindern.

Was folgt daraus?

Bei nüchterner Bewertung des Gesagten steht jedenfalls das Folgende fest:

1. Der Einsatz von Abuse Monitoring ist für Betreiber eines KI-Systems nicht geeignet, eigene Sorgfaltspflichten oder Pflichten aus dem AI Act zu erfüllen. Denn Microsoft prüft im eigenen Interesse Verstöße gegen seine Nutzungsbedingungen. Weder prüft Microsoft im Interesse oder gar nach Maßstab des Betreibers des KI-Systems, noch hat der Betreiber einen rechtlich durchsetzbaren Anspruch darauf, dass Microsoft funktionierendes Abuse Monitoring betreibt.

2. Der Einsatz von Abuse Monitoring ist datenschutzrechtlich keine Auftragsverarbeitung, sondern eine eigene Datenverarbeitung von Microsoft im eigenen Interesse. Das ist nicht per se datenschutzrechtlich unzulässig. Es muss jedoch bei der Risikobewertung bzw. Datenschutz-Folgenabschätzung berücksichtigt werden. Zudem müssen Verantwortliche für diese Datenweitergabe an Dritte eine entsprechende Rechtsgrundlage benennen können.

3. Der Einsatz von Abuse Monitoring ist für Anbietende und Nutzende intransparent. Es bleibt unklar, nach welchen Kriterien das System Inhalte an natürliche Personen zur Übermittlung weiterleitet.

Was können Unternehmen tun?

Es besteht für Unternehmen und Organisationen die Möglichkeit, eine Befreiung vom Microsoft Abuse Monitoring zu beantragen. Diese Option ermöglicht es, den automatischen Datentransfer zu Microsoft unter bestimmten Umständen zu verhindern und somit die Kontrolle über die eigenen Daten zu behalten. Um eine Befreiung zu beantragen, müssen bestimmte Voraussetzungen erfüllt und ein entsprechender Antrag bei Microsoft eingereicht werden. Es ist jedoch wichtig zu beachten, dass mit der Befreiung vom Abuse Monitoring möglicherweise auch ein Verzicht auf bestimmte Sicherheitsvorteile einhergehen. Wenn Sie KI-Systeme einsetzen, oder sogar selbst bereitstellen (etwa als CustomGPT, welches Sie selbst hosten), müssen Sie unter Umständen dann andere Wege gehen, um Ihren Pflichten nach dem AI Act nachzukommen.

Bildnachweis: Beitragsbild KI generiert