Die Nutzung von automatisierten Gesichtserkennungssystemen durch Sicherheitsbehörden steht zunehmend im Fokus der gesellschaftlichen Diskussion. Während technologische Fortschritte in der biometrischen Überwachungspolitik als effizient und notwendig zur Kriminalitätsbekämpfung dargestellt werden, warnt die Datenschutzgemeinschaft, insbesondere die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK), vor einem massiven Eingriff in die Grundrechte aller Bürgerinnen und Bürger. Die entscheidende Frage lautet: Kann der Einsatz von Gesichtserkennungssystemen im öffentlichen Raum in der aktuellen rechtlichen Landschaft Europas und Deutschlands verantwortungsvoll und grundrechtsschonend umgesetzt werden?
Projekte bereits seit 2017
Bereits 2017 hat die Bundespolizei am Bahnhof Berlin Südkreuz ein System zur Gesichtserkennung getestet. Das Ergebnis wurde von der Bundesregierung als erfolgreich und positiv bewertet. Das System hatte eine Fehlerquote von weniger als einem Prozent. Und spätestens, nachdem die mutmaßliche ehemalige RAF-Terroristin Daniela K. unter dem Radar der Berliner Polizei lebte, während sie von Journalisten mit KI Tools für Gesichtserkennung schon 2023 aufgespürt wurde, fragen sich auch Teile der Öffentlichkeit, wie dem Staat entgehen konnte, was Privaten offenbar ohne weiteres möglich schien.
Gesellschaftliche Auswirkungen und Fehlerkennungen: Ein massiver Grundrechtseingriff
Der Einsatz von Gesichtserkennungstechnologie kann eine erhebliche Streubreite haben. Oftmals erfasst er nicht nur gezielt Verdächtige, sondern auch unbeteiligte Passanten. Die heimliche Erfassung von Gesichtern Unbeteiligter verstärkt die Intensität des Grundrechtseingriffs. Es ist zu bedenken, dass Fehlerkennungen ein beträchtliches Risiko darstellen, selbst wenn sie nur im einstelligen prozentualen Bereich vorkommen.
Enschränkungen auch anderer Grundrechte?
Eine große Sorge der Datenschützer betrifft zudem die psychologische Wirkung auf die Gesellschaft. Der bloße Gedanke, jederzeit von einem automatisierten System überwacht werden zu können, könnte das Verhalten der Menschen in der Öffentlichkeit verändern. Dieses „chilling effect“ genannte Phänomen führt dazu, dass Menschen aus Angst vor Überwachung auf die Ausübung ihrer Grundrechte wie Versammlungsfreiheit oder Meinungsfreiheit verzichten könnten. Der Einsatz von Gesichtserkennung könnte somit nicht nur die individuellen Freiheitsrechte einschränken, sondern auch eine abschreckende Wirkung auf das gesellschaftliche Leben insgesamt haben.
Rechtsrahmen für den Einsatz von Gesichtserkennungssystemen: Eine Lücke?
Derzeit gibt es in Deutschland weiterhin keine spezifischen gesetzlichen Grundlagen für den Einsatz von automatisierten Gesichtserkennungssystemen im öffentlichen Raum durch Strafverfolgungsbehörden. Sicherheitsbehörden berufen sich oftmals auf unspezifische Normen der Strafprozessordnung (StPO). Beispielsweise wurden im Frühjahr 2024 Fälle öffentlich bekannt, in denen eine sächsische Polizeidirektion ein Gesichtserkennungssystem im Rahmen von Ermittlungsverfahren nutzte. Dabei stützte sie sich auf Vorschriften der StPO. Diese betrafen im Wesentlichen die Überwachung von Telekommunikation und verdeckte Ermittlungsmaßnahmen, auch wenn sie keine spezifische Grundlage für den Einsatz biometrischer Technologien wie Gesichtserkennung boten.
Vertiefender Hinweis
Vorliegend handelte es sich um §§ 100h, 163f StPO sowie § 98a StPO.
Die DSK betont, dass der derzeitige Rechtsrahmen nicht ausreichend sei, um den grundrechtssensiblen Einsatz solcher Technologien zu regeln. Dem ist zuzustimmen. Die Datenschutzgrundverordnung (DSGVO) sowie die nationalen Datenschutzvorschriften für Behörden stellen hohe Anforderungen an die Verarbeitung personenbezogener Daten. Zu denen gehören auch biometrische Daten wie Gesichtsmerkmale. Die DSGVO verlangt, dass jegliche Verarbeitung personenbezogener Daten auf einer klaren rechtlichen Grundlage beruhen muss, den Grundsatz der Verhältnismäßigkeit wahrt und das Recht auf informationelle Selbstbestimmung respektiert.
Europäische Regulierung und die neue KI-Verordnung
Auf europäischer Ebene hat der Gesetzgeber auf diese Problematik reagiert. Mit der im Jahr 2024 erlassenen Verordnung über künstliche Intelligenz („KI-Verordnung“ / „AI-Act“) wurden bestimmte Anwendungen von Gesichtserkennungstechnologien ausgeschlossen und für andere strenge Grenzen gesetzt. Ziel der KI-Verordnung ist es, die Risiken von KI-Systemen zu minimieren und die Rechte der betroffenen Personen zu schützen. In dieser Verordnung werden Systeme der biometrischen Überwachung als „Hochrisiko-KI-Systeme“ eingestuft, deren Einsatz nur unter strengen Auflagen erlaubt ist.
Für die Mitgliedstaaten bedeutet dies, dass sie in ihren nationalen Gesetzen spezifische Regelungen schaffen müssen. Dies betrifft insbesondere die Festlegung strenger Kriterien für die Verhältnismäßigkeit und Erforderlichkeit des Einsatzes von Gesichtserkennungssystemen. Der Europäische Datenschutzausschuss (EDSA) hat zudem Leitlinien veröffentlicht, die festlegen, dass Gesichtserkennungstechnologien nur in solchen Fällen eingesetzt werden dürfen, in denen die Anforderungen an den Rechtsgüterschutz und die Wahrung der Grundrechte nachweisbar erfüllt sind.
Ein gesamtgesellschaftlicher Ausblick: Wohin geht die Reise?
Die Debatte über Gesichtserkennungstechnologien bewegt sich an der Schnittstelle von technologischer Innovation und grundrechtlicher Verantwortung. Auf der einen Seite stehen Sicherheitsbehörden, die betonen, dass der Einsatz solcher Technologien zur Kriminalitätsbekämpfung und Gefahrenabwehr notwendig ist. Auf der anderen Seite stehen Experten, die besorgt sind über die langfristigen Auswirkungen auf den Datenschutz und die individuellen Freiheitsrechte.
Ein verantwortungsvoller Einsatz von Gesichtserkennungssystemen ist nur dann denkbar, wenn strenge gesetzliche Rahmenbedingungen geschaffen werden, die den Einsatz dieser Technologien auf absolut notwendige Fälle begrenzen. Es ist die Aufgabe des Gesetzgebers, spezifische, transparente und verhältnismäßige Regeln zu schaffen, die einen unverhältnismäßigen Eingriff in die Grundrechte verhindern. Gleichzeitig müssen auch technologische Maßnahmen in diese Systeme integriert werden. Dazu gehören Datenschutz durch Technikgestaltung (Privacy by Design) und Datenschutz durch datenschutzfreundliche Voreinstellungen (Privacy by Default). Es ist die Aufgabe der Datenschutz-Experten, hier auf datenschutzfreundliche Lösungen hinzuarbeiten.
Ausblick
Für die Zukunft bleibt die Frage offen, ob sich die Gesellschaft mit der immer weiter voranschreitenden Digitalisierung und Automatisierung ihrer Überwachung arrangieren wird oder ob eine stärkere Rückbesinnung auf individuelle Freiheitsrechte erfolgt. Fest steht jedoch, dass der Einsatz von Gesichtserkennungstechnologien einen tiefgreifenden Wandel in der Art und Weise bedeutet, wie Gesellschaften Überwachung und Privatsphäre verstehen. Eine offene, transparente Debatte über diese Technologien und ihre rechtlichen sowie ethischen Grenzen ist daher unerlässlich. Das Thema von Gesichtserkennungssystemen im öffentlichen Raum wird zukünftig weiterhin diskutiert werden.
Die gesamte Mitteilung der DSK können Sie hier nachlesen.
Bildnachweis: KI generiert
AUTOR
Moritz Kolb ist als externer Datenschutzbeauftragter und Datenschutzberater bei der RMPrivacy GmbH für Unternehmen und öffentliche Stellen tätig. Darüber hinaus hat er als Rechtsanwalt und Rettungssanitäter besonderes Interesse für Rechtsfragen an den Schnittstellen zwischen Datenschutzrecht und Medizinrecht sowie Datenschutzrecht und Vereinsrecht.