Politik

Informationstechnologie Europäische Union will rechtlichen Rahmen für Künstliche Intelligenz festlegen

Zweifel wegen der Gesichtserkennung

Brüssel/Straßburg.Der Vorgang war so etwas wie ein Lehrstück an der eigenen Person: Anfang des Monats tauchte im Intranet des Europäischen Parlaments eine Nachricht auf, die zu heftigem Protest der Volksvertreter führte. Die IT-Abteilung des Hauses kündigte an, dass die Abgeordneten für den Zutritt zum Parlament nicht mehr ein spezielles Ticket benötigen, sondern per Gesichtserkennung identifiziert würden. Der Widerstand wirkte, die Nachricht wurde zurückgezogen.

Künstliche Intelligenz hautnah –da machten sich Ängste breit. Dem will die EU mit einem Rechtsrahmen entgegentreten, für den in der kommenden Woche die ersten Eckpunkte gesetzt werden, wenn Kommissions-Vizepräsidentin Margrethe Vestager ein sogenanntes Weißbuch ihres Hauses vorlegt.

Antworten sind offenbar Mangelware, das Dokument enthält mehr offene Fragen. Einig sind sich die EU-Institutionen aber in einem Punkt: Transparenz und Fairness für den Bürger werden oberstes Gebot sein. Dies hat das Europäische Parlament am Mittwoch beschlossen.

Drei-Stufen-Modell in Arbeit

„Lassen Sie uns auf der Grundlage unserer Werte hohe europäische Standards schaffen, um die Transparenz und Rechenschaftspflicht der KI (Künstliche Intelligenz, d. Red.) gegenüber den Bürgern weltweit zu gewährleisten“, sagte die Vizepräsidentin des Europäischen Parlaments, Nicola Beer (FDP).

Ein solcher Rechtsrahmen wird dringend gewünscht. Sogar Sundar Pichai, Chef des Google-Mutterkonzerns „Alphabet“, wünschte sich in einem Gastbeitrag für die „Financial Times“ klare Vorgaben. So einig waren sich der Google-Manager und die EU-Kommission selten.

In Brüssel wird an einem Drei-Stufen-Modell gearbeitet: Unternehmen, die KI-Technik anbieten und bestimmte Sicherheits- und Haftungsanforderungen garantieren, könnten ein freiwilliges Gütesiegel nutzen. Behörden, die KI einsetzen, aber dabei in die Grundrechte der Bürger eingreifen – Polizei und Sicherheitsbehörden –, sollen zu regelmäßigen Berichten über den Nutzen von KI und deren Erkenntnisse verpflichtet sein. Bei besonders „risikoreichen“ Anwendungen zum Beispiel im Gesundheitswesen müssten die Anforderungen vor dem Einsatz noch stärker angehoben werden.

Außerdem wird es ein Recht für die Bürger auf Entschädigung geben, falls Algorithmen zu fehlerhaften Ergebnissen führen. Als Beispiel gelten Algorithmen, die von Personalstellen großer Unternehmen eingesetzt werden, um Bewerber auszuwählen und die dabei auf diskriminierende Kriterien zurückgreifen. Die Gefahr, so hieß es im EU-Parlament, sei vor allem dann groß, wenn schon die Daten, mit denen die Systeme gefüttert werden, nicht frei von Vorurteilen wären.

Besonders heikel ist das Thema Gesichtserkennung, von dem sich viele Anwender erhebliche Erleichterungen versprechen. In Deutschland wird darüber nachgedacht, die automatische Identifizierung von Reisenden an 134 Bahnhöfen und 14 Flughäfen zu nutzen, um Risikopersonen auszufiltern. Ähnliche Pläne hat Frankreich. In der Kommission wird überlegt, die Nutzung zunächst für drei oder fünf Jahre zu verbieten, um die Wirkung zu untersuchen. Gegner fürchten, Europa könnte den Anschluss verlieren.

Zum Thema