Artificial Intelligence Act (AI Act)

Wie Europa bei der Kontrolle von KI zum Vorreiter werden könnte

Jonas JordanSebastian Thomas31. Mai 2023
Mit dem AL Act sollen künftig KI-Systeme in Risikokategorien unterteilt werden
Mit dem AL Act sollen künftig KI-Systeme in Risikokategorien unterteilt werden
Die ganze Welt blickt nach Europa, wo ein EU-Gesetz zum weltweiten Maßstab bei der Kontrolle von Künstlicher Intelligenz werden könnte. Der Artificial Intelligence Act (AI Act) soll helfen, Vorteile von KI zu nutzen und Gefahren zu regulieren.

Künstliche Intelligenz (KI) wird das gesellschaftliche Zusammenleben in den kommenden Jahren auf vielen Ebenen beeinflussen. Um ihre Vorteile zu nutzen und gleichzeitig die Gefahren zu regulieren, wird der Ruf nach Kontrolle immer lauter. Hierbei könnte wiederum die EU zum weltweiten Maßstab werden, genauer gesagt der Artificial Intelligence Act (AI Act).

Erstes Gesetz zur Regulierung von KI

Diese Verordnung wäre das weltweit erste ausschließliche Gesetz zur Regulierung von Künstlicher Intelligenz. Demnach sollen KI-Systeme in Risikokategorien unterteilt werden. KI-Systeme mit nicht vertretbaren Risiken werden verboten. Die Nutzung von KI-Systemen mit hohen oder niedrigen Risiken werden durch Transparenzpflichten zum Schutz der Grundrechte begrenzt. „KI soll den Menschen dienen und sie weder überwachen, manipulieren, analysieren noch über sie richten“, sagt Birgit Sippel dazu. Sie ist innenpolitische Sprecherin der S&D-Fraktion im Europaparlament. Auch ihr Fraktionskollege René Repasi, binnenmarkt- und verbraucherschutzpolitischer Sprecher der Europa-SPD, ist der Meinung: „Nur durch wirksame Regulierung können Risiken für Arbeitnehmerinnen und Arbeitnehmer sowie Verbraucherinnen und Verbraucher eingedämmt und das volle Potenzial Künstlicher Intelligenz ausgeschöpft werden.“

Daher setzte sich die sozialdemokratische Gruppe in der S&D-Fraktion beispielsweise dafür ein, vorausschauende Polizeiarbeit, biometrische Überwachung und den Einsatz biometrischer Daten für Emotionserkennung zu verbieten. Der entsprechende Entwurf der EU-Kommission wurde in den zuständigen Ausschüssen des EU-Parlaments noch einmal nachgeschärft. Die Abstimmung im Parlament selbst ist für den 14. Juni geplant. Danach können die Verhandlungen mit dem Rat, also den Regierungen der EU-Mitgliedsstaaten, beginnen.

Fakten statt Science Fiction

Mit Hollywood-Filmen wie „Terminator“ oder „Matrix“ kann Nikolett Aszódi von AlgorithmWatch beim Blick auf KI-Systeme wenig anfangen. Die Organisation hat es sich zur Aufgabe gemacht, Entscheidungen von KI zu analysieren, um abschätzen zu können, wie sie sich auf Menschen auswirken.

Die erwähnten Filme seien eher eine Annahme von Menschen, wie „künstlich intelligente“ Systeme aussehen könnten – doch: Diese Darstellung sei irreführend, wecke wilde Fantasien und lenke „unsere Aufmerksamkeit von den wirklichen, aktuellen Problemen ab“, sagt Nikolett Aszódi. Wie die beiden SPD-Europaabgeordneten Sippel und Repasi nennt sie als Beispiel auch die „Gesichtserkennung und generell Systeme, die versuchen, uns anhand unserer biometrischen Daten – wie Gesicht, Iris oder Gang – zu identifizieren“. Diese Technologie werde bereits in einigen EU-Ländern im öffentlichen Raum eingesetzt. So nutzte ein Supermarkt in den Niederlanden ein KI-System, dass die Gesichter jeder Person scannte, die den Laden betrat. Anschließend verglich es die KI mit einer Datenbank, um potenzielle Diebe zu erkennen.

AI Act ist erst ein Anfang

Massenüberwachung habe in demokratischen Gesellschaften nichts zu suchen, sagt Aszódi. Und es gehe noch weiter: Es gebe immer mehr Hinweise darauf, dass KI-Systeme ungerechte, sexistische oder rassistische Annahmen und Entscheidungen treffen können. Gerade mit Blick auf biometrische Daten zeigen manche Fälle, dass eine KI bei Gesichtern von Menschen mit schwarzer oder anderer Hautfarbe und Frauen gar nicht oder ungenau funktioniere, „während die Ergebnisse bei Gesichtern weißer Männer eine höhere Genauigkeit zeigten“.

Ein weiteres Problem sieht Aszódi darin, dass sich Menschen auf die Ergebnisse des Systems verlassen würden, „ohne die Fakten zu überprüfen“. So habe die niederländische Regierung beispielsweise Sozialleistungen von Menschen zurückgefordert, die fälschlicherweise als Betrüger eingestuft worden waren. Sie habe dabei nicht überprüft, ob die Betroffenen tatsächlich Betrug begangen hatten oder nicht. Um KI besser zu regulieren, plädiert Nikolett Aszódi, neben dem „AI Act“ auf Europaebene, unter anderem für ein KI-Register im öffentlichen Bereich. Das schaffe Transparenz. Außerdem fordert sie „Maßnahmen zum Schutz vor algorithmenbasierter Diskriminierung“.

Glossar: Künstliche Intelligenz

Algorithmus
ist eine definierte Berechnungsvorschrift für einen oder mehrere Computer, um Aufgaben zu lösen. Neben fest programmierten Algorithmen gibt es auch solche, die selbst dazulernen und damit selbst Kriterien aufstellen, wonach entschieden wird.

Maschinelles Lernen
kommt in allen modernen KI-Systemen vor. Beim maschinellen Lernen werden Algorithmen so eingesetzt, dass IT-Systeme Muster und Gesetzmäßigkeiten erfassen und daraus eigene Lösungsansätze entwickeln können. Grundlage sind große, vorhandene Datenbestände, die zur Erkennung der Muster benötigt werden.

Chatbot
Ein Chatterbot, Chatbot oder Bot ist ein Computerprogramm, das durch Methoden maschinellen Lernens dazulernen kann. Es wird zunehmend im Kundenservice eingesetzt, um Anfragen zu beantworten.

ChatGPT
steht für „Generative Pretrained Transfromer“ und ist ein Chatbot, dessen Software auf maschinellem Lernen, dem Deep Learning basiert. Mithilfe von ChatGPT können Texte erfasst und erzeugt werden. Zu jedem erdenklichen Thema können Nutzerinnen und Nutzer mit ChatGPT in den Dialog treten. Dabei greift das Programm auf eine riesige Menge Textdaten aus dem Internet zurück, wie Websites, Artikel und Bücher. ChatGPT wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und im November 2022 der Öffentlichkeit zugänglich gemacht.

Überwachtes Lernen
ist ein Teilgebiet des maschinellen Lernens. Dabei erhält der Algorithmus ein klares Ziel. ChatGPT wurde mit überwachten und bestärkenden Lernmethoden trainiert. Das bedeutet, dass diese künstlich erzeugte Intelligenz menschliches Feedback erhält. Damit sollen diskriminierende oder schädliche Verhaltensmuster vermieden werden. Beim unüberwachte Lernen soll ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden gesucht werden. Ziel ist es, Muster und Zusammenhänge in großen Datensätzen zu finden, die sonst verborgen bleiben.

weiterführender Artikel