
Künstliche Intelligenz (KI) wird das gesellschaftliche Zusammenleben in den kommenden Jahren auf vielen Ebenen beeinflussen. Um ihre Vorteile zu nutzen und gleichzeitig die Gefahren zu regulieren, wird der Ruf nach Kontrolle immer lauter. Hierbei könnte wiederum die EU zum weltweiten Maßstab werden, genauer gesagt der Artificial Intelligence Act (AI Act).
Erstes Gesetz zur Regulierung von KI
Daher setzte sich die sozialdemokratische Gruppe in der S&D-Fraktion beispielsweise dafür ein, vorausschauende Polizeiarbeit, biometrische Überwachung und den Einsatz biometrischer Daten für Emotionserkennung zu verbieten. Der entsprechende Entwurf der EU-Kommission wurde in den zuständigen Ausschüssen des EU-Parlaments noch einmal nachgeschärft. Die Abstimmung im Parlament selbst ist für den 14. Juni geplant. Danach können die Verhandlungen mit dem Rat, also den Regierungen der EU-Mitgliedsstaaten, beginnen.
Fakten statt Science Fiction
Mit Hollywood-Filmen wie „Terminator“ oder „Matrix“ kann Nikolett Aszódi von AlgorithmWatch beim Blick auf KI-Systeme wenig anfangen. Die Organisation hat es sich zur Aufgabe gemacht, Entscheidungen von KI zu analysieren, um abschätzen zu können, wie sie sich auf Menschen auswirken.
Die erwähnten Filme seien eher eine Annahme von Menschen, wie „künstlich intelligente“ Systeme aussehen könnten – doch: Diese Darstellung sei irreführend, wecke wilde Fantasien und lenke „unsere Aufmerksamkeit von den wirklichen, aktuellen Problemen ab“, sagt Nikolett Aszódi. Wie die beiden SPD-Europaabgeordneten Sippel und Repasi nennt sie als Beispiel auch die „Gesichtserkennung und generell Systeme, die versuchen, uns anhand unserer biometrischen Daten – wie Gesicht, Iris oder Gang – zu identifizieren“. Diese Technologie werde bereits in einigen EU-Ländern im öffentlichen Raum eingesetzt. So nutzte ein Supermarkt in den Niederlanden ein KI-System, dass die Gesichter jeder Person scannte, die den Laden betrat. Anschließend verglich es die KI mit einer Datenbank, um potenzielle Diebe zu erkennen.
AI Act ist erst ein Anfang
Massenüberwachung habe in demokratischen Gesellschaften nichts zu suchen, sagt Aszódi. Und es gehe noch weiter: Es gebe immer mehr Hinweise darauf, dass KI-Systeme ungerechte, sexistische oder rassistische Annahmen und Entscheidungen treffen können. Gerade mit Blick auf biometrische Daten zeigen manche Fälle, dass eine KI bei Gesichtern von Menschen mit schwarzer oder anderer Hautfarbe und Frauen gar nicht oder ungenau funktioniere, „während die Ergebnisse bei Gesichtern weißer Männer eine höhere Genauigkeit zeigten“.
Ein weiteres Problem sieht Aszódi darin, dass sich Menschen auf die Ergebnisse des Systems verlassen würden, „ohne die Fakten zu überprüfen“. So habe die niederländische Regierung beispielsweise Sozialleistungen von Menschen zurückgefordert, die fälschlicherweise als Betrüger eingestuft worden waren. Sie habe dabei nicht überprüft, ob die Betroffenen tatsächlich Betrug begangen hatten oder nicht. Um KI besser zu regulieren, plädiert Nikolett Aszódi, neben dem „AI Act“ auf Europaebene, unter anderem für ein KI-Register im öffentlichen Bereich. Das schaffe Transparenz. Außerdem fordert sie „Maßnahmen zum Schutz vor algorithmenbasierter Diskriminierung“.
Algorithmus Maschinelles Lernen Chatbot ChatGPT Überwachtes LernenGlossar: Künstliche Intelligenz
ist eine definierte Berechnungsvorschrift für einen oder mehrere Computer, um Aufgaben zu lösen. Neben fest programmierten Algorithmen gibt es auch solche, die selbst dazulernen und damit selbst Kriterien aufstellen, wonach entschieden wird.
kommt in allen modernen KI-Systemen vor. Beim maschinellen Lernen werden Algorithmen so eingesetzt, dass IT-Systeme Muster und Gesetzmäßigkeiten erfassen und daraus eigene Lösungsansätze entwickeln können. Grundlage sind große, vorhandene Datenbestände, die zur Erkennung der Muster benötigt werden.
Ein Chatterbot, Chatbot oder Bot ist ein Computerprogramm, das durch Methoden maschinellen Lernens dazulernen kann. Es wird zunehmend im Kundenservice eingesetzt, um Anfragen zu beantworten.
steht für „Generative Pretrained Transfromer“ und ist ein Chatbot, dessen Software auf maschinellem Lernen, dem Deep Learning basiert. Mithilfe von ChatGPT können Texte erfasst und erzeugt werden. Zu jedem erdenklichen Thema können Nutzerinnen und Nutzer mit ChatGPT in den Dialog treten. Dabei greift das Programm auf eine riesige Menge Textdaten aus dem Internet zurück, wie Websites, Artikel und Bücher. ChatGPT wurde vom US-amerikanischen Unternehmen OpenAI entwickelt und im November 2022 der Öffentlichkeit zugänglich gemacht.
ist ein Teilgebiet des maschinellen Lernens. Dabei erhält der Algorithmus ein klares Ziel. ChatGPT wurde mit überwachten und bestärkenden Lernmethoden trainiert. Das bedeutet, dass diese künstlich erzeugte Intelligenz menschliches Feedback erhält. Damit sollen diskriminierende oder schädliche Verhaltensmuster vermieden werden. Beim unüberwachte Lernen soll ohne klare Zielvorgabe nach Gemeinsamkeiten und Unterschieden gesucht werden. Ziel ist es, Muster und Zusammenhänge in großen Datensätzen zu finden, die sonst verborgen bleiben.