Wie Künstliche Intelligenz für mehr Freiheit sorgen kann
IMAGO/aal.photo
Wo sehen Sie den größten Nutzen von Künstlicher Intelligenz (KI)?
Künstliche Intelligenz ist längst im Alltag angekommen, und zwar bei uns allen. Sie kann in sehr hoher Geschwindigkeit Muster in sehr großen Datenmengen erkennen. Aus diesen Mustern kann sie Prognosen erstellen, etwa wie ein Satz weitergeht. Letztlich erlaubt Künstliche Intelligenz mit dieser Weiterführung vorhandener Muster einen kleinen Blick in eine wahrscheinliche Zukunft. Die flexiblen Anwendungsmöglichkeiten von KI und maschinellem Lernen können durch den Menschen auf vielfältige Weise genutzt werden.
Welches Potenzial hat der Einsatz von KI?
KI lässt sich gar nicht separat auf einer generellen Ebene betrachten. Sie ist in sehr vielen konkreten Anwendungsfeldern nützlich, etwa im medizinischen Bereich oder um die Energieversorgung oder die Mobilität optimal aufeinander abzustimmen, Stichwort: Smart City. So erlaubt es KI der Gesellschaft, umweltschonender zu werden und kosteneffizienter.
Der Ethikrat fordert, KI dürfe den Menschen nicht ersetzen, sondern solle ihm dienen. Ist der Einsatz von Künstlicher Intelligenz überhaupt so klar zu begrenzen?
Letztendlich sollte KI solchen Zwecken des Menschen dienen, die sich als gut rechtfertigen lassen. Entscheidend ist aus meiner Sicht, dass man sich auf übergeordnete Ziele einigt, die KI-Anwendungen erfüllen sollen. Das sind am besten gemeinwohlorientierte Ziele. In bestimmten Bereichen kann das auch bedeuten, dass KI den Menschen ersetzt, etwa bei Routineaufgaben oder gefährlichen Tätigkeiten. Wenn wir KI richtig einsetzen, wird sie uns mehr Freiheiten ermöglichen. Entscheidend sind der differenzierte Blick und eine menschliche Aufsicht über die KI. So verstehe ich auch den Ethikrat.
Gibt es trotzdem Bereiche, in denen wir auf den Einsatz von Künstlicher Intelligenz verzichten sollten?
Alle Bereiche, in denen es um authentische zwischenmenschliche Beziehungen geht – etwa Pflege oder Kindererziehung – halte ich für problematisch. Auch im Bildungsbereich würde ich auf den direkten Einsatz von KI verzichten. Ein sehr umstrittener Bereich sind die autonomen Waffensysteme. Da vertreten die einen die Meinung, dass diese Systeme helfen, Menschenleben zu schützen, weil sie präziser sind und menschliche Kämpfer ersetzen. Andere sind strikt dagegen, dass Waffen autonom töten dürfen. In der Ethik sind (teil)autonome Waffensysteme ein sehr kontroverses Thema, zumal wir manche Entscheidungen ja bewusst an die KI abgeben wollen, etwa wenn es um Schnelligkeit geht.
Wie lässt sich verhindern, dass KI soziale Ungleichheit verstärkt?
Bei KI gilt sehr stark das Prinzip „Wer hat, dem wird gegeben“. Diejenigen, die schlau sind oder technikaffin, können Künstliche Intelligenz klar zu ihrem Nutzen einsetzen. Gleichzeitig kann KI auch helfen, bestimmte Defizite auszugleichen, Legasthenie etwa. Um allen den Zugang zur KI zu ermöglichen, müssen wir es hinbekommen, dass der Umgang damit bereits in der Schule gelehrt wird. Da geht es dann auch darum, z. B. durch KI manipulierte Bilder und Desinformationskampagnen zu erkennen.
Ist es sinnvoll, ein Produkt zu kennzeichnen, wenn es von einer KI erzeugt wurde?
Ja, Kennzeichnungspflichten halte ich für enorm wichtig. Wenn wir KI beaufsichtigen wollen, ist es ganz entscheidend zu wissen, worin sie steckt und was durch KI erzeugt wurde. Im KI-Regulierungsvorschlag der EU ist solch eine Kennzeichnungspflicht zumindest teilweise bereits vorgesehen.
Halten Sie auch ein KI-Moratorium, wie es einige Wissenschaftler und Entwickler fordern, für notwendig?
Ein Moratorium halte ich für vollkommen sinnlos. Die ethischen Design-Kriterien für Künstliche Intelligenz stehen schon lange fest. Entscheidend ist die Umsetzung, sodass ethische Fragestellungen bei der Entwicklung von KI von Anfang an berücksichtigt werden. Hier müssen die Unternehmen zügig ihrer Verantwortung gerecht werden.
Welche Erwartungen haben Sie an die Politik?
In der Regulierung sind wir auf einem ganz guten Weg. In der Datenschutzgrundverordnung ist z. B. geregelt, dass Menschen nicht Subjekt einer Entscheidung werden dürfen, die allein von einer KI gefällt wurde. Auf europäischer Ebene wurde gerade der „Digital Services Act“ beschlossen, der nun auf nationaler Ebene umgesetzt werden muss. Demnach müssen die großen Digitalunternehmen in Bezug auf die gesellschaftlichen Folgen ihrer Dienste eigene Risikobewertungen durchführen. Das halte ich für sehr wichtig. Klar ist, dass die Unternehmen nicht schalten und walten dürfen, wie sie wollen. Kontrollen von außen sind deshalb sehr wichtig.
node:vw-infobox
Dirk Bleicker | vorwärts
ist stellvertretender Chefredakteur des vorwärts. Er betreut den Bereich Parteileben und twittert unter @kai_doering.