Interview mit der dju-Vorsitzenden Tina Groll

Warum ChatGPT Chance und Risiko für die Pressefreiheit ist

Jonas Jordan03. Mai 2023
Künstliche Intelligenz so wie der Sprachbot ChatGPT bieten Chancen, aber auch einige Risiken, meint die dju-Vorsitzende Tina Groll.
Künstliche Intelligenz so wie der Sprachbot ChatGPT bieten Chancen, aber auch einige Risiken, meint die dju-Vorsitzende Tina Groll.
Künstliche Intelligenz verändert den Journalismus. Sie bietet Möglichkeiten, aber auch Gefahren für die Pressefreiheit. Welche das sind, beurteilt die Vorsitzende der dju in ver.di, Tina Groll, im Interview.

Welche Maßnahmen wurden in den letzten Jahren zum Schutz der Pressefreiheit in Deutschland ergriffen und vor welchen Herausforderungen stehen Journalist*innen?

Da fallen mir leider nicht so viele ein. Meinem Eindruck nach haben wir Stillstand. Wir fordern seit vielen Jahren, dass Polizistinnen und Polizisten besser geschult werden. Unsere Beobachtung war, dass Polizei und Behörden insbesondere während der Corona-Zeit die Pressefreiheit eher behindert, wenn nicht sogar eingeschränkt haben. Auch bei rechtsextremen Demonstrationen wurden Reporterinnen und Reporter festgehalten und an der Berichterstattung gehindert. Zudem nehmen hierzulande die Angriffe auf Journalistinnen und Journalisten zu. Reporter ohne Grenzen stellt in seiner heute veröffentlichten Rangliste der Pressefreiheit einen dramatischen Rückgang der Pressefreiheit in Deutschland fest. Wir sinken um fünf Plätze auf Platz 21.

Lesen Sie daran eine steigende Gefahr für Journalist*innen ab?

Auf jeden Fall. Die Angriffe werden häufiger. Es sind vor allem Demonstrationen, bei denen Journalistinnen und Journalisten tätlich oder verbal angegriffen werden. Die Kolleginnen und Kollegen von öffentlich-rechtlichen Rundfunkanstalten gehen in der Regel nur noch mit Security-Personal zu solchen Veranstaltungen. Das zeigt schon, dass wir in eine ganz erhebliche Schieflage gekommen sind. Ich vermisse da ein klares Bekenntnis der Politik. Heute hat zwar der Bundesjustizminister den Medienschaffenden den Rücken gestärkt und seine Unterstützung gegen Einschüchterungen angekündigt, aber ich habe das Gefühl, das sind immer nur Sonntagsreden. Zum Beispiel sind wir beim Thema Bundespresseauskunftsrecht in den letzten Jahren kaum weitergekommen. Da kann und muss sehr viel mehr passieren.

Zurück zur Einstiegsfrage, die insofern ungewöhnlich war, als dass wir ChatGPT aufgefordert haben, eine Interviewfrage zum Thema Pressefreiheit in Deutschland zu erstellen. Ist das Programm für Sie hilfreich oder steckt auch eine Gefahr für den Journalismus in ChatGPT?

Wir nutzen das in meiner Redaktion schon und finden so zum Beispiel alternative Überschriften. Manchmal ist ChatGPT sehr viel lustiger als ich. Mitunter sind das bessere Überschriften, was eine Arbeitserleichterung sein kann. Wenn man allerdings nach gewissen Themen sucht, bei denen man am Anfang seiner Recherche steht, erfindet die Maschine leider hin und wieder irgendwas. Insofern stecken da eine riesig große Bedrohung und Gefahr drin.

Welche weiteren Probleme sehen Sie?

Wir können nicht transparent nachvollziehen, wie ChatGPT und andere Tools gefüttert werden und was ihre Quellen sind. Daher haben wir als dju in ver.di gemeinsam mit anderen Verbänden wie der Urheberrechtsinitiative in einem Offenen Brief genau das gefordert, nämlich dass nur seriöse Quellen zum Training dieser Maschinen verwendet werden dürfen. Das ist ein frommer Wunsch, wird aber auf keinen Fall passieren, weil es internationale Konzerne sind, die diese KIs entwickeln. Diese scheren sich einen Teufel um presseethische Standards, die in Europa oder in Deutschland herrschen.

Die Stuttgarter Nachrichten haben in einer Art Selbstversuch mal geschaut, ob ChatGPT einen Lokalredakteur ersetzen könnte und dem Programm die Aufgabe gestellt, einen Artikel über fünf angesagte Bars in einem Landkreis zu schreiben. Heraus kam ein Artikel, bei dem mehrere der Bars erfunden waren. Steigt durch ChatGPT auch die Gefahr von Fake News? Wenn ja, was könnte man dagegen tun?

Ja, auf jeden Fall. Noch krasser ist es bei Bildgeneratoren. Eine Kollegin aus Österreich hat ein täuschend echtes Bild von Angela Merkel auf einer Wasserrutsche erstellt. Wir alle erinnern uns auch noch an Franziska Giffey, die mit dem Fake-Klitschko über Deep Fake gesprochen hat. Insofern gibt es erhebliche Gefahren. Zugleich zeigt das Beispiel von den Stuttgarter Nachrichten gut, dass im lokalen oder regionalen Journalismus die Journalistinnen und Journalisten vielleicht nicht so schnell ersetzbar sind.

Was bedeutet das für die Zukunft des Journalismus?

Wir stehen erst am Anfang einer Entwicklung, die vermutlich exponentiell sein wird. Vermutlich werden wir sehr bald eine KI erleben, die von sich behaupten wird, sie habe ein Bewusstsein. Dadurch werden sich noch einmal andere ethische und auch presseethische Fragen stellen. Verbunden mit Urheberrechtsfragen. Die eigentlichen Urheberinnen und Urheber der ursprünglichen Texte, Songs oder Bilder müssen urheberrechtsmäßig beteiligt werden.

Irgendwann werden vermutlich gute Artikel entstehen, die Journalistinnen und Journalisten ersetzbar machen. Erste Redaktionen in Deutschland machen das schon mit Blick auf die Bundesligaberichterstattung. In meinem Haus werden momentan Programme trainiert, um unseren Stil zu kopieren. Das kann auch ein Risiko für Pressefreiheit sein, wenn Software manipuliert wird und dadurch schneller Fake News verbreitet werden. Und es ist ein Problem, dass da, wo Jobs abgebaut werden, sich die Zahl der Journalistinnen und Journalisten verringert. Damit wird auch ein Garant von Pressefreiheit einfach abgerissen.

Arbeitsminister Hubertus Heil hat in einem Interview gesagt, er sehe insgesamt nicht die Gefahr, dass durch KI Jobs abgebaut werden können. Wie sehen Sie das mit Blick auf den Journalismus?

Ich glaube auch nicht, dass das sofort passieren wird. Ich glaube im Gegenteil eher, dass Jobs entstehen werden, weil Menschen, die recherchieren und gute von schlechten Quellen unterscheiden können, dem nachgehen können, ob es diese Bar bei Stuttgart wirklich gibt. Diese Menschen werden auf jeden Fall weiterhin gefragt sein. Möglicherweise ist das sogar eine Chance für den Journalismus. KI ist eine Chance. Man sollte sich über die Risiken bewusst sein, aber es ist auf jeden Fall eine Arbeitserleichterung für Journalistinnen und Journalisten.

Die SPD-Vorsitzende Saskia Esken hat in einem Interview gesagt, KI könne die langweilige Arbeit verrichten. Welche wäre das im Journalismus?

Bundesliga-Spielberichte, Wetter, Börse – also überall dort, wo die Berichterstattung relativ standardisiert und automatisiert erfolgt. Vieles andere wie Transkriptions-, Bildbearbeitungs- oder Übersetzungsprogramme gibt es schon und sind eine Arbeitserleichterung. Wenn ich als kleine lokale Zeitung mein Angebot mittels Übersetzungen so erweitere, dass es neben deutschsprachigen künftig auch türkischsprachige Texte umfasst, kann das Barrieren abbauen und wäre sinnvoll, um neue Rezipientinnen und Rezipienten zu erschließen.

Zur Gesprächspartnerin:

Tina Groll ist Vorsitzende der Deutschen Journalistinnen- und Journalisten-Union.

Tina Groll ist Bundesvorsitzende der Deutschen Journalistinnen- und Journalistenunion (dju) in ver.di, seit 2015 Mitglied Deutschen Presserat (aktuell im Beschwerdeausschuss 3 sowie im Beschwerdeausschuss Redaktionsdatenschutz), ebenfalls entsandt von ver.di. Hauptberuflich arbeitet sie als Redakteurin bei ZEIT ONLINE in Berlin im Ressort Politik, Wirtschaft und Gesellschaft.

weiterführender Artikel

Kommentare

Die Pressefreiheit steht wohl nicht in Frage,

wohl aber, wen und was die Bürger für wahr halten können.

Denn die 'Simulierte Intelligenz', wie der Physiker Dr. Peter Heller die sogenannte 'Künstliche Intelligenz' bezeichnet, funktioniert so, wie es Auftraggeber und Hersteller der Programme vorschreiben sowie dazugehörige Technik [Datenspeicher, Rechner, Tastaturen, Mikrofone, Kameras, Lautsprecher ...] es ermöglichen.

Programme der simulierten Intelligenz erzeugen gemäss Programmierung, eingegebener Daten und dazugehöriger Technik vollkommen sinnfreihe Ergebnisse, die man vermenschlichend [anthropomorphisierend] als 'intelligent' bezeichnend könnte.

Genau damit aber irrt man sich gewaltig und übersieht, wer die Ergebnisse dieser Systeme vorgibt. Zu verantworten haben die Ergebnisse dieser Systeme also die Auftraggeber und Hersteller der als Künstliche Intelligenz bezeichneten Programme.

Zu kennzeichnen sind also alle durch solche Systeme erzeugten 'Texte' als künstlich erzeugte Texte. Dann können Bürger selbst entscheiden, ob sie sich mit diesen Texten befassen.

Wo es um mit solchen Systemen automatisierte Entscheidungen geht, muss jedem Bürger dies vorher mitgeteilt werden.