Mensch oder Maschine?

ChatGPT heizt Debatte um Künstliche Intelligenz weiter an

Der Chatbot ChatGPT stellt neue Fragen an Medien, Politik und Wissenschaft. Künstlich erzeugte Texte könnten gekennzeichnet werden.

09.02.2023 UPDATE: 09.02.2023 06:00 Uhr 1 Minute, 24 Sekunden
OpenAI - ChatGPT
Das Logo von OpenAI, dem Hersteller von ChatGPT, auf dem Bildschirm eines Smartphones. Foto: dpa

Von Mareike Kürschner, RNZ Berlin

Berlin. "Dieser Text wurde von einem Menschen verfasst." Muss solch ein Hinweis in Zukunft unter journalistischen oder wissenschaftlichen Artikeln stehen, um sie abzugrenzen von Texten eines durch Künstliche Intelligenz (KI) gesteuerten Chatbots? Das Programm ChatGPT konfrontiert Medien, Politik und Wissenschaft mit dieser Frage.

"Prinzipiell bin ich der Auffassung, dass eine Nutzung von KI-Instrumenten zur Texterstellung immer kenntlich zu machen ist, soweit sich deren Nutzung nicht aus dem Zusammenhang ergibt", sagte Günter Krings (CDU), rechtspolitischer Sprecher der Unionsfraktion im Bundestag, unserer Berliner Redaktion. "Als Gesetzgeber müssen wir sorgfältig beobachten, wo und wie solche KI-Systeme für die Texterstellung genutzt werden, ehe wir über einen gesetzgeberischen Handlungsbedarf – wie beispielsweise die Verpflichtung zur Nutzung digitaler Wasserzeichen bei KI-erstellten Texten – entscheiden."

Krings hält im journalistischen Bereich "eine Selbstverpflichtung von Medienhäusern und Journalisten, die die Nutzung solcher Software ausschließt", für einen möglichen Weg.

"Wenn transparent gekennzeichnet wird, dass ein Text mit einer Software wie ChatGPT erstellt wurde, sollte dies grundsätzlich möglich sein", findet SPD-Digitalpolitiker Johannes Schätzl. Einen Einsatz der Software in Schulen schließt er hingegen gänzlich aus. Auch journalistische und wissenschaftliche Texte sollten "von Journalisten und Wissenschaftlern gecheckt werden, die dann für den Inhalt auch die volle Verantwortung übernehmen", so Schätzl.

Auch interessant
Sorgen wegen ChatGPT: Wer kontrolliert und reguliert die Maschinen?
Suchmaschinen: Wie KI-Chatbots die Internet-Suche revolutionieren können
Künstliche Intelligenz: Microsoft bläst mit ChatGPT-Machern zum Angriff auf Google

Der Grünen-Digitalpolitiker Tobias Bacherle sieht eine Möglichkeit, bei Chatbots für mehr Transparenz zu sorgen, "indem der Quellcode sowie die zugrundeliegende Datenbasis und Quellen öffentlich zugänglich und nachvollziehbar werden". Auch eine Kennzeichnung von Text- und Videomaterial sowie Selbstverpflichtungen von Medienschaffenden hält er für sinnvoll. Die Verantwortung liege hier aber "letztendlich bei der Politik, Rahmen und Grenzen zu schaffen, in denen sich Chatbots auf der Basis von Grundrechten bewegen können", so Bacherle.

Über KI-Regulierung diskutiert derzeit die EU. Demnach sind vier Risikostufen vorgesehen (Verbote, Qualitätsanforderungen an "Hochrisiko-KI-Systeme", Kennzeichnungspflichten, freiwillige Selbstverpflichtungen), wie das Bundeswirtschaftsministerium auf Anfrage unserer Zeitung erklärte. Unter welche Risiko-Einstufung ChatGPT fällt? Das muss sich erst noch zeigen. Eine schnelle Entscheidung ist jedenfalls nicht zu erwarten.

Die Bundesregierung setzt bei der möglichen Regulierung von ChatGPT auf die EU. Harmonisierte Vorschriften zu Künstlicher Intelligenz würden "derzeit zwischen EU-Kommission, -Parlament und -Rat verhandelt", sagte ein Sprecher des Bundesjustizministeriums unserer Berliner Redaktion. Die Verordnung werden wohl 2024 in Kraft treten.