ChatGPT heizt Debatte um Künstliche Intelligenz weiter an
Der Chatbot ChatGPT stellt neue Fragen an Medien, Politik und Wissenschaft. Künstlich erzeugte Texte könnten gekennzeichnet werden.

Von Mareike Kürschner, RNZ Berlin
Berlin. "Dieser Text wurde von einem Menschen verfasst." Muss solch ein Hinweis in Zukunft unter journalistischen oder wissenschaftlichen Artikeln stehen, um sie abzugrenzen von Texten eines durch Künstliche Intelligenz (KI) gesteuerten Chatbots? Das Programm ChatGPT konfrontiert Medien, Politik und Wissenschaft mit dieser Frage.
"Prinzipiell bin ich der Auffassung, dass eine Nutzung von KI-Instrumenten zur Texterstellung immer kenntlich zu machen ist, soweit sich deren Nutzung nicht aus dem Zusammenhang ergibt", sagte Günter Krings (CDU), rechtspolitischer Sprecher der Unionsfraktion im Bundestag, unserer Berliner Redaktion. "Als Gesetzgeber müssen wir sorgfältig beobachten, wo und wie solche KI-Systeme für die Texterstellung genutzt werden, ehe wir über einen gesetzgeberischen Handlungsbedarf – wie beispielsweise die Verpflichtung zur Nutzung digitaler Wasserzeichen bei KI-erstellten Texten – entscheiden."
Krings hält im journalistischen Bereich "eine Selbstverpflichtung von Medienhäusern und Journalisten, die die Nutzung solcher Software ausschließt", für einen möglichen Weg.
"Wenn transparent gekennzeichnet wird, dass ein Text mit einer Software wie ChatGPT erstellt wurde, sollte dies grundsätzlich möglich sein", findet SPD-Digitalpolitiker Johannes Schätzl. Einen Einsatz der Software in Schulen schließt er hingegen gänzlich aus. Auch journalistische und wissenschaftliche Texte sollten "von Journalisten und Wissenschaftlern gecheckt werden, die dann für den Inhalt auch die volle Verantwortung übernehmen", so Schätzl.
Auch interessant
Der Grünen-Digitalpolitiker Tobias Bacherle sieht eine Möglichkeit, bei Chatbots für mehr Transparenz zu sorgen, "indem der Quellcode sowie die zugrundeliegende Datenbasis und Quellen öffentlich zugänglich und nachvollziehbar werden". Auch eine Kennzeichnung von Text- und Videomaterial sowie Selbstverpflichtungen von Medienschaffenden hält er für sinnvoll. Die Verantwortung liege hier aber "letztendlich bei der Politik, Rahmen und Grenzen zu schaffen, in denen sich Chatbots auf der Basis von Grundrechten bewegen können", so Bacherle.
Über KI-Regulierung diskutiert derzeit die EU. Demnach sind vier Risikostufen vorgesehen (Verbote, Qualitätsanforderungen an "Hochrisiko-KI-Systeme", Kennzeichnungspflichten, freiwillige Selbstverpflichtungen), wie das Bundeswirtschaftsministerium auf Anfrage unserer Zeitung erklärte. Unter welche Risiko-Einstufung ChatGPT fällt? Das muss sich erst noch zeigen. Eine schnelle Entscheidung ist jedenfalls nicht zu erwarten.
Die Bundesregierung setzt bei der möglichen Regulierung von ChatGPT auf die EU. Harmonisierte Vorschriften zu Künstlicher Intelligenz würden "derzeit zwischen EU-Kommission, -Parlament und -Rat verhandelt", sagte ein Sprecher des Bundesjustizministeriums unserer Berliner Redaktion. Die Verordnung werden wohl 2024 in Kraft treten.