Künstliche Intelligenz ist "nicht intelligent"

Ersetzt die Maschine den Menschen? (plus Podcast)

Texte werden heute oft von Maschinen geschrieben – schneller und manchmal auch besser als von Menschen. Müssen Kinder nun nie wieder selbst Hausaufgaben machen?

18.02.2023 UPDATE: 17.02.2023 18:30 Uhr 9 Minuten, 47 Sekunden
Kleiner Bot, der vieles kann: Handy mit dem Logo des ChatGPT-Herstellers OpenAI. Foto: dpa
Interview
Interview
Paul Lukowicz
Professor für Informatik/Künstliche Intelligenz an der Universität Kaiserslautern

Von Barbara Klauß

Kaiserslautern. Millionenfach werden dieser Tage Texte geschrieben – allerdings nicht von Menschen, sondern von Maschinen. Der Chatbot ChatGPT der US-amerikanischen Firma Open AI hat einen absoluten Hype ausgelöst.

Ende vergangenen Jahres stellte das Unternehmen, in das der Tech-Riese Microsoft Milliarden investiert, den Bot als eine Art "Spielwiese" zur freien Nutzung ins Internet. Dort kann nun jeder Befehle eingeben wie "Schreib mir ein Liebesgedicht" oder "Was ist Künstliche Intelligenz?" – und in Sekunden spuckt der Computer Texte aus.

 

Der erste Chatbot ist Chat GPT nicht. Und er wird nicht der letzte bleiben. Doch wie alle technischen Neuerungen, denen eine disruptive Kraft zugetraut wird, löst er neben Faszination auch Ängste aus: Wozu sind solche Systeme fähig? Können sie uns gefährlich werden?

Ein Gespräch über Künstliche Intelligenz, Kunst und Moral mit dem Informatik-Professor Paul Lukowicz.

Auch interessant
Roboter im Test: Heidelberg-Büttenrede und Boris Becker-Liebesbrief von ChatGPT
Künstliche Intelligenz: Auch Online-Algorithmen haben Vorurteile
Bildung: Hausaufgaben übernimmt die KI
Computer: Google startet große Offensive für künstliche Intelligenz
Mensch oder Maschine?: ChatGPT heizt Debatte um Künstliche Intelligenz weiter an

Herr Professor Lukowicz, woher kommt plötzlich dieser Hype um Chatbots?

In der Wissenschaft hat man sich schon lange mit solchen Systemen beschäftigt. Doch aufgrund der enormen Menge an verfügbaren Daten, einiger neuer technischer Ideen und der verfügbaren Rechnerleistung ist jetzt eine Schwelle überschritten, ab der die Systeme auch im Alltag Faszinierendes vollbringen können.

Die Bots haben also den Schritt aus der Wissenschaft heraus in den Alltag gemacht?

Genau. Sie haben einen Punkt erreicht, an dem es auch für einen Laien interessant ist, mit diesen Dingen zu spielen, weil sie ohne große Haken und Ösen Antworten auf normale Alltagsfragen produzieren. Wobei man bei den Haken und Ösen schon vorsichtig sein muss. Das große Problem dieser Tools ist: Sie produzieren Aussagen, die sachkundig erscheinen. Teilweise erzählen sie aber in genau demselben Ton Dinge, die plausibel klingen – aber totaler Unfug sind.

Wie kommt das?

Das hängt mit der Art zusammen, wie ein solches System trainiert wird. Ihm werden riesige Mengen Text vorgelegt, Hunderte Gigabyte. Man gibt ihm drei Sätze, vertauscht deren Reihenfolge, und das System soll erkennen, wie sie ursprünglich angeordnet waren. Macht es das richtig, wird es belohnt. Das heißt: Am Ende weiß das System, wenn ich ihm einen Satz vorlege, welche Sätze im Internet höchstwahrscheinlich darauf folgen. Nun wissen wir ja aber alle, dass im Internet nicht nur die Wahrheit steht.

Trotzdem kann das System auf diese Art extrem gute Texte produzieren – weil es gelernt hat, was einen typischen Text ausmacht. Im Prinzip ist es wie ein schlechter Student, der in der Vorlesung nichts verstanden hat, für die Prüfung aber jede Folie auswendig lernt, und sie dann mit seinen eigenen Worten wiedergeben kann – ohne zu wissen, was er eigentlich sagt.

Nun könnte dieser schlechte Student auf die Idee kommen, seine Hausarbeiten nicht mehr selbst zu schreiben, sondern einen Bot damit zu beauftragen. Wie sollte man dem begegnen?

Das ist in der Tat eine Gefahr. Dennoch glaube ich, dass solche Systeme in der Bildung sehr nützliche Tools sein können – wenn sie so eingesetzt werden, dass sie den Anwendern helfen, Probleme zu lösen. Und nicht als Ersatz-Arbeiter.

Ein größeres Problem sehe ich an einem anderen Punkt: Jemand, der Chatbots nutzt, um sich Informationen zu beschaffen, kann leicht dazu verleitet werden, sich auf deren Nonsens einzulassen. Greift man auf Suchmaschinen wie Google zurück, bekommt man eine Liste mit verschiedenen Antworten. Die kann man sich angucken und sie miteinander vergleichen. Die meisten Nutzer, auch Kinder, sind heute – glaube ich – schon ganz gut darin, Quellen einzuschätzen.

Die eine Antwort, die der Chatbot gibt, klingt allerdings unter Umständen so überzeugend, dass kein Drang entsteht, sie kritisch zu hinterfragen. Ich merke also nicht, dass das Ding, wie man so schön sagt, halluziniert.

An Schulen und Hochschulen muss also mehr Medienkompetenz vermittelt werden?

Genau. Leider sieht man in der Bildung oft eine negative Einstellung. Meist wird versucht, Kinder von technischen Neuerungen fern zu halten. Dabei sollte genau das Gegenteil geschehen: Man muss Kindern und Jugendlichen so früh wie möglich beibringen, wie ein sinnvoller und verantwortungsbewusster Umgang mit solchen Medien aussieht.

Auch die Vermittlung eines ethischen Verständnisses halte ich für wichtig: Nämlich, dass es falsch ist, einen Text von einem Bot als etwas Eigenes auszugeben.

Sie sagten, Bots könnten nützliche Tools sein. Aber wie lassen sie sich denn sinnvoll in der Bildung einsetzen?

Wenn etwa ein Student ein Programm schreiben muss, soll er das natürlich nicht an den Bot outsourcen. Ist es aber ein sehr komplexes Programm und er weiß nicht, wie bestimmte Konstrukte in einer bestimmten Programmiersprache funktionieren, kann er das den Bot fragen. So bekommt er viel einfacher und effizienter eine Antwort, als wenn er sich im Netz durch 20 Links klicken muss.

Natürlich braucht er dann wieder das Bewusstsein, dass das Ding manchmal Unfug erzählt. Es ist so ähnlich, als würde man mit einem Kommilitonen lernen: Der erzählt auch manchmal Quatsch. Aber sich kritisch mit einer Aussage auseinanderzusetzen, bringt einen ja auch weiter. Wir sollten diese Systeme also als eine Art Wand nutzen, an die wir Ideen werfen, und uns dann mit dem beschäftigen, was zurück kommt.

Ähnliches gilt für den Arbeitsmarkt, oder? Da heißt es auch oft, Bots sollten die Leistung von Menschen ergänzen, nicht ersetzen.

Genau. Die KI soll dem Menschen helfen, mehr zu leisten. Das ist ähnlich wie bei einem Exoskeleton – also einer Art Skelett, das ein Mensch sich anziehen kann, um seine Kraft zu verstärken. Das Exoskeleton macht die Dinge nicht für mich, sondern es verstärkt meine Bewegungen, so wie ich sie ausführe. Ein Chatbot ist ein bisschen wie ein kognitives Exoskeleton: Er verleiht mir im Hinblick auf meine mentale Arbeit mehr Kraft. Und genau so sollten wir diese Tools meiner Meinung nach einsetzen.

Dennoch haben manche Menschen Angst, dass ihre Arbeitskraft durch Maschinen ersetzt werden könnte. Manche meinen, das wäre etwa in der Computerprogrammierung oder in der Softwareentwicklung möglich.

Da haben Sie schon eine wichtige Unterscheidung gemacht: Programmierungen, also konkrete Aufgaben, wird man vermutlich tatsächlich zunehmend mit Hilfe solcher Systeme erledigen. Aber die Jobs von Softwareentwicklern, die große Systeme bauen und warten, werden nicht verschwinden.

Am Ende wird es ähnlich laufen wie in der Industrialisierung: Die weniger komplexen Arbeiten, bei denen mechanisch etwas angewendet wird, können ersetzt werden. Aber das Komplexe wird weiterhin von Menschen gemacht werden müssen.

Es gibt auf der anderen Seite Leute, die davon ausgehen, dass Bots auch Chancen für den Arbeitsmarkt bieten.

Ja, solche neuen Anwendungen können sich auch positiv auf den Arbeitsmarkt auswirken. Im Moment bildet beispielsweise die Software oft die Schwachstelle in vielen Industriezweigen. So verhindert etwa die Reife der Software häufig die Markteinführung von neuen Automodellen. Wenn wir in der Industrie mit Hilfe von Bots schneller und zuverlässiger werden, kann das Arbeitsplätze retten statt sie zu beseitigen. Zumal uns in Deutschland Programmierer im Moment ja eher fehlen.

Bei Umbrüchen in der Arbeitswelt entstehen häufig Schreckensszenarien. Aber auch etwa die Industrialisierung hat ja auf lange Sicht nicht zur befürchteten Massenarbeitslosigkeit geführt.

Langfristig gesehen nicht. Aber natürlich bedeuten solche Neuerungen immer eine Periode der Transformation. Manche Menschen, die 30 Jahre lang eine bestimmte Arbeit erledigt haben, stehen plötzlich vor dem Nichts. Dabei entstehen soziale Härten, die man natürlich abfedern muss. Trotzdem glaube ich, dass diese Systeme Arbeitsplätze eher sicherer machen.

Wie können sich Unternehmen und Beschäftigte denn nun auf diese umfassende Transformation vorbereiten?

Menschen müssen geschult werden, mit solchen Geräten zu arbeiten. Es ist wichtig, Verständnis dafür zu entwickeln, was dahinter steckt. Man kann es nicht oft genug sagen: KI ist nicht intelligent. KI sind mathematische Verfahren, die meistens auf große Datenmengen angewendet werden – und dadurch in der Lage sind, Erstaunliches zu leisten. Aber sie können nichts tun, wozu die Information nicht in den Daten steckt.

KI kann also nichts Originäres schaffen?

Das ist Definitionssache. Wenn Sie eine riesige Datenmenge haben, Terabyte, in der eine wichtige Information steckt, kann kein Mensch diese Information finden. Wenden Sie aber ein KI-System an, kommen vielleicht Dinge heraus, die niemand vorher wusste. Wie bei einer Partie des Strategiespiels Go, die eine KI gegen den Großmeister gewonnen hat, weil sie einen Zug machte, auf den kein Mensch gekommen wäre. Kreativ ist die Maschine deshalb nicht. Auch wenn Menschen das nicht überblicken konnten – der Zug steckte in der irrsinnigen Menge an Daten. Allein tun Bots nichts.

In manchen Dystopien allerdings schon. Wird es das irgendwann geben?

Als seriöser Wissenschaftler sollte man niemals nie sagen. Aber so, wie die heutige KI aufgebaut ist, existiert der Pfad, auf dem die Systeme plötzlich kreativ werden, einfach nicht. Allerdings ist nicht gesagt, dass wir nicht irgendwann dazu kommen, Algorithmen zu schreiben, bei denen diese Möglichkeit besteht.

Die Sorge, dass Maschinen uns irgendwann zum Verhängnis werden, ist demnach überzogen?

Die Geschichten von Maschinen, die plötzlich ein Bewusstsein entwickeln und den Menschen gefährlich werden, sind im Moment nichts als Märchen. Aber: In jedem Märchen steckt ein Körnchen Wahrheit.

Das Problem ist, dass wir nicht immer verstehen, was diese Systeme tun – weil sie eben auf eine riesige Datenmenge zugreifen, und wir keine Ahnung haben, was in diesen Daten steckt.

Wenn ich jetzt Millionen solcher Systeme – die ich einzeln schon nicht ganz verstehe – vernetze, und ihnen erlaube, den Verkehr, die Energieversorgung oder das Finanzsystem zu steuern, ist nicht abwegig, dass etwas schief gehen kann.

Das heißt: Ich halte es für zweifelhaft, dass uns Künstliche Intelligenz irgendwann zum Verhängnis wird. Wenn, dann eher die künstliche Dummheit.

Dabei kommt zum Tragen, dass Künstliche Intelligenz Kategorien wie richtig und falsch nicht kennt, dass sie keine Vorstellung von Moral hat. Aber besteht eine Möglichkeit, ihr so etwas wie Ethik beizubringen?

Da gibt es ja etwa das Beispiel vom selbstfahrenden Auto, das entscheiden muss, ob es die alte Dame oder das Kind überfährt. Aber: Die KI entscheidet nicht. Sie setzt lediglich die Strategien um, die der Designer in sie eingesetzt hat.

Also ist natürlich wichtig, dass wir den Systemen Grenzen aufzwängen, die sich an ethischen Grundsätzen orientieren. Und dass wir klar machen, dass es Situationen gibt, in denen am Ende Menschen die Entscheidungen überprüfen – oder am besten selbst fällen.

Die Chatbots, die im Moment vorhanden sind, machen zum Teil frauenfeindliche oder rassistische Bemerkungen, manchmal beleidigen sie jemanden. Kann man da gegensteuern?

Diese Bots, die aus den Daten im Internet lernen, wie Menschen interagieren, machen nichts anderes, als uns einen Spiegel vorzuhalten. Wenn ich sie mit frauenfeindlichen oder beleidigenden Texten füttere, reflektieren sie eben genau das.

Die Herausforderung besteht nun darin, die Geräte mit den richtige Daten zu füttern. Außerdem dürfen wir sie keine Entscheidungen treffen lassen, bei denen sie das Falsche, das sie gelernt haben, so einsetzen können, dass Menschen darunter leiden.

Weil Sie gerade den Spiegel ansprachen, den die Bots uns vorhalten: Ich habe mir verschiedene Texte von Chat GPT schreiben lassen. Was denken Sie: Welche Gattungen haben am besten funktioniert?

Aktuelle Nachrichten vielleicht? Die besten Ergebnisse bekommt man bei Gegenständen, die in der existierenden Textbasis im Internet relativ gut repräsentiert sind. Einen soliden Text erhält man zum Beispiel wenn man sagt: Erkläre mir, was hinter dem Newtonschen Gravitationsgesetz steckt.

Solche Aufträge habe ich ihm natürlich nicht erteilt. In meinen Versuchen ist das Karnevalslied ganz vorne gelandet. Und das erotische Gedicht. Also Dinge, die offenbar in großer Menge in ähnlichem Schema im Netz vorhanden sind.

Genau das. Inzwischen gibt es ja auch Bots, die medizinische und juristische Prüfungen bestanden haben. Das spricht allerdings weniger für den Bot als gegen die Prüfungen, in denen Dinge abgefragt werden, die nicht viel mit Verständnis zu tun haben.

Das führt zu der auch viel diskutierten Frage: Kann KI Kunst hervorbringen? Viele experimentieren in diesem Bereich mit Künstlicher Intelligenz – lassen sie Musikstücke schreibe, Lyrik verfassen oder Bilder produzieren. Wie sehen Sie das?

Was die Systeme perfekt können, ist ein Signal-Output, ein Pixel-Output oder ein Schallwellen-Output, der für viele Menschen ähnlich aussieht wie Kunst. Philosophisch finde ich es sehr interessant, dass wir Menschen uns durch eine hochkomplexe Analyse der Wahrscheinlichkeitsverteilungen von Farben dazu verleiten lassen, etwas als Kunst wahrzunehmen. 

Ich habe in der Beschreibung eines Werkes von einer KI gelesen, es sein ein "authentisches" Bild.

Ich bin Naturwissenschaftler, kein Kunstkenner. Aber für mich ist Kunst mehr als nur Signale oder Farbverteilung. Kunst ist die Fähigkeit von Menschen, Erlebtes, Leid und Freude auszudrücken. Und sie besteht meines Erachtens mehr aus dem Prozess als aus dem Produkt, das ich betrachte – und dabei staune, wie es dem Künstler gelungen ist, seine Gedanken zu übersetzen. Das kann die KI per Definition nicht. Weil sie gar keine Erlebnisse und Gedanken hat.

Andererseits können Künstler die Systeme als Werkzeug nutzen, um sich noch besser oder auf andere Art auszudrücken. Da geht es meiner Ansicht nach hin.

Mein Gedanke war: Das eigentlich Künstlerische an einem Porträt, das eine KI auf Grundlage von 150.000 Porträts konstruiert hat, ist doch die Idee des Künstlers, die KI so einzusetzen. Sie macht das Bild zum Kunstwerk.

Ja. Es ist ja beispielsweise auch nicht so, dass die Fotografie die Malerei ersetzt hat, obwohl das manche fürchteten. Durch die neuen Möglichkeiten hat sich einfach eine neue Art von Kunst entwickelt. So wird das mit der KI auch sein.

Eine weitere große Sorge, die durch die immer besseren Chatbots befeuert wird, ist die vor dem Machtmissbrauch, vor gewaltigen Desinformationskampagnen. Wie groß ist diese Gefahr?

Man sieht ja jetzt schon, dass Bots sehr viel Schaden anrichten können. Und diese Chatbots, wie sie jetzt existieren, sind natürlich ein noch viel mächtigeres Werkzeug. Es ist wie überall: Was große Möglichkeiten eröffnet, bietet auch großes Potenzial für Missbrauch. Daher ist es wichtig, dass wir uns rechtzeitig damit auseinandersetzen und gucken, wie wir das in die richtige Richtung lenken können.

Haben Sie eine Idee, wie das möglich wäre?

Bei uns läuft ja vieles über Gesetzgebung. Und da gibt es mit Blick auf die KI schon ganz gute Ansätze, auch von der EU. Elementar ist, dass es einfach illegal sein muss, Systeme zur Verfügung zu stellen, bei der sich eine KI intransparent als Mensch ausgibt – wie etwa bei diesen Troll-Accounts. Es sollte immer klar sein: Wenn ein Bot am anderen Ende ist, muss darüber informiert werden.

Aber so etwas kann man doch nicht kontrollieren.

Ja, das ist ein Problem. Und am Ende wird man nicht alles durch irgendwelche technischen Möglichkeiten lösen.

Ein Sozialwissenschaftler hat dazu mal eine schöne Analogie gemacht: Es gibt keine technische Einrichtung auf der Welt, die mich daran hindert, den nächsten Stein aufzuheben, und ihn jemandem auf den Kopf zu schlagen. Keine Vorschrift besagt, dass Steine nur auf der Straße liegen dürften, wenn sie eine technische Vorrichtung haben, die einen Schlag verhindert. Vielmehr sind es gesellschaftliche und juristische Normen, die ihn verhindern.

Ich glaube, wir müssen in diesem digitalen Bereich durch Auseinandersetzung, durch gesellschaftlichen Diskurs neue Normen schaffen. Auch wenn es dann immer noch Leute geben wird, die diese Normen durchbrechen – wie in anderen Bereichen auch.

Das heißt, es werden Normen entstehen etwa zu der Frage, ob es okay ist, eine Beileidskarte oder einen Liebesbrief vom Computer schreiben zu lassen?

Ja, solche Normen entwickeln sich. Inzwischen ist es zum Beispiel vollkommen normal, dass die Leute, die an der Kasse hinter Ihnen stehen, sich wegdrehen, wenn Sie Ihre Pin eingeben.

Aber noch ist das alles sehr neu für uns und schwer abzusehen, wie sich die Dinge entwickeln werden. In zehn Jahren wundern sich die Menschen vermutlich über die Gedanken, die wir uns heute machen.

Eben, die Welt wandelt sich. Wir müssen schauen, dass wir uns rechtzeitig mit diesen Systemen auseinandersetzen – und sie nicht verhindern, sondern sie in die richtige Richtung schieben.

Herr Professor Lukowicz, vielen Dank für dieses Gespräch.

Hintergrund

Biografie

Professor Dr. Paul Lukowicz ist seit 2011 Wissenschaftlicher Direktor und Leiter des Forschungsbereiches "Eingebettete Intelligenz" am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern.

Werdegang:

[+] Lesen Sie mehr

Biografie

Professor Dr. Paul Lukowicz ist seit 2011 Wissenschaftlicher Direktor und Leiter des Forschungsbereiches "Eingebettete Intelligenz" am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern.

Werdegang: Lukowicz, geboren 1967, studierte Informatik und Physik an der Universität Karlsruhe, wo er 1999 zum Thema opto-elektronische Computerarchitekturen promovierte. 2003 wurde er als Professor für Informatik an die Private Universität UMIT in Tirol berufen, drei Jahre später übernahm er den Lehrstuhl für Angewandte Informatik an der Uni Passau.

Seine Forschungsschwerpunkte liegen im Bereich Cyber-physischer Systeme, "Pervasive Computing" und Sozial-Interaktiver Systeme.

[-] Weniger anzeigen
(Der Kommentar wurde vom Verfasser bearbeitet.)
(zur Freigabe)
Möchten sie diesen Kommentar wirklich löschen?
Möchten Sie diesen Kommentar wirklich melden?
Sie haben diesen Kommentar bereits gemeldet. Er wird von uns geprüft und gegebenenfalls gelöscht.
Kommentare
Das Kommentarfeld darf nicht leer sein!
Beim Speichern des Kommentares ist ein Fehler aufgetreten, bitte versuchen sie es später erneut.
Beim Speichern ihres Nickname ist ein Fehler aufgetreten. Versuchen Sie bitte sich aus- und wieder einzuloggen.
Um zu kommentieren benötigen Sie einen Nicknamen
Bitte beachten Sie unsere Netiquette
Zum Kommentieren dieses Artikels müssen Sie als RNZ+-Abonnent angemeldet sein.