Künstliche intelligenz

"Schon besser als
 natürliche Dummheit"

Werden Roboter mit "künstlicher Intelligenz" den Menschen "ausstechen"
– Und müssen wir uns davor fürchten?

20.11.2019 UPDATE: 24.11.2019 06:00 Uhr 5 Minuten, 40 Sekunden
"Digital" und "Künstliche Intelligenz" steht auf einer Logowand auf dem Digital-Gipfel. Foto: dpa

Von Harald Berlinghof

Werde ich träumen?" fragt der Super-Raumschiffs-Computer HAL 9000 aus dem Science-Fiction Kultfilm "2010 – Das Jahr in dem wir Kontakt aufnehmen", seinen Konstrukteur und Schöpfer. Der hat das mechanische Supergehirn gerade davon überzeugt, dass das Opfer seiner Selbstzerstörung "notwendig" ist, um die menschliche Besatzung zu retten. Ein Computer, der sich um seine Existenz nach seiner Vernichtung, einer Art Maschinentod, sorgt und der etwas weiß von Träumen. Das ist ein gewagtes Zukunftsszenario.

Maschinen wie HAL aus Stanley Kubricks beiden Filmklassikern ("2001: Odyssee im Weltraum" und "2010 ...") sind reine Science-Fiction. Bislang. In einer wissenschaftlichen Kategorisierung werden solche Maschinen als "Starke KI" (Künstliche Intelligenz) bezeichnet. Bis es aber Automaten, Roboter oder Computer gibt wie HAL, die ein Bewusstsein über sich selbst besitzen, die aktiv dazulernen und damit der menschlichen Existenz ebenbürtig sind, wird es noch eine ganze Weile dauern. Wenn es überhaupt je dazu kommt.

Der Glaube, dass Computer wie Menschen denken können, wird von vielen bezweifelt. "Computer können nicht kreativ sein. Es sind stupide Rechenmaschinen. Sie ahnen nichts. Sie fantasieren nicht", lauten Postulate, die in vielen Diskussionsbeiträgen von Journalisten und Wissenschaftler gleichermaßen vorgebracht werden. "Computer sind dumm wie ein Stein: Die Maschinen denken nicht, sondern arbeiten stur Rechenvorschriften ab", sagt auch Markus Gabriel, Philosophieprofessor an der Uni Bonn. Möglicherweise steckt eine gehörige Portion Selbstschutz in solchen Behauptungen. Denn der Gedanke, dass der Mensch von Maschinen in seinem ureigensten Feld übertroffen wird, hat nichts Angenehmes. Wenn dem Menschen als Alleinstellungsmerkmal nur noch seine Unberechenbarkeit bleibt, wird es eng mit der Überlegenheit von Gottes Schöpfung.

Speed dating mit Künstlicher intelligenz.  Foto: dpa

Doch die heutigen Konstrukteure menschlicher Albträume arbeiten unbeeindruckt bereits an maschineller, künstlicher Intelligenz, die uns Menschen viele Aufgaben im Alltag und der Industrie abnehmen könnten. Und auf dieser Ebene hat die Künstliche Intelligenz Stärken, die nicht zu unterschätzen sind. Professor Wolfgang Wahlster, einer der führenden KI-Experten in Deutschland, bricht dabei eine Lanze für die Zukunftstechnik: "Künstliche Intelligenz ist noch lange nicht so gut wie menschliche Intelligenz – aber sie ist immerhin besser als natürliche Dummheit".

Auch interessant
Künstliche intelligenz: Wie funktioniert das eigentlich das Denken?
Digitalisierung an Schulen: Digitaler Holzweg?

Autonom fahrende Autos sollen in Zukunft Verkehrsunfälle verhindern, doch intelligent sind solche Autos im herkömmlichen Sinn noch nicht. Darin wird eine Maschinenprogrammierung dazu genutzt, eine spezifische Aufgabe zu lösen: Das Autofahren. An anderen Aufgaben wird diese "schwache KI" kläglich scheitern, weil sie dafür nicht programmiert wurde. Ein autonom fahrendes Auto kann nicht lachen, nicht denken, keine Freude und keine Angst empfinden. Es kann eigentlich gar nichts – außer sich im Straßenverkehr unfallfrei bewegen.

Ein Begriff begegnet uns immer häufiger, wenn es um die Weiterentwicklung von Maschinen hin zur künstlichen Intelligenz geht: Algorithmen. Sie steuern das Verhalten von Maschinen und Robotern. Mit Denken im eigentlichen Sinn haben Algorithmen aber wenig zu tun. Diese für Nichtexperten geheimnisvollen Software-Konstrukte sind, vereinfacht gesagt, Handlungsanweisungen an die Maschine, wie sie sich in bestimmten Situationen verhalten soll. Je komplexer diese Handlungsanweisungen sind, desto erfolgreicher kann sich die Maschine in neuen Situationen zurechtfinden. Kritiker sprechen bei diesen Algorithmen auch von Strickmustern, nach denen sich die Maschine verhält. Die Maschine ist also nur so gut, wie ihr Programmierer. Das beruhigt. Einen Menschen, der nach einem "Strickmuster" handelt, sehen wir eher als unkreativ, unflexibel und unspontan an.

Mehrsprachigen Roboterkopf SEMMI der Deutschen Bahn. Foto: dpa

Muss künstliche Intelligenz deshalb nicht zwangsläufig hinter menschlichen Fähigkeiten zurückbleiben? Nach menschlichem Ermessen schon, weil Kreativität, Flexibilität und Mitgefühl dabei keine Rolle spielen. Oder kann man Menschlichkeit in Algorithmen programmieren? Das darf bezweifelt werden. Allerdings setzen die KI-Konstrukteure dem Vorwurf der Abhängigkeit von ihren Algorithmen sogenannte selbst lernende Algorithmen entgegen. Solche weiterentwickelten Handlungsanweisungen heben sich über die Strickmustertheorie hinaus. Die Algorithmen lernen dabei eigenständig aus früheren Situationen, die der Maschine als Entscheidungshilfen zur Verfügung stehen.

Ein kleiner Schritt von der "schwachen KI" zur "generellen KI" wäre das Lösen beliebiger Aufgabenstellungen durch Maschinen, indem sie fähig sind, einen Wissenstransfer abstrakt auf eine neue Situation zu übertragen. Ein Kind lernt nach und nach, mit einem Löffel seine Suppe zu essen. Beim ersten Kontakt im Sandkasten mit einer kleinen Schaufel, weiß das Kind, dass man damit etwas "löffeln" kann. Ohne dass es je zuvor eine solche Schaufel gesehen hat, kann es damit den Sand bearbeiten. An einer künstlichen Intelligenz, die fähig ist, solche Situationen zu meistern und zu begreifen und Problemstellungen zu lösen durch Übertragung einer Erfahrung auf eine vergleichbare aber nicht identische Situation, arbeitet die Wissenschaft aktuell. Allerdings bleiben die Resultate weit hinter menschlichen Lernleistungen zurück. Ein Kind kann nach wenigen Fotos einer Katze jede Katze sofort in jeder beliebigen Umgebung identifizieren. Ein Computer kann das nicht annähernd. Aber auch wenn eine Maschine eine Million Katzenbilder braucht, um die Tiere zuverlässig identifizieren zu können, muss das kein Nachteil sein. Weil der Rechner schneller ist.

An diesem Punkt kommen wir zu einem offen erkennbaren Unterschied zwischen menschlichem Denken und Lernen im Vergleich zu maschinellem Denken. Geradlinige Maschinenschnelligkeit versus vernetztem Menschendenken, dessen Funktionieren selbst die Hirnforschung noch nicht völlig enträtselt hat.

AEG verbindet seine Waschmaschine über eine App. Foto: dpa

Jenseits von Technik und Programmierkunst wird die Frage diskutiert, ob es ethisch in Ordnung ist, eine künstliche Intelligenz zu schaffen. Einerseits mit Rücksicht auf den Menschen, der dadurch sein Alleinstellungsmerkmal verlieren würde und – so die Furcht vieler Menschen – auch die Kontrolle über seine Umwelt, seine Welt, sein Dasein. Mit diesem Aspekt von KI beschäftigt sich sogar eine Expertengruppe der EU. Seltener wird diskutiert, ob es ethisch in Ordnung ist, überhaupt ein denkendes Maschinenwesen zu schaffen, ohne Rücksicht auf seine Empfindungen. Wenn die Maschine zum "Es" wird, dann verdient sie auch Respekt – wie ein Tier beispielsweise Respekt verdient. Unabhängig davon ob man ihr eine Seele zuschreibt oder nicht. HAL 9000 hat in Stanley Kubricks Film immerhin Angst vor dem Tod. Oder so etwas ähnliches wie Angst.

Und da wären wir schon beim nächsten Schritt. Empfindet künstliche Intelligenz überhaupt etwas? Wenn Computer den Meister des japanischen Go-Spiels besiegen, dann reicht reine Rechenleistung nicht mehr aus. Dann ist so etwas wie Intuition nötig für den nächsten Zug. KI hat zwar keine Intuition, aber sie ahmt Intuition nach, indem sie Wahrscheinlichkeitsentscheidungen trifft. Das hat beim Go-Spiel gereicht, um zu gewinnen. Aber gefreut hat sich der Computer sicher nicht nach seinem Sieg. Doch ohne Emotion und Empathie können Maschinen menschlicher Intelligenz nicht ebenbürtig sein. In manchen Situationen, wo es auf Schnelligkeit des Denkens ankommt, wäre KI zwar überlegen, aber ohne Empathie eben doch etwas gänzlich anderes als menschlich. Man könnte auch sagen: unmenschlich.

"Humor, das finde ich ganz toll." Der Androide "Data" aus der TV-Serie "Star Trek Next Generation" ist eine Maschinenintelligenz. Aber er kann Gefühle empfinden und er weiß, wann er lachen muss, weil etwas humorvoll gemeint ist. Allerdings braucht er dazu seinen Emotio-Chip. Ohne den bleibt er humorlos. Auch daran arbeitet die Wissenschaft.

Künstliche Emotion könnte der Schlüssel sein zu künstlicher Intelligenz. Denn Emotionen sind wichtig für jede Form von Intelligenz, weil sie ein anderer Weg sind zu denken, so Marvin Minksy in seinem Buch "The emotion machine" (2006). Und der amerikanische IT-Experte David Gelernter sagt: "Der wirklich fundamentale Unterschied besteht im Bewusstsein. Der Mensch hat ein Bewusstsein von sich selbst. Was eine Maschine auch nicht hat, ist das, was ich eine innere mentale Landschaft nenne. Zum Beispiel können wir Dinge aus dieser inneren Landschaft visualisieren. Das kann eine Maschine nicht."

Roboterkünstlerin Ai-Da. Foto: dpa

In der Industrie veranschaulicht die menschenleere Fabrik den höchsten Stand der Autonomie. Und an diesem Punkt werden Ängste der Menschen wach. Nehmen uns die Robots bald die Arbeit weg? Diese Frage wird heiß diskutiert und die meisten Wissenschaftler und Studien bejahen sie. Es gibt aber auch die Auffassung: Neue Technologien schaffen stets auch neue Arbeitsplätze. Allerdings sind dafür neue Qualifikationen erforderlich, die nicht jeder besitzt und auch nicht jeder erwerben kann. Trotzdem hat dieser Prozess längst die gesamte Lebens- und Arbeitswelt erfasst. Doch Automatisierung, Digitalisierung und Industrie 4.0 sind noch keine Künstliche Intelligenz. Aber es ist nicht nur der Produktionsprozess betroffen, sondern der gesamte Ablauf der Rohstoffanlieferung durch autonom fahrende LKW bis zur Produktverteilung mithilfe von selbstfliegenden Drohnen. Die automatisierte, menschenleere Fabrik wird gesteuert von KI. Dem Menschen bleibt nur die Rolle des Konsumenten und Müßiggängers.

Noch größer werden die Bedenken bei vielen Menschen, wenn die Rede darauf kommt, dass sich Maschinen, Roboter oder Computer selbstständig weiterentwickeln, ohne dass Menschen noch einen Einfluss darauf haben, in welche Richtung das geht. Es droht der Verlust der Kontrolle über die emotionslose, humorlose oder gefühlskalte Intelligenz der Maschinen, in deren Welt nur noch Effektivität und das Funktionieren von Bedeutung sind.

Und es geht nicht nur um das Verhalten von Robotern, sondern auch um ihr Benehmen. Zahllose Science-Fiction-Szenarien beschäftigen sich mit dem Thema einer Revolution der Roboter. Roboter sind schneller, stärker, sie arbeiten genauer und können einfach alles besser. Warum sollten sie also dem Menschen Untertan sein? Ob sie allerdings auf den selbstständigen Gedanken kommen können, herrschen zu wollen, Macht ausüben und bestimmen zu wollen, darf bezweifelt werden. Weil sie nicht wissen, was Macht ist und auch nicht wissen, was Wünsche sind. Der Geist in der Maschine, der so etwas "denken" könnte, ist noch nicht erfunden.