„Den Aus-Knopf wird es nicht geben“


Ist es schlau, wenn der Mensch ein Wesen schafft, das ihm überlegen ist? Ein Gespräch mit dem Philosophen Bernd Gräfrath über Macht, Intelligenz und Brettspiele.

Es ist faszinierend: Etwas, das nicht aus Fleisch und Blut ist, steuert Autos, chattet oder spielt mit uns, komponiert Musik, erkennt Krankheiten oder macht Vorhersagen für Finanzmärkte. Es ist beängstigend: Dieses Etwas kann Bilder und Nachrichten manipulieren, von uns unbemerkt Daten sammeln und vernetzen, neue (Kauf-)Bedürfnisse wecken, Menschen überwachen und sogar töten.

Künstliche Intelligenz ist einzigartig: Sie verarbeitet Daten in Nullkommanichts, sie lernt perfekt, wofür wir Monate oder Jahre bräuchten. – Moment! Der Mensch ist einzigartig: Er hat eine Seele und ein Bewusstsein, Gefühle und Fantasie, er handelt intuitiv, moralisch und verantwortlich. Das macht den Unterschied. Oder könnten Maschinen doch irgendwann fähiger sein als wir?

Bernd Gräfrath antwortet hierauf ganz im Stile eines Philosophen: „Ein technisches Ding mag uns im Rechnen schlagen oder aus einer Million Fotos Gesichter erkennen. Intelligent sein heißt für mich dennoch mehr: zunächst einen Zweck setzen und dann die passenden Mittel wählen, um den Zweck zu erreichen. Davon sind unsere jetzigen Computer noch sehr weit entfernt, auch wenn sie tolle Fähigkeiten haben, die uns nutzen.“

Kontrollverlust?

Dass eines Tages nicht mehr wir Menschen die Daten auswählen, mit der die KI trainiert, sondern künstliche neuronale Netze sich selbstständig machen, will Gräfrath nicht grundsätzlich ausschließen. Er weiß, dass genau diese Vorstellung, nämlich die Kontrolle zu verlieren, vielen Angst macht. Für den Professor ist ein bösartiger Roboter, der uns vernichten will, aber bloße Science-Fiction. Wahrscheinlicher sei, „dass unverantwortlich mit KI-Systemen umgegangen wird. Aus Gedankenlosigkeit oder weil sie in falsche Hände geraten.“ So könnten etwa manipulierte Nachrichten oder das Tracking von Personen unsere Demokratie gefährden.

Längst gehe es nicht mehr darum, ob wir Künstliche Intelligenz haben wollen, sondern, was wir ihr erlauben zu tun. „Die Menschheit wird doch nicht sagen: Dieser ganze technische Fortschritt ist nichts. Kehren wir zurück auf einen kulturellen Stand, bei dem es noch mechanische Waschbretter gab. Unrealistisch, oder? Wir müssen daher mit den unerwünschten Nebeneffekten der technischen Zivilisation zurande kommen. Und das ist schwierig.“

„Der bösartige Roboter, der uns vernichten will, ist bloße Science-Fiction.“

Professor Bernd Gräfrath

Wer ein mächtiges Werkzeug entwickelt, löst etwas aus. Das zeigt das Wettrüsten mit Cybersystemen. KI braucht deshalb einen ethischen Rahmen und Kontrollmechanismen. Nur: Wer legt die Normen fest? Dass alle Welt einem gemeinsamen Regelwerk oder einer Institution folgt, ist heute schon illusorisch und für Gräfrath eine der vielen ungelösten Fragen.

Selbstbestimmtheit?

Für ihn gibt es keinen Bereich, in dem KI grundsätzlich tabu sein sollte, selbst in der Pflege nicht. Braucht es den Menschen künftig gar nicht mehr, oder gäbe es – optimistisch gedacht – die historische Chance, sich von der Arbeit zu befreien? „Es ist ein Trend seit der industriellen Revolution: Maschinen ersetzen Arbeitskräfte. Ich glaube dennoch nicht“, so Gräfrath, „dass wir unsere Existenz werden rechtfertigen müssen. Traditionelle menschliche Talente wird man noch sehr lange benötigen. Ganz zu schweigen von den persönlichen Kontakten, die man vermutlich haben möchte.“

Nicht ausschließen will der Philosophieprofessor, dass wir irgendwann nicht mehr verstehen, wie KI zu ihren Entscheidungen kommt. „Ein Beispiel: Ein Programm sagt: Ich gebe diese Anpflanzempfehlungen, dann wird die Ernte ideal. Der Mensch ist skeptisch, macht es trotzdem, und der Ertrag ist tatsächlich hervorragend. Dann ist man Nutznießer dieser überlegenen Intelligenz, aber hat den Status eines Schäfchens, das vom guten Hirten versorgt wird. Wollen wir das? Und wissen wir, ob der Hirte immer etwas für uns Gutes will? Genau das müssen wir uns fragen. Die Vorteile zu genießen, ohne zu verstehen, wie sie zustande kommen, entspricht nicht dem aufklärerischen Ideal vom selbstbestimmten Menschen.“

Wenn wir es zulassen, werden Computer moralisch relevante Entscheidungen treffen. Ein vieldiskutiertes Beispiel ist die Dilemma-Situation beim autonomen Fahren: Wohin lenkt das Auto, um einen Unfall zu vermeiden – nach links in die Seniorengruppe, nach rechts in die Rad fahrenden Kinder? Der Mensch muss die Regeln definieren und bleibt verantwortlich.

KI nutzen, aber nicht verstehen: „Dann hat man den Status eines Schäfchens, das vom guten Hirten versorgt wird.“

Gefühle und eigener Wille hingegen lassen sich nicht in Algorithmen übersetzen – noch nicht. Dass auch nicht-kohlenstoffbasierte Wesen ein Bewusstsein entwickeln können, hält Bernd Gräfrath übrigens grundsätzlich für möglich. „Wenn es in ganz ferner Zukunft so weit sein sollte, dass eine Maschine Zwecke verfolgt und sich selbst als Subjekt eines Lebens sieht mit Plänen und einer Vergangenheit, dann müssen wir diesem Wesen auch Personenrechte zubilligen. Dann dürfen wir es vielleicht auch nicht mehr ausschalten, weil das wie Töten wäre.“

Übertragbare KI

Spricht man mit Gräfrath über technikphilosophische Fragen, landet man schnell bei Schach, nicht nur, weil es seine Leidenschaft ist. Denn es gibt einen Zusammenhang zwischen Brettspielen und Maschinellem Lernen: 2016 sorgte das Programm AlphaGo für Aufsehen. Es war mit 10.000 Meisterpartien des asiatischen Strategiespiels Go trainiert und schlug dann den weltbesten Spieler. Googles Firma DeepMind entwickelte daraus AlphaZero. Dank künstlicher neuronaler Netze und Lernalgorithmen brachte dieses Programm sich in Kürze Schach, Go und Shôgi selbst bei, ohne menschliches Zutun. „Dem Konzern ging es nicht darum, Spiele-Weltmeister zu sein, sondern das System zu übertragen. Und das scheint gelungen: Die jüngste KI-Software heißt nun AlphaFold und hat wohl eine der schwierigsten Probleme der Molekularbiologie gelöst: die dreidimensionale Architektur von Proteinen vorherzusagen, was wichtig ist für die Entwicklung von Medikamenten. Wir haben es hier also mit einem selbstlernenden Mechanismus zu tun, der für alles Mögliche taugt. Davon ist noch Erstaunliches zu erwarten.“

Ist KI für Bernd Gräfrath also mehr Segen als Fluch? „Die Geschwindigkeit der Entwicklung“, gibt er zu, „beunruhigt mich schon. Und da neue Techniken bislang oft missbraucht wurden, bin ich nicht optimistisch, dass es künftig anders sein wird. Nur wären die Konsequenzen weitreichender.“ Sollte je eine autonome Supermaschine entstehen, müsste man sie dann nicht besser notstoppen können? „Das zu glauben, ist zwar menschlich“, so der Professor, „aber wenn sie wirklich intelligent ist, wird es den Aus-Knopf nicht geben!“

Bernd Gräfrath ist Philosophieprofessor und lehrt schon seit 1992 an der UDE. Sein Schwerpunkt ist Ethik und Technik. Der 63-Jährige befasst sich außerdem auf hohem Niveau mit Schachproblemen – und setzt dabei KI ein: „Ich nutze sie, um meine Kompositionen auf Korrektheit zu überprüfen.“

Mit dem polnischen Schriftsteller Stanislaw Lem,

der in seinen visionären Büchern viele technische Innovationen vorweggenommen hat, war Gräfrath gut bekannt.

Über „den interessanten Denker“ hat er auch publiziert. Jüngst erschienen ist dieser Aufsatz:
AlphaZero und Lems GOLEM: Über die Zukunft der künstlichen Intelligenz, in: Rzeszotnik, Jacek Aleksander (Hg.): Ein Jahrhundert Lem, Neisse-Verlag 2021.

Foto: privat

Illustration: Julius Klemm

Start typing and press Enter to search