Künstliche Intelligenz

Warum Maschinen nicht die Macht übernehmen

Pflegeroboter in der Schweiz: Die Algorithmen sollen vor allem Muster erkennen.
Pflegeroboter in der Schweiz: Die Algorithmen sollen vor allem Muster erkennen. Foto: Jens Gyarmaty/Picturedesk
  • Drucken

Künstliche Intelligenz imitiert gar nicht die menschliche, also erübrigen sich sämtliche Ängste vor rebellierenden Apparaten. Über ein grundlegendes Missverständnis.

Viele Menschen sind der Meinung, dass ChatGPT und generative AI „einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde“ anstoßen werden – so war es in dem berühmten alarmierten Open Letter zu lesen, der von Tausenden von Forschern aus aller Welt unterzeichnet wurde. Auch Yuval Harari warnte in der „New York Times“, dass dieser Wandel „die Grundlagen unserer Zivilisation hacken“ könnte, und spricht damit eine weit verbreitete Angst aus. Wie sehr müssen wir uns Sorgen machen, und machen wir uns die richtigen Sorgen?

Die Probleme, die ChatGPT und ähnliche Systeme mit sich bringen, sind in erster Linie kommunikativer Natur, nicht technischer. Und sie sind nicht neu. Vor mehr als 2000 Jahren war die Einführung der alphabetischen Schrift im alten Griechenland eine ähnliche Revolution, die dasselbe Erstaunen und dieselben Ängste auslöste – mit fast genau denselben Worten. In „Phaedrus“ zeigte sich Platon zutiefst besorgt darüber, die grundlegende Fähigkeit, die den Menschen auszeichnet – das Gedächtnis –, einem externen Träger anzuvertrauen. Durch die Übertragung von Inhalten auf die Schrift – die „durch äußere Zeichen“ und nicht durch die Prozesse des menschlichen Geistes erfolgt – würde diese grundlegende Fähigkeit des Erinnerns und Memorierens für immer verloren gehen und an Tools delegiert werden, die „reden, als ob sie intelligent wären“, aber in Wirklichkeit „nichts wissen“.

Chatbots seien „stochastische Papageien“

Die Argumente Platons finden sich auch in der heutigen Debatte und Sorge um ChatGPT wieder. Wenn man Technologien nach dem befragt, was sie sagen, so behauptete er, schaffen sie keine echte Neuheit, sondern wiederholen, was bereits bekannt ist – ebenso sagt man heute, dass Chatbots „stochastische Papageien“ seien, die sich darauf beschränken, Worte wiederzugeben, ohne deren Inhalt zu verstehen. Wie unsere Algorithmen driften auch geschriebene Texte „überall hin und gelangen nicht nur in die Hände derer, die sie verstehen, sondern auch in die Hände derer, die nichts damit zu tun haben“, mit enormen Risiken, die schwer abzuschätzen sind. Auch heute sind die größten Sorgen die Bedrohungen durch Fehlinformation und Deep Fakes, wenn Nachrichten Leute erreichen, die nicht über die erforderlichen Fähigkeiten verfügen, ihre Richtigkeit und Zuverlässigkeit zu beurteilen.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.