Die Schatten der Wirklichkeit

Getty Images
  • Drucken

Was ist eigentlich eine KI? Was unterscheidet künstliche Intelligenz von jenen Softwaresystemen und Algorithmen, mit denen wir seit Jahrzehnten arbeiten? Und: Wo sehen Wissenschaftler die Einsatzbereiche für die Zukunft?

Eine Gruppe von Menschen, angekettet in einer Höhle. Den Kopf können sie nicht drehen, sich nicht umsehen, lediglich die Felswand vor ihnen wahrnehmen. Vor dem Höhleneingang lodert ein Feuer, das die Schatten von vorbeigehenden Menschen und Gegenständen an die Wand wirft. Die Gefangenen sehen nie die Realität – die „Wirklichkeit“ besteht für sie aus einem Schattenspiel. Als Platon sein Höhlengleichnis formulierte, wird der Antike Philosoph kaum erwartet haben, dass es einst als Bild für die künstliche Intelligenz dienen könnte. Und doch findet es Sepp Hochreiter, Leiter des Instituts für Machine Learning an der Johannes Kepler Universität in Linz, eigentlich ganz passend: „Die Schatten sind die Daten. Die KI ist extrem gut darin, diese Schatten zu interpretieren. Sie sieht die kleinsten Details, sieht 10.000 Schatten gleichzeitig. Sie sieht nur einen Teil, aber diesen Teil sehr genau mit einer riesigen Kapazität. Aber sie sieht nur Schatten, sie kann die Welt nicht verstehen, denn sie lebt nicht darin.“

Was ist intelligent?

Das Höhlengleichnis spricht eine der grundlegenden Ideen des Menschseins an: das Erkennen einer Wirklichkeit und die Frage, woraus diese Wirklichkeit besteht. Dass dieses Bild nun für eine künstlich geschaffene Intelligenz Anwendung finden kann, kann uns schon beschäftigten. Seit Jahrzehnten leben wir mit Algorithmen, mit Programmen, die den Alltag prägen, das Arbeitsleben erleichtern sollen. Seit Kurzem, so scheint es, hat eine neue Größe das Spielfeld betreten: die KI. Doch was genau ist eigentlich der Unterschied zwischen der künstlichen Intelligenz, die heute in aller Munde ist, und den Softwaresystemen, die so alltäglich sind, dass sie uns schon gar nicht mehr auffallen?

»Intelligent ist ein Softwareprodukt dann, wenn es schafft, selbstständig zu lernen.«

Martin Ebner

Professor für Medieninformatik und Leiter der Organisationseinheit Lehr- und Lerntechnologien an der TU Graz

„Intelligent ist ein Softwareprodukt dann, wenn es schafft, selbstständig zu lernen“, erklärt Martin Ebner, Professor für Medieninformatik und Leiter der Organisationseinheit Lehr- und Lerntechnologien an der TU Graz. „Es also Modelle integriert hat, die es schaffen, eingespeiste Daten so zu verarbeiten, dass sie neue Schlüsse daraus ziehen können und sich so selbst ,intelligent’ weiterentwickeln.“ Dass „intelligent“ hier in Anführungszeichen steht ist kein Zufall, denn mit menschlicher Intelligenz sei das nicht gleichzusetzen: „Die Datenverarbeitungsmaschine Mensch ist noch einmal eine ganz andere Nummer, das muss man schon sagen. Es geht hier um sehr spezialisierte Anwendungen, die mit Daten trainiert werden und versuchen, diese Daten zu bearbeiten, zu verarbeiten und neue Schlüsse daraus zu ziehen, die sie nutzen, um sich weiterzuentwickeln.“ Wie weit diese Entwicklung gehen könne, das werde man sehen.

Aber auch das, was wir als intelligent im Sinne einer künstlichen Intelligenz definieren, ändert sich, erklärt Pascal Welke, Post Doc Researcher für Machine Learning an der TU Wien: „John McCarthy (US-amerikanischer Logiker und Informatiker, Anm.) hat einmal gesagt: ,Sobald es funktioniert, nennt es niemand mehr KI.’ Was wir als KI wahrnehmen, verschiebt sich – nehmen wir Zoom als Beispiel. Darin gibt es eine Funktion, mit der man den Hintergrund unscharf machen kann. Dahinter steht ein System, das gelernt hat, was ist Hintergrund und was ist Mensch. Das kann man nicht einfach hinein programmieren, denn die Leute sehen ja unterschiedlich aus. Heute nimmt das kaum noch jemand als KI wahr.“ Was Welke hier anspricht, ist der sogenannte „KI-Effekt“, eine Tendenz, die Definition von künstlicher Intelligenz immer weiter hinauszuschieben. Was alltäglich erscheint, wird abgetan als „keine echte Intelligenz“. Der amerikanische Computerwissenschaftler Larry Tesler fasste es in den 1970er-Jahren zusammen als: „KI ist, was noch niemand gemacht hat.“

Die Maschine und ihr Lehrer.

Bleiben wir aber abseits aller philosophischen Diskussionen beim Prinzip der KI als lernendes Modell. „Mein Impuls wäre zu sagen: Überall dort, wo Muster entstehen oder Muster angewandt werden können, wird auch die KI Fuß fassen“, erklärt Ebner. „Das ist das, was das Modell oder der Rechner gut kann: immer wieder das Gleiche erkennen, Schlüsse daraus ziehen und sie dem Menschen mitteilen. Der Mensch ist der kreative Part, der sich diese Ergebnisse ansieht und daraus, abseits aller Muster, etwas Neues erschafft.“ Gleichzeitig ist der Mensch aber auch der Lehrer der KI – denn er ist es, der die Datengrundlage für die Mustererkennung liefert: „Die KI ist so dumm, wie der Mensch vorher war“, bringt es Ebner auf den Punkt. „Sie kreiert ja (noch) nichts Neues, arbeitet mit den Daten, die ihr der Mensch zur Verfügung stellt.“ Die KI ist also immer nur so gut wie ihre Datengrundlage.

Wenn Daten fehlen.

Womit wir wieder beim Höhlenbeispiel wären – denn die KI muss sich letztendlich mit Schatten begnügen. Sepp Hochreiter: „Es gibt Fälle, in denen in den Daten etwas fehlt – diese Lücken schließe ich als Mensch mit meinem Hausverstand, mit meinem Weltwissen. Die KI kann das nicht. Es gab einen Fall, wo beim Training von selbstfahrenden Autos zu wenige Tunnelfahrten gemacht wurden. Die KI hat dann die Betondecke als Straße erkannt. Ich als Mensch weiß, dass an der Decke keine Straße entlangführen kann. Woher soll die KI das wissen? Ich werde als menschlicher Fahrer eher vermeiden, eine Böschung hinunterzufahren, weil ich mir denken kann, dass mir das nicht gut bekommen wird. Die KI weiß nicht, dass ein Unfall etwas Schlechtes ist. Sie müsste Unfälle bauen, die analysieren und daraus lernen, dass man sie vermeiden sollte.“

»Die KI weiß nicht, dass ein Unfall etwas Schlechtes ist. Sie müsste Unfälle bauen, die analysieren und daraus lernen, dass man sie vermeiden sollte.«

Sepp Hochreiter

Leiter des Instituts für Machine Learning an der Johannes Kepler Universität in Linz

Ebenso kann sich in Daten ein „Bias“ finden, eine Voreingenommenheit oder Tendenz, die uns vielleicht gar nicht bewusst ist, aber zwangsläufig in die Schlussfolgerungen der KI einfließt. Im Zuge der Recherchen für diesen Artikel poppt im YouTube-Feed beispielsweise ein Video auf: KI-generierte Bilder der schönsten Frauen aus jedem Land der Erde werden hier angepriesen. Beim Ansehen fällt auf, dass zwar Hautfarben wechseln, die Gesichtszüge aber im Wesentlichen ähnlich sind: Hohe Wangenknochen, schmales Gesicht, kleine Nase. Sind die Schönheitsideale weltweit tatsächlich so ähnlich oder wurde hier eine KI mit einseitigen Daten dazu gefüttert, was „schön“ ist? In diesem Sinne kann uns die KI auch einen Bias zeigen, der uns zuvor nicht bewusst war: „Die KI liefert ja nur ein Bild davon, wie die Menschheit so ist, sie hält uns einen Spiegel vor – und manchmal gefällt uns nicht, was wir sehen“, erklärt Ebner.

Braucht mein Unternehmen KI?

„Im Moment gibt es natürlich auch einen gewissen Hype um die KI“, sagt Ebner. „Auch das wird sich wieder einpendeln, denke ich, wenn man merkt, wo die Anwendungsfelder liegen. Natürlich muss man die Technologie immer kritisch prüfen und darf sich nicht darauf verlassen, dass die KI alles besser kann als die Experten.“ Nichtsdestotrotz ist eine Auseinandersetzung mit der KI eine sinnvolle Maßnahme im eigenen Unternehmen, da sind sich die Experten einig. „Am Anfang steht eine Bedarfsanalyse. Gibt es überhaupt ein Problem, das ich lösen muss?“, rät Welke. „Wenn ein Unternehmen eine gewisse Größe hat, macht es sicher Sinn, sich die eigenen Prozesse anzusehen und zu schauen, ob es dafür bessere Lösungen gibt.“

Ebner sieht das ganz ähnlich: „Man muss sich grundsätzlich einmal mit der KI beschäftigen, grob verstehen, wie sie funktioniert und was sie machen kann – und das auch für sich selbst spüren. Und dann merkt man nach und nach, wofür man sie einsetzen kann. Es ist ja auch total spannend, finde ich, eine KI zu einem Thema zu befragen, in dem ich vermeintlich der Experte bin.“ Grundsätzlich sei die KI ein guter Sparring-Partner, liefert Vorschläge und Modelle, auf deren Grundlage man dann weiterarbeiten kann.

Chat GPT für die Kundenbetreuung.

„Abhängig von der Größe eines Unternehmens ist die Frage, kann ich nicht eine Person abstellen, die sich damit beschäftigt, was KI kann und was ich in meinem Unternehmen brauche?“, stellt Hochreiter als Frage in den Raum. Denn Einsatzmöglichkeiten sieht er zahlreiche: „Chat GPT beispielsweise ist gut für die Kundenbetreuung, wenn man Kundenschnittstellen hat. In der Industrie ist das weniger wertvoll, da sind es die Schnittstellen zwischen Mensch und Maschine, die wichtig sind.“ Es gebe so viele Bereiche, die im Hintergrund laufen, die man derzeit noch nicht sieht, weiß Hochreiter – „Demnächst wird ein Riesending über Wettervorhersagen rauskommen. Wo im Moment Millionen hineingesteckt werden, ist das Carbon Capturing, also das Abscheiden oder Einfangen von CO₂ aus industriellen Abgasen beziehungsweise aus der Luft. Das ist für den Privaten jetzt nicht so überwältigend, wird aber die Industrie massiv beeinflussen. Simulationen werden viel schneller gehen, das wiederum erlaubt den Bau von besseren Maschinen, besseren Gebäuden, besseren Anlagen. In der Logistik, in der Prozessoptimierung wird sich unglaublich viel tun.“ Unternehmen seien also gut beraten, immer über den neuesten Stand Bescheid zu wissen: „Unabhängig davon, ob ich das jetzt sofort in meinen Alltag einbinden kann, ich muss darüber Bescheid wissen. Das ist ein Zug, der jetzt Fahrt aufnimmt und unglaublich schnell werden wird. Wer jetzt nicht aufspringt, läuft Gefahr, abzuprallen.“

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.