Es braucht gut gestaltete Schnittstellen zwischen Anwender und KI-System.
Spectrum

Wie weit dürfen wir der Künstlichen Intelligenz vertrauen?

Wir unterstellen Algorithmen gern, sie seien objektiver als wir Menschen. Das Problem: Wenn wir sie nutzen, sinkt unser Verantwortungsgefühl für den Arbeitsprozess und das Arbeitsergebnis – als wären wir nur noch Vermittler.

Obwohl KI-Systeme deutlich weniger klug sind, als ihr Name vermuten lässt, sind ihre Einsatzmöglichkeiten – vor allem die neue Generation à la ChatGPT – enorm und vielfältig. Als „nützliches Werkzeug“ können sie Aufgaben eigenständig übernehmen und unsere Arbeit erleichtern, bei Entscheidungen durch Expertise und Prognosen unterstützen und unser Leben deutlich komfortabler machen. Wozu also noch mühsam einen Marketingplan selbst entwickeln oder sich mit Hausaufgaben plagen?

Aber was macht es mit uns Menschen, wenn wir „intelligente“ Maschinen an unsere Seite gestellt bekommen? Wie wirkt sich die Koproduktion von Leistungen und Entscheidungen auf unser eigenes Selbstverständnis, unsere Autonomie und unser Gefühl der Selbstwirksamkeit aus? Welche Erwartungen hegen wir gegenüber KI-Systemen, und werden diese auch erfüllt? Diese Fragen lassen sich nicht einfach beantworten. Auch nicht von der künstlichen Intelligenz selbst: Open AI weist explizit etwa darauf hin, dass über den Zeitraum nach 2021 keine sinnvollen Aussagen getroffen werden können – es mangle schlicht an entsprechenden Daten.

Technikfolgen sind nicht leicht vorherzusehen, solange die Technologie noch nicht ausreichend entwickelt und verbreitet ist; gleichzeitig wird die Abfederung bzw. Vermeidung von negativen Technikfolgen durch entsprechendes Design mit fortschreitendem Entwicklungsstand schwieriger. Kurz: je entwickelter die Technik, desto besser können wir ihre Folgen abschätzen. Aber dann ist sie schon so weit fortgeschritten, dass ein Gegensteuern kaum mehr möglich ist – das bekannte Collingridge-Dilemma. Umso wichtiger ist es, diese Fragen aufzuwerfen und gegebenenfalls aus Erfahrungen bereits verbreiteter Technologien zu lernen.

 

Der Mensch muss eingreifen können

Derzeit gibt es nicht allzu viele wissenschaftliche Erkenntnisse zum Einsatz von KI-Systemen à la ChatGPT in der Praxis. Allerdings existieren erste Erkenntnisse aus der Implementierung anderer KI-Systeme im Arbeitskontext – etwa automatisierte Entscheidungssysteme, medizinische KI-Systeme in der Diagnostik oder Predictive Systems zur Vorhersage von Ereignissen. Diese Anwendungen sind in der Regel den Menschen als unterstützende Tools zur Seite gestellt. Tatsächlich kann unter Laborbedingungen nachgewiesen werden, dass die Entscheidungsqualität verbessert wird, wenn Menschen mit KI-Systemen arbeiten – die Fähigkeiten ergänzen sich im besten Fall.


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.