Anzeige

KI-Systeme verstehen, um zu vertrauen

(c) Getty Images/iStockphoto (kishore kumar)
  • Drucken

KI-Systeme, die als Grundlage für Entscheidungen dienen, müssen verständlich werden – eine Frage von Ökonomie und Ethik.

„Soll ein autonomes Fahrzeug für ein Reh oder einen Igel bremsen, wenn diese die Bundesstraße queren? Bei welchen Tieren ist der Fahrkomfort oder die Sicherheit der Insassen wichtiger als das Leben der Tiere?“, zeigt Sabine Theresia Köszegi, Mitglied der High-Level Expert Group on Artificial Intelligence der Europäischen Kommission, beispielhaft eine von unzähligen konkreten Fragestellungen zum Thema Künstliche Intelligenz und Ethik auf.

Um hier eine Antwort zu finden, bräuchten autonome Systeme eindeutige Ziele und Entscheidungsregeln. Diese zu formulieren ist eine große Herausforderung, vor allem dann wenn Regelwerke im Widerspruch zueinander stehen. Ein Beispiel: Was ist, wenn ein Verkehrsunfall nur dann vermieden werden kann, wenn eine Stopptafel missachtet wird? Und wer trägt die Verantwortung, wenn ein KI-System nicht in der vom Hersteller vorgesehenen Form genutzt wird?

Künstliche Intelligenz für Diagnosen

Spannende Problemstellungen tun sich ebenfalls im medizinischen Bereich auf. Bekannt ist mittlerweile, dass gut trainierte KI-Systeme besser als jeder Arzt diagnostizieren können, dass kein Krebs vorliegt. Radiologen und Spezialisten können hingegen (noch) mit höherer Treffsicherheit vorliegende Karzinome bestimmen. Die genauesten Diagnosen entstehen demnach im Zusammenspiel von Mensch und Maschine. Was bedeutet das für die künftige Berufsausbildung von Medizinern? Und wie lässt sich sicherstellen, dass Ärzte durch den KI-Einsatz ihre Fähigkeiten erweitern und nicht Kompetenzen verlieren?

Ob man sich von einer Maschine oder einem Menschen operieren lässt, ist letztendlich ebenso eine ethische Frage wie jene nach der Verantwortlichkeit bei einem Misslingen des Eingriffs. Immer öfter werden in Zukunft auch Probleme ethischer Natur auftreten, wenn künstliche Intelligenz die Oberhand bei so genannten Scoringsystemen gewinnt, sprich bei Verfahren zur Vorhersage der Kreditwürdigkeit, des Versicherungsrisikos, der Wahrscheinlichkeit kriminell zu werden oder einen Arbeitsplatz zu finden. Während Befürworter solcher Systeme auf die „moralische“ Neutralität reiner Datenfakten verweisen, zeigt die Realität, dass KI-Datenanalysen vor ungerechtfertigten Diskriminierungen nicht gefeit sind.

Maschinelle „Vorurteile“

Wenn man im falschen Bezirk wohnt und einen bestimmten Namen hat, kann das zu einer Ablehnung des Kreditantrags führen. KI-Systeme basieren auf statistischen Zusammenhängen, kennen aber keine Kausalität – und sind zugleich nicht vorurteilsfrei, weil von Menschen gespeist und programmiert. In Amerika zeigte eine Untersuchung, dass eine Software zur Bestimmung der Wahrscheinlichkeit von Individuen, kriminell zu werden, signifikant andere Ergebnisse brachte, als man bei ein und derselben Person die Information zur Hautfarbe von „weiß“ auf „schwarz“ änderte.

„Entgegenwirken kann man solchen Prognose-,Fehlern‘ durch die Weiterentwicklung von Algorithmen, gutes Datenmaterial und Transparenz“, so Köszegi. Es muss nachvollziehbar sein, wie KI zu Entscheidungsvorschlägen kommt. Nicht jeder Laie soll verstehen, wie ein Algorithmus aufgebaut wird und wie er funktioniert. Aber jeder Konsument soll darauf vertrauen können, dass zumindest die mit der Entwicklung betrauten Fachleute ein tiefgehendes Verständnis haben. 

KI ist erklärungsbedürftig

„Transparenz ist eine wesentliche Voraussetzung für eine effektive Bereitstellung intelligenter Systeme in der Praxis“, meint auch Andrain Weller, Senior Research Fellow für Machine Learning an der Universität Cambridge. Entscheidungen zu treffen, die auf automatischen Vorschlägen von KI-Systemen basieren, kann nur jenen leicht fallen, die Vertrauen in und Verständnis für die Modelle haben. Wie stark die Unternehmenswelt davon betroffen ist, zeigt eine jüngste, in knapp 100 Ländern durchgeführte Studie des US-amerikanischen Marktfoschungs- und Analysespezialisten Gartner.

Demnach werden bis zum Jahr 2020 zum einen rund 85 Prozent aller Chief Information Officers (CIO) KI-Pilotprogramme einführen. Zum anderen zeigt sich etwa die Hälfte der Befragten skeptisch bezüglich der Akzeptanz dieser Programme bei den Kunden. Ein Lösungsansatz für dieses Problem wäre eine erklärbare Künstliche Intelligenz.

Der Begriff der „Explainable Artificial Intelligence“ (XAI) wird bereits seit 2004 verwendet. Gemeint ist eine technische Disziplin, die operative Methoden erarbeitet und bereitstellt, die zur Erklärung von KI-Systemen dienen. Immer lauten werden in diesem Zusammenhang die Forderungen von Experten, dass in einem ersten Schritt die wichtigsten öffentlichen Einrichtungen - wie z. B. die für Strafjustiz, Gesundheit, Wohlfahrt und Bildung zuständigen Stellen - keine „unverständliche“ Black-Box-KI mehr verwenden sollen. Damit einher geht die Forderung an Unternehmen aller Art nach der Einführung verbindlicher ethischer Maßstäbe.

Eine Frage der Glaubwürdigkeit

Die Erwartungen von Führungskräften an ihre Data-Science-Teams, besser erklärbare KI-Modelle anzuwenden und Modellstrukturen zu entwickeln, die anhand von Protokollen nachvollziehbar sind, mehren sich. „Jede Organisation, die KI entwickelt und nutzt sowie Daten hostet oder verarbeitet, muss dies verantwortungsvoll und transparent tun. Unternehmen wie wir müssen deutlich machen, wie KI-Systeme trainiert werden, welche Daten für dieses Training verwendet werden und vor allem, was in die Empfehlungen ihres Algorithmus einfließt“, sagt Matthias Hartmann, IBM General Manager für Österreich, Deutschland und die Schweiz. Nur wenn man diese Fragen schlüssig beantworten kann, sei ein glaubwürdiges Auftreten nach innen und außen möglich – letztliche eine ebenso moralische wie ökonomische Frage.

Fragen der Ethik machen einen klaren Standpunkt und klare Richtlinien notwendig. Mit Grauzonen oder Handlungsspielräumen wird laut dem IBM Manager dem Image und damit auch der Entwicklung von KI geschadet. Deren Fokus liege schließlich darauf, die menschliche Intelligenz zu erweitern und den Menschen zu unterstützen. „Es muss verständlich werden, wie KI-Systeme zu ihren Entscheidungsvorschlägen kommen. Denn Maschinen sind derzeit nicht dazu fähig, ethische Entscheidungen autonom zu treffen“, sagt Köszegi. Wer einmal versteht, wird auch vertrauen.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.