Anzeige

EU-Ethikkatalog für vertrauenswürdige KI-Systeme

(c) Getty Images/iStockphoto (Chainarong Prasertthai)
  • Drucken

Die sieben Kriterien für eine vertrauenswürdige Künstliche Intelligenz.

Anfang April 2019 stellte eine hochrangige EU-Expertengruppe für KI (AI HLEG) ihre Ethikrichtlinien für eine vertrauenswürdige Künstliche Intelligenz vor. Die Formulierung von sieben Kriterien versteht sich als erster Schritt eines Prozesses, bei dem ab Sommer 2019 alle Interessensgruppen eingeladen sind, im Rahmen einer Forumsdiskussion Best Practice-Beiträge und Vorschläge einzubringen. Aufbauend auf diesen Rückmeldungen wird die Expertengruppe Anfang 2020 die Bewertung der Kriterien überprüfen, um konkrete Vorschläge zur Umsetzung zu unterbreiten.

Menschliches Handeln und Kontrolle: KI-Systeme sollten den Menschen befähigen, informierte und fundierte Entscheidungen treffen zu können und seine Grundrechte zu fördern. Für Aufsicht und Kontrolle sorgen sogenannte Human-in-the-Loop-, Human-on-the-Loop- und Human-in-Command-Ansätze.

Technische Robustheit und Sicherheit: KI-Systeme müssen widerstandsfähig und sicher sein. Sie müssen einen Plan beinhalten für den Fall, dass etwas schief geht, und zugleich zuverlässig und reproduzierbar sein. Nur so kann sichergestellt werden, dass unbeabsichtigte Nachteile und daraus entstehender Schaden minimiert bzw. verhindert werden.

Datenschutz und Datenverwaltung: Zur uneingeschränkten Achtung der Privatsphäre und der Sicherstellung des Datenschutzes benötigt es Data-Governance-Mechanismen, die der Qualität und Integrität der Daten Rechnung tragen und einen legitimierten ­Zugang zu Daten ermöglichen.

Transparenz: Die Geschäftsmodelle für Daten, Systeme und KI sollten transparent sein. KI-Systeme und ihre Entscheidungen müssen für alle Interessensgruppen in verständlicher Weise erläutert werden. Der Mensch muss sich bewusst sein, dass er mit einem KI-System interagiert, und er muss über die Möglichkeiten und Grenzen des Systems informiert werden.

Vielfalt, Nichtdiskriminierung und Fairness: Unfaire Verzerrungen müssen vermieden werden, um die Marginalisierung gefährdeter Gruppen, Diskriminierungen und die Verschärfung von Vorurteilen zu verhindern. Zur Förderung der Vielfalt sollten KI-Systeme für alle Menschen zugänglich sein, unabhängig von etwaigen Beeinträchtigungen oder Behinderungen, sowie Interessengruppen während ihres gesamten Lebenszyklus einbeziehen.

Gesellschaftliches und ­ökologisches Wohlbefinden: KI-Systeme sollten allen Menschen zugutekommen, auch zukünftigen Generationen. Daher muss sichergestellt sein, dass sie nachhaltig und umweltfreundlich sind, dass also ihre sozialen und gesellschaftlichen Auswirkungen sorgfältig geprüft wurden.

Haftung & Verantwortung: Prüfbarkeit und Bewertung von Algorithmen, Datensystemen und Designprozessen müssen sichergestellt werden, insbesondere bei kritischen Anwendungen. Das schließt die Existenz von Rechtshilfe und Entschädigungsmechanismen in Schadensfällen mit ein.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.