Weltpremiere

KI: Hohes Risiko nur unter menschlicher Aufsicht

Ein Roboter des Sicherheitsdienstleisters Ciborius mit hundeähnlichen Bewegungen, künstlicher Intelligenz und 360-Grad-Kamera.
Ein Roboter des Sicherheitsdienstleisters Ciborius mit hundeähnlichen Bewegungen, künstlicher Intelligenz und 360-Grad-Kamera.APA
  • Drucken

EU-Kommission entwarf den weltweit ersten Rechtsrahmen für künstliche Intelligenz (KI): eine Analyse.

Wien. Der von der EU-Kommission jüngst vorgeschlagene „Artificial Intelligence Act“ erfasst ein breites und durchaus reales Anwendungsspektrum: von Pflege-, Haushalts-, Hunderobotern, Chatbots und Sprachassistenten über Kreditwürdigkeit und Berufsbewerbung bis hin zu heiklen Fragen bei biometrischer Überwachung, Social Scoring oder Triage-Situationen. Durch den bisher nur englisch vorliegenden Entwurf eines „weltweit ersten Rechtsrahmens für künstliche Intelligenz (KI)“ soll in Europa „Rechtssicherheit gewährleistet, KI-Verbreitung gefördert sowie Innovation und Investition verstärkt“ werden. Ob Letzteres gelingt, könnte bei allem Respekt vor der Regulierungspremiere fraglich sein: Die häufige Verwendung unbestimmter Rechtsbegriffe in einer unmittelbar anwendbaren EU-Verordnung unter gleichzeitiger Androhung exorbitanter Strafen bis 30 Mio. Euro bzw. sechs Prozent des weltweiten Jahresumsatzes erscheint nicht gerade investitionsfördernd.

Kontrollierter Probebetrieb

Schon eher könnten Anreize von „Regulatory Sandboxes“ (für kontrollierten Probebetrieb) ausgehen, speziell bei Bevorzugung von Start-ups und kleineren Anbietern. Die dadurch erleichterte Zulassung wirkt der innovationsfeindlichen Überregulierung entgegen, die Europa oft vorgeworfen wird. Damit gehen freilich Risken einher, weil KI bei regulatorischen Lockerungen weniger beherrschbar ist. Dies gilt zwar auch für ähnliche Ansätze im Finanzbereich, doch entstehen bei Fintechs allenfalls Vermögensschäden, während hier oft Personenschäden drohen. Auch die (von der Kommission als „zukunftssicher“ eingestufte) KI-Definition wirft Fragen auf. Ihre Aufzählung einschlägiger Technologien (z. B. Machine Learning) bringt die Gefahr der Programmierung von Systemen mit sich, die sich dieser Kasuistik – unter Umständen sogar beabsichtigt – entziehen. Dies könnte im Hinblick auf den risikobasierten Ansatz der Verordnung zum Problem werden.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.