Schnellauswahl

Die EU als KI-Ethik-Aufpasser

(c) Getty Images/iStockphoto (AlxeyPnferov)
  • Drucken

Künstliche Intelligenz nimmt nicht nur auf Marketing und Kundenanalyse Einfluss, sondern kann auch politisch mitwirken. Damit die Ethik dabei nicht zu kurz kommt, entwickelt die EU einen eigenen Katalog.

Längst ist das Thema der künstlichen Intelligenz zum Dauerbrenner geworden. Kein Tag vergeht, ohne dass nicht darauf hingewiesen wird, wie sehr Entwicklungen auf dem Gebiet des maschinellen Lernens, des Deep Learnings und der künstlichen neuronalen Netze die Gesellschaft künftig verändern werden. Schon heute bestimmen schlaue Algorithmen, wer wann welche Werbung auf Social Media eingeblendet bekommt, entscheiden mit, ob und in welcher Höhe jemand einen Kredit bekommt, treffen eine Vorauswahl bei Bewerbungsprozessen oder klassifizieren und analysieren Kundenanfragen.

Predictive Analytics sind bereits in der Lage, künftiges Verhalten und das Eintreffen von gesellschaftlich oder unternehmerisch relevanten Szenarien punktgenau zu prognostizieren, die wertvolle Infos für Marketing oder Ressourcenmanagement liefern.

Sind KI-Entwicklungen auch gewünscht?
Kurzum: Der Hype um das Ausloten von Möglichkeiten, wie KI den privaten Alltag oder Geschäftsprozesse in der Unternehmenswelt positiv unterstützen kann, kennt keine Grenzen. Die Frage, ob all diese Entwicklungen auch gewünscht sind, kommt dabei vergleichsweise kurz. Auf der Seite der Skeptiker finden sich jene, die vor einer Vernichtung von Arbeitsplätzen, von der Unterwerfung der menschlichen unter die künstliche Intelligenz und von den Gefahren der politischen Vereinnahmung warnen.

Zumindest letzteres scheint nicht unangebracht, wenn man sich etwa das Social-Credit-System der chinesischen Regierung vor Augen führt. Dort wird mit Bonuspunkten für den Kauf gesunder Babynahrung oder Punkteabzug bei Pornokonsum gerade ein KI-unterstütztes Überwachungs-, Bewertungs- und Erziehungssystem der Bürger eingerichtet.  Das wirft Fragen zur Ethik auf, soviel steht fest.

Wie ein ethischer Umgang mit künstlicher Intelligenz aussehen könnte, darüber haben sich 52 Experten - darunter Philosophen, Psychologen, Soziologen und Ökonomen – im Auftrag der EU-Kommission Gedanken gemacht. Vier Monate lange dauerten die Beratungen, bis Anfang April 2019 in Berlin ein rund 40-seitiges Papier präsentiert wurde. Ausgearbeitet sind darin sieben Schlüsselanforderungen, die KI-System erfüllen sollten, um als „vertrauenswürdig“ eingestuft werden zu können.

Die EU-Marke heißt Vertrauen

„Europa steht für eine Marke, und die heißt Vertrauen“, kommentiert Roberto Viola, Generaldirektor der EU-Direktion Kommunikationsnetze, die Bemühungen, sich von einem Umgang mit dem Thema abzugrenzen, wie er in China (Stichwort staatliche Kontrolle) oder in den USA (unternehmensgetriebene Technologieentwicklung) stattfindet. In Europa stehen laut Viola Grundsätze im Fokus, welche die Bedürfnisse und Interessen der Zivilgesellschaft berücksichtigen. Vertrauenswürdig seien KI-Systeme demnach, wenn sie in erster Linie den Prinzipien der Rechtmäßigkeit (Beachtung aller geltenden Gesetze und Vorschriften), der Stabilität (technisch wie sozial) und der Ethik (Einhaltung von Werten) gerecht werden.  Der Ethik fühlt sich auch der 2017 ins Leben gerufene Österreichische Rat für Robotik und Künstliche Intelligenz verpflichtet. Wie man die KI-Zukunft in Österreich gestalten will und was das mit ethischen Prinzipien zu tun hat, geht aus dem Ende 2018 veröffentlichten White Paper des Rats hervor. Smart Governance, Smart Innovation und Smart Regulation lauten die Eckpfeiler für die heimische Strategie, Ethik ist das Leitprinzip.