EU

Wie der EU mit dem AI Act doch noch ein Coup gelungen ist

Frankreich ist mit seiner Forderung nach Gesichtserkennung im öffentlichen Raum gescheitert.
Frankreich ist mit seiner Forderung nach Gesichtserkennung im öffentlichen Raum gescheitert. Imago / Mar
  • Drucken
  • Kommentieren

Von der Einigung zum AI Act ist nur noch wenig übrig. Bei den Detailfragen herrschte plötzlich Diskussionsbedarf. Ein 38-stündiger Marathon folgte und endete tatsächlich in einem Deal. Forscher sehen Schwachstellen, aber auch positive Entwicklungen: „der AI Act steht besser da“ als ein paar Tage zuvor.

Die EU hat die Chance federführend bei der Frage nach dem Umgang mit künstlicher Intelligenz zu werden, ergriffen. Europa ist jetzt Vorreiter: erstmalig gibt es ein Gesetz, das die noch junge Technologie reguliert und präventiv in Schranken weist. Nach harten und langen Verhandlungen gibt es nach einem 38-stündigen Verhandlungsmarathon nun doch noch eine Einigung: Denn zuvor wollten plötzlich einige Länder doch eine flächendeckende KI-Gesichtserkennung im öffentlichen Raum: „Der AI-Act steht besser da als wir das vorgestern noch gedacht haben“, sagt Philipp Hacker von der Europa-Universität Viadrina Frankfurt (Oder) nach den erfolgreichen Verhandlungen. Die Einigungen im Überblick.

„Deal“, schreibt Thierry Breton auf X als es tatsächlich nach einem Verhandlungsmarathon zu einer Einigung kam. Der AI Act sei mehr als ein Regelwerk. Vielmehr sei es „die Startrampe für europäische Startups und Forscher, um das globale KI-Wettrennen anzuführen“. Doch es war ein langer Weg bis dahin: Bereits im April 2021 wurde ein entsprechender Gesetzesvorschlag eingereicht, der dann in diesem Sommer mit großer Mehrheit angenommen wurde. Doch bekanntlich steckt der Teufel im Detail und Länder wollten plötzlich ein Aufweichen des Regelwerks und viel mehr Selbstregulierung.

„Wenn einer wie Elon Musk keine Lust mehr hat“. . .

Hacker begrüßt die Einigung, denn „das hieße, dass sich die deutsche, französische und italienische Fundamentalopposition gegen die harte, verbindliche Regulierung nicht durchgesetzt hat.“ Er glaube nicht, dass man hier mit Selbstregulierung weiterkommen könne. „Wenn einer wie Elon Musk bei Twitter keine Lust mehr darauf hat, dann gibt es keine Handhabe“, ist Hacker überzeugt.

Die Forderung, Basismodelle doch nicht zu regulieren, sei auf starkes Lobbying zurückzuführen „und hat mich enttäuscht. Der Vorschlag einer Selbstregulierung ist fast empörend“, pflichtete die an der University of Oxford (Großbritannien) tätige österreichische Technologie- und Regulierungsforscherin Sandra Wachter bei. Das bedeute nur, dass man sich an die Regeln halten könne oder auch nicht. Hier seien ordentliche Rechtsvorschriften notwendig. „Sich auf das Gefühl eines Unternehmens zu verlassen, ist da nicht genug“, sagte Wachter in einem vom deutschen Science Media Center (SMC) veranstalteten Pressegespräch.

Bei diesem Thema herrschte zu Beginn noch Konsens: große KI-Systeme wie Chat GPT (Open AI), Gemini (Google) und Llama 2 (Meta) müssen reguliert werden. Es müssen Mechanismen eingeführt werden, die einen Datenmissbrauch von Beginn an unterbinden. Es soll gleich geregelt sein, welche Daten verwendet werden dürfen, um die KI zu trainieren. Bei der Regulierung der KI-Basismodelle, die auf riesigen Datensätzen basieren, gibt es laut Hacker zwei unterschiedliche Systemebenen. Eine Regelung werde für alle Modelle gelten „und relativ harmlos sein“, eine andere für große, potenziell riskante Modelle. Bei ersterer geht es um Transparenz, Trainingsdaten und das Urheberrecht, wo das Unternehmen aufzeigt, welche Vorkehrungen getroffen wurden, um zu verhindern, dass urheberrechtlich geschütztes Material, das man nicht nutzen darf, verwendet wird. Kritiker befürchteten, dass besonders junge Unternehmen daran gehindert werden könnten, sich zu etablieren. Deutschland und Frankreich setzen insbesondere große Hoffnungen in ihre Start-ups Aleph Alpha aus Heidelberg und Mistral AI aus Paris.

Besonders hinsichtlich der Offenlegung der Trainingsdaten entbrannte im Vorfeld eine heftige Diskussion zwischen Unternehmern und Regulierern. Die Kreativbranche fürchtet um ihre Daseinsberechtigung, denn nach wie vor ist unklar, wie diese für die Verwendung ihrer Texte, Lieder, Kompositionen und Werke entlohnt werden. Denn immerhin sind diese ein elementarer Bestandteil der Trainingsdatenbanken. Unternehmen fürchten neben massiven Kosten auch ein bürokratisches Monstrum, das sich technisch nur schwer umsetzen lässt. Die Einigung: Rechteinhaber dürfen dem Einsatz widersprechen. Dafür müssen Firmen künftig eine „detaillierte Zusammenfassung“ der verwendeten Inhalte bereitstellen. Hier herrscht noch großer Interpretationsspielraum, der mit Sicherheit noch einige Gerichte beschäftigen wird, denn detailliert wird von beiden Seiten sicherlich unterschiedlich ausgelegt werden.

Nachbessern bei Cybersicherheit notwendig

„Das ist mir zu wenig, weil auch Modelle, die nicht den absoluten Top-Modellen entsprechen, durchaus mit signifikanten Risiken einhergehen können. Da müsste man noch nachbessern, etwa bei Vorkehrungen zu Cybersicherheit, damit nicht Schadsoftware geschrieben und Bio-Terrorismus betrieben werden kann,“ so der Experte. Bei den großen Modellen zeichne sich ab, dass man die Kategorie am Trainingsaufwand bzw. der Anzahl der Rechenschritte, die beim Training durchlaufen werden, aufhängen werde. „Aktuelle Modelle wie GPT4 oder Bard müssen hier erfasst werden und nicht erst künftige Modelle. Neben diesem Anhaltspunkt braucht es aber weitere Kriterien wie Risikomanagement oder Teams, die das System in einer überwachten Prozedur dazu bringen, etwas zu tun, was es nicht tun soll“, so Hacker.

Red Teaming, also das Testen der Systemsicherheit, das stark von der Industrie propagiert werde, sei in Ordnung, gehe aber zu wenig weit, befand Wachter. „Das ist, wie wenn man wissen will, ob in einem Haus etwas Gefährliches ist, und man nicht reingeht und untersucht, was dort los ist, sondern nur den Türsteher fragen darf. Ich kann testen, indem ich frage, wie ich eine Bombe bauen kann. So kann man Probleme aufdecken, aber nicht systematisch testen“, erklärte die Forscherin. Hier müsse man viel stärkeren Einblick bekommen.

Notwendig sei auch, die ganze Lieferkette zu „verrechtlichen“, also die Basismodelle, die Anwendungen wie ChatGPT und die Nutzer in die Haftung zu nehmen. „Man stelle sich eine Bergquelle vor, die vergiftetes Wasser an Haushalte liefert, und man würde überall Filter einbauen, anstatt zur Quelle zu gehen und das Problem dort zu lösen“, verglich Wachter. „Wenn man die Basismodelle ausnimmt, wird die Regulierungslast auf die nachfolgenden Bereiche verschoben. Tausend Mal den Fehler in der Anwendung auszubessern ist schlechter als das Problem an der Basis anzugehen“, meinte auch Hacker.

Dem Argument, dass eine verbindliche Regulierung der Basismodelle zum wirtschaftlichen Hemmnis werde, hielt er entgegen, dass die Entwicklungskosten bei rund 60 Millionen Euro liegen würden, die Kosten für die verbindliche Sicherung der Systeme aber nur bei einem Prozent davon. „Das halte ich für gerechtfertigt. Wer Champions League spielen will, muss sich an die Champions League-Regeln halten“, so Hacker. Wachter sieht das Argument vergleichbar damit, dass die Autoindustrie nur Fahrzeuge auf den europäischen Markt bringen wolle, wenn sie keine Gurte einbauen müsse und die Fahrer keinen Führerschein bräuchten.

Von Vorteil wäre es laut der Expertin auch, eigene europäische Basismodelle zu haben. Die meisten Entwickler würden derzeit in China oder Amerika sitzen, „da ergibt sich eine Abhängigkeit. Wenn die Quelle weg ist, hat niemand mehr etwas zu trinken.“ Hier sei Geld ist das große Thema, um Alternativen aufbauen zu können. Das Hinterherhinken in Europa sei „bedrohlich“, meinte Hacker, der auch auf geopolitische Gefahren verweist, weil KI militärisch immer stärker genutzt werde. Es brauche ein umfassendes milliardenschweres Paket.

Großer Streitpunkt: Gesichtserkennung

China mit seinem Social-Scoring-System ist das große abschreckende Beispiel. Die EU wollte die Gesichtserkennung mit Hilfe von künstlicher Intelligenz im öffentlichen Raum verbieten, konnte sich damit aber nicht komplett durchsetzen. Grundsätzlich wird die Überwachung möglich sein. Aber: diese Form darf nur eingesetzt werden, wenn es um die Suche nach einzelnen Personen geht wie im Falle von Vermisstenfällen. Oder aber, wenn Gefahr für Leib und Leben besteht, bzw. wenn ein Terroranschlag droht. Somit wurde die Generalüberwachung abgewendet und auf die gezielte Suche nach Einzelpersonen abgeschwächt. Ein großer Befürworter der flächendeckenden KI-Überwachung war Frankreich. Man erhoffte sich dadurch eine höhere Sicherheit bei den Olympischen Spielen 2024 gewährleisten zu können.

Wer wird das künftig kontrollieren? Man hat sich auf eine eigene KI-Behörde in der EU geeinigt. Das war eine gemeinsame Forderung von Deutschland, Frankreich und Italien. Die Systeme werden weiterhin von den einzelnen Ländern überwacht, aber im Europäischen Ausschuss werden sie zusammenkommen, um eine einheitliche Anwendung der Rechtsvorschriften zu garantieren.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.