„Algorithmen können sich ethisch verhalten“

Monika Kofler
Monika Kofler(c) Katharina Roßboth
  • Drucken

Autonome Maschinen nehmen die Umgebung wahr, analysieren sie und handeln. Doch was passiert, wenn ihnen Fehler passieren? Wer trägt die Schuld? Welches Recht gilt? Wo endet die maschinelle Entscheidungsfreiheit?

Lernende Maschinen sollen den Menschen das Leben erleichtern. Sie sammeln Unmengen von Daten, treffen Vorentscheidungen und helfen beim Einparken oder der Klassifikation von Tumoren. So zumindest die Theorie. Was aber, wenn Maschinen zu autonom werden? Wenn sie Fehler machen und Menschen dabei zu schaden kommen? Für wen soll sich ein motorisierter Roboter entscheiden: für das Kind am Straßenrand oder den bewusstlosen Fahrer im Wageninneren?

„Ein selbstfahrendes Auto wird nie eine ethische Entscheidung treffen müssen“, ist der Informatiker und Forschungsleiter des Ars Electronica Futurelab, Christopher Lindinger, überzeugt. Denn: „Es bleibt einfach stehen – und zwar immer.“ Dafür würden dutzende Sensoren Sorge tragen, die rund um die Karosserie eingesetzt sind. „Das Auto hält an, egal, ob ein Plastiksackerl, eine Katze oder ein Mensch vor ihm auftaucht.“ Die Was-wäre-wenn-Frage könne sich folglich gar nicht erst stellen. „95 Prozent der Autounfälle, die derzeit passieren, werden durch menschliches Versagen verursacht, wären nur selbstfahrende Verkehrsmittel auf den Straßen, ginge das Unfallrisiko folglich in Richtung null.“

Rundum unter Beobachtung

Und zwar nicht nur auf der Straße, sondern auch in deren unmittelbarer Umgebung, meint Lindinger. „Ein selbstfahrendes Auto hat in Wahrheit einen perfekten Rundblick, Spielt ein Kind neben einem geparkten Wagen, kann es von ihm gewarnt werden, sollte sich ein Radfahrer oder ähnliches nähern.“

Nur an der Interaktion mit „menschlichen Verkehrsteilnehmern“, da hapere es noch, räumt Bernhard Nessler vom Institut für Bioanalytik der Johannes Kepler Universität in Linz ein. „Wir müssen es schaffen, Maschinen so zu entwerfen, dass sie auf Winkzeichen, ein Nicken oder Blickkontakt so reagieren, als säße ein Mensch hinter dem Steuer“, sagt der Wissenschaftler, der im Rahmen des „Audi.JKU Deep Learning Centers“ derzeit mit dem Autobauer Audi am intelligenten Pkw forscht. Bis ein solcher auf den Markt kommt, würden aber noch einige Jahre vergehen, prognostiziert er.

Zeit genug, um sich mit rechtlichen Fragestellungen zu befassen. Denn: „Fehler können immer passieren“, sagt Monika Kofler und fordert eine Auseinandersetzung mit Haftungs- und Schadenersatzfragen. „Künstliche Intelligenzen könnten wie juristische Personen behandelt werden.“ Damit befindet sich die bei Amazon tätige Expertin für Metaheuristiken auf einer Linie mit dem Europäischen Parlament, dessen Rechtsausschuss im Jänner die EU-Kommission aufgefordert hat, Rechte und Pflichten von Robotern zu klären. Vorgeschlagen wurde die Einführung einer „elektronischen“ oder „künstlichen“ Person in der Rechtsprechung – neben den derzeit vorhandenen natürlichen (Menschen) und juristischen Personen (Körperschaften, Vereine, Gesellschaften).

"Roboter ist oft nichts anderes als eine dumme Hülle"

Ein Unterfangen, das mit einigem Gegenwind konfrontiert wird. So kritisierte der deutsche Fachverband für Robotik und Automation, dass durch das Gesetz ein „praxisferner Bürokratieaufwand“ erzeugt würde, der „den gesellschaftlichen und wirtschaftlichen Nutzen der Robotik auszubremsen droht“. Lindinger hingegen ortet zwar einen gangbaren Weg darin, Robotik in ein rechtliches Korsett zu gießen, plädiert aber für mehr Feingefühl bei einzelnen Formulierungen: „Die Bezeichnung Person ist in diesem Zusammenhang sehr heikel, am Ende des Tages bleibt ein Roboter eine Maschine.“ Entsprechend ausgeschlossen ist für ihn, dass eine solche je auf einer Anklagebank Platz nehmen wird, vielmehr werde ein Kollektiv zur Verantwortung gezogen werden. Immerhin handle es sich bei neueren Entwicklungen um keine singulären Einheiten. „Ein Roboter ist in vielen Fällen nichts anderes als eine dumme Hülle, die mit einem woanders verorteten Rechensystem, auf dem die künstliche Intelligenz läuft, kommuniziert“, sagt Lindinger. „Ein Server kann in Amerika stehen, der zweite in Irland und der Roboter steht in Japan und verletzt einen Menschen. Hier stellt sich eine weitere Frage, nämlich: Welches Recht ist anwendbar?“

Nicht leichter zu beantworten sind Fragen nach der Ethik lernender Maschinen. Wer entscheidet über moralisches und verwerfliches Verhalten? Die Regierungen, ein Ethikrat, der Hersteller? „Wer auch immer die Entscheidung trifft, fest steht, dass sich Algorithmen ethisch verhalten können, sofern sich die Codierer auf entsprechende Standards geeinigt haben“, sagt Informatikerin Kofler. Konkret: „Es können harte und weiche Regeln programmiert werden; hart meint, dass sie nicht gebrochen werden dürfen, weich, dass es Richtlinien sind, von denen abgewichen werden kann.“

„Es gibt in komplexen Situationen letztlich nur weiche Regeln“, kontert Nessler und verweist auf Unfälle oder eine nicht eindeutig platzierte rote Ampel. „Hier wird es die Möglichkeit brauchen, dass dem selbstfahrenden Auto gesagt werden kann, es dürfe fahren, auch, wenn es anders programmiert ist.“ In anderen Worten: „Praktikable Regeln müssen weich sein; das Problem dabei: Wir wissen nicht, wie die künstliche Intelligenz sie auslegen wird.“ Sein Fazit: „Rechtliche und ethische Fragen werden sich lösen lassen. Unmöglich bleibt, alle Eventualitäten zu testen – eine Restunsicherheit gibt es immer.“

Lesen Sie mehr zu diesen Themen:

Mehr erfahren

Hannes Androsch, Rainer Nowak, Markus Rodlauer und Jörg Wuttke (v.l.).
Home

Wenn China nicht mehr die Fabrik der Welt sein möchte

Peking investiert vier Mal mehr in Europa als umgekehrt. Mit einer neuen Strategie will China europäischen Firmen den Rang ablaufen
Blick auf Alpbach
Technologiegespräche

Klimaabkommen: Pariser Lebensstil in Alpbach

Eine Breakout Session ergründet, wie wir unser Leben künftig gestalten müssen, um die Ziele des Weltklimaabkommens zu erfüllen. In Kürze: Bessere Technologie hilft, aber das allein reicht nicht.
Technik kann viel - aber nicht alles, was sie zukünftig können wird, wollen die Menschen auch nutzen.
Home

Würden Sie sich von einem Roboter impfen lassen?

Als Hilfe im Haushalt können sich die Österreicher Roboter laut einer Umfrage gut vorstellen, beim Einsatz in der Medizin sind sie deutlich skeptischer.
Symbolbild
Technologiegespräche

(Veganes) Essen aus dem 3D-Drucker

In Supermärkten und Pflegeheimen könnten Lebensmittel bald aus der Patrone kommen, prophezeit Ingrid Kiefer von der Agentur für Gesundheit und Ernährungssicherheit. Schwangeren und Kindern rät sie vom Vegansein ab.
Muna Duzdar
Home

Digitale Charta gegen Facebook: Duzdar will Einblick in Algorithmen

Die Staatssekretärin will den Druck auf Internetkonzerne wie Facebook und Google erhöhen.

Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.