Gastbeitrag

Künstliche Intelligenz als Täter: Science-Fiction oder Realität?

Getty Images
  • Drucken

Chatbots können unseren Alltag vereinfachen. Sie sind aber schwer zu kontrollieren, gravierende Haftungsfolgen drohen.

Wien. In der „Terminator“-Filmreihe löst die künstliche Intelligenz Skynet 2029 einen internationalen Atomkrieg aus und übernimmt die Weltherrschaft. Obwohl die Entwickler künstlicher Intelligenzen (KI) in den letzten Jahren große Fortschritte gemacht haben, ist dieses Szenario aber unwahrscheinlich.

Anders als der von Arnold Schwarzenegger verkörperte Terminator – der im ersten Teil der Filmreihe gerade einmal 17 Sätze von sich gibt – sind kürzlich veröffentlichte KI-Module wie ChatGPT von OpenAI aber geradezu eloquent und finden schon jetzt zahlreiche Einsatzbereiche. Neben komplexen Programmcodes können aktuelle KI-Lösungen umfangreiche Brief- und Vertragsentwürfe oder Anleitungen schreiben – falls gewünscht auch in Gedichtform.

Maschine lernt selbstständig

KI-Module lernen weitgehend eigenständig auf Basis der zur Verfügung stehenden Daten. Angesichts der dabei eingesetzten Menge an Informationen ist es nicht möglich, jeden Output des Programms zu steuern. Deshalb unterliegen KI-Programme in den meisten Fällen bestimmten Beschränkungen: So sollen in der Regel keine Hilfestellungen bei rassistischen oder strafbaren Fragestellungen geliefert werden.
Im Fall von ChatGPT hat es nach Veröffentlichung aber nur Stunden gedauert, bis sich im Internet diverse Umgehungsmöglichkeiten dieser Beschränkungen verbreitet haben. Nutzer haben ChatGPT zum Beispiel dazu aufgefordert, im Rahmen eines „Theaterstücks“ den Bau einer Atombombe zu erklären – eine Aufforderung, der ChatGPT zumindest in groben Zügen nachgekommen ist. Auch Tipps zur Steuerhinterziehung konnten der KI entlockt werden.

Es ist also möglich, an sich völlig legale KI-Tools gezielt zur Unterstützung strafbaren Verhaltens zu missbrauchen. Vor diesem Hintergrund stellt sich die Frage, wer strafrechtlich für das Verhalten von Chatbots verantwortlich ist.

Setzt ein Nutzer die Tipps des Chatbots zur Steuerhinterziehung um, begeht er eine Straftat und haftet dafür. In Österreich macht sich aber nicht nur jene Person strafbar, die eine Straftat unmittelbar selbst begeht, sondern auch jeder, der den unmittelbaren Täter bei Straftaten unterstützt. Konkrete Handlungsanleitungen zur Frage „Wie verschleiere ich am besten mein Einkommen, um keine Steuern zahlen zu müssen?“ wären ein solcher (potenziell) strafbarer Tatbeitrag.

Das österreichische Strafrecht knüpft aber immer an menschlichem Verhalten an und sanktioniert primär natürliche Personen. Nun ist ein Chatbot aber keine Person, sondern lediglich ein hochentwickeltes Computerprogramm, weshalb für von der KI selbst entwickelte Anleitungen zu strafbarem Verhalten auf den ersten Blick keine Strafbarkeit besteht.

Durch die Veröffentlichung der KI-Lösung schaffen die Entwickler aber eine strafrechtliche Gefahrenquelle. Nach dem Ingerenzprinzip trifft sie dadurch eine sogenannte Garantenstellung, also die Pflicht, von der Gefahrenquelle ausgehende Gefahren für Dritte abzuwehren. Im Fall einer online verfügbaren KI inkludiert diese Garantenstellung neben dem Implementieren der erwähnten Beschränkungen vor allem laufendes Monitoring und macht Eingriffe erforderlich, wenn die Entwickler Einfallstore für Missbrauch entdecken. Werden die Pflichten aus der Garantenstellung verletzt und kann die KI aus diesem Grund zur Unterstützung von Erfolgsdelikten in Österreich missbraucht werden, kann dies im Extremfall zu Freiheitsstrafen auch bei den Entwicklern führen.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.