Todesstrafe für Roboter?

Autonome Systeme und künstliche Intelligenz werfen ethische und rechtliche Fragen auf. Auf der Suche nach Antworten.

Man führe sich folgendes Szenario vor Augen: Monika ist alleinerziehende Mutter zweier Kinder. Da Monika tagsüber arbeitet und ihre Kinder noch klein sind, ist sie auf Unterstützung in Haushalt und Kinderbetreuung angewiesen. Aus diesem Grund wird die Familie ergänzt durch Balthasar. Jeden Tag bereitet Balthasar, seinerseits begnadeter Koch, den Kindern ihr Mittagessen zu. So steht auch heute Spaghetti Bolognese auf der Speisekarte, die Lieblingsspeise der Kinder. Prompt kocht das Wasser über, und als Balthasar die Pfanne von der Herdplatte nehmen will, schwappt ein Teil des kochenden Wassers über und trifft das eine Kind, welches schwere Verbrennungen davonträgt. Wohl sollte Balthasar seiner Rolle als Verantwortungsperson gerecht werden, sich um das vor Schmerz schreiende Kind kümmern – stattdessen dreht er sich gleichgültig weg, als ob nichts geschehen wäre. Eiskalt und erbarmungslos, gar unmenschlich verhält er sich. Mögliche Ursache: Balthasar hat kein Herz, denn er ist ein Küchenroboter. Sein Kreislauf wird von Algorithmen angetrieben, die jede Bewegung, jede Emotion mit absoluter Perfektion im richtigen Zeitpunkt hervorrufen und situativ anpassen.

Vor- und Nachteile

Was nun, wenn diese situative Anpassungsfähigkeit in die falsche Richtung steuert? Schnell kann, was wie ein Sciencefiction-Abenteuer begann, zu einem automatisierten Albtraum werden. Die Technik, uns Digital Natives bester Freund und Helfer, mutiert dann plötzlich zum emotionskalten Feind. Künstliche Intelligenz als Gefahr für die Menschheit wurde so auch schon vor Jahren von der Filmindustrie thematisiert, um die Zuschauer vor Spannung beben zu lassen. So beispielsweise im Sciencefiction Film «I, Robot», in dem eine künstliche Intelligenz versucht, die Macht über die Menschen an sich zu reissen. Daraus ergibt sich die Frage: Ist künstliche Intelligenz der Schlüssel zur Lösung von aktuellen und noch aufkommenden Problemen oder doch eher eine schon immanente Bedrohung für die Menschheit? Aus der gegenwärtigen Situation ergibt sich indessen klar, dass der Mensch heutzutage Quelle vieler Fehler ist. 90 Prozent aller Autounfälle basieren zumindest teilweise auf menschlichem Versagen. Die Entwickler von automatisierten Autos versprechen sich durch ihre Fortschritte somit auch eine klare Reduktion der Autounfälle und damit mehr Sicherheit.

Implikationen für die Jurisprudenz

Doch auch dann bleibt das Restrisiko, dass es zu bedauerlichen Zwischenfällen kommen könnte. Wer soll dann die Verantwortung tragen, wenn autonome Systeme Schäden verursachen – sind es die autonomen Systeme selbst oder diejenigen, welche sie programmiert haben? Mit solchen Fragestellungen eröffnet sich auch ein Feld für die Juristen unter uns. Nicht nur unsere Konzepte von Schuld und Haftung könnten in Zukunft Änderungen ausgesetzt sein, sondern auch mit zunehmender Entwicklung unsere grundlegendsten Prinzipien, namentlich die Demokratie und der Rechtsstaat.

Nehmen wir an, ein Mensch befindet sich auf der Autobahn und weicht einem Geisterfahrer aus, wobei er das Lenkrad rechts herumreisst und einen Mehrpersonenwagen mit einer Kleinfamilie tödlich in den Strassengraben katapultiert. Viele von uns werden die Reaktion dieses Menschen nachvollziehen können und den Tod der Kleinfamilie als unbeabsichtigte Folge einer menschlichen Reaktion werten. Befindet sich hingegen ein vollautomatisiertes Auto auf der Fahrbahn, welches aufgrund seines Algorithmus entscheidet, wie es auf die Gefahrensituation reagieren soll, stellen sich plötzlich ganz andere, grundlegende Fragen. Ist das Auto so programmiert, dass es immer den Inhaber und Insassen des Autos unabhängig von anderen Opfern schützen soll oder ist es eher auf eine utilitaristische Weise darauf ausgelegt, möglichst viele und möglichst «wertvolle» Menschen zu schützen, unabhängig davon, ob dabei der Inhaber des Autos zu Schaden kommt? Was in einer solchen Situation moralisch richtig ist, wurde bis anhin aufgrund der menschlichen Prädisposition beantwortet. Im Hinblick auf künstliche Intelligenz ergeben sich aber ganz andere ethische und rechtliche Probleme, abgesehen von der Fragestellung, ob ein autonomes System, welches sich für verschiedene Varianten entscheiden kann, auch für die Wahl einer aus unserer Sicht falschen Option bestraft werden soll.

Erste Ansätze

Wie wir in Zukunft konkret mit solchen Fragestellungen umgehen werden, steht noch in den Sternen. Bisher setzte sich beispielsweise die Universität Würzburg in ihrem Lehrstuhl «RobotRecht» mit solchen Themen auseinander. Dort stehen in der Forschung vor allem strafrechtliche, haftungsrechtliche und datenschutzrechtliche Perspektiven im Vordergrund. Eines der Ziele dabei: die technische Entwicklung mit juristischer Forschung zu begleiten und adäquate Regeln für den Umgang mit autonomen Systemen zu finden. Vorstellbar wäre nebst komplett neuen Konzepten, eine Anwendung der Grundregeln für die juristischen Personen auf autonome Systeme, sind diese doch gewissermassen auch nur künstlich erschaffene Personen. Die Todesstrafe ist bei uns zwar aus dem Strafgesetzbuch verbannt, doch vielleicht wird Robotern schon bald ähnlich Drastisches drohen können. Der Ruf nach Plattwälzung von ungehorsamen künstlichen Intelligenzen wurde schon an verschiedenen Stellen vorgebracht. Verhältnismässiger wäre es wahrscheinlich, falls möglich den Stecker zu ziehen.

Zukunftsaussichten und offene Fragen

Jahrzehnte später, immer schön auf dem Mooreschen Gesetz dahinsegelnd, könnten wir bald in einer Welt der Supermenschen ankommen – einer Zeit der technologischen Singularität. Dies geschieht, wenn künstliche Intelligenz sich selber verbessern kann und die Leistungsfähigkeit der menschlichen Hirne übertrumpfen könnte, wie das schon heute in gewissen Bereichen der Fall ist. Damit würden Dimensionen einer Intelligenz geschaffen werden, welche fernab des menschlichen Erfahrungs- und Erwartungshorizont liegen. Solche Entwicklungen werden auch unsere Gesellschaft und damit unser Rechtssystem von Grund auf wandeln. Beruhigend ist die Vorstellung gewisser Wissenschaftler, dass diese Supermenschen mit den Erkenntnissen, die sie durch ihre dem Menschen überlegene Intelligenz erfahren werden, uns auch vom ethischen Verständnis überflügeln könnten.

Gesellschaftliche Diskussion ist nötig

Doch wie einem Supermenschen erklären, dass er nicht abstimmen darf, da es sich bei ihm nicht um einen Menschen aus Fleisch und Blut handelt? Würden sich diese Wesen das gefallen lassen oder wäre da nicht sogar ein Aufstand vorprogrammiert? Das Ausmass der technologischen Entwicklungen ist nicht bis in alle Details vorhersehbar. Unabdingbar ist beim Umgang mit der Thematik jedoch eine breite gesellschaftliche Diskussion über die Möglichkeiten und vor allem auch Risiken der neuen Technologien. Investitionen in die Forschung über die Sicherheit und Kontrolle der neuen Technologien und der möglichen Arten der Kooperation zwischen künstlicher Intelligenz und Mensch ist wünschenswert. In Zukunft wird es einfacher möglich sein, viel Gutes zu tun, aber auch einfacher, viel Schlechtes auszulösen. Auf diese Auswirkungen sollten wir vorbereitet sein. Wie immer gilt: Recht soll erst dort gesetzt werden, wo Problemfelder erkannt und evaluiert wurden und die Gesellschaft Entscheidungen getroffen hat.

Illustration Nina Amann


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

*

*