Direkt zum Inhalt

Aus der Zeitschriftrecht 1/2016 | S. 66–69Es folgt Seite №66

Intelligente Agenten und das Recht: zur Verantwortlichkeit beim Einsatz von Robotern

Workshop am 15./16. Januar 2016 der Juristischen Fakultät Basel

A. Überblick

Seit Jahrzehnten ziehen Roboter oder sog. «Intelligente Agenten» (I.A.) in unseren Alltag ein – mehr oder weniger auffällig. Vor einem knappen Jahrhundert hat ein Roboter als Vision zukünftiger Zwangsarbeiter die Bühne und Romane betreten, heute säubert ein Saugroboter unser Zuhause, während wir bei der Arbeit sind. Und künftig sollen uns selbstfahrende Autos über öffentliche Strassen chauffieren. Maschinen sind heute nicht nur komplexer aufgebaut, was ihre Bewegungsabläufe und ihren Funktionsumfang betrifft, sondern sie verfügen in fortschreitendem Masse auch über Künstliche Intelligenz (K.I.) und können mehr oder weniger autonom «handeln». Computerspezialisten prognostizieren, dass Roboter in Zukunft mit dem Menschen auf quasihumaner Ebene kommunizieren und (inter)agieren werden. Juristen entdeckten hier erst in den letzten Jahren eigenen Handlungs- und Regulierungsbedarf.

Den möglichen Konflikt durch einen autonom handelnden I.A., der für sich selbst aber nicht verantwortlich ist, zeichnete Sabine Gless in ihrer Einführung zu dem (von ihr und Kurt Seelmann organisierten) Workshop «Intelligente Agenten und das Recht: zur Verantwortlichkeit beim Einsatz von Robotern». Denn ein Grundanliegen rechtlicher Regelung ist die möglichst klare Zuweisung von Verantwortung, damit rechtlich geschützte Interessen vor Beeinträchtigung bewahrt werden können. Der vermehrte Einsatz von I.A. wirft besonders im Bereich der rechtlichen Verantwortung sowohl zivilrechtlich wie auch strafrechtlich neue Fragen auf: Wer muss durch Roboter verursachte Schäden bezahlen? Können I.A. eigentlich auch selbst bestraft werden, wenn sie einen Menschen an Leib oder Leben schädigen? Könnte eine Maschine zur Rechtsperson werden, ähnlich wie eine juristische Person – oder bleibt sie, was sie auf «natürlicher Ebene» ist: ein Haufen von Platinen, Schrauben und Blech? Oder liesse sich die neue Mensch-Maschine-Beziehung nicht einfach durch einen Rückgriff auf das römische Recht lösen, wie seinerzeit die für den wirtschaftlichen Wohlstand notwendige Beziehung zwischen Sklave und Sklavenhalter. Auf diese und ähnliche Fragen suchten die aus ganz verschiedenen Fachgebieten stammenden Referierenden während des Workshops auf dem geschichtsträchtigen Landgut Castelen in Kaiseraugst Antworten. Insgesamt nahmen 12 Referent/innen sowie 25 Teilnehmer/innen an der Tagung teil.

B. Vorträge

Kurt Seelmann (Universität Basel) untersuchte einführend die Frage, was eigentlich eine Rechtsperson ausmacht, die selbst Verantwortung für ihre Handlungen tragen muss. Er verwies zunächst auf die Lehren der beiden «Väter der klassischen Zurechnungslehre», Samuel von Pufendorf (1632–1694) sowie John Locke (1632–1704). Nach Pufendorf kann nur demjenigen eine Handlung zugerechnet werden, der Einsichts- und Steuerungsfähigkeit über sein Handeln hat – oder mit anderen Worten: Wer über einen freien Willen verfügt, ist grundsätzlich zurechnungsfähig. Locke setzte für die Zurechnung das Vorhandensein von Bewusstsein voraus. Die dafür notwendige Identität entstehe durch Erinnerung, Selbstsorge und Gesetz. Beiden Aufklärern gemeinsam ist deren Verständnis von Selbstverhältnis durch Vorhandensein von Freiheit und Identität. Zurechnung gilt dabei immer auch als Würdigung von Personalität, Vernunft und Bewertung des Handelnden als moral agent, als Mitglied der Kommunikationsgemeinschaft, als Mensch. Wie ist unter diesen Voraussetzungen mit Handlungen einer Nichtrechtsperson umzugehen? Dieser Frage widmete sich Kurt Seelmann in einem zweiten Teil seines Vortrages: Er illustrierte zunächst die uralte Idee, dass verschiedene Wesen ebenbürtig zusammenwirken und jeder für sich handelt, aber doch nur einer Verantwortung trägt, mit einem Hinweis auf Homers 18. Gesang der Ilias. Dieser handelt vom behinderten Gott Hephaistos und seinen eigens in seiner Werkstatt geschmiedeten robotergleichen Gehilfen, die – obwohl sie über geistig menschengleiche Fähigkeiten verfügen – weder Götter noch Menschen sind. Vergleichbar grenzte Pufendorf die Tiere von den Menschen ab, weil diese überhaupt nicht zum Normgehorsam fähig sind. Kant demgegenüber zieht die Grenze zu Engeln, weil sie aus seiner Sicht gar nicht zum Normbruch fähig sind. Hier sieht Seelmann die Parallele zu den I.A.: Roboter könnten so programmiert werden, dass ihnen die Verletzung einprogrammierter Regeln gar nicht möglich ist, sie somit nie eigentlich verantwortlich sein müssten.

Dominik Herrmann (Universität Siegen) erklärte zunächst an verschiedenen Beispielen aus seiner Sicht als Informatiker und Ingenieur, wie maschinelles Lernen funktioniert – oder eben auch nicht. Eine (Mensch-Maschinen-Kooperative)-Möglichkeit nutzt man beim hochautomatisiert fahrenden Auto, das seine Spur grundsätzlich selbst hält, aber noch auf einen Menschen angewiesen ist, der während der Fahrt lenkend zur Spurkorrektur eingreift, um einen Fahrfehler des selbstfahrenden Fahrzeugs zu berichtigen. Die Maschine speichert diesen Eingriff zur Fehlerkorrektur in einer cloud, damit daraus alle Wagen derselben Art lernen können. Diese Art von Lernen, die viele Autos und Fahrer quasi zusammenfasst, birgt grosse Chancen, aber auch Risiken. Unter anderem könnten Täter mit deliktischer Intention über unerwünschte Inputs in einer Aus der Zeitschriftrecht 1/2016 | S. 66–69 Es folgt Seite № 67cloud, mithilfe des Netzwerks viele Maschinen fehlleiten. Software kann aber auch lernen, indem sie sich selbst «trainiert», ähnlich der Funktionsweise eines menschlichen, neuronalen Netzwerks. Dabei gehen Maschinen sehr viel präziser mit zeitlich vergangener Information um und verarbeiten diese auch noch rückwirkend. Die Forscher nennen das reinforcement learning. Damit die Software sich in die erwünschte Richtung weiterentwickelt, verknüpft der Programmierer eine bestimmte Punktzahl mit positiven Outputs und gibt der Maschine als Zielvorgabe eine fortwährend steigende Punktzahl vor. Die Software sucht dann selbst ihren Weg zum Ziel. Auch die K.I.-Forscher können anschliessend nicht immer nachvollziehen, warum eine Software einen ganz bestimmten Programmablauf wählt; das gilt etwa für eine Software, die, als sie autonom ein Computerspiel erlernen sollte, den Regelbruch als effizienteste Spielvariante wählte. In solchen Fällen autonomer Effizienzsteigerung ohne Rückverfolgbarkeit auf das verursachende Moment dürfte es juristisch schwierig sein, einen dafür Verantwortlichen zu finden. Das gilt eben auch, wenn der Einsatz des Roboters zu einem Schaden in der realen Welt führt. Abschliessend erläuterte Herrmann, dass gewisse ethische Wertungen bereits heute von den Technikern berücksichtigt und in das Fahrzeug implementiert würden, indem man sie in Zielvorgaben integriere, etwa dem autonomen Fahrzeug eine Wertetabelle einprogrammiere, wonach im potenziellen Kollisionsfall mit einem Radfahrer, das Auto ausweichen und in ein Hindernis fahren solle, da der Radfahrer einen höheren Schutzbedarf habe.

Cosima Möller (Freie Universität Berlin) führte die Diskussion der Verantwortlichkeit für schadensverursachendes Handeln geschickt zurück ins alte Rom, indem sie die mögliche Verantwortung für ein selbstfahrendes Auto mit der Haftung für ein Maultiergespann verglich. Die Romanistin erläuterte, dass sich dem römischen Recht sowohl Konzepte für eine Zustandshaftung als auch für Gefährdungsdelikte entnehmen liessen, die auch heute für die Haftung von durch Roboter verursachten Schäden zugrunde gelegt werden könnten. Verschulden liege nach dem antiken Recht bereits vor, wenn Sicherheitsvorkehrungen nicht vorgenommen wurden, die von jedem bedachten und umsichtigen Menschen getroffen worden wären. Spätestens dann, wenn eine Gefahr sich nicht mehr vermeiden liesse, der Warnruf also zu spät komme, trage der Mensch Verantwortung für Schäden durch die von ihm genutzten Maultiere. Nie sei im römischen Recht ein (Maul-)Tier selbst verantwortlich gemacht worden, sondern stets ein Mensch dahinter. Entweder der entsprechende Treiber zum Zeitpunkt eines Unfalls oder der Eigentümer der Herde. Übertrüge man dieses Denken auf die moderne Frage nach Verantwortung, dann hafte auch heute nie ein Roboter selbst, sondern immer der Mensch dahinter.

Das Denken in Konzepten des römischen Rechts führte Jan Dirk Harke (Universität Würzburg) weiter, indem er eingehend die für Sklavenhalter geltende Haftung erläuterte. Beim Einsatz von Sklaven variierte im römischen Recht der Haftungsstandard interessanterweise, je nachdem ob ein eigener oder ein entliehener Sklave einen Schaden verursachte. Für fremde Sklaven haftete ein «Nutzer» strenger, denn er musste diese Menschen auf ihre Vertrauenswürdigkeit und Unbescholtenheit prüfen, bei eigenen Sklaven jedoch nicht. Nach der sog. Noxalhaftung (Noxalklage, actio noxalis) konnte der Sklavenherr entweder den Schaden so ausgleichen, als hätte er ihn selbst begangen, oder aber er konnte den entsprechenden Sklaven ausliefern. Bemerkenswert ist, dass der Sklave nach römischem Denken zwar grundsätzlich deliktsfähig war, aber mangels Rechtspersönlichkeit nicht selbst «bestraft» werden, nicht haften konnte. Im Schadensfall wurde die Haftung auf den Betreiber oder Halter umgeleitet. Dahinter standen wohl vor allem ökonomische Überlegungen: Sklaven waren wichtig für eine funktionierende Wirtschaft. Entscheidend war letztlich immer das beherrschbare Risiko. Überträgt man die Überlegungen auf die moderne Frage, so könnte für Schaden durch «autonome Handlungen» eines Roboters auch eine eingeschränkte Haftung in Betracht gezogen werden, die sich am Wert der Maschine oder dem damit erzielten Gewinn orientiert.

Gerhard Seher (Freie Universität Berlin) beleuchtete die Frage der Verantwortlichkeit aus strafrechtlicher Sicht. Er vertrat die Ansicht, dass ein I.A. nicht selbst haftbar gemacht werden könne, weil ihm bereits eine Handlungsfähigkeit im Sinne des Strafrechts fehle. Eine strafrechtliche Verantwortlichkeit setze ein aktuelles oder zumindest potenzielles Normverständnis voraus. Ein Roboter müsste also selbständig Normen wahrnehmen und als Regeln erkennen und handelnd umsetzen können. Zu diesen Schritten seien I.A. heute zwar augenscheinlich in der Lage, doch nur weil sie aufgrund vorangehender Programmierung auf eine bestimmte Entscheidungsfreudigkeit hin programmiert worden seien. Sie handelten also gerade nicht aufgrund eines bestimmten Normverständnisses. Haftbar sei demnach weiter der Mensch hinter der Maschine, insbesondere natürlich dann, wenn der Schadensfall resp. die Gefährlichkeit des Roboters durch unsorgfältige Programmierung entstanden sei.

Ruth Janal (Freie Universität Berlin) untersuchte personelle Verantwortung von I.A. im Privatrecht und illustrierte die besondere Problematik vernetzter automatisierter Geräte, wie wir sie heute bereits vielerorts vorfinden – spätestens seit dem wir das Internet der Dinge bzw. die Umsetzung von Industrie 4.0 als Regelfall haben. Als Beispiel wählte sie eine «intelligente» Bewässerungsanlage für den heimischen Garten. Diese reagiert sensorisch auf die reale Wetterlage sowie auf Wetterdatenbanken im Internet oder manuelle Steuerung am Gerät oder auf Fernschaltung über eine mobile Applikation. Die Referentin stellte dann die Frage, wer eigentlich schuld sei, wenn es wegen einer Fehlfunktion zu einem Wasserschaden bei den Nachbarn komme, aber nicht mehr festzustellen sei, wo genau die Fehlfunktion entstanden sei. Die Hersteller der einzelnen Komponenten würden sich wohl die Schuld gegenseitig zuschieben oder behaupten, das Gerät sei falsch bedient oder mangelhaft gewartet worden etc. Auch ein krimineller Zugriff und dadurch Störung der Funktion sei möglich – und schwer beweisbar. Janal erläuterte dann die teilweise stark divergierende Normierung und Rechtsprechung zu Verantwortlichkeitsfragen in unterschiedlichen Staaten, durch die mancherorts Produzenten massgeblich privilegiert und andernorts in strenge Haftung genommen würden. Dies bereite den Herstellern Probleme, aber auch geschädigte Personen litten unter der Rechtsunsicherheit. Grundsätzlich müsste das Prinzip gelten: Wer durch Delegation von Tätigkeiten auf Sachen oder andere Personen, insb. also auf I.A., seinen Handlungskreis erweitert, sollte auch das damit korrespondierende Risiko tragen.

Aus der Zeitschriftrecht 1/2016 | S. 66–69 Es folgt Seite № 68Thomas Klindt (hauptamtlich als Rechtsanwalt im Bereich Haftung für IT tätig; lehrt in diesem Gebiet auch an den Universitäten Kassel und Bayreuth) knüpfte direkt an die Verantwortungsüberlegungen im geltenden Recht an. Er betonte ebenfalls die noch unzureichende Europäisierung in allen Bereichen der IT-Verantwortlichkeit. Hier spiele sich fast alles noch immer auf nationaler Ebene ab. Der Massstab der straf- sowie auch zivilrechtlichen Haftung müsse aber überall auf den Stand von Sicherheit und Technik angepasst werden. Das zeige sich insbesondere bei einem Blick auf neue Rechtsfragen, wie sie mit der Umsetzung von Industrie 4.0 entstünden, weil dann Maschinen bereits im Fertigungsprozess anfangen würden «mitzudenken» und selbständig bspw. die eigene Fertigungsreihenfolge abänderten: Wer handle in solchen Fällen? Brauche es eine rechtliche e-Person? Wem gehörten Telemetriedaten? Sichere Antworten auf diese Fragen liefert die Rechtswissenschaft derzeit noch nicht. Als inhaltlichen Haftungsstandard könnte sich Klindt durchaus einen Rückgriff auf das römische Recht vorstellen. Schwieriger werde die Durchsetzung; hier könnte die Möglichkeit hoheitlicher Behördenzugriffe, insb. durch die Strafbehörden, vielleicht einen Lösungsweg bieten.

Muss die Person Mensch sein, um Rechte beanspruchen zu können und Verantwortlichkeiten zugerechnet zu bekommen? fragte Benno Zabel (Universität Bonn). Dass I.A. bereits Akteure im sozialen Rahmen seien, irritiere unsere Überzeugung von der Alleinstellung des Menschen als ernst zu nehmenden Akteur des Rechts. Wir lebten jedoch heute in einem Umfeld, in dem Netzwerk und Technik Teil der Gesellschaft seien, auch der Rechtsgesellschaft. Zabel sieht Roboter als kommunikationsfähige Objekte im sozialen Raum, als Realitäten sui generis aus dem und im eigenen Recht. Die Grenzen, die herkömmlicherweise zwischen Natur, Mensch und Technik gezogen würden, lösten sich ohnehin auf und flexibilisierten sich mit dem zunehmenden Verständnis von I.A. als integralem Bestandteil der Wirklichkeit. Aber auch mit der Einstufung von Maschinen als Quasimenschen sei das Problem eines relevanten Verantwortlichkeitsgegenübers noch nicht gelöst. Subjektive Rechte bestimmten sich nämlich durch Eigenwillen, Achtungsanspruch und damit einhergehende moralische Verantwortung. Eine Gleichstellung der K.I. mit dem Menschen sei somit nicht möglich. Zivilrechtlich folge der technischen Entwicklung wohl eine Ausweitung traditioneller Verschuldenskonzepte und Verlagerung auf Gefährdungshaftungen. Der Staat habe in eben dem Masse eine Schutzpflicht hinsichtlich risikobehafteter technischer Entwicklung. Strafrechtlich dürfte ein Rückgriff auf den menschlichen Faktor i.S. eines «Täters hinter der Technik» im Wege der Fahrlässigkeitshaftung gangbar sein. Eine Person im Recht müsse also nicht Mensch sein; zu erwarten sei auf der Basis eines sozio-technischen Realismus eine fortschreitende Entkopplung der Begriffe Mensch und Person.

Christian Armbrüster (Freie Universität Berlin) beleuchtete die Frage der Haftung im Falle einer Schadensverursachung durch Roboter aus Sicht des Haftungsrechts und prüfte, ob Verantwortungsverlagerungen beim Versicherungsschutz im Strassenverkehr zu erwarten seien. Der Fahrzeughalter sei grundsätzlich für die Betriebsgefahr auch von selbstfahrenden Fahrzeugen verantwortlich. Diese verwirkliche sich, wenn eine fehlerhafte Fahrweise oder technische Defekte zu einem Schaden führten. Insofern decke der Versicherungsschutz auch Unfälle, die bei Betrieb eines Fahrassistenzsystems geschähen. Eine andere Frage sei, ob dies auch für Schäden gelte, die bei einer vollautomatisierten Fahrt verursacht würden? Grundsätzlich greife auch da eine Verschuldungsvermutung des Fahrers, der jedoch weiter die Möglichkeit des Entlastungsbeweises habe. Wenig problematisch schätzte Armbrüster die Vorgaben des Wiener Übereinkommens über den Strassenverkehr ein, nach dem ein Fahrzeugführer sein Fahrzeug dauernd beherrschen können müsse; denn grundsätzlich sei eine solche Beherrschung auch bei einer entsprechenden Eingriffsmöglichkeit des Lenkers in die vollautomatische Fahrt gegeben. Langfristig ist nach Ansicht des Referenten bei autonomer Fahrt jedoch eine Verlagerung der Schadensdeckung von der Kfz-Haftpflichtversicherung zu einer – wie auch immer gearteten – Produkthaftpflichtversicherung zu erwarten. Rechtliche Ausgangsbasis für zivilrechtliche Haftungsfragen sowie für eine strafrechtliche Verantwortlichkeitsbestimmung seien hier die sorgfaltsgemässe Konstruktion des Fahrzeugs und entsprechend eine angemessene Instruktion für Nutzer von Robotertechnik. Der Grad der Automatisierung könne das Zünglein an der Waage sein, das entscheide, wer zur Haftung verpflichtet sei. Bei Zunahme selbstfahrender Fahrzeuge auf den Strassen sei insgesamt jedenfalls eine Reduktion der Schadensfälle zu erwarten, wobei die Gefahr neuer Cyberrisiken inhärent und noch weitgehend unklar erscheine.

Monika Dommann (Universität Zürich) schloss an die rechtlichen Vorträge mit einem literarischen Rückblick auf die Verarbeitung technologischer Umwälzungen an. Im Mittelpunkt stand der Blick auf die Ausbreitung des Automobils auf öffentlichen Strassen. Sie zeigte damit eine Vergleichsperspektive auf Parallelen in Technikangst und Technikhoffnung bei der Einführung des motorisierten Strassenverkehrs am Anfang des 20. Jahrhunderts und der momentanen Gewöhnung an die Idee autonom fahrender Fahrzeuge. Dieser historische Blickwinkel illustrierte vor allem, wie der Einführung neuer Techniken mit Berührungsängsten begegnet wird, die nicht immer gerechtfertigt erscheinen. Aus der Umwälzung entsteht Neues, auch im Recht. Vor einem Jahrhundert waren es neue Versicherungsmodelle, die den Menschen die Angst vor dem grossen Schadenspotenzial des motorisierten Verkehrs nahmen. Heute könnten es wiederum ähnliche Wege sein, um neue Risiken entsprechend abzudecken. Nach der Prognose von Dommann wird die Gewöhnung an Roboter in unserer Lebenswelt Alltag werden, so wie es Computer für die digital natives auch heute schon sind.

Die Technologie der Robotik ist deshalb eine besondere, weil sie durch ihre Autonomie in Lernen und Handeln, in ihrer Vernetzung und der Kopplung von Soft- und Hardware viel komplexer ist als alle bisherigen Automaten, so Herbert Zech (Universität Basel). Dadurch entstünden bislang wenig bekannte Risiken mit potenziell grosser Schadensfolge für unterschiedliche Rechtsgüter von Umwelt und Maschine – sei es, weil I.A. fehlerhaft funktionieren oder ihr Programmablauf sich in unerwünschter Weise umprogrammiert. Aber auch durch gewillkürte Schädigungen bei Missbrauch entstünden Probleme bei der Feststellung der Kausalität der Schadensursachen. Mögliche Adressaten für die Schadensverantwortung fände man in der ganzen Gliederungskette involvierter Personen: vom Entwickler und Hersteller über den Händler bis zum Anwender oder gar Drittpersonen. Dass der Roboter selbst haften könnte, sei wohl rechtlich (noch) nicht möglich. Grundsätzlich hafte Aus der Zeitschriftrecht 1/2016 | S. 66–69 Es folgt Seite № 69aus Produkthaftung bei Produktfehlern zwar der Hersteller, nicht aber bei Fehlern, die sich die K.I. selbst angelernt haben. Wohl aber müsse ein Hersteller sorgfältig beobachten, wie sich ein Gerät entwickle, und notfalls eingreifen oder warnen. Unter bestimmten Umständen hafte aber auch der Anwender, dem ein «Roboterrisiko» zugerechnet werden könne. Praktisch schwierig sei die Abholung des beweisrelevanten Materials und nicht nur bei gemieteten Robotern, denn in vielen Fallkonstellationen sei unklar, wem die gespeicherten Daten eigentlich gehörten.

Thomas Weigend (Universität zu Köln) nahm die Frage nach einem modernen Technikrecht für das Strafrecht mit Blick auf eine mögliche Strafbarkeit des Roboters auf und erläuterte zunächst, dass von einer Bestrafung eines Roboters womöglich ein positiver Effekt ausgehen könne, insofern als das Opfer oder Angehörige vielleicht Genugtuung dadurch erfahren könnten, dass dem Roboterauto auch «Leid» angetan werde, wenn es einen Menschen an- oder überfahre. Ob bei dem Roboter selbst ein Strafziel erreicht werden könne, etwa ein Pendant zum Gefühl der Reue oder auch nur Abschreckung, sei jedoch zweifelhaft. Denn selbst bei lernfähigen Robotern sei schwer vorstellbar, dass tatsächlich eine Art Individualprävention durch Verhaltenssteuerung eintrete, weil man die in concreto Schaden verursachende Entität für ein vorangegangenes Handeln verantwortlich mache. Schuldhaftes Verhalten setze immer eine Personeneigenschaft, Handlungs- und Schuldfähigkeit, voraus. Diese Voraussetzungen seien bei Robotern nicht gegeben. Sie seien keine Personen und könnten das Konzept von Strafe nicht verstehen. Vielmehr entscheide der Programmierer dahinter über «gut» und «böse», nicht die Maschine. Doch bliebe die Verantwortlichkeit für eine Schadensverursachung nicht auf Dauer beim Programmierer; sie könne vielmehr subsidiär auf einen Betreiber übergehen und sich dann allenfalls entweder als Vorsatzhandlung realisieren, wenn ein Roboter bewusst zum Schaden anderer eingesetzt würde, oder als Fahrlässigkeitshaftung, wenn der Betreiber ihm obliegende Sorgfaltspflichten nicht beachte –, oder möglicherweise auch aus Gefährdungshandlung, wenn vorhersehbaren Gefahren nicht entgegen getretenwürde.

C. Fazit

Intelligente Agenten halten kontinuierlich Einzug in unseren Alltag. Sie sind dort von den Nutzern zunehmend akzeptiert und erwünscht. Neben den positiven Effekten können aber auch Schäden aller Art eintreten, und zwar vermutlich auch dann, wenn ein I.A. so programmiert wird, dass er sich immer normgemäss verhalten soll, also kein Regelbruch (wie etwa eine Geschwindigkeitsübertretung) erlaubt wird. Denn weder können alle möglichen Kausalverläufe im Code berücksichtigt noch (und dies gilt bei autonom lernenden Maschinen erst recht) kann alles Mögliche vorhergesehen werden. Die rechtliche Entwicklung hinkt der technischen nach: I.A. gehören bereits heute zu den sozialen und rechtlichen Akteuren im gesellschaftlichen Raum. Von wissenschaftlicher und wirtschaftlicher Seite wird besonders auch die unzureichende rechtliche Internationalisierung betont.

Das traditionelle juristische Instrumentarium scheint zwar für den Moment noch meist ausreichend – aber die digitale Revolution steht erst am Anfang. Aus ökonomischer Sicht sind Roboter bereits heute nicht mehr wegzudenkende Komponenten einer funktionierenden Wirtschaft, wobei mit K.I. ausgestattete Roboter eine noch viel weitergehende Wichtigkeit erlangen werden. Die Frage, wer zukünftig durch I.A. verursachte Schäden tragen muss, ist noch nicht endgültig geklärt. Dass auf dem Gebiet von Robotikrecht dringender Handlungsbedarf besteht, war an den äusserst angeregten Diskussionen in Castelen sehr ersichtlich.

Die Frage, ob einen Roboter ähnliche Verantwortung treffen könne, wie sie einen Menschen trifft, wurde bei der oben beschriebenen Veranstaltung in Castelen – jedenfalls mit dem momentanen Entwicklungsstand dieser Maschinen – weitgehend verneint. Denn wie sollte ein I.A. selbst bestraft werden oder haften können? Letztlich waren alle der Ansicht, einen Roboter zu «bestrafen» sei sinnlos, denn mit den bekannten Strafen könnten bei Maschinen, denen keine moralische Verantwortung zugerechnet wird, keine Strafziele erreicht werden. Ohne ein selbständiges Normverständnis, fehle Robotern überhaupt die Schuld- und Handlungsfähigkeit. Bei einem I.A. sei kein freier Wille vorhanden, denn die Bedürfnisse des Roboters seien von Grund auf programmiert. Es wurde zwar nicht rundweg ausgeschlossen, dass irgendwann ein Roboter den Status einer Rechtsperson erhalten könne, momentan aber schien eine Maschine als Träger von Rechten und Pflichten noch nicht denkbar.

Hinter jeder Maschine stehen Entwickler, Hersteller, Anwender – eine Strafe oder Haftung müsse primär diesen Personenkreis treffen. Doch auch da ist die Frage, wer die Ursache für einen Schaden gesetzt hat, nicht eine einfache. Wem dabei ein Unglück zugerechnet werden müsse, könnte zukünftig auch anhand des Grades der Automatisierung und der potenziellen Eingriffsmöglichkeit bestimmt werden. Die Beweislage werde, bedingt durch die Kette verschiedener Komponentenhersteller am Produkt sowie der involvierten Personen, fortlaufend komplexer. In der Praxis seien gegenseitige Schuldzuschiebungen zu erwarten, die durch die steigende Komplexität der Materie schwierig aufzulösen sind, bspw. weil unklar sei, wem die zugrunde liegenden Daten eigentlich gehörten. Eine mögliche Rechtsentwicklung wurde in der Ausweitung traditioneller Haftungs- und Verschuldenskonzepte sowie der Verlagerung von Risiko und Versicherung erwartet. Dabei könnten grundsätzlich auch neue Versicherungsmodelle oder soziale Finanzpools entstehen, die die zu erwartenden Roboterrisiken auffangen.

Am Workshop wurde schnell deutlich: Für den Bereich der Robotik sind manche konventionellen Rechtslösungen nicht mehr praktikabel. Die Diskussion für zukünftige Rechtskonzepte für die Welt des Internets der Dinge und der Industrie 4.0 ist aber in vollem Gange.

  1. * MLaw Dario Stagno, Universität Basel