Wenn intelligente Computer, Maschinen und Algorithmen Fehler machen
Deutschland verfügt im europäischen Vergleich über die höchste Dichte an Industrierobotern und ist hochautomatisiert (vgl. World Robotics Report 2017, International Federation of Robotics (IFR)). Doch neben Industrierobotern werden zunehmend auch humanoide Formen eingesetzt, etwa im Umgang mit Endverbrauchern. So testet der Flughafen München derzeit den Service-Roboter „Josie Pepper“. Josie erteilt Reisenden Auskünfte unter anderem zu Flügen, Abfluggates und Restaurants. Doch was passiert, wenn solch ein Roboter falsch handelt, also falsche Auskünfte gibt, eine Person beleidigt oder einen Unfall baut? Dann stellt sich die Frage nach der Haftung. Und vor allem, wer für den Schaden bürgt: Die/der Programmierende, der Hersteller oder die/der Nutzende?
Dr. Hans Peter Leube ist seit Februar 2014 Partner der internationalen Praxisgruppe Corporate/M&A bei der internationalen Anwaltskanzlei Bird & Bird in Frankfurt. Er verfügt über Branchen-Expertise in den Bereichen Telekommunikation, Medien, Infrastruktur und Automotive. Schwerpunkte seiner Tätigkeit sind M&A und Private-Equity-Transaktionen, Übernahme- und Kapitalmarktrecht sowie Restrukturierungen.
Nach dem derzeit geltenden deutschen Recht haftet grundsätzlich diejenige Person, die einen Schaden verursacht. Ein Roboter ist nun aber keine Person und kann nach geltendem Recht nicht verantwortlich sein. Somit greift die Produkthaftung und damit liegt die Verantwortlichkeit beim Hersteller. Fährt also zum Beispiel der Rasenmäher-Roboter der Besitzerin oder dem Besitzer über den Fuß und verletzt diese(n), ist die Sachlage eindeutig und der Hersteller haftet. Spannend wird die Frage jedoch dann, wenn der Roboter nicht nur mit einem einfachen Verhaltensmuster ausgestattet ist wie im Falle des Rasenmähers. Verfügt der Roboter über selbstlernende Elemente, also über Künstliche Intelligenz (KI), funktioniert die klassische Fehlerzuweisung nicht mehr. Denn je selbstlernender eine KI ist, desto autarker und unvorhersehbarer für Hersteller oder Programmierer sind ihre Ergebnisse und Entscheidungen. Wie etwa Googles KI-Computer „AlphaGo“. Dieser hat sich das hochanspruchsvolle Strategie-Brettspiel „Go“ innerhalb von drei Tagen selbst beigebracht. Die KI-Forscherinnen und -forscher erklärten der KI lediglich die Spielregeln im Vorfeld. Die Spielzüge, die AlphaGo ausführte, waren nicht vorhersehbar und verblüfften sowohl Forschende als auch Mitspielende.
Bereits in wenigen Jahren wird die Handlung eines intelligenten, selbstlernenden Roboters, sei es im Verbraucher- oder im Industrie-Umfeld, voraussichtlich sehr weit von dem entfernt sein, was eine Programmiererin oder ein Programmierer dieser KI ursprünglich beigebracht hat. Die Frage der Haftung steht somit vor neuen Herausforderungen. Dann wäre beispielsweise eine Gefährdungshaftung denkbar. Damit trägt die Person, die einen intelligenten selbstlernenden Roboter nutzt, das Risiko für mögliche Schäden. Am Beispiel des Autonomen Fahrens wäre dies die autofahrende Person, die sich wiederum etwa über eine Haftpflichthaftung absichern könnte. Die Variante, sich über Versicherungen abzusichern, könnte auch für Programmiererinnen und Programmierer von selbstlernenden Algorithmen in Frage kommen.
Eine weitere denkbare Variante ist: der intelligente Roboter haftet selbst. Dies könnte bei Änderungen der Gesetzeslage organisatorisch über eine sogenannte E-GmbH geregelt werden. Derjenige, der einen selbstlernenden Algorithmus, eine KI-Software, einen intelligenten Roboter oder Computer entwickelt, muss diese rechtlich in die E-GmbH überführen. Über ein entsprechend hinterlegtes Haftungskapital oder über eine (Pflicht-)Versicherung werden mögliche Schäden durch die KI abgedeckt - ganz wie bei einer heutigen AG oder GmbH auch. In diese Richtung gehen auch Überlegungen auf der Ebene der Europäischen Union. Sinnvolle Ansätze gibt es also bereits, um die Haftungsfragen von Künstlicher Intelligenz künftig klären zu können, doch müssen diese noch final über den Gesetzgeber geregelt werden.
Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2018 – Arbeitswelten der Zukunft.