Koudela Software Entwicklung

Software Entwicklung von App bis Web

Autonomes Fahren – Haftungs- und Ethikfragen aus Sicht eines Software-Entwicklers

Das autonome Fahren wird wahrscheinlich in den nächsten zehn Jahren Serienreife erlangen. In den Medien werden daher momentan auf einem zugegebenermaßen naiven Niveau Haftungs- und Ethikfragen bezüglich des autonomen Fahrens diskutiert. Anlass genug den Sachverhalt mit etwas mehr Sachverstand und auf strukturierte Weise zu analysieren.

Die Haftungsfrage

Widmen wir uns zuerst der Haftungsfrage. Es steht außer Frage, dass solange wir von Assistenzsystemen sprechen, der menschliche Fahrer die Verantwortung trägt. Dies wird auch beim autonomen Fahren der Fall sein, falls der Mensch in dem für den Unfall wichtigen Zeitraum das Lenkrad oder die Pedalerie betätigt hat. Doch was ist, wenn der Mensch nicht eingreift, weil er nicht will oder nicht kann? Haften können nur juristische Personen. Es gibt fünf Basis-Verantwortungsträger, die als juristische Personen gelten: Der oder die Hersteller, der Händler, die Zulassungsstelle, der Fahrzeughalter und der Insasse auf dem Fahrersitz, der potentiell hätte eingreifen können.

Würde der Insasse auf dem Fahrersitz haften, so wäre wäre er faktisch verpflichtet ständig reaktionsbereit zu sein. In so einem Fall könnten wir nicht vom autonomen Fahren reden, sondern müssten von einem Assistenzsystem sprechen.

Die Haftung der Zulassungsstelle wäre zwar vom Ansatz her sinnvoll, denn man wäre somit darauf bedacht nur Systeme zuzulassen, die möglichst wenige und möglichst Unfälle mit geringem Schaden zu verursachen. Allerdings ist es nicht zu erwarten, dass sich der Staat sich selbst in die Haftung nimmt. Dies ist kein realistisches Szenario.

Falls der Händler in Haftung genommen würde, so wäre dies ein Bruch mit der jetzigen Rechtspraxis, in der ein Händler nur dann haftet, wenn er grob fahrlässig oder vorsätzlich gefährliche Güter in Umlauf bringt. Zudem hat er weniger Know-How als der Hersteller oder die Zulassungsstelle die Qualität des autonomen Fahrsystems zu beurteilen. Er sollte daher auch aus dem Schneider sein.

Die Haftungsfrage wird sich daher realistisch gesehen zwischen dem Fahrzeughalter (oder Eigentümer) und dem Hersteller entscheiden. Optimal wäre die Haftung derart zu regeln, dass die Fahrzeuge möglichst schnell möglichst sicher werden. Das bedeutet die Politik müsste mit ihrer Entscheidung den Innovationsdruck auf den Hersteller maximieren. Betrachten wir unter diesem Blickwinkel einmal beide Optionen.

Würde der Halter haften, so würde er die Auswahl des Fahrsystems wahrscheinlich neben der subjektiven vom Marketing beeinflussten Wahrnehmung des Fahrsystems vor allem von den Beitragssätzen, die die Versicherer verlangen, abhängig sein. Da das autonome Fahrsystem jedoch schon aus technischen Gründen nicht unabhängig vom restlichen Auto vertrieben werden kann, wäre dies in der Kaufentscheidung nur ein Punkt unter vielen. Es ist daher festzustellen, dass durch die Sätze der Versicherer die Entscheidung zwischen den Fahrsystemen zwar objektivierbar ist, aber wohl genauso geringfügig kaufentscheidend sein wird, wie die heutige Einordnung der Versicherer. Der Innovations­druck wird daher in diesem Fall entsprechend abnehmen, sobald das autonome Fahren eine etablierte Technologie ist.

Die Haftung des Herstellers bringt dagegen den entscheidenden Vorteil, dass der Innovationsdruck auch nach der Markteinführung erhalten bleibt. Die Hersteller werden die Investitionskosten für die Weiterentwicklung mit den potentiellen Einsparungen bei der Haftung und dem Imageeffekten gegenrechnen. Während in diese Rechnung bei der Halterhaftung nur die Imageeffekte einfließen. Der Innovationsdruck und damit die tatsächlich getätigten Investitionen werden somit bei der Herstellerhaftung höher liegen und weniger Unfälle mit einer geringeren Schadensumme die Folge sein. Zudem besteht in diesem Fall die Möglichkeit, dass eine Nachrüstung schon verkaufter Modelle – zum Beispiel mit einem Softwareupdate – für den Hersteller eine lohnende Investition ist. Eine Nachrüstung wird dagegen der Halter in den seltensten Fällen veranlassen.

Eine Partei, welche die Halterhaftung bevorzugt hält somit ein riesiges Schild in die Höhe, mit der Aufschrift: „Wir gefährden die Leben von tausenden unserer Bürger, damit einige wenige Unternehmen es leichter haben!“ Sie würde sich damit streng logisch auf lange Zeit unwählbar machen. Allerdings verkauften unsere Politiker auch Einbusen bei der politischen und demokratischen Handlungsfähigkeit als Wettbewerbsvorteile (siehe Schiedsgerichte). Es ist daher nicht auszuschließen, dass Aufgrund persönlicher Interessen, die politischen Entscheidungsträger die Halterhaftung durchboxen.

Ein Nebenschauplatz, der jedoch bei der Herstellerhaftung juristisch nicht vernachlässigt werden darf, ist das Tuning bzw. allgemein die nachträgliche Veränderung des Fahrzeuges. Da die Software vom vorhersagbaren Verhalten der Hardware abhängt und Veränderung der Hardware (und sei es nur die Bereifung oder die Motorisierung) zu einer Fehlberechnung führen kann, müssten die Hersteller eine White- oder Blacklist zur Verfügung stellen, so dass bei einem Verstoß dagegen, die Haftung zumindest in Teilen wieder auf den Halter übergeht. Ob es eine White- oder Blacklist ist und welche Fahrzeugteile darauf verzeichnet sind, könnte entweder der Gesetzgeber entscheiden oder es könnte dem Markt überlassen werden. Am sinnvollsten ist wahrscheinlich eine Mischlösung bei der es eine verpflichtende Whitelist gibt und der Rest vom Hersteller gestaltet werden darf.

Die Ethikfragen im Unfallgeschehen

Bei der Diskussion der Ethikfragen wird wie selbstverständlich davon ausgegangen, dass ein Fahrersystem Menschen in einer Gefahrensituation derart kategorisieren kann, wie wir das außerhalb einer Gefahrensituation tun. Da wird so getan als wäre es Nichts in Sekundenbruchteilen zwischen einem kleinwüchsigen Erwachsenen und einem großen Kind zu unterscheiden. Oder vom Fahrsystem wird verlangt zwischen einem gesunden und kranken oder einem armen und reichen Menschen zu unterscheiden. Aus Sicht eines Software-Entwicklers ist dies völliger Nonsens.

In einer Gefahrensituation muss möglichst schnell entschieden werden, das bedeutet die Eingabeparameter für die Entscheidung der KI müssen möglichst schlank designt werden. Auch müssen die wichtigsten Dinge zuerst entschieden werden. Das bedeutet, erkennt das System eine Gefahrensituation, so wird zuerst eine Gefahrbremsung eingeleitet, dann ein möglichst optimaler Ausweichkurs aufgrund der schlanken Eingabeparameter berechnet, der ständig aktualisiert werden muss und erst wenn dann noch CPU-Power übrig ist, kann nach einem breiteren Eingabedesign der Ausweichkurs optimiert und nachjustiert werden.

Jeder Hersteller steht unter einem gewissen Kostendruck. Zudem wollen wir umweltfreundlich fahren und CPU-Power kostet Energie. Das bedeutet die CPU-Power wird sich vor allem daran orientieren, was notwendig ist um die Zulassung zu meistern.

Das bedeutet die Zulassungsfrage dominiert alle Ethikfragen. Werden aber Ethikfragen in die Zulassung einfließen? Dazu müssen wir uns fragen, wie eine Zulassung entschieden werden kann. Für den Staat ist das autonome Fahrsystem eine Blackbox, er kann daher nur anhand von Fahrtests oder Vorschriften über die Zulassung entscheiden, die er durch Fahrtests oder die Auswertung von Unfällen überprüft werden können. Nach einem Unfall sind insbesondere weiche Parameter, die die Ethikfragen dominieren nicht mehr verfügbar. Personen und Gegenstände auf möglichen Ausweichruten sind höchstens mit einer rundum Kameraüberwachung rekonstruierbar. Diese Totalüberwachung und Aufzeichnung ist erstens juristisch heikel und zweitens müssten deren Aufzeichnung den Crash überleben. Zudem fließen diese weichen Parameter und ethische Fragen im Allgemeinen heutzutage nicht in juristische Praxis einer Unfallbewertung mit ein. Es ist daher nicht verständlich warum sie zukünftig eine Rolle spielen sollten. Hand aufs Herz: Kein Mensch handelt in einer Unfallsituation ethisch, zumal die Ursache vieler Unfälle ethisch verwerfliches Verhalten ist.

In der heutigen Praxis ist bei der Zulassungsfrage nur die Gefahrbremsung relevant, die der Prüfling beherrschen muss. Nicht einmal ein Sicherheitstraining ist für den Führerscheinbesitzer verpflichtend. Es ist daher eher zu erwarten, dass der Gesetzgeber für die Zulassung ein adäquates Verhalten in der Unfallsituation fordert und es völlig offenlässt was neben der zügigen Einleitung einer Gefahrbremsung adäquates Verhalten bedeutet.

In diesem Fall wird die CPU-Power sich daran orientieren, was ausreicht im normalen Verkehr und in den Fahrtests – die möglicherweise genau spezifizierte Gefahrensituationen enthalten – zu bestehen. Kollisionsszenarien zu berechnen ist unglaublich berechnungsintensiv, selbst wenn man sich mit sehr ungenauen Ergebnissen zufrieden gibt. Dies gilt umso mehr, wenn es um die Folgeabschätzung der Kollision geht. Falls noch CPU-Power zur Verfügung steht ist es daher sinnvoller, mit den schlanken Eingabedesign genauer zu rechnen, als das System mit Parametern zu belasten, die nur für ethische Entscheidungen notwendig sind.

Ethikfragen sind daher eine nette philosophische Spielerei, aber aus Sicht der umsetzbaren Möglichkeiten auch in absehbarer Zukunft völlig weltfremd.

Viel wichtiger wäre eine Diskussion darüber, was passiert wenn das autonome Fahrsystem, zum Beispiel über einen Hackerangriff, als Mordwaffe missbraucht wird. Dies ist ein wesentlich realistischeres Szenario als die Klassifikation oder gar Berechnung umfangreicher Kollisionsszenarien mit ihren Folgen in Echtzeit.

In diesem Bereich sind viele Fragen offen. Zum Beispiel: Werden die Hersteller verpflichtet unfälschbare Aufzeichnungen in einem ähnlich überlebensfähigen System (ähnlich einem Flugschreiber) zu hinterlegen, anhand deren die Kriminalpolizei zwischen einem Systemversagen und einem Mord unterscheiden kann? Wenn ja, werden die Hersteller bei Mord mit einer erweiterten Haftung belegt, da sie keine ausreichenden Vorkehrungen getroffen haben, um eine Manipulation ihres Systems zu verhindern? Werden Strafzahlungen von den Herstellern im mehrstelligen Millionenbereich gefordert, damit ein ausreichender Innovationsdruck auch im Bereich der Manipulationssicherheit gewährleistet wird? Wir müssen uns vor Augen halten, dass zukünftige Systeme möglicherweise eine Sensorik haben, die Gesichtserkennung ermöglicht. Auf einem gehackten System könnte eine Gesichtserkennungssoftware installiert werden, die genau definierte Personen in Unfälle verwickelt. Der Missbrauch einer ganzen Baureihe wäre möglich. Solch ein Tötungspotenzial übertrifft die Möglichkeiten von Drohnenangriffen um ein tausendfaches. Die Beantwortung dieser Fragen ist wesentlich wichtiger, drängender und praxisrelevanter und auch diese Fragen haben eine Ethikkomponente.