Über unsMediaKontaktImpressum
Prof. Dr. Susanne Beck 28. August 2018

Autonomes Fahren: Herausforderung für das bestehende Rechtssystem

"Autopilot: nächster Unfall, Tesla aber gibt Fahrerin die Schuld" oder "Die Wahrheit hinter der phantastischen Unfall-Bilanz von Tesla" [1].

Das sind nur zwei Beispiele zahlreicher Nachrichten, die sich in den letzten Monaten mit den Unfällen von Tesla-Fahrzeugen befassen, und die das Interesse und die Faszination des autonomen Fahrens, aber auch die Besorgnis der Öffentlichkeit zeigen. Dabei ist Automatisierung an sich ein wesentliches Kennzeichen der Industrialisierung, also kein neues Phänomen. Doch findet in den letzten Jahren eine technische Entwicklung statt, die die Gesellschaft intensiv beschäftigt: Moderne Maschinen sollen verstärkt "autonom" agieren, d. h. in einem bestimmten Rahmen eigenständige Entscheidungen treffen, sich an neue Situationen anpassen, selbständig aus Fehlern "lernen" und vom Nutzer trainiert werden. Solche Maschinen sollen künftig auch als "selbstfahrende Kraftfahrzeuge" im Straßenverkehr eine wichtige Rolle spielen. 

Die Einführung derartiger Maschinen fordert das bestehende Rechtssystem heraus. Das gilt für alle Rechtsgebiete, insbesondere aber für das Strafrecht: Bei der Frage nach der Strafbarkeit steht die individuelle Verantwortlichkeit im Vordergrund; gerade diese könnte sich jedoch durch die zunehmende Autonomie der Maschinen deutlich verändern. 

"Leben-gegen-Leben"-Situationen sind nicht hundertprozentig auszuschließen. 

Die drohende Strafbarkeit der Beteiligten am Einsatz autonomer Kraftfahrzeuge wird aktuell verstärkt diskutiert, insbesondere seit den erwähnten Berichten über Unfälle von Tesla-Fahrzeugen. Unabhängig von den konkreten Unfallursachen haben diese Ereignisse die Debatte um autonome Kraftfahrzeuge intensiviert. Gleichzeitig setzt sich das deutsche Verkehrsministerium schon seit einer Weile für eine Ausweitung der Teststrecken und schnelle Umsetzung der Zulassung solcher Kraftfahrzeuge im Rahmen des StVG ein; inzwischen wurden §§ 1a und 1b StVG erlassen, wonach derartige Kraftfahrzeuge grundsätzlich zulässig sind. Der Fahrer muss jedoch wahrnehmungsbereit bleiben und in kritischen Situationen gegebenenfalls die Kontrolle übernehmen. Diese Einbindung und Verpflichtung des sogenannten "human in the loop", die in vielen Kontexten gefordert wird, ist eine von mehreren Möglichkeiten des Umgangs mit den durch autonome Maschinen entstehenden Verantwortlichkeitsproblemen. Die mögliche individuelle Verantwortlichkeit der Beteiligten, insbesondere im Sinne von Fahrlässigkeitsstrafbarkeiten, werden wir im Folgenden im Detail betrachten. Vorab werden wir einen Blick auf eine Sonderkonstellation werfen: Die "Dilemma-Fälle".

Dilemma-Konstellationen

Immer wieder werden im Bereich "Autonome Kraftfahrzeuge und Strafrecht" die sogenannten Dilemma-Fälle diskutiert. Das sind Fälle, in denen das Kraftfahrzeug nicht mehr rechtzeitig bremsen kann und sicher eine Kollision mit Fußgängern herbeiführen und den bzw. die Fußgänger dabei voraussichtlich töten wird. Das Fahrzeug kann sich jedoch noch zwischen beispielsweise einer Kollision mit mehreren Personen auf der Fahrbahn oder mit nur einer einzigen Person auf dem Bürgersteig entscheiden. Bevor wir in gebotener Kürze die Lösung dieser Dilemmata betrachten werden, sei darauf hingewiesen, dass aufgrund der relativ sicheren Fahrzeugkonstruktionen eine Dilemma-Situation, in der es um eine "Leben-gegen-Leben"-Konstellation geht, eher selten sein wird. Stattdessen werden sich regelmäßig verschiedene Gefahren für divergierende Rechtsgüter gegenüber stehen, z. B. die körperliche Unversehrtheit des Insassen könnte leicht, die eines Passanten schwer gefährdet sein, oder es könnte die Beschädigung einer Sache auf dem Bürgersteig auf der einen, die Verletzung eines die Straße überquerenden Fußgängers auf der anderen Seite drohen. 

Zugleich sind "Leben-gegen-Leben"-Situationen nicht hundertprozentig auszuschließen. Programmiert der Programmierer ausdrücklich ein, wen die Maschine in diesen Fällen töten soll, könnte er sich sogar wegen eines vorsätzlichen Tötungsdelikts strafbar machen. Das gilt auch für die anderen Beteiligten, die von dieser Programmierung wussten. Deshalb ist besonders wichtig, ob das Einprogrammieren gerechtfertigt oder entschuldigt sein könnte. Anders als wenn diese Konstellation bei einem menschlichen Fahrer auftritt, muss im Fall autonomen Fahrens die Entscheidung eben vorab getroffen werden, da das Programm danach ausgerichtet werden muss. Eine Entscheidung ist also sogar erforderlich und sollte deshalb selbstverständlich nicht an sich zu einer Strafbarkeit wegen vorsätzlicher Tötung führen.

Bisher wird im Strafrecht bei derartigen Konstellationen zwischen aktivem Tun und Unterlassen unterschieden: Das Unterlassen, d. h. das Nichteingreifen in die Fahrspur, ist im Verhältnis zum aktiven Tun (also dem bewussten, aktiven Verstoß gegen eine Strafnorm) in derartigen Fällen regelmäßig hinzunehmen. Für autonome Kraftfahrzeuge ändert sich das jedoch: Sowohl das Weiterfahren als auch das Ausweichen wären Ergebnis einer bereits getroffenen Vorabentscheidung, eines aktiven Einprogrammierens. Das ist wohl kaum als Unterlassen qualifizierbar. Die Situation, in der sich der Programmierer befindet, wenn er das Programm erstellt, lässt sich zudem nicht als konkrete Gefahr ansehen – für ihn besteht in diesem Moment gerade keinerlei Gefahr. Somit greifen auch die Rechtfertigung bzw. Entschuldigung des Notstands (§§ 34, 35 StGB) hier nicht. Die traditionellen Kategorien des Strafrechts müssen also an diese bei selbstfahrenden Kraftfahrzeugen entstehende Situation angepasst werden.

Möglich ist es zum Beispiel, auf die sogenannte "rechtfertigende Pflichtenkollision" zurückzugreifen. Diese Rechtsfigur wird eigentlich auf Unterlassens-Konstellationen angewandt, d. h. wenn man zur Erfüllung von zwei Pflichten gleichermaßen verpflichtet ist (etwa bei einem Hausbrand seine beiden Kinder zu retten), aber faktisch nur eine davon erfüllen kann, ist man für das Unterlassen der anderen nicht strafbar. Nach gewissem (rechtstechnischen) Begründungsaufwand und leichten Anpassungen ist es möglich, diese Figur auch auf die hier in Frage stehenden Dilemma-Fälle anzuwenden. Damit wäre eine quantitative Entscheidung für die Tötung der geringeren Anzahl von Menschen nicht strafbar, d. h. das Überfahren des einen Fußgängers auf dem Bürgersteig, um drei Fußgänger auf der Straße zu retten, wäre zulässig. Nicht zulässig wäre jedoch weiterhin jegliche qualitative Abwägung – etwa nach Alter, Geschlecht, gesellschaftlicher Bedeutung, etc. Derartige Entscheidungen über den Wert des Lebens des Gegenüber stünden nicht mit dessen Menschenwürde im Einklang, so dass Art. 1 Abs. 1 GG solchen Programmierungen dauerhaft entgegen steht.

Überdies können sich natürlich die Beteiligten dafür strafbar machen, überhaupt derartige gefährliche, ausweglose Situationen herbeigeführt zu haben. So sind Fälle denkbar, in denen eine sorgfältigere Programmierung verhindert hätte, dass es überhaupt zu der Dilemma-Situation kommt. Auch wenn Hersteller oder Verkäufer über die Möglichkeit solcher Dilemmata nicht hinreichend aufklären, könnten hier Probleme entstehen – etwa dann, wenn das Fahrzeug so programmiert wird, dass es den Fahrer und die Insassen gerade nicht in höherem Maß schützt als andere am Straßenverkehr Beteiligte. Zudem ist denkbar, dass völlig unangemessene Selektionskriterien ausgewählt werden (z. B. Ethnie) – auch hieran könnte zweifellos eine Strafbarkeit anknüpfen. 

Es zeigt sich, dass das bestehende Strafrecht nach einigen Anpassungen durchaus in der Lage ist, die Dilemma-Fälle angemessen zu lösen – nur müssen diese Anpassungen in der Rechtspraxis künftig auch tatsächlich umgesetzt oder, noch besser, ausdrücklich gesetzlich verankert werden.

Individuelle Verantwortlichkeit im Rahmen von Fahrlässigkeitsdelikten

Eine Fahrlässigkeitsstrafbarkeit kommt in vielen Konstellationen in Betracht. Als ein möglicher Anknüpfungspunkt etwa könnte das Verhalten in der konkreten Unfallsituation dienen. Da in diesem Moment aber vor allem das Auto "entscheidet", ist zusätzlich auf den zweiten möglichen Anknüpfungspunkt abzustellen: Das Herbeiführen unvertretbarer gefährlicher Situationen. Die Strafbarkeit kann, mit Blick auf diesen zweiten Anknüpfungspunkt, beruhen auf dem Herstellen, Vertreiben oder Benutzen eines autonomen Fahrzeuges, das derartige gefährliche und zur Verletzung führende Unfallsituationen herbeiführen kann.

Als relevante Straftatbestände kommen bei Verletzungen durch ein autonomes Kraftfahrzeug insbesondere die fahrlässige Körperverletzung gemäß § 229 StGB oder bei Unfällen mit fatalen Folgen die fahrlässige Tötung, § 222 StGB, in Betracht. Bei Handlungen im Straßenverkehr könnte zudem auf das Straßenverkehrsdelikt § 315c I, III StGB zurückzugreifen sein (wobei unter anderem zu klären wäre, ob die Nutzung eines autonomen Kraftfahrzeuges als "Führen" des Fahrzeuges zu kategorisieren wäre). Die letztgenannten Normen sollen hier nicht weiter diskutiert werden.

Für die Überlegungen zur Fahrlässigkeit sei ein realer Fall geschildert, der sich vor einiger Zeit in Bayern zugetragen hat. Gerade weil es sich um kein voll-autonomes Fahrzeug handelt, sich die Situation aber trotzdem als problematisch erweist, verdeutlicht der Fall die Brisanz der Entwicklung.

Fahrer F fährt mit seinem Fahrzeug (Hersteller X), in das ein autonom funktionierender Spurhalteassistent eingebaut wurde, mit hoher Geschwindigkeit auf einer Landstraße. Kurz vor einem Ortseingang erleidet F einen Schlaganfall. Er verliert partiell das Bewusstsein, gibt weiterhin Gas, hält sich krampfhaft am Lenkrad fest und verreißt das Steuer nach rechts, so dass das Fahrzeug kurz auf den Gehsteig fährt. Normalerweise wäre das Fahrzeug nun nach rechts weiter gefahren und auf einer Wiese zum Halten gekommen. Der Spurhalteassistent lenkt das Fahrzeug aber wieder zurück auf die Straße und es fährt weiter, mit gleichbleibend hoher Geschwindigkeit, in den Ort hinein. Dort erfasst das Fahrzeug eine Familie – die Frau und das Kind werden bei dem Unfall getötet. [2]

Dass sich bei der Lösung dieses Falls zahlreiche rechtliche – auch strafrechtliche – Fragen stellen, leuchtet ein. So lässt sich fragen, ob der Erfolg in irgendeiner Weise Hersteller oder Programmierer zurechenbar ist, die doch weit vor der konkreten Situation agierten und nicht die Entscheidung für die Nutzung trafen. Der Fahrer selbst hat in der Verletzungssituation nicht einmal mehr im traditionellen Sinne gehandelt. Vorab hat er jedoch die Entscheidung für die Nutzung eines (teil-)autonomen Fahrzeugs getroffen. All dies könnte mit Blick auf eine Strafbarkeit wegen fahrlässigen Verhaltens relevant sein. Als mögliche Straftäter kommen folgende Personen in Frage: der Forscher, der Programmierer, der Hersteller, der Verkäufer oder der Nutzer des autonomen Fahrsystems. 

Es existiert noch kein klarer Rahmen dafür, was bei der Entwicklung und Nutzung derartiger Systeme als angemessenes Verhalten zu werten ist. 

Ohne in juristische Einzelheiten abzugleiten, sei zumindest auf einige Voraussetzungen einer solchen Fahrlässigkeitsstrafbarkeit eingegangen, sowie auf die Herausforderungen, die sich insoweit durch das autonome Fahren ergeben. Voraussetzungen für eine Strafbarkeit wegen fahrlässiger Körperverletzung oder Tötung sind unter anderem die Vorhersehbarkeit des strafrechtlichen "Erfolgs" (also der Verletzung bzw. Tötung), die Verletzung des bestehenden Sorgfaltsmaßstabs sowie die Zurechnung des Erfolgs zum konkreten Fehlverhalten. Schließlich müssen die Grenzen des "erlaubten Risikos" überschritten sein. 

Bezüglich der Vorhersehbarkeit ergibt sich das Problem, dass bei sich entwickelnden, durch Vernetzung informierten, ggf. lernenden Maschinen ex ante jedenfalls nicht immer vorhersehbar sein wird, wie sie in konkreten Situationen entscheiden. Insofern besteht in der rechtlichen Debatte Unsicherheit, wie konkret die Vorhersehbarkeit sein muss – denn abstrakt ist selbstverständlich vorhersehbar, dass derartige Maschinen irgendwann Unfälle verursachen und Menschen verletzen werden. Ob diese generelle Vorhersehbarkeit für eine Fahrlässigkeitsstrafbarkeit ausreichend ist, ist nicht umfassend geklärt – es besteht jedoch durchaus das Risiko, dass ein Gericht dies bejaht.

Eine weitere Voraussetzung der Fahrlässigkeitsstrafbarkeit ist, dass gegen die "erforderliche Sorgfalt" verstoßen wird. Der Standard bestimmt sich danach, welches Verhalten in einer gegebenen Situation von einer vernünftigen Person aus dem jeweiligen sozialen Kreis erwartet werden kann. Indikatoren hierfür sind nicht-staatliche Regeln, wie z. B. ISO- oder DIN-Normen oder in unserem Fall die Normen des Straßenverkehrsgesetzes und der Straßenverkehrsordnung oder Regelungen zur Zulassung von Kraftfahrzeugen. Unabhängig von Detailfragen stellt sich diesbezüglich im Kontext von autonomen Fahrsystemen in besonderer Weise das Problem, wie ein Sorgfaltsmaßstab in völlig neuartigen Situationen, bei der Entwicklung neuer Technologien mit noch unbekannten Risiken, gesamtgesellschaftlich zu bestimmen ist. Dafür ist auch relevant, inwieweit hier außerrechtliche Standards einfließen sollten bzw. welche anderen Bezugnahmen denkbar und sinnvoll sind. Derzeit existiert jedenfalls noch kein klarer Rahmen dafür, was bei der Entwicklung und Nutzung derartiger Systeme als angemessenes Verhalten zu werten ist. Dieser Rahmen wird sich voraussichtlich in nächster Zeit entwickeln, im Moment besteht jedoch durch die Unbekanntheit der Risiken und der fehlenden Standards insofern noch eine gewisse Rechtsunsicherheit für die an Herstellung und Einsatz autonomer Kraftfahrzeuge Beteiligten.

Schließlich muss die Verletzung dem Handelnden zurechenbar sein. Das kann im Zusammenhang mit autonomen Fahrzeugen aus folgenden Gründen problematisch sein: Zum einen werden bis zur Verletzung des Fahrers oder Unbeteiligter zahlreiche Entscheidungen verschiedener Personen bezüglich der Nutzung des Fahrzeuges getroffen, d. h. über die konkrete Ausgestaltung des Programms, das Zusammenwirken von Programm, Sensor und sonstiger Fahrzeugtechnologie, die Interaktion und ggf. Vernetzung mit anderen Maschinen im Straßenverkehr und eben die konkrete Nutzung des Autopiloten in der spezifischen Straßenverkehrslage. Zum anderen aber tritt hier nun eben noch, abhängig vom jeweiligen Autonomiegrad des Fahrzeuges, die Entscheidung des Systems dazwischen. Man kann bezweifeln, dass die Aktion des Fahrzeuges als "Handeln" oder "Entscheiden" nach dem bisherigen Begriffsverständnis einzuordnen ist. Zugleich ist sie aber das Ergebnis von Programmierung, Information, Netzwerkaktivität, Training, Lernen aus Fehlverhalten, etc. Deshalb lässt sich durchaus fragen, ob nicht allein schon dadurch der klassische Zurechnungszusammenhang unterbrochen wird. Es ist jedenfalls festzuhalten, dass auch die Zurechnungsstrukturen an ihre Grenzen geraten. 

Insgesamt entsteht im Strafrecht eine Diffusion bei der Zuschreibung individueller Verantwortlichkeit durch die Entwicklungen im Bereich der KI, auch im Kontext des Autonomen Fahrens. Diese Verantwortungsdiffusion lässt sich auch einfach nicht durch umfassende Haftung des Nutzers lösen. Das würde nicht zuletzt die Idee der Entscheidungsübertragung untergraben: So ist beispielsweise ein voll-autonomes Kraftfahrzeug unter anderem dazu gedacht, zu fahren, wenn der menschliche Fahrer selbst zu müde ist und nicht zu häufig Pausen machen möchte. Wenn aber eine solche Nutzung gesellschaftlich akzeptiert wird, vielleicht auch weil das Fahrzeug weniger Fehler machen würde als der übermüdete menschliche Fahrer, wäre es wenig überzeugend, wenn nun der Fahrer für jede falsche Entscheidung des Kfz strafbar wäre. Das würde faktisch dazu führen, dass der Fahrer sich, um jederzeit eingreifen zu können, genauso stark konzentrieren müsste, als wenn er selbst fahren würde – was im Übrigen sogar schwerer wäre, wenn der Fahrer lange passiv bleibt. Die Nutzung selbstfahrender Kraftfahrzeuge würde letztlich sinnlos. 

Wenn ein erlaubtes Risiko vorliegt, ist ggf. für einen Unfall niemand strafrechtlich verantwortlich. 

Insbesondere wäre es jedoch m. E. eine unzumutbare Belastung der Fahrer (vor allem wenn es sich um Berufskraftfahrer handelt): Der Fahrer kann in einem autonomen Fahrzeug überhaupt nicht dauerhaft so konzentriert bleiben wie wenn er das Fahrzeug selbst kontrollieren würde. Damit würde von ihm Unmögliches gefordert, selbst dann, wenn er sich nicht einmal selbst für die Nutzung eines autonomen Kraftfahrzeugs entscheidet. Diese Lösung ist deshalb nicht überzeugend.

Statt Zurechnung und Verteilung der Verantwortung auf die verschiedenen Beteiligten müssen deshalb primär zunächst einmal Regeln aufgestellt werden, wann die Benutzung autonomer Kraftfahrzeuge sozial akzeptabel ist, der Handelnde also ein erlaubtes Risiko eingeht. Wenn ein erlaubtes Risiko vorliegt, wenn autonome Fahrzeuge im Straßenverkehr als so vorteilhaft angesehen werden, dass die Gefahren in Kauf zu nehmen sind, ist ggf. für einen Unfall niemand strafrechtlich verantwortlich – das kennen wir von anderen technologischen Entwicklungen. 

Aus den bisherigen Überlegungen könnte sich zwar auch ergeben, dass aus dem bisher nicht bezifferbaren, unbekannten Risiko, der Unvorhersehbarkeit und Unkontrollierbarkeit solcher Fahrzeuge ein umfassendes Verbot folgen sollte. Solange ein solches nicht existiert, besteht für jeden der Beteiligten zumindest die Gefahr, dass ihm Verletzungshandlungen des Systems zugerechnet werden. Es könnte sich also jeder Beteiligte bei Schädigungen Dritter strafbar machen. Die drohende Fahrlässigkeitsstrafbarkeit – die anders als eine zivilrechtliche Haftung auch nicht durch eine Versicherung o. ä. abgesichert werden kann – könnte somit die Beteiligten von der weiteren Erforschung, Herstellung, dem Vertrieb und der Nutzung (auch zu Testzwecken) solcher Fahrzeuge abhalten. Angesichts der erheblichen Vorteile, die selbstfahrende Kraftfahrzeuge versprechen, kann dieses Ergebnis aber nicht überzeugen. So ist davon auszugehen, dass der Einsatz selbstfahrender Kraftfahrzeuge die Zahl der Unfälle deutlich reduzieren wird. Deshalb sollte die Weiterentwicklung der Fahrzeuge weder generell verboten, noch durch zu strenge Verhaltensanforderungen faktisch eingeschränkt werden. Aus demselben Grund erscheint, wie dargestellt, auch eine grundsätzlich umfassende Haftung z. B. des Nutzers für jeden Fehler des Systems angesichts der unklaren rechtlichen Vorgaben und der damit verbundenen Folgen nicht vertretbar. Zweifellos darf das aber nicht zu umfassender Sorglosigkeit und zu untragbaren Risiken für Unbeteiligte führen. Für eine dauerhafte Nutzung autonomer Kraftfahrzeuge, mit der Gefahr, dass Unbeteiligte verletzt werden können, muss sich ein Maß für die Erlaubtheit von Risiken generell erst noch bilden. 

Wenn wir die bisherigen Überlegungen auf unser Fallbeispiel übertragen, ergibt sich zunächst, dass der Nutzer zwar in anderen Fällen grundsätzlich die Kontrolle über die teil-autonomen Kraftfahrzeuge behalten muss, hier aber liegt im Moment des Unfalls aufgrund der Bewusstlosigkeit nicht einmal eine Handlung des Fahrers vor. Mangels Kenntnis der genauen technischen Vorgänge ist bei ihm auch nicht davon auszugehen, dass er das Geschehen hätte voraussehen können. Das ist anders für Programmierer und Hersteller: Für sie war wohl zumindest abstrakt vorhersehbar, dass solche oder vergleichbare Situationen eintreten. Auch wenn sie alle Vorgaben für die Zulassung der Technologie erfüllt haben, könnte man diskutieren, ob es nicht darüber hinaus erforderlich gewesen wäre, einen Sicherungsmechanismus für derartige Fallkonstellationen einzubauen. Angesichts der eher geringen Wahrscheinlichkeit derartiger Unfälle könnte eine solche, wahrscheinlich erhebliche Kosten verursachende Maßnahme als unverhältnismäßig anzusehen sein. Kostenersparnis kann aber natürlich nicht per se als Grund für die Aufrechterhaltung von Risiken angeführt werden. Insofern spielt, wie erwähnt, die Kategorie des erlaubten Risikos eine zentrale Rolle. Denn bei der Bewertung der Erlaubtheit ist durchaus die Wirtschaftlichkeit des Handelns zu beachten. Soweit man gesellschaftlich – wie durch Erlass entsprechender Gesetze im StVG geschehen – den Einsatz der Fahrzeuge akzeptiert und dabei bestimmte Gefahren auch für Unbeteiligte hinnimmt, kann man zugleich nicht unverhältnismäßige, unwirtschaftliche Sicherung von Hersteller und Nutzer verlangen. Somit wäre es in diesem Fall bei einer zugelassenen (Teil-)Autonomisierung des Systems hinzunehmen, dass der Hersteller keine Sensoren eingebaut hat, die z. B. die Verkrampfung des Griffs am Lenkrad messen. Anders wäre der Fall derzeit zu beurteilen, wenn das Kraftfahrzeug voll-autonom gefahren wäre. Das erlaubte Risiko im Bereich des Straßenverkehrs basiert noch auf zumindest der Möglichkeit jederzeitiger Übernahme der Kontrolle durch den Fahrer, zumindest bezüglich der zentralen Entscheidungen. Damit bliebe der Fahrer (im Sinne einer Verantwortlichkeit für ein Unterlassen) ggf. für ein fehlendes Eingreifen verantwortlich, d. h. er könnte sich in diesen Fällen auch strafbar machen.

Angemessene Verantwortlichkeit des "human in the loop"

Die Plausibilität dieser individuellen Zurechnung, der Verantwortlichkeit des "human in the loop", darf jedoch bezweifelt werden. In vielen Fällen wird der Fahrer nicht nur weder über die konkrete Programmierung noch über das Training des Fahrzeugs, sondern nicht einmal über dessen Einsatz entscheiden. Denken wir etwa an Berufskraftfahrer (Lkw-Fahrer, Busfahrer, Taxifahrer), die im Rahmen ihres Arbeitsverhältnisses zur Nutzung selbstfahrender Kraftfahrzeuge angehalten sind. Zugleich gilt für alle Fahrer automatisierter Kraftfahrzeuge, dass sie faktisch nicht in derselben Geschwindigkeit reagieren können wie Fahrer, die die umfassende Kontrolle über ihr Fahrzeug behalten – schon weil die Konzentration durch die Automatisierung zwangsläufig sinkt. Mit Blick hierauf ist es nicht überzeugend, den Fahrer weiterhin dafür verantwortlich zu machen, dass er nicht rechtzeitig die Kontrolle übernommen hat – im Gegenteil, die Beteiligung einer Maschine an den Entscheidungen im Straßenverkehr ist bei der Beurteilung der strafrechtlichen Verantwortlichkeit angemessen zu berücksichtigen. Das gilt auch mit Blick auf andere in Frage kommende Täter. Jedenfalls ist vor der Zuschreibung strafrechtlicher Verantwortlichkeit in derartigen Kontexten also sorgfältig zu prüfen, ob diese normativ angemessen ist.

Schlussfolgerungen

Durch die Übertragung von Entscheidungen und damit Verantwortung auf autonome Kraftfahrzeuge wird das Recht vor erhebliche Herausforderungen gestellt. Hierauf muss es durch Anpassung seiner Standards und durch Umverteilung der Verantwortung, durch neue Gesetze – insbesondere im Bereich des Zulassungsrechts –, neue außerrechtliche Normierungen und ggf. durch Einbeziehung neuer Akteure reagieren. Dabei sind die Wechselwirkungen mit der Gesellschaft zu beachten.

Das Strafrecht muss sich an den Umgang mit autonomen Fahrzeugen anpassen. 

Wir haben hier – neben den Dilemma-Konstellationen – den Fokus auf die Veränderungen im Kontext der Fahrlässigkeitsstrafbarkeit gelegt. Das Strafrecht muss sich an den Umgang mit autonomen Fahrzeugen anpassen. Das gilt für die Vorhersehbarkeit, die Herausbildung von Sorgfaltsmaßstäben, Zurechnung und Anwendbarkeit des Vertrauensgrundsatzes. Insbesondere aber das erlaubte Risiko für Herstellung, Programmierung und Nutzung selbstfahrender Kraftfahrzeuge muss öffentlich diskutiert und erarbeitet werden. Hierfür spielt etwa eine Rolle, wer von dem Einsatz profitiert, wer die Systeme und ihre Funktionen möglichst weitgehend beherrscht, ob Unbeteiligte gefährdet werden, welche und wessen Rechtsgüter betroffen wären und natürlich, wie hoch das Risiko ist. Zudem ist zu beachten, dass der Fahrer nicht als "human in the loop" stärker verantwortlich gemacht wird, als der Situation angemessen ist, nur um die bisherigen Verantwortlichkeitsregimes beibehalten zu können.

Da die Automatisierung und Autonomisierung der Fahrzeuge schnell voranschreitet, muss sich die Rechtswissenschaft den damit verbundenen Herausforderungen stellen. Die Diskussion um autonome Kraftfahrzeuge steht erst am Anfang. Gerade das Strafrecht ist nur bedingt geeignet, eine Technologie zu steuern. Stattdessen besteht die Gefahr, dass schon die Angst vor einer möglichen Strafbarkeit die Akteure zögern lässt. Das ist mit Blick auf die Risiken moderner Technologien nicht zwingend problematisch, solange ein angemessener Bereich erlaubten Risikos gefunden wird, in dem sich die Akteure (rechts-)sicher bewegen können und der unserer Gesellschaft die Vorteile dieser Technologien erhält. Das jedoch sollte sobald wie möglich sichergestellt werden.

Quellen
  1. Winfuture.de: Autopilot: Nächster Unfall, Tesla gibt aber der Fahrerin die Schuld 
    Handelsblatt: Die Wahrheit hinter der phantastischen Unfallbilanz von Tesla
  2. Augsburger Allgemeine: Nach Horrorunfall: Schlaganfall am Steuer ist nicht selten

Weitere Informationen:

  • Beck, Selbstfahrende Kraftfahrzeuge – aktuelle Probleme der (strafrechtliche) Fahrlässigkeitshaftung, in: Oppermann, Bernd H. / Stender-Vorwachs, Jutta (Hrsg.): Autonomes Fahren - Rechtsfolgen, Rechtsprobleme, technische Grundlagen, C.H.Beck, München 2017, S. 33-57.
  • Informatik Aktuell – Prof. Dr. Jutta Stender-Vorwachs: Die grundrechtlichen Aspekte Autonomen Fahrens

Autor

Prof. Dr. Susanne Beck

Prof. Dr. Susanne Beck hat den Lehrstuhl für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover inne.
>> Weiterlesen
Kommentare (0)

Neuen Kommentar schreiben