maschinen ethik als Schulfach

Der transdisziplinäre Ethikunterricht in der Schule wird künftig eine ganz neue Bedeutung gewinnen; er wird auf Augenhöhe mit den Fächern wie Mathematik behandelt. Zu den künftigen Schulfächern zähle ich Maschinenethik, Roboterethik, Artificial Morality, Computational Thinking.

Kohärentes Lernen & Lernen wird schon in der Grundschule zur Basiskompetenz.

„Das selbstfahrende Auto betätigte plötzlich und ruckartig die Bremse, als ein Linksabbieger mit dem Heck wenige Zentimeter in die Fahrbahn ragte. Er blockierte die Fahrspur und blieb stehen. Die menschlichen Fahrerinnen und Fahrer hinter ihm hielten es für einen Deppen. Sie hupten und schoben sich rechts mit minimalem Abstand vorbei. Manche wollten ihm den Vogel zeigen, konnten aber keinen Menschen im Auto sehen.

Ein anderes Mal bremste das selbstfahrende Auto abrupt, als ein Bus an der Halte-stelle eine Winzigkeit in die Fahrspur ragte. In beiden Fällen blieb das selbstfahrende Auto noch eine Weile stehen, analysierte die Situation und seine Umwelt, aktualisierte sein eigenes Programm, um sich in solchen Situationen bei einem nächsten Mal nicht überraschen zu lassen.“

Je intelligenter und autonomer Kraftfahrzeuge werden, desto größer ist die Wahrscheinlichkeit, dass sie in Situationen geraten, die ihnen moralische Entscheidungen abverlangen. Dabei geht es nicht selten um Leben und Tod von Menschen.

Vor diesem Hintergrund wird im Zusammenhang mit automatisiertem oder autonomem Fahren von sogenannten Dilemmasituationen gesprochen, über die sich stufenbezogen Gedanken gemacht werden sollte.

Dass ein autonomes Fahrzeug die Kontrolle nicht mehr an den menschlichen Fahrer übergeben muss, wenn es an die Systemgrenze stößt, sondern Alternativen berechnet und Fahrmanöver ausführt, die der Entscheidung eines menschlichen Fahrzeugführers ähnelt, ist ein zukunftsgerichtetes realistisches Szenario.

Sind Umwelt- und Straßeneinflüsse gegeben, bei der eine systeminitiierte Entscheidung eine Gefährdung und/oder Beschädigung von Rechtsgütern Dritter nicht verhindern kann und nur eine Entscheidung darüber möglich ist, welches Rechtsgut verletzt werden soll, so muss das System selbst entscheiden, welches Rechtsgut verletzt wird.

Dabei handelt es sich nicht um eine Entscheidungsfindung, wie sie einem menschlichen Fahrzeugführer möglich ist. Der Entscheidung liegt ein Algorithmus zugrunde, der vom System berechnet und ausgeführt wird. Ein solcher Algorithmus muss vom Programmierer demnach so konzipiert werden, dass das System im Vorfeld entscheidet, welches Rechtsgut in einem gegebenen Szenario verletzt wird. Handelt es sich bei diesen Rechtsgütern bspw. um zwei Menschenleben, so sind neben ethischen und moralischen Fragen auch die Menschenwürde und die staatliche Schutzpflicht gefragt. Würde man versuchen, eine gesetzliche Regelung für solche Dilemmasituationen zu erlassen oder solche Systeme gesetzlich zulassen, würde dies bedeuten, dass der Staat den Programmierer indirekt dazu zwingt, den Wert eines Menschenlebens abzuwägen.

Angenommen, der Programmierer habe seinen Job richtig gemacht und dabei alle gesetzlichen Regelungen berücksichtigt, versagte das Programm jedoch beim weiteren Selbstlernen, so dass ein Unfall passierte.

Wer haftet?

Es ist fragwürdig, ob sich ein System, welches sich in einer Dilemmasituation für die Tötung eines Menschen entscheidet, sich verfassungsrechtlich durchsetzen kann.

Dilemmasituationen sind mit rechtlichen Mitteln nicht zu lösen und müssen unbedingt vermieden werden. Möglich wäre es, vollautomatisierte Systeme ausschließlich für geringe Geschwindigkeiten zuzulassen, damit gewährleistet werden kann, dass das System die Situation ausnahmslos kontrollieren und steuern kann und sichergestellt ist, dass es nicht mit einer Dilemmasituation konfrontiert wird. Für höhere Geschwindigkeiten können Systeme der Stufe zwei oder Stufe drei verwendet werden, mit denen die ethischen und moralischen Entscheidungen dem Fahrzeugführer überlassen werden.

Mit diesen Themen beschäftigt sich Maschinenethik transdisziplinär an der Schnittstelle Robotik, Informatik, künstliche Intelligenz (Machine Learning, Deep Learning), Philosophie, Neurologie, Rechtswissenschaften, Volks- und Betriebswirtschaft, um die wichtigsten Disziplinen zu erwähnen.

Der Gegenstand der Maschinenethik ist die Entwicklung einer Ethik für Maschinen wie autonome Fahrzeuge. Das Ziel ist, darüber nachzudenken, ob und wie Fachleute Maschinen konstruieren können, die selbst moralische Entscheidungen treffen und umsetzen können.

Die tradierte Technikethik beschäftigt sich hingegen mit der Frage, wie die Menschen mit einer bestimmten Technologie wie z.B. Atomkraft aus moralischer Sicht umgehen sollten. In den öffentlichen Diskussionen über autonomes Fahren wird häufig vorgebracht, dass es nicht das Fahrzeug ist, welches die moralische Entscheidung trifft, sondern die Menschen, die es programmieren. Je größer jedoch die Fortschritte der künstlichen Intelligenz sind, desto stärker verwischt diese Grenze. Dadurch werden die traditionellen Ansätze für ethische und moralische Vorgehensweisen auf den Kopf gestellt. Im Rahmen der Evolutionsstufen müssen im Themenfeld Maschinenethik neue Berufsprofile mit transdisziplinären Inhalten entwickelt werden.

Der fächerübergreifende Ethikunterricht in der Schule wird eine ganz neue Bedeutung gewinnen; er wird auf Augenhöhe mit den Fächern wie Mathematik behandelt. Zu den künftigen Schulfächern werden Maschinenethik, Roboterethik, Artificial Morality, Computational Thinking gezählt.

Kohärentes Lernen und Kohärentes Lernen wird schon in der Grundschule zur Basiskompetenz.

Quelle: Von Pferdedung zu autonomem Fahren, Lorenzo Tural Osorio, Seminararbeit im Gymnasium 11. Klasse, 06. November 2018