Der Gegenstand der Maschinenethik ist die Entwicklung einer Ethik für Maschinen wie autonome Fahrzeuge. Das Ziel ist, darüber nachzudenken, ob und wie Fachleute Maschinen konstruieren können, die selbst moralische Entscheidungen treffen und umsetzen können.

Die tradierte Technikethik beschäftigt sich hingegen mit der Frage, wie die Menschen mit einer bestimmten Technologie wie z.B. Atomkraft aus moralischer Sicht umgehen sollten.

In den öffentlichen Diskussionen über autonomes Fahren wird häufig vorgebracht, dass es nicht das Fahrzeug ist, welches die moralische Entscheidung trifft, sondern die Menschen, die es programmieren.

Je größer jedoch die Fortschritte der künstlichen Intelligenz sind, desto stärker verwischt diese Grenze. Dadurch werden die traditionellen Ansätze für ethische und moralische Vorgehensweisen auf den Kopf gestellt. Im Rahmen der Evolutionsstufen müssen im Themenfeld Maschinenethik neue Berufsprofile mit transdisziplinären Inhalten entwickelt werden.

Der fächerübergreifende Ethikunterricht in der Schule wird eine ganz neue Bedeutung gewinnen; er wird auf Augenhöhe mit den Fächern wie Mathematik behandelt.

Zu den künftigen Schulfächern werden Maschinenethik, Roboterethik, Artificial Morality oder Artificial Ethics, Computational Thinking gezählt.

Coherent Learning - Kohärentes Lernen / Lehren und Ping Pong Thinking wird schon in der Grundschule zur Basiskompetenz.

Moral Machine by MIT

Trolley-Problem

20 Ethik-Leitlinien für das autonome Fahren

Artificial Ethics oder Artificial Morality?

Wie sollen die Maschinen Entscheidungen treffen, wenn sie die Weiche umstellen müssen?

Am Trolley-Problem werden elementare Unterschiede zwischen utilitaristischen (bzw. konsequentialistischen) und deontologischen Theorien verdeutlicht.

Ein Vertreter einer utilitaristischen Position würde durch Umstellen der Weiche die fünf Leben auf Kosten des einen retten, da in der Summe weniger schlechte Konsequenzen auftreten.

Innerhalb der Pflichtethik veranschaulicht das Trolley-Problem die Differenz zwischen positiven und negativen Pflichten.

Die Weiche umzustellen würde der (meist als schwächer eingestuften) positiven Pflicht, andere zu retten, entsprechen, jedoch die (meist stärker bewertete) negative Pflicht verletzen, niemanden umzubringen.

Was bedeutet Machine Learning aus der Sicht der Pflichten?

Buchtipp: Grundfragen der Maschinenethik, Catrin Misselhorn, Reclam

u.a. mit Anwendungsbereichen Pflegesysteme, Militärroboter, Drohnen, Autonomes Fahren