Der Gegenstand der Maschinenethik ist die Entwicklung einer Ethik für Maschinen wie autonome Fahrzeuge.

Das Ziel ist, darüber nachzudenken, ob und wie Fachleute Maschinen konstruieren können, die selbst moralische Entscheidungen treffen und umsetzen können.

Die tradierte Technikethik beschäftigt sich hingegen mit der Frage, wie die Menschen mit einer bestimmten Technologie wie z.B. Atomkraft aus moralischer Sicht umgehen sollten.

In den öffentlichen Diskussionen über autonomes Fahren wird häufig vorgebracht, dass es nicht das Fahrzeug ist, welches die moralische Entscheidung trifft, sondern die Menschen, die es programmieren.

Je größer jedoch die Fortschritte der künstlichen Intelligenz sind, desto stärker verwischt diese Grenze. Dadurch werden die traditionellen Ansätze für ethische und moralische Vorgehensweisen auf den Kopf gestellt. Im Rahmen der Evolutionsstufen müssen im Themenfeld Maschinenethik neue Berufsprofile mit transdisziplinären Inhalten entwickelt werden.

Der fächerübergreifende Ethikunterricht in der Schule wird eine ganz neue Bedeutung gewinnen; er wird auf Augenhöhe mit den Fächern wie Mathematik behandelt.

Zu den künftigen Schulfächern werden Maschinenethik, Roboterethik, Artificial Morality oder Artificial Ethics, Computational Thinking gezählt.

Coherent Learning - Kohärentes Lernen / Lehren und Ping Pong Thinking wird schon in der Grundschule zur Basiskompetenz.

Moral Machine by MIT

Trolley-Problem

20 Ethik-Leitlinien für das autonome Fahren

Artificial Ethics oder Artificial Morality?

Maschinenethik als Schulfach

Wie sollen die Maschinen Entscheidungen treffen, wenn sie die Weiche umstellen müssen?

Am Trolley-Problem werden elementare Unterschiede zwischen utilitaristischen (bzw. konsequentialistischen) und deontologischen Theorien verdeutlicht.

Ein Vertreter einer utilitaristischen Position würde durch Umstellen der Weiche die fünf Leben auf Kosten des einen retten, da in der Summe weniger schlechte Konsequenzen auftreten.

Innerhalb der Pflichtethik veranschaulicht das Trolley-Problem die Differenz zwischen positiven und negativen Pflichten.

Die Weiche umzustellen würde der (meist als schwächer eingestuften) positiven Pflicht, andere zu retten, entsprechen, jedoch die (meist stärker bewertete) negative Pflicht verletzen, niemanden umzubringen.

Was bedeutet Machine Learning aus der Sicht der Pflichten?

Buchtipps:

Die Moral der Gesellschaft, Niklas Luhmann

The Morality of Risk and the Risk of Morality, Niklas Luhmann

Paradigm lost: On the Ethical Reflection of Morality, Niklas Luhmann

"Morality is not synonymous with ethics; the latter arises when morality reflects upon itself.

Ethics must therefore be understood in terms of reflection theory [→Self-Reference].

The most widespread ethical maxim assumes that it is good to differentiate between good and bad, and only rarely is the paradoxical structure of such a statement remarked upon: if it is good to differentiate good and bad, then bad is also good, since it would not exist without the distinction." - Luhmann

 

Grundfragen der Maschinenethik, Catrin Misselhorn

Künstliche Intelligenz und der Sinn des Lebens, Richard David Precht

u.a. mit Anwendungsbereichen Pflegesysteme, Militärroboter, Drohnen, Autonomes Fahren

 

Möchten Sie ein persönliches Beratungsgespräch?

+49 (0)1590 1497679 auch via whatsapp