Verschiedenes

Roboethik: Die auf Roboter angewandte menschliche Ethik

Roboethik: Die auf Roboter angewandte menschliche Ethik

In dem 1940er JahreDer amerikanische Schriftsteller Isaac Asimov entwickelte die drei Gesetze der Robotik und argumentierte, dass intelligente Roboter so programmiert werden sollten, dass sie bei Konflikten die folgenden drei Gesetze erlassen und befolgen sollten:

  • Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt

  • Ein Roboter muss die Anweisungen des Menschen befolgen, es sei denn, solche Anweisungen würden dem Ersten Gesetz widersprechen

  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht

Isaac Asimovs Gesetze der Robotik wurden erstmals in der kurzen Science-Fiction-Geschichte vorgestellt Herumlaufen, (PDF) veröffentlicht in der Märzausgabe 1942 von Astounding Science Fiction.

Fast drei Jahre nach der Gegenwart stellen Asimovs Drei Gesetze der Robotik heute mehr Probleme und Konflikte für Robotiker dar als sie lösen.

Robotiker, Philosophen und Ingenieure sehen eine anhaltende Debatte über Maschinenethik. Maschinenethik oder Roboethik ist ein praktischer Vorschlag, wie Roboter gleichzeitig konstruiert und ethische Sanktionen verhängt werden können.

Wer oder was wird dafür verantwortlich gemacht, wenn oder wenn ein autonomes System versagt oder Menschen schadet?

Derzeit folgen die Forscher einem Trend, der darauf abzielt, das Design und die Implementierung künstlicher Systeme mit eingebettetem moralisch akzeptablem Verhalten zu fördern.

Über Ethik und Roboethik

Ethik ist der Zweig der Philosophie, der menschliches Verhalten, moralische Einschätzungen, die Konzepte von Gut und Böse, Richtig und Falsch, Gerechtigkeit und Ungerechtigkeit untersucht. Das Konzept der Roboethik bringt eine grundlegende ethische Reflexion hervor, die sich auf bestimmte Probleme und moralische Dilemmata bezieht, die durch die Entwicklung von Roboteranwendungen entstehen.

Die Roboethik - auch Maschinenethik genannt - befasst sich mit dem Verhaltenskodex, den Roboterkonstrukteure in die künstliche Intelligenz eines Roboters implementieren müssen. Durch diese Art der künstlichen Ethik müssen Robotiker sicherstellen, dass autonome Systeme in Situationen, in denen Roboter oder andere autonome Systeme wie autonome Fahrzeuge mit Menschen interagieren, ethisch vertretbares Verhalten zeigen können.

Ethische Fragen werden weiter zunehmen, solange fortgeschrittenere Robotik ins Spiel kommt. Im Die ethische Landschaft der Robotik (PDF) von Pawel Lichocki et al., Veröffentlicht vom IEEE Robotics and Automation Magazine, listen die Forscher verschiedene ethische Probleme auf, die in zwei Gruppen von Roboteranwendungen auftreten: Serviceroboter und tödliche Roboter.

Serviceroboter wurden geschaffen, um friedlich zu leben und mit Menschen zu interagieren, während tödliche Roboter geschaffen wurden, um als Militärroboter auf dem Schlachtfeld zu kämpfen.

Gemäß Die ethische Landschaft der RobotikNoel Shanky argumentiert, dass "die kognitiven Fähigkeiten von Robotern nicht mit denen von Menschen übereinstimmen und daher tödliche Roboter unethisch sind, da sie leichter Fehler machen können als Menschen." Und Ronald Arkin glaubt, dass "ein unbemanntes System sich zwar nicht perfekt auf dem Schlachtfeld verhalten kann, aber ethischer als Menschen sein kann".

Zum Teil beinhaltet die Frage nach der Moral des Einsatzes von Robotern auf dem Schlachtfeld Verpflichtungen in Bezug auf die Fähigkeit und Art der künstlichen Intelligenz fraglich.

Roboter im Militär: Entwickelt, um zu töten und moralische Rechenschaftspflicht

Militärroboter gehören sicherlich nicht nur zur Gegenwart. Sie stammen aus dem Zweiten Weltkrieg und dem Kalten Krieg. Der deutsche Goliath verfolgte Minen und die sowjetischen Teletanks. Militärroboter können verwendet werden, um eine Waffe abzufeuern, Bomben zu entwaffnen, verwundete Soldaten zu tragen, Minen zu entdecken, Raketen abzufeuern, zu fliegen und so weiter.

Heutzutage werden viele andere Anwendungen für Militärroboter entwickelt, bei denen andere Technologien auf die Robotik angewendet werden. Das US-Militär wird mit einem Fünftel seiner Kampfeinheiten rechnen Vollautomatischin 2020.

Welche Art von Roboethik wird in Militärroboter eingebettet sein und wer wird über sie entscheiden? Asimovs Gesetze können nicht auf Roboter angewendet werden, die Menschen töten sollen.

Ebenfalls im Jahr 2020wird die US-Armee einen Live-Test machen gepanzerte Roboterfahrzeuge. Eine Demonstration fand im Mai in Texas statt.

Werden Roboter in Zukunft zu moralischen Agenten?

Die Roboethik wird immer wichtiger, wenn wir in eine Ära eintreten, in der fortschrittlichere und anspruchsvollere Roboter sowie künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) ein wesentlicher Bestandteil unseres täglichen Lebens werden.

Daher muss die Debatte über ethische und soziale Fragen in der fortgeschrittenen Robotik immer wichtiger werden. Das derzeitige Wachstum der Robotik und die rasante Entwicklung der künstlichen Intelligenz erfordern, dass Robotiker und Menschen im Allgemeinen eher früher als später vorbereitet werden.

Während die Diskussion in der Roboethik voranschreitet, argumentieren einige, dass Roboter zum Aufbau einer besseren Welt beitragen werden. Einige andere argumentieren, dass Roboter nicht in der Lage sind, moralische Agenten zu sein, und nicht mit eingebetteten moralischen Entscheidungsfähigkeiten ausgestattet werden sollten.

Schließlich könnten Roboter vielleicht noch nicht, aber in Zukunft zu moralischen Agenten mit zugeschriebener moralischer Verantwortung werden. Bis dahin müssen Ingenieure und Konstrukteure von Robotern die Verantwortung für die ethischen Konsequenzen ihrer Kreationen übernehmen.

Mit anderen Worten, Ingenieure und Designer von Robotern müssen moralisch verantwortlich sein für das, was sie entwerfen und in die Welt bringen.


Schau das Video: Kant vs. Utilitarismus - Kants Pflichtethik. Kategorischer Imperativ u0026 Utilitarismus im Vergleich (November 2021).