Heute wissen wir, dass Roboter Informationen so schnell verarbeiten, dass sie schnelle Entscheidungen treffen können. Dabei vergisst man leicht, dass es nicht nur darum geht, sachliche Entscheidungen zu treffen. Wir haben Emotionen und Ethik. Genau zwei Dinge, die einem Roboter schwer hinzuzufügen sind. Daher kann der Roboter immer noch Ethik haben.

Ethisches Dilemma
Angenommen, der Roboter ist ein Pilot. Sie wissen, wie schnell Sie fliegen können, in welche Richtung und vielleicht sogar was Sie tun sollten, um Kollisionen mit anderen Flugzeugen zu vermeiden. Aber was ist, wenn das nicht funktioniert? Was ist, wenn der Roboter vor einem moralischen Dilemma steht? Sie können nicht antworten, indem Sie sich nur auf die Fakten konzentrieren. Ein weiteres häufig diskutiertes Dilemma ist das Dilemma des selbstfahrenden Autos. Vielleicht gibt das Auto dem Kind nach, nur um mit der älteren Person zu kollidieren. Welche Wahl treffen Sie also?
Wenn es um Roboterethik geht, wird oft auf Isaac Asimov verwiesen. Er ist der Mann, der in der Geschichte von 1942 drei “Gesetze” für Roboter vorgeschlagen hat. Ser: Ser:

Roboter dürfen Menschen durch ihre Interaktionen nicht verletzen oder beeinträchtigen.
Roboter müssen vom Menschen festgelegte Regeln befolgen, es sei denn, sie verstoßen gegen das erste Gesetz.
Roboter müssen ihr Überleben garantieren, solange sie nicht dem ersten oder zweiten Gesetz widersprechen.

Roboter
Derzeit ist Asimov für 2015 vorgesehen, wird aber aus irgendeinem Grund immer noch angewendet. Gerade mit dem zunehmenden Einsatz von Robotern im Verteidigungs- und Gesundheitswesen müssen sie sich weiterentwickeln. Dass Menschen Angst vor Robotern haben können, spielt keine Rolle, wenn der Roboter eine trainierte Arbeit verrichtet. Menschen haben Angst vor dem „Denken“ von Robotern und denken an eine Art iRobot. Die Gesellschaft akzeptiert Roboter nur, wenn die Menschen verstehen, dass sie ethisch erfolgreich sind.
Derzeit wird viel darüber geforscht, welche Arten von Intelligenzrobotern benötigt werden, um ethische Entscheidungen zu treffen, und wie Geräte kommunizieren oder vorprogrammieren. Es gibt zum Beispiel einen Drogenroboter namens Nao, der älteren Menschen hilft, ihre Medikamente zu verwalten. Was würde ein solcher Roboter tun, wenn sich jemand weigerte, das Medikament einzunehmen? Es kann für jemanden nicht gut sein, die Dosis auszulassen, aber es kann gleichzeitig auch sehr bedrohlich sein, wenn der Roboter etwas streng ist und jemanden trotzdem dazu ermutigt, das Medikament einzunehmen. Maschinelles Lernen
Maschinelles Lernen lehrt Nao, mit solchen Situationen umzugehen. Dies ist vor allem möglich, weil dem Roboter möglichst viele Situationen präsentiert werden. Die Frage ist nur, ob es sinnvoll ist, den Roboter auf alle bestehenden Situationen vorzubereiten und die alten Entscheidungen zu wiederholen, oder sollte dem Roboter Raum für eigene Entscheidungen gegeben werden. Auch hier sind sich die Forscher nicht einig. Gerade in Verfahren befürworten viele, Entscheidungen auf der Grundlage früherer Entscheidungen zu treffen. Denn Sie können immer nachvollziehen, warum die Entscheidung getroffen wurde. Schließlich geht es nicht darum, ob Roboter eine Ethik haben können, sondern darum, wie viel Raum unsere Roboter uns geben, um etwas für uns selbst zu erfinden. Bis wir uns alle einig sind, kann die Roboterentwicklung etwas langsamer sein, als wir wollen.