Da sie bei KI-Debatten zunehmend erwähnt werden -
hier kommen die literarischen, früh formulierten
"Robotergesetze"
Maschinen, die mit künstlicher Intelligenz handeln und
Entscheidungen fällen, brauchen eine nicht von ihnen löschbare Ethik, also
moralische Grundregeln da, wo sie mit Menschen wechselwirken.
"Three Laws of Robotics" wurden von Isaac Asimov in seiner
Kurzgeschichte "Runaround (Astounding, 1942)" als „Grundregeln des
Roboterdienstes“ erstmals beschrieben:
Ein Roboter darf kein menschliches Wesen (wissentlich)
verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen
Wesen Schaden zugefügt wird.
Ein Roboter muss den ihm von einem Menschen gegebenen
Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins
kollidieren.
Ein Roboter muss seine Existenz beschützen, solange
dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Im Roman "Das galaktische Imperium (OT: Robots and
Empire)" erzeugte Asimov Dramatik, indem er ein "Nulltes Gesetz" voranstellte,
bei dem der "Schutz der Menschheit" über dem "Schutz des Einzelnen" rangierte:
Ein Roboter darf die Menschheit nicht verletzen oder
durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
Dem Film "I Robot" liegt der Konflikt zwischen Mensch und
Maschine aufgrund dieser Robotergesetze zugrunde.
|