W opowiadaniu „Zabawa w berka” amerykański pisarz science fiction Isaac Asimov formułuje Trzy Prawa Robotyki, pierwszy w historii kodeks zasad moralnych dla sztucznej inteligencji:

1. Robot nie może skrzywdzić istoty ludzkiej lub – poprzez wstrzymanie się od działania – pozwolić, by stała jej się krzywda.
2. Robot musi wykonywać rozkazy wydawane mu przez istoty ludzkie, z wyjątkiem sytuacji, kiedy byłyby one sprzeczne z Prawem Pierwszym.
3. Robot musi chronić swoje istnienie dopóty, dopóki taka ochrona nie jest sprzeczna z Prawem Pierwszym lub Drugim.

Później w opowiadaniu „Roboty i Imperium” (Robots and Empire) Asimov dodał Prawo Zerowe, które stało się nadrzędne wobec trzech pozostałych:

0. Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Krytycy twierdzą, że kodeks Asimova opiera się na wadliwych podstawach. Taki system nie może działać, bo próbuje powstrzymać istotę, której władza byłaby nieograniczona. To tylko kwestia czasu, nim SI znalazłaby sposób na obejście ograniczających ją praw.

Zdjęcia w artykule:
  • Getty Images
Skip to content