机器人三大定律是什么,谁提出的

2024-04-15
机器人三大定律是什么,谁提出的

机器人三大定律是阿西莫夫于1950年在小说《我,机器人》中提出的约束机器‌‌‌‌‌‌‌‌‌‌人的定律。
三大定律分别是:
第一定律:机器人不得伤害人类个体,或目睹人类个体受到伤害而袖手旁观。
第二定律:机器人必须听从人类的命令,当此命令与第一定律冲突时例外。

第三定律:机器人在不违背第一二定律的情况下要尽可能保护自己的生存。

后来又补充了第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
机器人三大定律在后世的许多科幻作品中都有身影常常被颠覆,有很的文学意义。
三大定律在现实中也是被遵守的,所以也有很大的科学意义。值得一提的是,三大定律提出时,世界上还没有一台真正意义上的机器人。

阿西莫夫的机器人三法则,属于前者,它们类似于伦理与法律,而不是自然法则和定律。

有意思的是,阿西莫夫在写机器人三法则的时候,使用了不得(maynot)和必须(must)这样的语词,非常类似神学中的“神命”(divine command)。也就是似乎上帝颁布给人的诫命。

但是正如人类常常忤逆神的诫命一样,人工智能为何一定要遵守这些命令呢?假如没有技术的落实和保障,这一切都仅仅是人类的一厢情愿而已。人类也面临“造物主”的烦恼。