一、机器人的三定律是何?(急用!)
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律:机器人应服从人的一切命令,但不得违反第一定律。
第三定律:机器人应保护自元定律:机器人可以何也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的职责,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。身的安全,但不得违反第一、第二定律。
二、阿西莫夫机器人三大定律的疑问
第一
A对机器人说:杀了B!
机器人无反应
B对机器人说:杀了A!
机器人无反应
第二
如果不道德的命令不伤害人类
机器人会执行的
如:把垃圾仍到马路上
第三
不需要人下命令
这一条机器人是自动执行的
如:一块大石头砸向机器人
它躲开了
三定律有很多的漏洞
要保证机器人的道德
跟保证人类的道德的难度一样
由于它是人造出来的
三、阿西莫夫机器人三定律的补充是何?
是的,后来出现了“零定律”:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
何故后来要定出这条“零定律”呢?打个比方,为了维持民族或者说全球的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,由于这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。
因此新的阿西莫夫的定律为:
第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
三定律加上零定律,看来堪称完美,然而,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想难题的机器人了。威尔?史密斯曾说:“《我,机器人》的中心概念是机器人没有难题,科技本身也不是难题,人类逻辑的极限才是真正的难题。”的确,人类现有的逻辑对很多难题都是无力回天的,因此,个人认为所谓的“零定律”根本是起不到何影响的。
除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:
元定律:机器人可以何也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。
第四定律:机器人必须履行内置程序所赋予的职责,除非这与其他高阶的定律冲突。
繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。