机器人三定律是哪三定律 你认同机器人三定律吗?

一、机器人的三定律是何?(急用!)

第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。

第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。

第二定律:机器人应服从人的一切命令,但不得违反第一定律。

第三定律:机器人应保护自元定律:机器人可以何也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。

第四定律:机器人必须履行内置程序所赋予的职责,除非这与其他高阶的定律冲突。

繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。身的安全,但不得违反第一、第二定律。

二、阿西莫夫机器人三大定律的疑问

第一

A对机器人说:杀了B!

机器人无反应

B对机器人说:杀了A!

机器人无反应

第二

如果不道德的命令不伤害人类

机器人会执行的

如:把垃圾仍到马路上

第三

不需要人下命令

这一条机器人是自动执行的

如:一块大石头砸向机器人

它躲开了

三定律有很多的漏洞

要保证机器人的道德

跟保证人类的道德的难度一样

由于它是人造出来的

三、阿西莫夫机器人三定律的补充是何?

是的,后来出现了“零定律”:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

何故后来要定出这条“零定律”呢?打个比方,为了维持民族或者说全球的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,由于这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。

因此新的阿西莫夫的定律为:

第零定律:机器人不得伤害人类,或目睹人类将遭受危险而袖手不管。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。

第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。

第三:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。

三定律加上零定律,看来堪称完美,然而,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想难题的机器人了。威尔?史密斯曾说:“《我,机器人》的中心概念是机器人没有难题,科技本身也不是难题,人类逻辑的极限才是真正的难题。”的确,人类现有的逻辑对很多难题都是无力回天的,因此,个人认为所谓的“零定律”根本是起不到何影响的。

除此,另一个科幻作家罗杰·克拉克在一篇论文中还指出了三条潜在的定律:

元定律:机器人可以何也不做,除非它的行动符合机器人学定律。此定律置于第零、第一、第二、第三定律之前。

第四定律:机器人必须履行内置程序所赋予的职责,除非这与其他高阶的定律冲突。

繁殖定律:机器人不得参与机器人的设计和制造,除非新的机器人的行动服从机器人学定律。