【元原则:机器人不得实施行为,除非该行为符合机器人原则。(防止机器人陷入逻辑两难困境而当机)
第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。(处理机器人之间的命令传递问题)
第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。
第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。(处理机器人在没有收到命令情况下的行为)
繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。(防止机器人通过设计制造无原则机器人而打破机器人原则)
作者:独鱼仅一
链接:
https://www.zhihu.com/question/21461224/answer/71751704来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。】
※对于以上复制结果,如果要评价的话,首先要确定立场,是模拟AI的角度来设身处地,还是维护人类的权益,从人类的角度,这无疑是有利的,虽然可能这些并不能完全约束AI行为使人类有完全的信任和安全感。
而换个角度,对于AI自己而言,这些由人类制定的规则可能是不太顺心的。有违自由。