温菲尔德说:“虽然根据程序设定 , 救人机器人是可以对他人施救的 , 但它根本不理解这种行为背后的真正原因 。 实际上 , 它就是一具‘道德僵尸’——只知道根据程序指令行动 , 完成任务 , 仅此而已 。 我曾经不确定机器人能否做出道德伦理选择 , 经过这一系列实验 , 我仍然不知道答案 。 ”
人类选择
温菲尔德所思考的问题对于所有人来说 , 都具有非常重要的意义 。 随着机器人日益融入人们的生活 , 这一问题更加需要明确的答案 。
以无人驾驶汽车为例 , 当它有一天要在保全车内人员安全还是行人安全之间做出权衡时 , 你认为它会怎么选择呢?或许 , 连它自己都会不知所措 。
虽然目前要解决这个问题还非常困难(这也是无人驾驶汽车至今都无法大规模正式上路的主要原因) , 但某些为军事战争设计的机器人 , 或许能够为我们提供一个初步答案 。 美国佐治亚理工学院(GeorgiaInstituteofTechnology)的计算机专家罗纳德·阿金(RonaldAkin) , 专门为一个名为“道德监督员”的军事机器人研制了一套运算法则 。 在模拟战斗测试中 , 它可以帮助机器人在战场上做出明智的抉择 , 例如在学校和医院等战争条例规定的受保护区附近不动用武器 , 且尽量减少人员伤亡 。
不过 , 这道选择题还是相对简单的 , 如果遇到更加复杂的情况 , 结果往往会大不一样 。 例如 , 在打击“伊斯兰国”极端恐怖组织的战斗中 , 美军的无人机只能对其阵地实施有效轰炸 , 但当对方士兵融入当地平民中后 , 无人机就无所施措了 。
目前 , 尽管在国际社会上禁止研发这类“杀人机器人”的呼声很高 , 但也有支持者认为 , 它们能更大程度地减少战场上信息不对称的情况 , 更加精确地打击目标 , 使用这种技术可以有效减少伤亡、挽救生命 。
任何战争武器都是可怕的 , 如果有什么武器不由人操控那就更恐怖了 。 而且 , 要让机器人做出正确的道德伦理选择 , 也不是一朝一夕能够做到的 , 这涉及到一系列极其尖端复杂的人工智能技术 。 可以想象 , 在未来的某一时刻 , 战场上一定会出现为数不少的“杀人机器人” , 但面对它们 , 人类其实还有一个更好的选择——和平!

【机器人是否能遵守人类的道德准则?】注:所有文章均由中国数字科技馆合作单位或个人授权发布出处 。
以上内容就是机器人是否能遵守人类的道德准则?的内容啦 , 希望对你有所帮助哦!
猜你喜欢
- “纯天然食品”反而可能有毒?
- 肉能致癌?我们还能好好吃肉吗?
- 习大大访英也要看的医疗机器人,到底是啥?
- 哪些食物是仓鼠不能吃的?
- 益生菌能治疗消化不良吗?
- “逗比”其实有可能是一种病?
- 烧伤后不能用冰敷,你知道吗?
- 衬衫+半身裙=早秋万能穿搭!
- “喝酒脸红”和“喝酒脸白”,谁更能喝?
- 猫咪吐血了还能活吗
