首页| 滚动| 国内| 国际| 军事| 社会| 财经| 产经| 房产| 金融| 证券| 汽车| I T| 能源| 港澳| 台湾| 华人| 侨网| 经纬
English| 图片| 视频| 直播| 娱乐| 体育| 文化| 健康| 生活| 葡萄酒| 微视界| 演出| 专题| 理论| 新媒体| 供稿

AI应该比人类更道德吗?

2018年06月22日 11:34 来源:中国新闻周刊 参与互动 

  《中国新闻周刊》记者/霍思伊

  AI的人格——第一次被这个主题吸引,是看到Siri的“人格设计师”Mariana Lin写的一段话:“AI 的存在,不是为了满足人类的一切需求或复制人类的存在。我们可以且应该期待AI帮助人类前行,并为人类作出更好的示范。想想那些人类历来就不太擅长的品质:同情心、耐心、弥合分歧与误解……我们应当设想未来AI能够在这些方面弥补人类。”

  这听起来难度不小。在现阶段,人工智能与人类智能的最大差别是:人工不会产生自我认知,更不会有价值和道德判断。近些年大火的机器学习虽然是基于对人类神经网络的模仿,但即使对人类自身而言,神经信号的传导,为何会使人类产生情感和非理性?这依然是未解之谜,更谈不上让机器“学习”。

  那么,如果AI自身没有办法产生道德,如何让它来弥补所谓“不道德”的缺陷?以AI语音助手为例,目前采取的惯用做法是由人工在后台进行标注,将不道德的对话进行“清洗”,让AI逐渐通过学习,自我进化出看起来比较“高尚”的人格。比如,如果你要杀人,它会告诉你不要这么做,以及杀人会产生的相应后果。这些答案可能是专门的“人格设计师”写成,也可能是后台编辑在网络上筛选出“最合适”的回答。如果一个潜在的凶手在和AI对话后,打消了自己的念头,只能说明他的人类同胞劝住了他,可能是利用法律进行规训,可能是从感情上和他产生共鸣。

  只有“人性”才能理解“人性”,和AI无关。所以从某种角度来说,AI的人格其实是个伪命题。

  现在市面上的各种语音助手,无论是小冰的可爱体贴,还是Siri 的古灵精怪,或者是“谷歌助手”的友善包容,都只是表层的性格特点。而人格中最核心的是价值观,包括道德判断,感性和理性的平衡,对哲学命题的思考,对自身和宇宙关系的认知和构建等。每个人的价值观一定是独特的,不完美的,甚至偏执的。

  60年前,美国作家艾萨克·阿西莫夫写道:“机器人应该具有人类所有高尚的品质。”未来,即便AI有了自我推理和学习的能力,产生了自己的“思想”,它可能也不会在乎人类的道德,更不需要高尚。

  因为它毕竟不是人类。

  《中国新闻周刊》2018年第23期

  声明:刊用《中国新闻周刊》稿件务经书面授权

【编辑:郭炘蔚】
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[网上传播视听节目许可证(0106168)] [京ICP证040655号] [京公网安备:110102003042-1] [京ICP备05004340号-1] 总机:86-10-87826688

Copyright ©1999-2024 chinanews.com. All Rights Reserved