首页| 滚动| 国内| 国际| 军事| 社会| 财经| 产经| 房产| 金融| 证券| 汽车| I T| 能源| 港澳| 台湾| 华人| 侨网| 经纬
English| 图片| 视频| 直播| 娱乐| 体育| 文化| 健康| 生活| 葡萄酒| 微视界| 演出| 专题| 理论| 新媒体| 供稿

霍金:人类应建立有效机制 防范人工智能威胁

2017年03月14日 11:00 来源:中国新闻网 参与互动 

    资料图:霍金。  

  中新网3月14日电 据外媒报道,英国剑桥大学物理学家霍金日前在接受媒体采访时,再次强调人类建立有效机制,防止人工智能(AI)对人类的威胁进一步上升。

  据报道,霍金在接受采访时表示,包括AI在内的新科技若持续发展,可能会通过核战争或生物战争摧毁人类;人类则需要利用逻辑和理性去控制未来可能出现的威胁。

  霍金还就应对AI的威胁建议称,人类可以组成某种形式的联合政府来防范AI可能带来的威胁。

  数年前霍金已经表示,发展全面的人工智能可能导致人类的毁灭。

  霍金说,人工智能的发展可能帮助人类消除疾病,消除贫困,阻止气候变化,但是也可能产生人们不愿意看到的种种后果,包括产生自主武器,造成经济灾难,以及发展出同人类发生冲突时拥有自己意愿的机器。

  “简言之,强大人工智能的崛起可能是人类遇到的最好的事情,也可能是最坏的事情,但我们还不知道答案。”

【编辑:孟湘君】
本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[网上传播视听节目许可证(0106168)] [京ICP证040655号] [京公网安备:110102003042-1] [京ICP备05004340号-1] 总机:86-10-87826688

Copyright ©1999- 2021 chinanews.com. All Rights Reserved