巴蜀网

 找回密码
 免费注册

QQ登录

只需一步,快速开始

巴蜀网 门户 新闻存档国际 详细内容
发布者: 金达莱|2014-12-3 12:09|查看: 340|评论: 0|来自: 新华网

霍金称人工智能应谨慎发展 机器或将超越人类

新华网伦敦12月2日电(记者:刘石磊)英国理论物理学家斯蒂芬·霍金2日说,人工智能科技在初级发展阶段的确为人类生活带来便利,不过要警惕其过度发展,因为得到充分发展的人工智能或许预示着人类最终被超越。

由于患有运动神经元疾病,霍金需利用一台机器与外界交流。受智能手机输入法启发,美英两家科技公司合作,为霍金的电脑“量身定制”,设计出一款新的打字软件,使这位科学家的“说话”速度提升一倍。这种软件就利用了基础的人工智能技术,可“猜测”使用者的思维,推荐下一个可能用到的字词。

当天在这款新软件的发布会上,霍金坦承人工智能的初步发展已证明了其有用性,但他担心这类技术最终会发展出与人类智慧相当甚至超越人类的机器。“到时它(机器)将可能以不断加快的速度重新设计自己。而人类则受制于生物进化速度,无法与其竞争,最终被超越。”

今年5月,霍金曾与另外几位科学家为英国《独立报》撰文,称人们目前对待人工智能的潜在威胁“不够认真”。“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”如何趋利避害是所有人需要考虑的问题。

不过也有科学家认为,霍金对于人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。

俄乘客零下52度推飞机 事发机场官员遭罚 后一篇前一篇 老外收79国人收1000 中青报:钱多就该被坑吗?

相关阅读

最新评论

© 2002-2024, 蜀ICP备12031014号, Powered by 5Panda
GMT+8, 2024-5-21 13:04, Processed in 0.140400 second(s), 11 queries, Gzip On, MemCache On
返回顶部