登录  
 加关注
查看详情
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

师法自然

思想是可以进入任何时空的阶梯。

 
 
 

日志

 
 
 
 

引用 霍金撰文称盲目发展人工智能或招致人类灭亡   

2014-05-05 08:44:19|  分类: 默认分类 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |


人民网 2014/05/04 06:48

霍金撰文称盲目发展人工智能或招致人类灭亡 - 红山战友博客 - 红山战友博客

资料图:霍金

原标题:霍金撰文称盲目发展人工智能或招致人类灭亡

人民网5月4日讯 据英国《独立报》报道,著名物理学家霍金近日在《独立报》撰文警告说,科学家如果轻视人工智能(AI)的潜在危机,会招致人类自身灭亡。

霍金在文章中指出,Siri、Google Now及Cortana等人性化软件,都显示科技界在发展AI方面,正以空前的投资额展开一场竞赛。他认同AI可以造福人类,消除疾病与贫困。“成功创造人工智能将是人类历史最大事件,但若不懂如何去避开风险,这也将是最后的大事”。

霍金指出,AI可以驾驭金融市场、人类领袖,“甚至发展出我们不能理解的军事武器”,这类情况就像踩钢丝,可以是最好的事,也可能是最糟糕的事。

  评论这张
 
阅读(10)| 评论(0)

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018