APP下载

忧虑篇:人工智能!慢一点,再慢一点

2015-10-31

中国信息技术教育 2015年20期
关键词:垃圾邮件史蒂芬霍金

最近一段时间,人工智能领域很热闹:先是百度推出智能秘书服务“度秘”;紧接着,腾讯财经用机器算法自动生成了一则新闻,其速度与效率令人惊叹。就在人们普遍憧憬人工智能为人类生活带来美好未来的同时,今天世界上最聪明的一群人正对人工智能的未来忧心忡忡,史蒂芬·霍金尖锐地指出:“成功研发人工智能,将成为人类历史上犯的最大错误。不幸的是,这也可能是最后一个错误。”伊隆·马斯克则认为:“开发人工智能就是在召唤恶魔。”而这,并非危言耸听。

我们的生活中已经充满了弱人工智能,只是我们大部分人没有意识到:从手机上的计算器到无人驾驶汽车,从地图软件导航到垃圾邮件(短信)过滤,从谷歌翻译到社交/购物网站的好友/商品推荐,都是人工智能在特定领域的应用。在利益的驱使下,大量资金被源源不断地投入到人工智能的技术创新中,每一次创新都在给通往强人工智能和超人工智能的道路添砖加瓦。糟糕的是,我们不知道自己铺的路到底是通往地狱还是天堂,人类会因此灭绝还是永生。Aaron Saenz有一个非常精彩的比喻:现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。我们难以解释生命是怎样突然出现的,同样我们也难以预言人类怎样召唤出第一个超人工智能。试图创造出比自身更聪明的东西是不是一种愚蠢的行为?超人工智能会不会成为人类的最后一项发明、最后一个挑战?

忽然之间,我发现自己多年来对人工智能的美好憧憬被瓦解,对高调的科技创新也开始充满忧虑。我迫不及待要做的事就是让我的学生做一份关于人工智能的研究报告,希望他们用自己的头脑去思考,去探索。未来所有关于人工智能的研究,请慢一点,再慢一点,因为没有任何事情比人工智能的安全更重要。

猜你喜欢

垃圾邮件史蒂芬霍金
垃圾邮件会在2020年消失吗
给善良一次机会
美男子与女儿乱伦生子双双被捕
霍金,科学界的传奇
向史蒂芬·霍金致敬
霍金“坐得住”
宇宙之王霍金
如何杜绝垃圾邮件的“入侵”
东方国家垃圾邮件输出日益严重
垃圾邮件何时不再蹂躏人们的眼睛