龙空技术网

江晓原:人工智能过了临界点后,进化速度以秒计算,会变得极度致命

文汇网 1519

前言:

当前朋友们对“目前智能进化的速度尚未超越自然进化的速度对不对”可能比较重视,同学们都想要知道一些“目前智能进化的速度尚未超越自然进化的速度对不对”的相关资讯。那么小编同时在网络上收集了一些关于“目前智能进化的速度尚未超越自然进化的速度对不对””的相关文章,希望小伙伴们能喜欢,各位老铁们一起来学习一下吧!

不久前的在上海开幕的2019年世界人工智能大会(WAIC)上,以“智联世界·无限可能”为主题,进行了人工智能领域产业趋势、技术热点的“风向标级别”的讨论,由于科技在人类社会发展中越来越重要的作用,此次大会作为全球科技界最为重要的一场思想盛会,在一定意义上也是探讨人类前途命运的大会。

二马之辩

阿里巴巴创始人马云和特斯拉首席执行官伊隆·马斯克在大会上就人工智能相关问题进行了激烈讨论。

马云认为,人工智能会比人类更聪明,但不会更具智慧,“我不觉得AI是一种威胁”“人从来无法创作一个比自己更聪明的动物”。

而马斯克对此非常不认同。他认为,人工智能从很多方面已经超过了人类,“未来科技发展的速度变化会非常快,超越我们理解它的能力,我不知道这样是好事还是坏事”“聪明人犯的最严重的错误就是自以为聪明”。

最终,两人都没有说服对方。

人工智能会冲击人类文明吗

“现在人类玩的最危险的两把火,一把火是基因技术,一把火就是人工智能……人工智能一旦有了学习能力之后,你不知道它会变成什么样子。”中国科学史系的创建者江晓原教授一针见血。

江晓原,上海交通大学讲席教授,中国第一个天文学史博士,在天文学、科学等多领域都有建树,他的学术思想在国内外受到高度评价并引起广泛反响。

近年来,人工智能、基因技术等科学热点炒得沸沸扬扬,华文社特邀江老师集中当下科学热点,编辑出版了《你不了解的真相——江晓原说科学》。这本书里,江老师这样讲人工智能:“人工智能一旦越过了某个坎之后,自我进化的速度是极快的,快到不是以年月来计算,而可能是以分钟来计算,以秒来计算。一瞬间它就可以变成超人。……从中期看,人工智能有失控和反叛的问题,但是人工智能的威胁还有更远期的,从终极的意义上看,人工智能是极度致命的。”

关于芯片植入、记忆植入、人机结合的种种,江老师认为“很多人没有充分意识到植入记忆这个技术对我们人类的颠覆性作用……我们每个人界定我们自己,是靠什么来界定的?我们就是靠记忆来界定的。如果这些记忆被改变了,你就不再是你了。如果有人可以对你植入记忆,这个记忆一旦被植入,你就会变成他所希望的那个人。……这个芯片是谁写的?写芯片的人就是上帝”。对人工智能“至少应该进行重大的限制,而且这种限制现在就应该进行。”

科学应该有禁区

马斯克在大会上的这句“聪明人犯的最严重的错误就是自以为聪明”是非常值得玩味的。除了人工智能,基因技术、全球变暖、核电等热点同样需要我们深入反思,避免跌入自以为是的深渊。这些热点话题背后的线索,不为大众知道的科学事实都可以在江老师的这本书里找到答案。

江老师在这本书里坦诚讨论科学的真假,

“当我们发现更多、更新的东西的时候,我们就要换一种理论来描述这个世界……科学不等于正确”;

把科学从高高的神坛拉至烟火人间,

“科学是我们厨房里那把切菜刀”;

多层次、多维度地讲述了科学的局限性,

“国家利益之间的博弈就包括利用科学、利用科学的权威设置一些议题”;

论证科学已经告别纯真年代,

“向科学要生产力,就无法不让科学爱钱”;

提醒我们科学只是工具不是目的,要警惕科学,

“我们在用科学技术帮助我们追求幸福的同时,也要对它有一点戒心,要对它有正确的认识。”

用曾任北大校长许智宏院士的话就是,我们以前一直说科学没有禁区,但现在看来,科学研究仍然有着不可逾越的红线。

在科学不断加速度发展的现在,我们需要改变以往对科学技术的一味崇拜和热爱,换一种眼光来看科学。在未卜中探索人类文明延续的路。

作者:张超琪

编辑:卫中

标签: #目前智能进化的速度尚未超越自然进化的速度对不对