龙空技术网

傅莹:智能、人类与大国责任

世知社 147

前言:

当前姐妹们对“不受空间限制”大致比较关心,咱们都需要学习一些“不受空间限制”的相关内容。那么小编同时在网摘上收集了一些关于“不受空间限制””的相关知识,希望同学们能喜欢,我们一起来学习一下吧!

2019年11月,96岁的基辛格博士来北京出席创新经济论坛,期间主动要求参加一个讨论人工智能(AI)的分论坛。当时我与谷歌前首席执行官埃里克·施密特(Eric Schmidt)作为嘉宾参加这个论坛的讨论。基辛格博士在发言中谈到,AI技术的发展将给人类带来巨大的变化,它所展示的是人类探索的新现实——这将带来什么影响?没人能给出答案,需要由技术人员和政策研究者一起讨论。

两年后,基辛格博士与施密特和麻省理工学院苏世民计算机学院院长丹尼尔·胡滕洛赫尔(Daniel Huttenlocher)合著的《人工智能时代与人类未来》(The Age of AI: And Our Human Future)正式出版,彼时关于AI的讨论更加活跃,世界首个万亿级语言模型Switch Transformer横空出世。此刻,AI不仅已经渗透到人类生活的方方面面,ChatGPT等自然语言识别程序应用更引发全球对AI前景的热烈讨论,连小学生都开始担心自己的梦想将因人工智能对人类技能的取代而得不到实现。

由基辛格等人所著《人工智能时代与人类未来》一书中文版已由中信出版集团出版发行。

人类将因AI拥有不一样的未来?

AI的应用不断发生质的飞跃,用业内人士的话来说,技术爆炸正以天为单位发生。机器从人类的工具到伙伴甚至成为人类的对手,不再是幻想,我们似乎正在迈入科幻的真实世界。

基辛格喜欢凡事都从哲学的角度思考,并且声称这是他与中国领导人谈话时获得的启发。在这本书中,他试图从人类生存和命运的角度,探讨AI对人类的未来意味着什么。其他两位作者也是在各自领域颇有建树的专家。如他们所言,该书并没有试图定义一个时代,而是想趁着AI带来的影响尚未超出人类理解范围之际,通过描绘这项技术如何改变人类的思想、知识、认知和现实,对其进行思想和哲学上的叙述与分析,由此呼唤人类为共同应对挑战开展对话。

《人工智能时代与人类未来》从人类处境和走过的路说起,引出一个需认真思考的前景:AI的问世标志着人类在探索现实本质的旅程中,创造了一个新的强大参与者,它将如何影响和改变人类及其生存环境?人类将面临怎样的未来?书中有一个章节专门描绘人类的理性是如何历经不同历史时代,最终获得至尊地位的。如苏格拉底所言,哲学家如同一个挣脱束缚、沿着坡路走出洞穴,在阳光下感知真实世界的囚徒。怀着理性探索世界现实是长期以来人类积累知识和提升智慧的主导思维方式,不同社会和认知上的冲突与相互融合亦不断扩大人类的经验积累,加快科学进步。

长期以来,人类对自身是“世界唯一智者”这一点深信不疑。现在,AI的突飞猛进动摇着这一信念。书中谈到,过去所取得的许多创新技术都可以被视为是以往实践的延伸:电影是移动的照片,电话是跨越空间的对话,汽车是快速移动的马车。现在,AI带来的创新不再是已知事物的延伸。许多过去只能由人工完成的任务,例如阅读、研究、购物、谈话、记录保存、监视、制订军事计划和行动,等等,已能转为数字化和由数据驱动,在网络空间实现。在传统的场景里,信息被情境化时就变成了知识,当知识令人信服时就变成了智慧。而现在,AI的应用开始波及人在思考、选择和决定方面的中心角色。

AI已经在不经意间走进人类的生产和生活。确实,AI所能带来的便捷显而易见,人们得以从许多繁琐的细节里脱身。我记得30多年前在联合国的劳工组织临时工作期间,常利用休息时间步行参观罗马城,靠的是一份折叠的小地图册,上面标注了每一条街角、每一座博物馆和每一处历史遗迹。现在似乎很少有人用这种纸质地图了,人们依赖手机导航出行。我甚至好久都没有翻阅字典了,遇到生僻词会习惯性地在网络上搜索……这些只是普通人在生活中初步接触到的AI应用。在科研和医学探索等领域,AI带来的革命性变化更是近代以来前所未有,它可以进入人类尚不了解、难以察觉的层面,触碰着知识尖端探索的前沿。例如,AI参与药物研发时,通过“学习”科学家预设具有抗菌能力的分子特质,就能“察觉”到超越人类知识范畴的分子结构,从而“发现”了全新的抗生素;美国国防部高级研究计划局(DARPA)“阿尔法狗斗”(Alpha Dogfight)AI战斗机飞行员可以做出超出人类能力的动作,并在虚拟空战中战胜经验丰富的人类飞行员。

AI的强大学习能力也让人感到困惑甚至恐惧。《人工智能时代与人类未来》一书提到,AI的致命问题在于,它可以得出正确的结论却不能展示研究路径,其获得结论的方式是不透明的,人类无法得知其所以然。那么,未来AI介入后的世界可能无法被人类完整的认识和解释。在我们所关心的所知为何、何以知之甚至何为可知等问题上,AI也许将采取不同的路径,从而对人类运用理性探索现实的信念构成挑战。作者们追问:当人被AI提供的信息和知识包裹起来时,是在向知识迈进吗?抑或知识正在离我们而去?

“我思故我在”。若AI能思考或近乎思考,那我们又是谁?虽然关于AI的一些前瞻性探究已经预测其未来可能拥有意识,但是至少目前它还没有进入具备理性和感性能力的阶段。书中判断AI没有反思、畏惧、原谅等人类的共情与道德,进而提出,信赖AI的判断是否会导致人类丧失人性?书中列举了荷马史诗《伊利亚特》对赫克托耳、阿喀琉斯在特洛伊城下决斗的讲述和毕加索画作《格尔尼卡》对西班牙内战中平民伤亡的描绘,由此说明,人类经历过战争后,能对战争导致的悲剧进行反思,竭力避免下一场战争,然而AI却无法做到——它可以严守规则、表现出色,赢得最有利结果,却无法产生反思善恶的道德或者哲学冲动。

《人工智能时代与人类未来》一书分析和列举了AI的可能风险,比如,不具备人类“常识”,基于数据的判断是僵化的,有可能犯错,并且不具备自主“纠错”能力。再如,AI会将人类设计者的偏见放大,做出更加错误的判断,还可能产生不符合需要的行为。2016年,微软研发的聊天机器人Tay在互联网接触到仇恨言论,开始迅速模仿,迫使创造者将其关停下线。如果未来人类对AI的依赖加深,演变成一种授权,其潜在风险将难以估量。

2023年5月30日,年度“中关村论坛”重大科技成果专场发布会在北京举行,会上发布了《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025)》和《北京市促进通用人工智能创新发展的若干措施》。

军事安全风险尤值关注

《人工智能时代与人类未来》一书重点关注在地缘政治和战略安全领域里的风险问题。虽然现在没有迹象表明人类已经开启AI赋能武器的军备竞赛,但是,作者们认为,一旦AI与网络武器、核武器相结合,将极大增强武器的效力和可及性,从而构成冲突升级的内在风险。如果AI进入战略的各个层面,在人类理性不可及的领域,那么其过程、范围和最终意义将变得不再透明。

当年人类面对核武器时也充满恐惧和不安,当时世界处于美苏冷战对峙僵持阶段,双方依据核威慑理念,拼命发展足以毁灭人类的致命武器,同时声称这是为了避免战争,也就形成一个逻辑怪圈,令战争风险不断上升。当时战略界关心的是,核武器的使用能否与全面战争和相互毁灭以外的政治目标相协调?换言之,如何使核武器的发展摆脱共同毁灭的风险?经过包括基辛格在内一批国际学者的多年研讨和美苏之间的长期谈判,核军控措施和核查机制最终达成了,更重要的是,促进了大国必须避免核战争的全球共识。

该书的关切点在于,如何防范和避免AI技术在军事领域的发展可能给世界带来的威胁。首先,AI技术具有不可知性,不受空间限制。实体武器无论多么隐蔽,其制造、部署终有迹可循,而AI技术不受空间限制,在世界上的任何角落,一台连接网络的电脑就能运行经过开发的AI程序并赋能武器,通过国际机制监督与限制AI武器的部署会很困难。更重要的是,AI的介入可以极大地提升军事能力,甚至达到超越人类认知的层面。这使得冲突对手之间更加难以相互预测,误判和冲突升级的风险大大增加,如果出现自主攻击型AI武器就更危险。书中提到,虽然许多国家承诺不将致命自主武器投入使用,但是考虑到AI武器的隐秘性和不可知性,谁都难以确信AI技术新发展下的军事应用不会扩散。

当今世界已经将核武器置于国际安全和军备控制概念的框架中,对AI和网络武器则尚未建立类似的战略框架。《人工智能时代与人类未来》的作者们认为,阻挡技术发展是不可能的,但是AI武器化的前景将挑战人类已经取得的一些基本国际安全共识。他们呼吁以理性、智慧、合作创造出比核军控更高明的战略框架,对AI武器化实现有效的管控和治理。他们尤其关注在AI技术开发与应用方面走在世界前列的美国和中国能否就这个事关人类前途的问题开展合作。

2022年9月1日,世界人工智能大会在上海开幕。本届大会以“智联世界 元生无界”为主题,集中展示全球人工智能发展成果。图为“AI+城市”展区。

中美作为AI研究和应用领跑国家需承担更大责任

在2019年北京创新经济论坛上的那场讨论中,我曾谈到,中美作为AI领域的领跑者,在治理问题上责任重大,目前两国间日益恶化的紧张关系必然会影响到人类如何应对未来新技术的挑战。我提出的问题是:双方是能够共同努力、实现人类与技术的共生,还是分道扬镳甚至导致技术削弱甚至伤害对方?当时基辛格博士表示,美中面临的最大挑战和基础性问题是:两国是否进入一种互为敌手的关系(adversary relationship)?还能否通过合作找出一些问题的解决办法?如果互为敌手,两国将在整个世界的范围里彼此争斗,世界将会被分裂。

基辛格等人在《人工智能时代与人类未来》一书中写道,国家间永远不会有完全的信任,但是这并不意味着无法达成某种程度的谅解。两国需要认识到,无论双方关系如何演变,彼此都不应打一场前沿技术战争。因此,双方在各个层面启动关于网络和AI的讨论至关重要,哪怕只是形成一套共同的战略概念话语,增强对彼此红线的感知力。书的作者们承认,定义AI的难度也许超过人类历史上遇到的任何挑战。

他们并非少数对AI前景感到恐惧的人。最近离职的谷歌前副总裁兼工程研究员杰弗里·辛顿(Geoffrey Hinton)提出“人类只是智能演化过程中一个过渡阶段”的观点,声称AI已具备简单推理能力,不能排除将来掌握更多能力,甚至操纵人。欧洲正在推进“人工智能法”(The AI Act)的立法进程,试图对AI实施强监管。该法案严格禁止“对人类安全造成不可接受风险的AI系统”。基辛格认为,如果人类能够划定边界,让理性凌驾于对新技术的恐惧和困惑之上,人类未来大有可为,否则可能坠入深渊。

美国近年从国家层面加强了对AI的关注和投入。2018年8月,美国政府组建人工智能国家安全委员会。2021年3月,该委员会出台报告,规划了美国在AI时代遏制他国赢得竞争的战略方针和行动路线图。2023年5月,美国政府召集多家科技龙头企业高管,讨论AI的安全性问题。但是,现任美国政府对于在高技术领域与中国的合作不仅不予支持,而且不断设置障碍,试图阻断中国的技术发展,在AI国际治理方面也缺乏与中国沟通的意愿。因此,基辛格等人提出的主张和倡议并不能反映美国政府的真实意愿。

尽管如此,中美在AI领域的民间交流与学术对话并没有停止。2022年3月斯坦福大学发布的《人工智能指数2022》显示,2010年至2021年,中美在人工智能出版物方面的合作数量增加了五倍,连续12年居全球榜首。目前全球AI发展的基础理论和技术研发保持着一定的开放态势,其开源模式有利于制约垄断。中国科研和企业界加快了步伐,呈现出你追我赶的气氛。2019年10月,清华大学战略与安全研究中心(CISS)与美国布鲁金斯学会启动“人工智能武器化的治理”联合研究项目,双方的学术讨论在过去三年多时间里顿挫推进。虽然中美战略分歧上升、信任度下降,但是,参加项目的双方学者都认为,对AI赋能的武器,尤其自主性武器的治理事关重大。项目焦点是如何围绕AI赋能武器建立一定的治理共识和规则。例如,如何把双方和世界大多数国家都认可和遵循的国际战争和安全法律、规则植入AI武器中,如何确认禁止AI武器攻击核电站、大水坝等民用设施……这个项目的进程从一个侧面反映了大国博弈中前沿学术合作研讨的艰难,但其成果令人鼓舞。

中美有更大责任去思考人类未来,两国的选择将深刻影响技术的发展方向。不论美国还是中国都不可能垄断世界的技术进步,如果双方采取互补的积极态度,AI技术的前景会更加光明;如果两国不能合作,双方都将遭受损失,人类也会付出代价。大国在新技术的浪潮面前,不能像美国所表现出来的那样过于重视私利而忽视人类共同利益。如果继续抱着冷战思维、零和博弈的心态不放,必将走向人类共同命运的相反方向。

中国倡导负责任的AI全球治理

在习近平外交思想指引下,中国在AI治理方面的言论和行动是负责任的。2019年2月,由中国科技部牵头组建成立国家新一代人工智能治理专业委员会发布了新一代人工智能治理的八项原则,包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。2020年9月,中国政府提出“全球数据安全倡议”,强调在相互尊重基础上,加强沟通交流,深化对话与合作,共同构建和平、安全、开放、合作、有序的网络空间命运共同体。2021年12月和2022年11月,中国政府先后发布《关于规范人工智能军事应用的立场文件》和《关于加强人工智能伦理治理的立场文件》,呼吁各方遵守国家或地区人工智能伦理道德准则。2023年5月18日,中国科协主席万钢在第七届世界智能大会上表示,要着力打破“数据孤岛”,合法合规推动开源开放,为人工智能产业的稳定发展提供源头动力。

诚然,《人工智能时代与人类未来》这本书有着明显的局限性,其观点的阐述基于西方理念和价值,历史参照也主要源自美欧经验,对发展中国家和其他美欧之外国家的历史和文化思想缺乏认识,对AI技术发展对非西方国家社会和人民的影响缺乏关注和反映。这本书提出的问题也比给出的答案多,对许多疑问没能给出更加深入的分析和解决方案。但总体上看,这是一本比较通俗的关于前沿技术和热门话题的书,有助于开启多维度的严肃讨论甚至辩论,也能帮助中国读者更好地了解国际上围绕人工智能讨论中涉及的各种话题。我们需要广泛了解世界各国和各界的思想、观点和疑问,提出中国人的想法和主张,积极参与到当今世界重大问题研究和探寻解决路径的努力中去,践行构建人类命运共同体的主张。

本文刊登在《世界知识》2023年第14期责编:绯银

标签: #不受空间限制