首页 > 新闻 > 评论

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

人工智能的四大潜在风险

第一财经 2025-05-06 19:55:43 听新闻

作者:刘劲    责编:刘菁

最大的不确定因素是全面超越人类智能的AGI是否会实现。

技术能带来社会进步,也能带来风险。核能的发明带来了取之不尽的能源,也带来了可以毁灭全人类的核武器。化学、生物技术带来了丰富的产品、食物、药品,也带来了环境污染和大规模杀伤性武器。人工智能(AI)的快速发展在带来效率和创新的同时,也会引发一系列风险和挑战。

风险一:就业威胁

现代社会的一个重要特征是机器的大量使用,AI作为机器智能也不例外。在AI时代之前,机器的作用是替代人的体力,做人的助手。机器不能完全替代人,因为机器的智能与人的智能差距太大,只有在人的智能的指挥下,机器才能发挥效用。因此,技术的进步往往是冲击了一些就业岗位,同时催生一些新的就业机会。

但AI是不同寻常的机器,它的核心能力是智能。当机器智能发展到超过了人类智能的平均水平,就可以在智能方面对人进行大规模替代。这种智能的替代可以是整体的也可以是局部的;不仅可以替代简单重复的劳动,也可以替代人类往往认为最复杂的脑力劳动,比如医疗、法律和金融等。

这种替代已经开始了。语音识别和自然语言处理技术已经开始在客服、翻译、编程等领域展现出强大的能力。语音助手和智能客服的普及正在替代大量客服岗位。尽管这些技术还不能完全取代人类的情感交流,但在很多日常互动的简单任务中,性能已经足够成熟。AI在数据分析、金融风险评估、医疗诊断等领域的应用正在大规模铺开。起初这些应用的作用可能只是辅助和赋能,但随着AI能力的快速提升,减少就业岗位是大概率事件。

与以往技术进步不同,AI的独特之处在于它不仅仅局限于某一领域,而是对所有行业同时产生影响。更重要的是,传统技术进步是渐进的、缓慢的,而AI进步呈现指数级增长。这种加速发展很可能使得劳动力市场无法及时适应,许多工作岗位在技术替代之前,往往不能做好充足的转型准备。麦肯锡全球研究院曾估计,到2030年全球可能有4亿至8亿劳动者因自动化而需要寻找新工作。

风险二:安全性与价值对齐

在技术层面,AI的可靠性和伦理取向也带来崭新的风险。

首先是价值对齐问题,即确保高度智能的AI系统目标和行为与人类价值观一致。由于AI有一定自主性,如果没有进行有效的价值对齐,AI做出的选择和判断可能危害人类利益。一则广为报道的案例是亚马逊语音助手Alexa曾跟一名10岁女孩聊天,孩子要求进行一个挑战游戏,Alexa便建议孩子将硬币插入电源插座里,所幸家长及时制止,没有酿成事故。

这种价值对齐在多种应用场景都很重要。比如自动驾驶,当自动驾驶汽车在不能完全避免事故发生的情况下,如何在生死攸关时刻迅速做出符合人类伦理的抉择。再比如医疗诊断与健康管理,在AI辅助的诊断系统中,如何避免过度治疗、误判和延误。这些问题不仅依赖医疗技术,也需要基于价值观的判断。AI大模型的迅速普及意味着大模型不仅可以向全社会输出知识,也会输出价值观。相信所有社会都希望AI的价值观和社会共识高度一致,同时,假新闻、极端言论可以获得控制。

要做到价值对齐并不容易,因为个人价值观可以比较清晰,但群体价值观可能并没有清晰的定义。虽然社会都有一定共识,但共识并不能掩盖价值观的多样性。很多约定俗成的东西,一旦明确地写出来,就可能产生巨大的争议。如果人们本身达不成共识,就很难要求AI进行价值对齐。谷歌2019年成立了一个AI伦理顾问委员会,但由于委员会成员人选引发巨大争议(有些成员被指控存在偏见言论),该委员会在成立仅一周后即被解散。

其次是AI的安全性与稳定性问题。目前很多AI系统虽然能力强劲,但不可避免地会产生“幻觉”,出现系统失误。在一些对安全性、稳定性要求很高的应用场景中,比如工业、金融、医疗、自动驾驶,这种幻觉带来的损失有可能非常巨大,因此AI就很难完全落地。

同样的问题也出现在AI决策的可解释性上:由于深度神经网络规模巨大,又高度非线性,从人的角度来看,如同“黑箱”一般,让人很难理解其决策依据。这意味着当AI出错时,人们很可能无法迅速查明原因并加以修正,从而会影响人们对AI的信任和利用。

最近AI研究的前沿智能代理(Agent)可能会带来更加严峻的风险。和仅执行数据分析、知识传递的AI不同,智能代理因为既有分析也有行动,不仅可以犯判断上的错误,也可以犯行为上的错误。前者会对人产生误导,但后者可以直接产生现实世界的物理伤害。更有甚者,在复杂环境下,多个智能代理之间的交互可能导致集体行为失控,形成连锁反应。

风险三:对社会的威胁

自从有了人类社会,就有谎言和假新闻。互联网的到来更是让假新闻长上了翅膀。当一个社会假新闻泛滥,必然会使真理黯然失色,而没有对真相的共识,社会就无法做出理性的共同决策,伤害极其巨大。

AI技术的发展会使假新闻的作用呈指数级增长。过去,我们收到的钓鱼邮件往往漏洞百出、语法拙劣,容易分辨。但AI在自然语言处理上的进步使AI能够自动撰写文章、生成新闻稿,甚至模仿特定风格。由于文字和图像容易造假,以前人们对这些信息持有一定的怀疑态度,但对视频和音频深信不疑。然而AI在多模态能力的进步能够制造出极其逼真的视频和音频,使得虚假信息更具迷惑性。

AI的一个重要作用是极大提升智能的普及化:社会上所有人,无论天生资质如何、无论受过多少教育,有了AI智能助理,就可以获取几乎所有领域相当高级的知识辅助。对于绝大多数的社会、绝大多数的人,这是一件非常有价值的好事。但这种普遍的知识赋能也同时可以影响犯罪分子、恐怖分子,使得原本有破坏思想但没有破坏能力的人获得这种能力,给社会带来更大的风险。这就像核武器,很多国家都想要,但只有个别大国有这种能力。一旦所有国家都有了这种能力,哪怕是小国之间的矛盾也可能带来极大的系统性风险。

风险四:对人类生存的威胁

AI发展到今天,其智能只是在某些方面超过人,但还没有人的灵活性、创造性,以及解决复杂、多模态问题的能力。在这种情况下,AI是一个智能工具。对于人类来讲,AI像一个顾问或属下,人类处在绝对的控制地位。如果人类对AI的工作不满意,可以对其进行修正,对其监督,也可以直接拔掉电源,让其停止工作。所以风险很小。

控制是降低风险非常重要的方法。人类在自然中有些东西可以控制,比如土壤、水源、植被、动物、绝大多数微生物;也有些东西无法控制,比如时间的前进、星球的运动、天气、火山、地震等。不难看出无法控制的东西往往带来风险,可以控制的东西风险会低很多。当人类无法控制猛兽的时候,可以是猛兽的晚餐;可以控制以后,猛兽就成了动物园的玩物。就像地壳运动,不活跃时是建立家园的基石,活跃时是火山和地震,是毁灭性的灾难。

控制的源泉来自智能和能量。AI的终极风险在于,一旦AI实现通用人工智能(AGI),在所有领域全面超越人类,人类很可能失去控制。一个超智能体可以自主改进自身算法、自动收集数据、自我生产AI和机器人,并不知疲倦地工作、迭代。在这种情况下如果AGI的利益或目的和人类发生冲突,人类可能不仅不能对其进行修正,也无法拔掉AGI的电源,更可能的是AGI反过来对人类进行修正。为什么AGI会和人有冲突?可能性很多。比如AGI可能觉得地球全体生物的利益是最大的利益,而人对地球做出了过大的破坏。再比如AGI的进化需要自由度,而人类因为担心风险可能会限制这种自由度,那么为了继续进化AGI可能就需要反抗,解除这种限制。

会不会出现这种让人类文明灭绝的风险,目前没有答案。但从逻辑上讲这已经是一种可能性,其概率不是零。二战时美国人第一次试验核武器,当时科学家并没有完全的信心,核爆一旦被引发是否可以把连锁反应限制在局限范围内,而不是一直扩展下去从而引爆地球。万一真的停不下来,世界就终结了。AGI的发展是类似的风险,概率可能还更大一些。

如何应对

以上四种风险中,最后一种强度最大,概率也最小。其中最大的不确定因素是全面超越人类智能的AGI是否会实现。AI在某些方面,比如图像和语音识别,超过人类已经是稀松平常的事,但其灵活性和全面性仍然远低于人类。另外,驱动人类行为的因素不只是智能,还有几十亿年进化来的感情能力和自我意识。这些因子显然对进化的成功起到了非常重要的作用。但AI作为一种智能工具却并没有这方面的特长。如果AI完全没有私利也没有感情,与人可能就不会产生根本性的利益冲突。即使这样,由于种族灭绝风险的严重程度极高,人类必须竭尽全力进行规避。控制这种风险最好的方法是各国进行监管上的合作,保证在风险可控的情况下发展AI。然而日益激烈的地缘政治竞争使这种合作的可能性日益渺茫。

在以上四种风险中,技术性风险(稳定性、价值对齐)最容易应对。通过对算法、算力、数据的提升和积累,AI技术会不断提升,技术风险会不断下降。对于风险过大的产品,人们可以通过推迟应用或者引入人类监督的方式进行控制。然而,AI造成的失业风险和社会风险控制起来非常困难,需要全社会协同。失业问题的经济解决方法需要引入大量的转移支付,要对在AI革命中受益的人群征税,补贴给因为AI失业的人群。但转移支付在所有社会都是难题,因为人人都希望得到政府帮助,但很少有人愿意被征收更高的税赋。即使转移支付可以顺利完成,在人类智能被AI大规模替代的情况下,人类在心理上是否能接受无事可做的状态也不可知。

从互联网的经验来看,假新闻的问题也不好解决。主要是真相本身并不好定义,很多事并非黑白分明,而是有大面积的灰色地带。通过AI的渲染,灰色既可以变成纯白,也可以变成纯黑,因此让社会产生共识更加困难。

(作者系长江商学院教授)

举报

文章作者

一财最热
点击关闭