首页 > 新闻 > 全球

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

马斯克与奥尔特曼的AI之争,什么才是“负责任的AI”?

第一财经 2024-03-07 11:40:31 听新闻

作者:冯迪凡    责编:戚德志

“不管如何波动,在接下来的几十年内,我们将需要比现在更多的晶圆。”

特斯拉CEO马斯克指责OpenAI和其首席执行官奥尔特曼违背了发展人工智能(AI)的初心和方向。

在上周马斯克向美国加利福尼亚州法院提起的针对奥尔特曼和OpenAI的诉讼中,马斯克指控被告遗忘了OpenAI既定使命中的核心部分,即开发有用且无害的人工通用智能。

此后,奥尔特曼以及OpenAI在官网发文,承诺OpenAI的使命是“确保人工智能造福全人类”。

不过,批评者认为,AI发展速度之快恐会产生意想不到的后果,且对奥尔特曼表现出的责任感仍不以为然。

自从生成式人工智能(genAI)在过去一年中迅速普及以来,这些批评者就一直在警告,不受约束、不受监管的人工智能发展所带来的后果严重。

奥尔特曼对AI的责任究竟怎么看?批评者又如何认为?

“让AI无处不在”以及“负责任的AI”

2月下旬在美国加利福尼亚州圣何塞的一次会议上,奥尔特曼亮相并发表公开讲话,现场硅谷大佬云集,轮番登场,但一天议程中唯有此场受到特别瞩目,不少人只能站在走道听他讲话,现场有硅谷工作人员对记者感叹,以前这种围观是针对马斯克的,现在则是奥尔特曼“最红”。

第一财经记者拍摄

这也是近期奥尔特曼最完整一次公开阐述他对AI看法的讲话。据第一财经记者统计,其话题涉及AI算力需求、AI开放标准、AI责任以及前景等,可谓面面俱到。

他首先谈到,随着AI模型变得规模越来越大,功能越来越强,应用范围越来越广泛,希望能够确保它们变得数量更多,更加易于访问,使用成本更低,而不是变得越来越贵,只有少数人负担得起。

“每次OpenAI推出新版本的模型时,其应用数量都在不断增加。对我来说,最令人兴奋的是AI应用的广泛性和普遍性,我们现在看到其随处可见。我个人最关心的是人们如何提高程序员的工作效率,但它在教育和医疗等领域的工作也很有前途。”奥尔特曼谈到,让AI无处不在,需要先降低AI算力的成本,为此,需要足够的半导体产能,需要建设数据中心,容纳AI芯片,最后还需要能源,满足其能耗需求。如果不能把这几项同时结合起来,就会出现效率低下,系统过于庞大等情况。

他表示,目前,AI显然面临着严重的算力短缺。

针对媒体所报道的他曾提出所谓“7万亿美元AI芯片计划”,奥尔特曼没有正面回答这个问题,以“核心是世界需要更多的AI算力,既包括提供算力的AI芯片,也包括数据中心等算力基础设施”作为回应。

“世界也将需要海量的AI算力,因为未来新模型的功能将会更强大,它们将能为人们做一些超级有用的事情,人们会更愿意使用它们。在一个模型上投入的资源越多,它的性能就越好。”他称,总之,不管如何波动,在接下来的几十年内,我们将需要比现在更多的晶圆。

而在“负责任的AI”议题上,他认为技术是好的,是改善社会的一种“魔法”。这并不意味着技术(的使用)没有真正糟糕的部分,我们必须负责任地使用技术。

“在未来,AI生成的内容将比人类创造的内容更多,我们需要应对AI带来的影响。这(AI)或许不是一个完美无缺的好故事,但好的方面一定比坏的方面更多。”奥尔特曼说,人们适应新技术的速度非常快,对新技术能带给他们什么的期望也会快速增加。

“我认为人们将会继续习惯于使用AI技术,在接下来的五到十年内,人们将能够利用AI工具取得令人瞩目的进展,不仅能够更快地完成更多工作,还能做到以前无法做到的事情,以前只靠人脑、人力无法实现的,新的AI工具将帮助我们做到。”他称。

而在谈及AI开放标准时,奥尔特曼表示:“提供互操作性和统一标准,让人们能够使用不同的AI系统,这是一件好事。目前正在开发的AI系统都使用自然语言工作,这为AI的开放标准带来了巨大的先发优势,虽然我们还有许多不同的协调工作要做。”

“在使用不同的AI模型时,我们都是给出提示词,得到对应的回答。自然语言让人们能够更容易地从一种AI模型转换到另一种AI模型,并对两者进行比较。”他称。

批评者对OpenAI表态不以为然

不过,OpenAI和奥尔特曼的表态没有让批评者满意。

马斯克就一直在表达对AI可能带来的潜在风险的担忧。

IDC全球人工智能与自动化研究集团副总裁杰优替(Ritu Jyoti)则表示,奥尔特曼公开表示支持AI负责任的发展,不过是在做表面文章。

“虽然业界一致认为,负责任地开发和部署AI是一项集体责任,但(OpenAI的公开声明)并没有提出所需的具体行动。”她表示,“因此,在我看来,没有太大的增值作用。”

此前,奥尔特曼还签署了一封承认AI具有改变世界风险的公开信,但批评者仍然认为,企业应对这些风险的自律性质的努力是不够的。其原因在于,当AI工具开始发展超出其设计规范的行为时,就会出现对齐问题。人们担心的是,最先进的AI实例可能会自我迭代,以人类不希望的方式发展,这是一个严重风险。

“问题是,如果一个系统比我们更聪明,我们是否有能力控制它?”致力于降低AI风险的PauseAI组织创始人、荷兰开发者美德特斯马(Joep Meindertsma)这样问道。

他举例称,像AutoGPT这样的系统,基本上可以自问自答,创建自己的查询来完成复杂的研究任务,这种技术可能会被证明具有高度的破坏性——而且是危险的。

Auto GPT是一款自动文本生成系统,能够生成连续且连贯的文本,主要用于文章或故事的自动生成。它是由OpenAI公司开发的GPT-3模型改进而来,专门用于长文本生成的任务。

“在某些时候,有人会向这台计算机提出一些问题,而这些问题所涉及的想法会传播到其他机器上,这是很有用的。”美德特斯马解释道。

至于马斯克针对奥尔特曼和OpenAI的诉讼,美德特斯马说,马斯克可能有点道理。他认为,当初成立 OpenAI的初衷就是为了引导AI朝着负责任方向发展。然而在奥尔特曼和 OpenAI的领导下,AI高速发展的现状很快就超越了行业组织创建的任何防护栏。

他举例说,AI已经展示出来的能力--比如GPT4自主入侵网站的能力--是极其危险的,缺乏监管加上genAI的快速进化是一种威胁。

2023年10月,美国政府推出有关genAI的首套监管规定。

举报
第一财经广告合作,请点击这里
此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。 如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com。

文章作者

一财最热
点击关闭