首页 > 新闻 > 一财号

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

OpenAI员工内部信!揭露神秘Q*威胁人类?这里有啥硬伤?

2023-11-29 16:13:46 听新闻

作者:王煜全    责编:蔡嘉诚

真正值得思考的问题是,如何利用人工智能帮助人们解决现实问题,最大限度地为人类谋福利,这就需要“智能服务设计”。

(作者王煜全,海银资本创始合伙人)

虽然Sam Altman已经回OpenAI了,但是他被罢免的原因仍然悬而未决,所以就引出了各种猜测。

11月23日,《路透社》号称有知情人爆料,说OpenAI罢免Altman的四天前,有几位研究人员给董事会写了一封信,他们发现了一个强大的人工智能模型“Q*”,并警告说这有可能威胁人类。

还有人告诉《路透社》,OpenAI的一些人认为Q*可能是实现通用人工智能的重要突破,这个新模型能够解决很多数学问题。

Open AI的宫斗刚刚过去,威胁人类的Q*算法又引起了新一波热潮,《The Information》等各个媒体争相报道,还有不少业内人士开始提出各种猜想。

那么,大家认为Q*是什么呢?

人工智能培训公司Tromero的联合创始人索菲亚·卡拉诺夫斯卡提出了一种观点,Q*是两种著名的人工智能技术Q-learning和A*搜索的组合,这个说法流传得比较广。

其中,Q-learning是强化学习的一种形式,通过奖励理想结果来训练AI做出更好的决策。

举个例子来说,Q-learning就像是玩一个全新的电子游戏,开始时你对游戏一无所知,但通过不断尝试,从游戏的奖励或惩罚机制中学习,你会逐渐理解如何玩得更好,最终能够在游戏中获得更高的分数。

2014年,Google DeepMind用Q-learning构建了一种AI算法,它可以自己玩“雅达利2600游戏机”中的各种游戏,水平和人类差不多。

而A*算法是一种高效的搜索算法。就像是一种智能地图导航,它在规划从一个地点到另一个地点的路线时,会同时考虑已经走过的路程和预估的剩余路程,以找到最快的路径。

生成式AI一直被诟病的缺点是有“幻觉”,也就是生成一些违反常理或者不合逻辑的信息,这是因为它的总结能力很强,但是推理能力较弱。

按照索菲亚的解读,如果GPT能结合Q-learning和A*算法,就可能提升规划、推理能力,减少“幻觉”,也就离通用人工智能更进一步了。

但是,也有人提出了反对意见,认为所谓的Q*并没有那么厉害。

比如,Meta的首席人工智能科学家Yann LeCun发推说,大家可以忽略有关Q*的大量废话了。它很可能是OpenAI在提升规划能力上的尝试,但几乎每个顶级实验室都在这样做,比如FAIR、DeepMind等等。也就是说,即使存在Q*也并不是什么新鲜事。

艾伦人工智能研究所的科学家Nathan Lambert认为,Q*主要用于研究高中数学问题,而不是毁灭人类。

而英伟达高级科学家Jim Fan说,在他研究人工智能的十年里,从未见过一个让这么多人产生幻想的算法,却只有名字,没有论文,没有统计数据,也没有产品。

我们一直倡导大家在网络媒体时代要加强信息素养,Q*就是一个典型例子。

实际上,《路透社》并没有看到所谓的内部信,也没有任何证据证明Q*存在,只有一些知情人士的口头爆料。

试想一下,如果真的有一群人取得了一项突破性的技术进展,那么他们会高兴还是恐惧呢?

实际上,即使是威力更大的核裂变被发现时,人们也并没有藏着掖着,而是发论文公布成果。

1939年,德国科学家哈恩和斯特拉斯曼发表了铀原子核裂变现象的论文,同年9月,丹麦物理学家玻尔和惠勒从理论上阐述了核裂变反应过程,并指出能引起这一反应的最好元素是同位素铀235。

他们的理论对后来的原子弹开发起了重要的作用,但这并没有阻止他们推出新成果。

退一步讲,假设真的有一种可以让GPT大幅度进化的算法,AI就能威胁全人类了吗?

我多次强调,生成式AI是一个功能而不是应用,功能到应用之间还需要复杂的工程化协作。

我们仍然以核裂变为例,从核裂变理论到原子弹爆炸,中间就有一个庞大而复杂的系统工程,也就是奥本海默领导的曼哈顿计划。他们不仅集中了众多科学家,还动员了10万多名工作人员,历时3年才造出原子弹。

当人们谈到AI毁灭世界的时候,很容易联想到《终结者》中的“天网”,好像AI会控制机器人、武器、装备来消灭人类。

但是,生成式AI只是一个算法,有非常明显的能力边界。如果想要威胁全人类,就需要对物理世界产生改变。

这不是一个算法改进就能实现的,需要结合更多的技术与工程突破,还要人类来做广泛的工程化改造,光靠算法可不行。也就是说,能毁灭人类的还得是人类。

有人会说,有的科幻片里人工智能会占领互联网,毁坏金融系统、数据系统,造成经济损失。但是,即使没有强大的人工智能,也一直有黑客在网络世界里做坏事。不过从来也没有人认为黑客会毁灭人类。

而人工智能只是工具,它产生主观意识的情节仍然只存在于科幻片中。即使有了自主意识,还想毁灭人类,其破坏力撑死也就是黑客的水平。这样看来,OpenAI的宫斗剧虽然结束了,但媒体已经开始把它演绎成科幻片了。

简单总结一下,Q*威胁人类的信息来源本就不明确,OpenAI官方也从来没有承认相关算法,即使有人工智能算法有突破也无需担心,因为它自己无法跨越能力边界,无法真正威胁到人类生存。

真正值得思考的问题是,如何利用人工智能帮助人们解决现实问题,最大限度地为人类谋福利,这就需要“智能服务设计”。

(本文仅代表作者个人观点)

举报

文章作者

一财最热
点击关闭