首页 > 新闻 > 历史数据

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

假如人工智能超越人类智能

一财网 2016-03-15 22:16:00

责编:黄宾

当超人工智能一旦出现,人类的命运将无可挽回地被逆转。

3月15日,阿尔法狗(AlphaGo)与韩国围棋天王李世石九段的番棋对战尘埃落定,不管是一上来就直落三局,还是4∶1大胜,都极大刺激了大众对人工智能的关注和忧虑:人工智能会否超越人类智能?如果人工智能超过人类、奇点时代来临,人类的处境将如何?

2005年,一本名叫《奇点临近》的书在美国出版。在这本书中,作者雷-库兹韦尔首次提出了技术发展的“奇点”概念,并且认为人类将在2045年左右开始进入“奇点时代”,即指:在未来的一段时间内,技术变革的节奏如此迅速,其所带来的影响如此深远,以至于人类生活将不可避免地发生巨变。其中最为深远的改变,莫过于人工智能将可能超越人类智能。

奇点时代何时来临

人工智能(Artificial Intelligence,简称AI)是什么?最为简单的定义就是用人工的方法(例如电脑的算法程序)来模拟实现人类智能。

目前一般按人工智能的实力大小,将其分为三类:弱人工智能、强人工智能和超人工智能。弱人工智能擅长单方面的技能,例如和李世石下围棋的“阿尔法狗”就属于弱人工智能。强人工智能则是拥有和人类相当的人工智能,能够处理诸如图像识别、语音处理、专家咨询诊断等这些人类才能拥有的智能。而超人工智能,顾名思义就是超过人类智能的机器智能。

那么,超人工智能究竟能否成为现实呢?

大家都听说过计算机行业的“摩尔定律”,即每隔18个月左右,电脑芯片的性能(运算速度)就会提高一倍,而其成本却不断在降低。“因此,随着电脑芯片性能的不断提高,毫无疑问电脑的智能总有一天必将超越人类”。这一貌似正确的推论,隐含着一个假设:人类的大脑只是一个超级复杂的电脑芯片而已。

这个假设遭到了很多心理学家、脑科学家的质疑。因为人类的智力机制,到目前为止并没有被彻底破译。现代心理学认为,大脑是人类感知、知觉和思考的器官。而脑科学进一步指出,由数以百亿计脑细胞组成的神经网络,正是人类智力的源泉。遗憾的是,无论是现代心理学还是当代的脑科学,都没有完全揭示大脑工作的秘密。人工智能的基础,是建立在对人类智能的模拟基础上。如果对智能的模式都无法明了,想要模仿就更无从说起了。

举例来说,“阿尔法狗”的硬件基础是超级计算机芯片,但运行在芯片上的算法程序,才是真正击败李世石的关键。类似“阿尔法狗”的电脑硬件,其实在5年前就已经能制造出来(想想战胜国际象棋大师的“深蓝”计算机)。而真正战胜李世石的关键——围棋算法程序,则到最近才被开发出来。而开发围棋电脑算法的,是一个集中了数十名精英包括熟知套路的拥有业余围棋段位的科学家、程序员们共同努力的结果。

换句话说,人工智能是否超越人类智能的关键不在于硬件,而在于能否搞清楚人类智能产生的机制,并且在此基础上研发出能够模拟人类大脑的算法程序。因此我认为,未来人工智能技术的发展程度,将更大程度上取决于脑科学、心理学的发展,而非完全依赖于计算机技术的发展。

因此,库兹韦尔预言的2045年人工智能超越人类智能,我表示严重怀疑。因为他的预测是建立在计算机芯片的发展速度上的预测,而几乎完全没有考虑人类对自身智能机制的认识水平,那么到2045年时是否已足以建立超人工智能的算法模型?要回答这样的问题,涉及到脑科学、神经解剖学、心理学甚至哲学等跨学科领域,十分复杂,不是在一篇短文中能讨论解决。如果非要做一个猜测,我的回答是:揭示人类大脑秘密后的20~50年,超人工智能很可能出现。但是,大脑的秘密看样子很难在2045年前被完全破解,因此超人工智能在2045年前出现的可能性极小。

人类的命运会被人工智能主宰吗?

当超人工智能一旦出现,人类的命运将无可挽回地被逆转。人类未来的命运将面临三种可能性:

一是人类主动选择与人工智能融合。例如人类在自己的大脑中植入电脑芯片,实现与超人工智能云网络的链接,从而成为“半人半机器”的生命复合体。这种增强了的超人类,将因为与超人工智能的链接,而拥有超出现有人类成千上万倍的记忆、计算能力,以及任何数理逻辑基础上可以生成的高超智能。

到那时,我们的子孙后代将不再需要十年寒窗、从小学到博士的知识课程,将可以通过插入一个知识U盘,在几分钟内上传到大脑里,又或者在需要时直接通过脑-机接口上网,在无所不包的人工智能网络中瞬间获取所需的任何已经存在的数据、信息和知识。这也许将是最为美好的人类前景:超人工智能和人类和谐共处,比翼齐飞,共同演化出新的超智能人类。

二是人类彻底沦为超人工智能的“奴隶”。超人工智能一旦“觉醒”,拥有自我意识,并且产生了控制人类的野心,那么未来的人类面对超过自己智能万亿倍的机器智能时,会比面对白人火枪的印第安人更加软弱无力,束手无策,被超人工智能所控制。这将是最为可怕和无奈的人类未来图景。

三是超人工智能的发展始终被人类控制在一定的范围内,或者由于某种我们现在还无法预见的原因,超人工智能始终未能进化出自我意识,从而不会产生奴役人类的野心。这时的超人工智能就好比人类的良师益友,独立于人体之外,只在人类需要时给予必要的咨询和帮助。

当然,还有一种可能性:超人工智能成为关怀和引导人类进化的“神”。纵观历史,几千年来人类社会充满了杀戮、战争和各种暴力,其根源在于抢夺各种有限的资源(从以前的土地、女人到现在的石化能源、金融控制权等)。但以芯片和算法软件为基础的超人工智能不一样,它们对于土地、金融以及保证人类延续的男人女人等绝大多数资源都没有兴趣(能源除外)。因此,拥有高超智力而又不贪图金钱、权势、物质资源的超人工智能,很有可能进化出类似“佛菩萨”的慈悲心肠。超人工智能不仅不会主动去奴役和消灭人类,相反它们会通过更高的技术手段,来引导人类走出自我中心的狭隘境界,走向世界大同的美好境界。

我们该支持还是反对人工智能?

任何技术都是双刃剑。核技术可以做成杀人的原子弹、氢弹,也可以成为造福人类的核电站。从当前看,人工智能技术的发展对于把人类从重复性的脑力体力劳动解放出来,是会有很大助益的。但未来是否会导致超人工智能的出现,从而带来不可逆转的灾难,这个还有待观察。

有人担忧,人工智能技术发展到了某个临界点后,将可能会产生自我迭代(也就是人工智能具备了自我开发研究更好的算法程序的能力),到那时人类将彻底失去对人工智能技术发展的主导控制权。因此他们主张彻底停止对人工智能的研究开发。也有人认为,人工智能离超人类智能的那一天还很遥远,现在还用不着担心。

聪明的读者朋友们,我相信通过刚才对人工智能的简要介绍,大家已有了自己的判断。至于我的看法,我比较乐观,我认为应该继续发展人工智能。而且即使人工智能超过了人类智能,也未必就意味着悲惨的人类末日。

(作者系前航空工程师、资深科学迷)

举报
一财最热
点击关闭