近日有报道称,OpenAI的热门聊天机器人ChatGPT每天要消耗超过50万度电,马斯克也曾预测,2025年全球电力将陷入短缺。而除了电力,大模型也十分“耗水”。本期视频,一起来揭秘大模型背后的惊人数字。
大模型之所以“大”,在于其参数巨大,谷歌LaMDA模型参数高达1370亿,GPT-3模型参数高达1750亿,GPT-4更是被曝包含了1.8万亿参数,而规模越大,对算力的需求便越多,如训练GPT3.5 需要用到约3万颗英伟达A100芯片。
算力的运行和生产往往离不开电力。一颗英伟达H100芯片最大功耗达到700W,以利用率61%计算,每颗芯片每年将消耗约3740度电。到2024年底,全球范围内将有350万个H100 GPU投入使用,电力总耗令人震惊。
服务器芯片在运行过程中会产生大量的热量,如果热量控制不当,会对数据中心的稳定运行造成影响,因此,科技巨头们需要耗费大量水资源来为数据中心降温。到2027年,全球AI所需的水资源可能会达到惊人的66亿立方米。
而AI发展,不仅耗水、耗电、耗芯片,还特别耗人。不仅是科学家,还包括AI训练中的数据标注师。大模型依赖数据训练,但要先做好数据采集、筛选、标注和质检。著名科学家李飞飞曾为了训练AI,通过亚马逊的在线众包平台在全世界167个国家雇佣了5万人,标注了1500万张图片。而直到今天AI训练依然需要大量的数据标注师。
“吞”水、“吃”电,耗芯又耗人——揭秘大模型背后的惊人数字。点击视频,一看究竟!
5月16日至18日,第二十二届上海教育博览会在上海举行。本届展会以“‘育’见 AI,智启未来”为主题,展示上海乃至整个长三角地区以人工智能为引领,高质量推进教育强国建设的最新实践。
在全球技术演进的转折点上,人工智能是引领科技革命和产业变革的“战略性技术”,而在推动新一轮人工智能产业的变革中,上海并不满足于单点技术上的突破,而是选择打造独具活力的AI生态,第一财经记者走访上海模塑空间多家AI创企,来看看“上下楼就是上下游 ”的模速空间,究竟蕴含什么样的“模”力。更现场、更财经,一探究竟!
德勤中国科技行业咨询业务主管合伙人黄伟强在《中国经营者》节目中表示,大模型企业需找准自身定位规避红海竞争,同时呼吁加强产业规划引导,通过差异化布局避免重复投资,为行业健康发展划清 "行车道"。