
{{aisd}}
AI生成 免责声明
据证券时报,近日,蚂蚁集团Ling团队发表了一篇技术成果论文。论文显示,蚂蚁集团推出了两款不同规模的MoE大语言模型——百灵轻量版(Ling-Lite)与百灵增强版(Ling-Plus),前者参数规模为168亿(激活参数27.5亿),Plus基座模型参数规模高达2900亿(激活参数288亿),两者性能均达到行业领先水平。除了自研性能领先的大模型以外,该技术论文最大的突破在于提出了一系列创新方法,以提升资源受限环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE(混合专家)大模型可在使用国产GPU的低性能设备上完成高效训练,性能与完全使用英伟达芯片、同规模的稠密模型及MoE模型相当。
这条路,或许远比我们想象的要难走得多。
我国首部大模型国家标准实施,构建人工智能产业“标准基座”。
2024年摩尔线程推出第一代千卡集群,今年达到1万卡,接下来还要做10万卡、50万卡、100万卡。
年初DeepSeek爆火给蚂蚁内部带来了兴奋感、紧迫感乃至羞愧感,蚂蚁从年后第一天连着讨论了三天,做了一些战略性的选择。
该模型是一款自然语言推理大模型。