在今天举行的深度学习开发者大会上,百度首席技术官王海峰表示,大语言模型具备了理解、生成、逻辑、记忆等人工智能的核心基础能力,为通用人工智能带来曙光。
Perplexity CEO表示或将利用Kimi K2进行后训练
AI进化速递丨OpenAI的开源语言模型即将发布
华为诺亚方舟实验室在官方平台发布最新声明,表示盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型。
盘古7B相关模型权重与推理代码将于近期上线开源平台。