字节跳动技术团队今日宣布,基于LangStack的全新Deep Research开源项目——DeerFlow,正式在ByteDance的GitHub官方组织上开源。在演示视频中,该团队演示了包括深度研究、MCP集成、报告AI增强编辑以及播客生成等功能。
华为诺亚方舟实验室在官方平台发布最新声明,表示盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
集体开源行动背后,既是对AI进入应用为王时代的回应,也有各家加速抢占市场高地、应对国际竞争的战略布局。
涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型。
盘古7B相关模型权重与推理代码将于近期上线开源平台。
腾讯混元首款开源混合推理MoE模型 「Hunyuan-A13B」发布。