6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。目前,文心大模型4.5开源系列可在飞桨星河社区、HuggingFace等平台下载部署使用,同时开源模型API服务也可在百度智能云千帆大模型平台使用。(一财科技)
盘古7B相关模型权重与推理代码将于近期上线开源平台。
腾讯混元首款开源混合推理MoE模型 「Hunyuan-A13B」发布。
原因包括:数据基础薄弱、高成本与低ROI预期、场景复杂性与信任壁垒。
当前,AI制药行业一级市场的投融资开始复苏,DeepSeek的爆火又为行业带来新一轮机遇。
官方直接对标DeepSeek喊话“性价比更高”。