中国联通近日宣布,继1月开源元景“自适应慢思考”思维链大模型后,又针对DeepSeek系列模型进行了“自适应慢思考”优化升级,平均可节省约30%的推理计算量,现已开源。这也是目前业界首个对DeepSeek系列思维链模型做“自适应慢思考”优化升级的工作。
中国联通称,除了通过对DeepSeek-R1模型进行自适应慢思考优化升级外,还在推进对DeepSeek-R1系列模型的能力边界量化和安全价值观增强等相关工作的探索。未来,中国联通将持续与以DeepSeek为代表的先进开源模型深度融合,不断升级元景基础模型能力和MaaS平台功能,贯彻开源普惠理念,推进算力普惠、模型普惠、应用普惠,以先进数智水平赋能社会千行百业。
华为诺亚方舟实验室在官方平台发布最新声明,表示盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
官方直接对标DeepSeek喊话“性价比更高”。
又一次“开源的巨大胜利”。
DeepSeek发布Prover-V2模型;快手成立可灵AI事业部;Grok 3.5早期测试版下周将向SuperGrok订阅者发布。
阿里云方面表示,性能大幅提升的同时,千问3的部署成本大幅下降,仅需4张H20即可部署千问3满血版,显存占用仅为DeepSeek-R1的三分之一。