一夜之间,初创公司Groq爆火,其在同名模型启动器上运行的大模型,能够每秒输出近500个token,输出速度比Gemini快10倍,比GPT-4快18倍。
Groq并没有研发新模型,主页上运行的是开源模型Mixtral 8x7B-32k和Llama 270B-4k。其神速的响应源于自研的语言处理单元LPU。根据Groq官网的介绍,LPU是一种专为AI推理所设计的芯片。
Groq官网的测试资料显示,由Groq LPU驱动的Meta Llama 2模型推理性能是顶级云计算供应商的18倍。Groq创始人Jonathan Ross称,在大语言模型任务上,LPU比英伟达的GPU性能快10倍,但价格和耗电量都仅为后者的十分之一。单卡仅有230MB内存,2万美元一张。
自研芯片速度碾压英伟达10倍 初创公司Groq一夜爆火。点击视频,一看究竟!
在全球技术演进的转折点上,人工智能是引领科技革命和产业变革的“战略性技术”,而在推动新一轮人工智能产业的变革中,上海并不满足于单点技术上的突破,而是选择打造独具活力的AI生态,第一财经记者走访上海模塑空间多家AI创企,来看看“上下楼就是上下游 ”的模速空间,究竟蕴含什么样的“模”力。更现场、更财经,一探究竟!
德勤中国科技行业咨询业务主管合伙人黄伟强在《中国经营者》节目中表示,大模型企业需找准自身定位规避红海竞争,同时呼吁加强产业规划引导,通过差异化布局避免重复投资,为行业健康发展划清 "行车道"。