新浪科技讯 5月13日下午消息,在零一万物成立一周年之际,零一万物 CEO 李开复宣布千亿参数 Yi-Large 闭源模型在斯坦福最新的 AlpacaEval 2.0 达到全球大模型 Win Rate 第一。除此之外,零一万物早先发布的 Yi-34B、Yi-9B/6B 中小尺寸开源模型版本也升级为 Yi-1.5 系列,每个版本达到同尺寸中 SOTA 性能最佳。
发布会上,零一万物本月官宣的从应用到生态的产品线:2C 生产力应用 “万知” 正式提供服务、赋能 2B 生态的 “API 开放平台”, 今日全球上线。与此同时,零一万物公开了开源闭源双轨大模型的战略布局,李开复现身说法亲自拆解发展蓝图背后的战略思路。
中国大模型进入第二年之际,李开复提出,国内大模型赛道的竞跑从狂奔到长跑,终局发展将取决于各个选手如何有效达到 “TC-PMF”(Product-Market-Technology-Cost Fit,技术成本 X 产品市场契合度)。大模型从训练到服务都很昂贵,算力紧缺是赛道的集体挑战,行业应当共同避免陷入不理性的 ofo 式流血烧钱打法,让大模型能够用健康良性的 ROI 蓄能长跑,奔赴属于中国的 AI 2.0 变革。
发布会上,李开复还宣布,零一万物已启动下一代 Yi-XLarge MoE 模型训练,将冲击 GPT-5 的性能与创新性。从 MMLU、GPQA、HumanEval、MATH 等权威评测集中,仍在初期训练中的 Yi-XLarge MoE 已经与 Claude-3-Opus、GPT4-0409 等国际厂商的最新旗舰模型互有胜负,训练完成后性能令人期待。
据介绍,零一万物以全球为目标市场,基于 Yi 系列模型做出符合 TC-PMF 的B端和C端优质应用,进而与行业携手推进 AI 2.0 生态。零一万物将结合国际经验,打造国内 AI-First 应用生态,实现“让通用人工智能普惠各地,人人受益”的公司愿景。(文猛)