在百度 AI 开发者大会上,李彦宏分享了文心一言发布一年的进展,用户数超 2 亿,日均 API 调用量达 2 亿,服务客户数或企业数 8.5 万。文心大模型推理成本下降至原来的 1%,而基于文心大模型的智能代码助手 Comate 已生成每天 27% 的新代码。
李彦宏指出,未来大型 AI 原生应用将主要采用 MoE(混合专家模型),小模型在特定场景下可达到大模型的效果。同时,他强调最强的基础模型都是闭源的,小模型是通过大模型蒸馏出来的。
在百度 AI 开发者大会上,李彦宏分享了文心一言发布一年的进展,用户数超 2 亿,日均 API 调用量达 2 亿,服务客户数或企业数 8.5 万。文心大模型推理成本下降至原来的 1%,而基于文心大模型的智能代码助手 Comate 已生成每天 27% 的新代码。
李彦宏指出,未来大型 AI 原生应用将主要采用 MoE(混合专家模型),小模型在特定场景下可达到大模型的效果。同时,他强调最强的基础模型都是闭源的,小模型是通过大模型蒸馏出来的。