国产大模型即将跨越“算力关”

国内科技大厂,在大模型竞争上再一次取得共识:既要做淘金者,也要卖铲子。

进入4月份,阿里云一边发布通用大模型“通义千问”,一边致力于帮助其他企业打造专属大模型。一位接近阿里云的人士表示,阿里云“甚至可以只卖铲子”。

尚未公开内测自有大模型产品的腾讯和字节跳动,也抢先盯上了卖铲子的生意。

腾讯云发布了面向大模型训练的新一代HCC(High-Performance Computing Cluster)高性能计算集群,通过搭载英伟达最新H800 GPU,将整体性能提升了3倍。

字节更是明确表态,火山引擎不做大模型,而是要为大模型客户提供算力平台,帮助其做好大模型开发。

在阿里、腾讯、字节相继决定卖铲子之前,百度其实是这一策略的更早提出者。但百度不同的是,前述大厂们都是在卖算力,百度更多是聚焦在服务。

在百度看来,支撑大模型训练和运转的算力固然重要,但不是评判大模型优劣的唯一标准。好的大模型需要由算力、框架、模型、应用构筑的四层架构相互配合提供支撑,需要将模型开发、训练、调优、运营等复杂过程封装起来,为客户提供低门槛、高效率的企业服务。

有百度内部人士告诉字母榜,在率先发布国内首个大语言模型文心一言后,3月底的一场闭门沟通会上,百度就推出了“既淘金又卖铲子”的百度智能云大模型平台,并在近期正式将其命名为“文心千帆大模型服务平台”。

据字母榜了解,正在内测的“文心千帆大模型平台”,是全球首个一站式的企业级大模型生产平台,不但提供包括文心一言在内的大模型及第三方大模型服务,还提供大模型开发和应用的整套工具链,允许企业基于任何开源或闭源的大模型,开发自己的专属大模型。

在卖铲子上达成新共识后,头部云厂商之间的大模型之战,开始深入AIGC+Application的软件应用开发。

这也是时下投资机构最为青睐的方向之一。线性资本创始合伙人兼CEO王淮就表示,这是自己特别看重并且愿意花力气去挖掘的领域。今年上半年,线性资本至少看了两三百个基于大模型开发的各类应用。

已经走向全面开放或内测阶段的大模型产品提供商,由此掀起新一轮的应用生态建设竞赛。

OpenAI发布了ChatGPT Plugins插件功能,开始将大模型能力直连第三方应用;微软推出了AI版Office“全家桶”——Microsoft 365 Copilot,并将其测试企业数量从最初的20家,在近期扩展到600多家。

截至5月上旬,百度文心一言的内测企业数量超过300家,并在400多个企业内部场景取得了测试成效。

然而,目前企业应用大模型仍面临诸多难点,如模型体积大,训练难度高;算力规模大,性能要求高;数据规模大,数据质量参差不齐。

随着越来越多应用与大模型相结合,其也将倒逼云厂商对自己的大模型服务体系进行升维,走向一条追求更好效果、更低成本的道路。

通过全栈自研体系的端到端整体优势,百度智能云在实现大模型训练成本降低的同时,做到大模型产品服务体验的不掉队,破除外界评判大模型优劣时唯算力论的极端观点。

百度集团副总裁侯震宇告诉字母榜,在接下来几个月,百度大模型服务通过迭代优化,还将实现大规模的成本下降,不仅算力不会成为阻碍,“价格应该也不会成为大家所使用或者是拥抱大模型的瓶颈。”

A

“同样60000字的文本回复量,一个人工客服,一天的成本在100元-200元,换用大模型智能助理,成本只有1块钱。”将大模型产品引入客服体系进行内测后,一家旅游行业业务负责人直观感受到了大模型带来的降本增效成果。相关产品未来会在完成安全评估后上线。

一些昔日垂类明星企业,股价甚至被大模型直接冲垮。美国学生习惯用以搜索课堂作业答案的在线教育公司Chegg,成为全球首家公开承认“收入受ChatGPT影响”的公司,公司股价年内跌幅接近60%。

网络流量数据网站SimilarWeb给出的一份报告显示,今年3月份GPT-4、微软New Bing等产品陆续上线后,Chegg网站转化访问量同比暴跌89%。

对于企业来说,接入大模型产品已经从一道选择题,变成了必答题。

考虑到各行各业都有自己的Know-How,在远望资本程浩看来,这正是头部云厂商纷纷发力卖铲子生意,帮助企业打造行业专属大模型的动因之一。

但并不是每一家企业都需要从0到1,自主研发一个百亿、千亿的大模型产品。去年春节开始决定将办公文档引入大模型产品后,金山办公就明确好了甲方心态——自己不做大模型,而是借助外部已有大模型方案,定制自己的专属大模型。

在当前大模型尚缺乏评判好坏的统一客观标准之下,如何在“百模大战”中挑选出适合自己的大模型产品,正在成为企业面临的一道新难题。

金山办公助理总裁田然表示,公司的策略是要跟中国最好的大模型服务提供方站在一起,这势必要求大模型技术提供商做到“人无我有,人有我优”。

效果好不好,无疑会成为企业评判大模型产品好坏的首要标准。这一方面要看大模型产品是否已经有了大规模应用,如百度文心一言,已经在内部的百度搜索、百度新闻、百度地图,小度智能屏、如流等等方面实现大规模落地,并籍此成为国内唯一将大模型在实际应用中大规模落地的公司。

另一方面还要看大模型是否足够灵活便捷。基于文心千帆大模型平台,百度智能云提供公有云和私有云双重部署方案,并分别配套有大模型推理、微调、托管,软件授权、软硬一体和租赁等多元化服务。

金山办公由此看中了文心千帆在安全合规、模型深度、迭代速度、推理性能等多个方面的行业比较优势。目前,双方在意图理解、PPT大纲生成、范文书写、生成待办列表、文生图等多模态生成场景上的联合探索开发,已经取得了进展。

金山办公CEO章庆元在接受采访中提到,成本是打消公司自研大模型念头的重要考虑因素。基于此,运行成本成为企业评判大模型产品好坏的另一决定因素。

运行大模型有多少烧钱?从OpenAI身上就能略窥一二。近期,OpenAI被爆出去年亏损额翻倍,达到5.4亿美元左右,主要都被用以支撑ChatGPT的运转以及从谷歌挖人。

OpenAI CEO Sam Altman更是表示,OpenAI可能需要在未来几年尝试筹集多达1000亿美元的资金,用来开发足够先进的通用AI,同时维持公司的正常运转。

在追赶OpenAI的道路上,后进者是否也要做好巨额亏损的准备?百度集团副总裁侯震宇向字母榜解释道,“这或许说明微软的云服务卖得太奢侈了。”

百度集团副总裁侯震宇

一个明显的佐证是,2023年一季度,微软云计算毛利率达到72%,而国内云计算厂商大多还处于亏损阶段。

为了降低用云成本,微软、谷歌等美国头部云厂商开始加速自研服务器芯片和云端AI芯片。

“如果你能制造出针对AI进行优化的硅,那前方等待你的将是巨大的胜利。”研究公司Forrester分析师格伦·奥唐纳形容道。

百度同样也在推进旗下芯片自研计划,其昆仑芯三代将对标更高性能的显卡,有望在2024年量产。

值得注意的是,除了芯片层的成本优化外,百度还是全球唯一一家在芯片层、框架层、模型层和应用层具备全栈协同优势的云厂商。

借助端到端的整体优化能力,在文心一言开启内测近两个月以来,百度已经对其进行了4次技术版本升级,并将大模型推理成本降至原来的十分之一。

在接下来几个月,百度大模型服务通过端到端的迭代升级,还可以实现大规模的成本下降,“价格应该不会成为大家所使用或者是拥抱大模型的瓶颈。”侯震宇表示。

通过百度过去近两个月在大模型落地应用上的实践经验,侯震宇总结出了企业选择大模型的三个标准评判:大模型本身的能力、大模型企业服务的能力、全栈技术积累程度。

B

持续不断的AI创新和研发投入,无疑将成为支撑大模型效果和成本持续优化的源动力。

但一则令AI创业者略感恐慌的消息却在近期被证实。一度引领全球AI发展方向的谷歌,为了不再为他人作嫁衣,正式决定“以后将不得不推迟与外界分享自己的工作成果”。谷歌人工智能主管杰夫・迪恩对此表示,背靠微软的创业公司OpenAI,正是在大量阅读谷歌提交的AI论文基础上,才做到了与谷歌保持同步。

令OpenAI火遍全球的ChatGPT,其中的T——Transformer,就是谷歌2017年在一篇AI论文中率先提出的概念。

在侯震宇看来,谷歌关闭基础性AI研究的分享举动,更多影响到的是那些在AI领域没有自我积淀和独特优势的公司。

当所有公司都无法再依靠谷歌来为自己辨明AI方向后,此举反过来却可能为国内科技大厂创造出一个新的竞争优势。

近期,李彦宏在谈及当下的大模型混战中,就提到“算力不能保证我们能够在通用人工智能技术上领先,算力是可以买来的,创新的能力是买不来的,是需要自建的。”

作为一款对标ChatGPT的产品,百度文心一言,背后包括有监督精调、人类反馈的强化学习、提示、知识增强、检索增强和对话增强等六大关键技术。

“前三项是这类大语言模型都会采用的技术……后三项则是百度已有技术优势的再创新,也是文心一言未来越来越强大的基础。”百度CTO王海峰解释道,如通过知识增强,文心一言可以在调用更少参数的基础上,达到效率更高、效果更好的目标。

这一创新优势同样适合于企业借助文心千帆大模型平台,通过数据微调,打造自己的专属大模型产品。

在5月9日的一场闭门交流会上,百度首次对外演示了如何微调行业专属大模型的全过程。在文心一言基础上,百度内部测试了一款专属大模型“文心问数”,希望来展示数据的可视化能力。这也是国内第一个公开演示如何微调大模型。

在被要求其生成华北地区乃至全国2019年3月销售额时,“文心问数”顺利生成了饼状图等可视化图标。

但在将难度升级,要求其生成“华北地区2019年3-5月的销售额,用折线图来表示”时,“文心问数”直接表示自己处理不了。

借助文心千帆大模型平台,这家公司只需新建一个包括约100条标注数据的微调数据集,发起模型微调,不到半个小时,就能完成对专属大模型的能力升级。

升级后的“文心问数”,不仅能够顺利完成特定指令和要求,并且对于同类需求还有一定的泛化能力。

C

大模型给传统应用带来的大幅体验升级,让越来越多人开始认同一种观点,即所有应用都值得用大模型重做一遍。

如同Windows带动了PC普及,Android催生了移动互联网的生态,AIGC时代“将诞生比移动互联网大十倍的平台机会,将把既有的软件、使用界面和应用重写一次。”李开复预测道。

眼下,百度等国产大模型厂商,正处于一场争夺AIGC时代“Android”的激烈竞争中。谁能抢先拿下更多的企业客户,谁就有望凭借“滚雪球效应”脱颖而出。

这是一场面向AIGC时代应用生态开发标准的抢位战,比的是谁能跑得更快,谁能拿到更多的反馈数据,谁能建立更多的应用落地优势。

尽管各家大模型产品在技术上大同小异,但大语言模型也是有“方言”的,相关产业专家表示,不同的大语言模型因为训练的数据分布不同,构造高质量数据不同,决定着用户提问的方式、调教和使用的方式也不尽相同。

就像开发者在不同手机操作系统上开发一款游戏,尽管最终游戏效果、赛制差不多,但分属不同操作系统的游戏好友,是没办法进行排位等操作的。一旦企业用了某个大语言模型,再切换到别的大模型,迁移成本会很高。

“这也造成了谁能够跑得更快一些,获取更多的应用,拿到更多的反馈,谁就能持续地保持一定程度的领先。”上述专家表示。

大模型不仅将成为新的应用生态的Game Changer,当越来越多客户基于大模型重塑业务后,大模型还有望成为云服务行业的Game Changer,彻底改变云计算的游戏规则。

在李彦宏看来,过去,云计算主要卖算力,看速度、看存储。今天,客户购买云服务,则要看框架好不好、模型好不好。MaaS(模型即服务),将成为评判云服务的行业新标准。

更重要的是,在移动互联网时代已经划分好市场地位的云厂商,面对AIGC时代的新机遇,有望重塑行业格局。

美国第四大云计算厂商甲骨文,在过去一个月内,因为头部云厂商算力紧缺,甲骨文模型服务更便宜,已经吸引不少人工智能初创企业转而成为甲骨文的新客户。

随着越来越多企业将更多业务融入大模型,当AI能力逐步放大变成企业上云的主要需求后,如百度这类押注AI的云厂商,无疑将走上一条快速道。

特别声明:本文为合作媒体授权DoNews专栏转载,文章版权归原作者及原出处所有。文章系作者个人观点,不代表DoNews专栏的立场,转载请联系原作者及原出处获取授权。(有任何疑问都请联系idonews@donews.com)

标签: 百度 AI 大模型
国产大模型即将跨越“算力关”
扫描二维码查看原文
分享自DoNews
Copyright © DoNews 2000-2024 All Rights Reserved
蜀ICP备2024059877号-1     京ICP证151088号
京网文【2018】2361-237号