时间:2023-04-24 09:41:05来源:互联网
“大语言模型改变云计算游戏规则”,李彦宏的这则断言,愈发成为云计算行业的共识。
可以从两方面来解释这种新变化。一方面,大语言模型在训练和推理过程中需要大量的计算资源,即算力。而这些需求催生了云计算厂商为模型训练提供更强大、更高效的计算资源。
作为佐证,投资机构A16Z认为,生成式AI市场里的大量资金,其实最终流向了基础设施公司。
A16Z估计,应用公司平均将约20%-40%的年收入,用于推理和定制化的微调。这部分通常直接支付给云服务提供商,以获取实例或支付给第三方模型提供商,而后者将大约一半的收入投入于云基础设施。据此有理由推测,生成式AI总营收的10%-20%将流向云服务提供商。
不仅如此,A16Z估算,许多拥有自家模型的初创公司已筹集到数十亿美元的风险投资,其中大部分资金(在早期阶段高达80%-90%),通常会支付给云服务提供商。这可是流向云厂商的“一大笔钱”。
另一方面,大语言模型的兴起,让许多复杂任务可以通过预训练模型来解决。企业无需拥有庞大的技术团队和资源,就能利用云计算服务快速实现AI应用。
简单来说,模型即服务(Model as a Service,MaaS)将成为新的云计算服务形式。企业可以通过API调用预训练模型来满足自身业务需求,而这降低了云计算服务的使用门槛。
微软是最典型的案例。眼下,Azure OpenAI服务已经普遍可用,企业可以申请访问包括GPT-3.5、Codex和DALL・E 2在内的人工智能模型。目前,已经使用Azure OpenAI的客户有半导电视台、毕马威、RPA厂商Moveworks等等。
得益于上述新变化,国内云计算行业迎来新的发展契机和活力,特别是在如今的低增长速度背景下,更加鼓舞人心。
此前,市场研究机构IDC在2022年底的预测报告中,将中国云计算行业未来五年的平均增长速度下调了10%。这是考虑到互联网行业整体增速放缓的影响,同时政企集成业务也在调整过程中。多方因素共同导致了互联网云厂商普遍降低了业务预期。
从这个角度出发,便能理解为何众多云服务厂商,如此热衷于成为国内大模型热潮中的舵手。
“卖铲子”的火山引擎前,大模型成为科技领域最热门的话题。在中国,至少有数十家企业和机构已经发布了大模型产品或公布了相关计划。作为互联网领域的翘楚,字节跳动自然不会缺席这场AI竞赛。
据《晚点LatePost》报道,面对ChatGPT和背后的大模型机会,张一鸣选择亲自跟进。一位字节人士称,张一鸣近期时常会和一些字节人士分享论文学习心得和对ChatGPT的思考。
据了解,字节今年初才开始组建专门的大模型团队,但一把手的跟进也意味着诸多资源倾斜。果不其然,近日,在BAT先后展示自己在大模型产品领域的进展后,字节终于亮出了自己手中“另类”的牌。
字节跳动旗下云服务平台火山引擎举办的“原动力大会”上,火山引擎总裁谭待表示,火山引擎不做大模型,而是服务客户做好大模型,为企业和消费者提供更丰富的AI应用。
进一步解读,眼下国内很多科技公司投入到大模型建设中,火山引擎要做的就是为大模型客户提供高稳定性和高性价比的AI基础设施。
曾经的北美淘金热时期,寻找黄金的人们需要购买铲子等必备工具,而出售这些商品的商人赚取了可观的利润。在现代商业环境中,“卖铲子”这一说法常常用于形容为他人提供工具、服务或基础设施的公司,而非直接参与某个行业的竞争。火山引擎此次想做的便是在大模型热潮中“卖铲子”。
后续的宣传环节中,有两个噱头十分玩味。一是,火山引擎宣称,中国的大模型领域,七成以上已是其客户。面对媒体群访,谭待解释道,上述“七成”是火山引擎相关客户与第三方机构统计的大模型企业数量之比,能获得这么多客户是因为机器学习平台解决了算力辅助的问题。
二是,为了让更多潜在客户安心,谭待在多个场合公开表示,火山引擎不做大模型。“我们不急于推出一个只有30分且只能适用于本地部署的大模型,这不是最关键的,核心是赋能其他人做这件事情。”
这几乎是公然叫嚣其他大模型参与者,特别是前不久刚刚放言“不用造轮子”的云厂商们。
拿阿里云来说,此前的云峰会上宣传口径是,阿里云希望帮助更多企业用上大模型,让每家企业都能基于“通义千问”,拥有具备自己行业能力的专属大模型。换句话说,在阿里巴巴提供的算力基础设施、机器学习平台以及大模型服务的支持下,企业们不再需要浪费时间和精力去“造轮子”,或是陷入针对大模型通用能力的无谓竞争。