ChatGPT,云服务商们的全新“云”阵地?

   2023-04-08 IP属地 广东省梅州市 电信280
核心提示:随着ChatGPT在全球范围内的“大火”,围绕“AI+”的产业浪潮再次席卷整个TMT行业。但从目前的市场反馈来看,大众对于ChatGPT在C

随着ChatGPT在全球范围内的“大火”,围绕“AI+”的产业浪潮再次席卷整个TMT行业。但从目前的市场反馈来看,大众对于ChatGPT在C端市场的应用体验反应更直接一点,而对于技术相对晦涩、难以感知的云计算市场,则反应比较冷淡。

但在这场由ChatGPT掀起的巨大声浪中,云计算其实扮演着十分重要的角色。比如,ChatGPT的模型训练需要大量的数据资源和计算资源,云计算则为模型的开发和运行提供了强大的技术基础,这或许也是国内外众多云厂商选择跟进ChatGPT的原因所在。

ChatGPT离不开云厂商

近来随着ChatGPT的关注度持续提升,微软正式推出了内置ChatGPT的搜索引擎,谷歌则发布了Bard,国内互联网厂商百度、阿里、京东、360等,也都密集宣布大模型技术进展以及类ChatGPT项目计划。不难发现,这些试图涉足ChatGPT的云玩家,都是在战略储备(技术、资源、资金等)上有着明显的先发优势。而众巨头之所以如此积极,其背后原因不言而喻。

首先,是ChatGPT为代表的AIGC技术十分耗钱,而国内外头部的云巨头个个家底雄厚,足以满足其应用训练需求。简单来说,以ChatGPT为代表的AIGC技术,背后需要依靠强大的AI模型和海量数据,其所需要的云服务算力成本也自然十分庞大。

据SimilarWeb数据,2023年1月ChatGPT官网总访问量为6.16亿次;据《Fortune》杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元,如果使用总投资30.2亿元、算力500P的数据中心来支撑ChatGPT的运行,至少需要7-8个这样的数据中心,基础设施的投入都是以百亿计的。

而对于参与其中的阿里、腾讯,亦或是国外的谷歌、亚马逊等厂商而言,其资金实力雄厚,足以覆盖投入大模型训练的云基建建设成本,不用担心后续资金停滞的问题。另外,未来大模型训练成本的降低,也需要来自云服务厂商的支持。

其次,各路云厂商本身背靠大流量的应用平台,具备丰富的应用环境和创新背景。比如,360可以借助其在PC和移动端的云安全能力,做成ChatGPT的云安全应用;阿里、京东可以借助其电商平台做聊天以及营销版本的ChatGPT应用;百度等搜索公司也可以嵌入类似应用。总之,基于其亿级流量入口的基础条件以及丰富多样的应用环境,ChatGPT选择与云厂商合作自然是势在必然。

云厂商亟待升级“开源”

也正是因为云厂商与ChatGPT存在这层“唇齿相依”的关系,因此在云厂商面临“增速下滑”的背景下,开展其与AI语言大模型训练的合作,或将对其“开源”极有助益。

今年2月初,亚马逊、谷歌母公司Alphabeta,相继发布了截至2022年的财报。而在更早之前,微软也发布了截至2022年12月31日的2023财年第二财季财报。三家财报中的云业务板块中,亚马逊云计算业务的增速已经下降到了20%,而在此前的2022年一季度、二季度和三季度分别达到了37%、33%、27.5%,四季度可谓是2014年以来的最低增速,这极大加剧了市场对云服务市场增速的担忧。

无独有偶,谷歌云与微软云也都呈现出了类似的“特征”。公开数据显示,微软包括Azure、GitHub、服务器产品、企业和云服务在内的“智能云”业务收入为215亿美元,同比增长18%,较三季度的20%增速有所下降。谷歌云业务的增速,也从2022年前三季度的43.8%、35.6%和37.6%,下降到了32%。

类似地,国内云服务商的增速下降也已是摆在“明面上的事情了”。据去年11月17日发布的阿里云季报显示,其增速已经降至4%,首次跌至个位数,在此之前其整体增速已经连续三季度低于15%了,创下了多年来新低;与此同时,腾讯云、华为云等前四大云厂商也都呈现出增速下跌的态势。在此背景下,“开源”就成了云服务商的全新诉求,而AI大模型训练无疑为其打开了新的空间。

首先,AI大模型训练会为云厂商贡献大量的直接营收。据投资机构A16Z的研究数据发现,

生成式AI中的近乎一切,都会在某个时刻通过云托管的GPU(或TPU)。无论是对于训练模型的模型提供商和科研实验室、执行推理和微调任务的托管公司,或是两者兼顾的应用程序公司,每秒浮点运算(FLOPS)都是生成式AI的命脉。因此,未来生成式AI里面将有大量的资金,最终流向基础设施。

A16Z估计,应用程序公司平均将约20%-40%的年收入,用于推理和定制化的微调。这部分通常直接支付给云服务提供商,以获取实例或支付给第三方模型提供商,后者将大约一半的收入投入于云基础设施。据此推算,生成式AI将有10%-20%的营收将直接流向云服务商。另外,很多初创自有模型的企业,将会将其多达几十亿的风险投资中的大部分,用于支付给外部云服务商身上,用于训练自有大模型。对于大体量的云厂商而言,这样的新兴市场无疑是特别值得期待的事情。

其次,生成式AI或将推动整个云服务行业的整体升级。据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3-4个月翻一番,每年增长幅度高达10倍。但根据摩尔定律,芯片计算性能每隔18-24个月才能翻一番,也就说芯片性能远远跟不上AI训练的算力需求。拿具体案例来说,云计算发展到今天,随着数据密集型场景越来越多——比如大型开放式游戏,此前以CPU为核心的计算体系架构开始暴露短板:一方面,计算和网络传输之间的时延较大;另一方面,数据迁移量增大,无法满足高带宽需求。

比如,云计算从业务处理为中心转向数据处理为中心,CPU更多是在处理网络事务而不是用于计算,这相当于数据中心部署的很多服务器,被白白浪费了。此时,解决之道是不再借助CPU,而是打造只为云计算服务的芯片,相当于云上的Windows系统。

为此,云厂商们也有了自己的想法。比如微软、阿里云等厂商均加大了自研芯片的力度(比如自研CIPU),试图将AI引领下的“算力自由”牢牢掌控在自己手里。与此同时,边缘计算更受重视,用于边缘计算的服务器资源算力支持正在急速扩张,正在引领新一轮的行业周期更替。

云服务或将迎来价值重估

随着全球云市场的大模型比拼白热化,国内云厂商们针对中国的本土情况,也在思考着云与AI的结合方式。近期,各大云厂商财报后电话会议中透露出了一些关键信号。在百度2022年四季度及全年财报电话会上,李彦宏讲道:“人工智能正在以一种巨大的方式改变许多行业,我们相信文心一言会是改变云计算的game changer。”

同时,在阿里Q3财报后会议中,阿里巴巴集团董事会主席兼CEO张勇也表示:“全力投入生成式AI大模型建设,并为市场上风起云涌的模型和应用提供好算力支撑。”当然,无论是先发的微软,还是后发的AWS、谷歌、百度,在这个技术发展的早期,下任何结论都为时尚早,但无论成败,作为“必需品”的云服务都将因为大模型的爆发迎来重估时刻。

一方面,ChatGPT的迭代与训练均离不开算力、数据和技术,在ChatGPT被广泛运用的背景下,底层基础设施(IaaS)将迎来新一轮景气度上行,同时也将倒逼云厂商提高算力,从而满足海量数据调度的需求。

据国盛证券报告《ChatGPT需要多少算力》估算,GPT-3训练一次成本约为140万美元,ChatGPT一个月要消耗3万多片A100。如今升级后的GPT-4的训练成本更是只多不少,动辄上百万甚至上千万美元的训练成本并不便宜,但对于阿里、微软、谷歌这样的巨头而言也还是可以接受,但对于没有云资源的初创公司而言,则算得上是天价了。这意味着,ChatGPT与云的结合将更为紧密。

另一方面,ChatGPT的孵化也将反哺云厂商的AI能力,随着ChatGPT与云产品的加速融合,行业加速朝“自动化”、“数智化”发展进程,产品竞争力进一步夯实,商业价值也将逐渐显现。

从行业来看,随着产业进入“深度用云”时代,基于云计算的AI能力逐步得到了企业与行业的验证,AI与云的结合能够降低企业上云的门槛,同时凭借AI的深度学习能力发挥数据价值,为企业搭建更好的“用云”路径。具体来说,随着AI大模型技术的成熟,未来整个AI应用的创新门槛更低(成本更低、迭代更快),初创企业可以基于大模型创新而不是底层的芯片层和框架层创新。同时,企业在用云时候更多会基于云服务厂商的大模型成熟度,来选择云厂商。


 
举报收藏 0打赏 0评论 0
 
更多>同类资讯
  • admin
    加关注0
  • 没有留下签名~~
推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  广告服务  |  积分换礼  |  RSS订阅