基础设施是AI发展的确定性成长方向
在AI技术快速发展的今天,基础设施的重要性愈发凸显。特别是随着LLM大模型的出现,AI算力需求呈现爆发式增长。OpenAI的研究数据显示,自2012年以来,训练大型AI模型所需的计算量每3-4个月就会翻倍,这一增长速度远超摩尔定律的预测。这种迅猛的需求增长直接带动了对计算硬件的需求,预计到2025年,AI应用对计算硬件的需求将增长10%到15%。
这种趋势在英伟达的财报中得到了印证。2023年第二季度,英伟达数据中心收入达到103.2亿美元,环比增长141%,同比增长171%。到了2024财年第四季度,数据中心业务已占公司总营收的83%以上,同比增长409%,其中40%的收入来自大模型推理场景,充分展现了市场对高性能算力的旺盛需求。
海量数据的处理也对存储和硬件内存提出了更高要求。在AI服务器中,存储芯片主要包括高带宽存储器(HBM)、DRAM和SSD,这些组件需要提供更大的容量、更高的性能和更低的延迟。据美光测算,AI服务器中DRAM的数量是传统服务器的8倍,NAND则是传统服务器的3倍。
供需失衡推高算力成本
AI模型的训练、微调和推理都需要大量算力支持,尤其是在训练阶段,由于需要处理海量参数并进行复杂计算,对高性能GPU集群的需求尤为迫切。随着大模型复杂度的提升,所需的硬件配置也水涨船高。
以GPT-3为例,为支持1300万独立用户访问,需要配备3万多片A100 GPU,初始投入成本高达8亿美元,每日推理费用更是达到70万美元。同时,2023年第四季度全球范围内NVIDIA GPU供应紧张,H100显卡的缺货状况预计将持续到2024年底。
供需失衡导致高端GPU价格飙升。英伟达H100 AI加速卡的物料成本约为3000美元,但在2023年中售价已达3.5万美元,eBay上甚至出现了超过4万美元的成交价。这种局面让占据产业链核心位置的硬件厂商获得了丰厚的价值红利。
AI基础设施的价值增长
Grand View Research的报告显示,2023年全球云AI市场规模为626.3亿美元,预计到2030年将增长至6476亿美元,年复合增长率达39.6%。a16z的研究指出,AIGC市场的大量资金最终流向了基础设施公司,云提供商可能获得了AIGC总收入的10-20%。
对于AI初创公司而言,80-90%的成本都用于算力支出。综合来看,AI计算基础设施(包括云计算和硬件)预计占据市场初期50%以上的价值份额。
去中心化AI计算的机遇
当前中心化AI计算成本高企的一个重要原因是供需错配。虽然市场对高性能基础设施需求旺盛,但同时存在大量闲置算力。以GPT-3为例,训练1750亿参数的模型需要存储超过1TB的数据,这超过了单块GPU的内存容量,导致需要更多GPU进行并行计算,进而造成算力闲置。据分析,OpenAI在GPT-4训练中使用的25000个A100 GPU,算力利用率仅为32%至36%。
面对这一挑战,业界正在探索两个方向:一是开发专用AI芯片,二是构建分布式算力网络。后者尤其引人注目,因为通过整合闲置的消费级GPU和CPU资源,可以显著降低计算成本。目前Web3去中心化算力平台的价格通常比中心化云服务低80%-90%。
分布式算力特别适合模型推理和小模型训练场景。随着Pytorch、Ray、DeepSpeed等分布式计算框架的发展,这一领域的应用前景更加广阔。
AI+Web3基础设施项目的发展
分布式AI基础设施因其需求强劲且增长潜力巨大,正成为资本关注的热点。目前AI+Web3基础设施项目主要分为两类:
第一类是去中心化云计算资源共享平台,如Render Network和Akash Network。这些项目通过整合闲置算力资源,为用户提供低成本的计算服务。Render Network专注于3D渲染领域,已累计处理超过1600万帧渲染任务;Akash Network则采用”反向拍卖”机制,使服务成本比中心化服务器降低80%以上。
第二类是提供去中心化计算与ML工作流服务的项目,如Gensyn、io.net和Ritual。这些项目不仅提供算力资源,还构建了完整的开发工具链。Gensyn通过创新的验证机制,使NVIDIA V100的计算成本比AWS低80%;io.net则整合了Ray等分布式计算框架,支持多种ML工作流程,预计价格比中心化云服务低90%。
这些项目通过提供比中心化云服务更优惠的价格和相近的使用体验,获得了资本市场的青睐。虽然技术复杂度较高,多数项目仍处于开发阶段,但其展现出的潜力已经引发了行业的高度关注。
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/13116.html