前言
自GPT-3问世以来,生成式AI以其惊人的表现力和广阔的应用前景,彻底改变了人工智能领域的发展轨迹。科技巨头们纷纷涌入这个赛道,但随之而来的是一系列棘手问题。大型语言模型(LLM)的训练和推理需要海量算力支撑,随着模型迭代升级,算力需求和成本呈指数级增长。以GPT-2和GPT-3为例,两者参数量相差1166倍,而GPT-3的单次训练成本高达1200万美元,是GPT-2的200倍。在实际应用中,每次用户提问都需要进行推理运算,按照今年初1300万独立用户访问量计算,所需的A100GPU芯片数量超过3万片,初始投入成本将达到惊人的8亿美元,每日推理费用预估为70万美元。
算力不足和成本过高已成为AI行业发展的主要瓶颈,而区块链行业也面临类似挑战。一方面,比特币即将迎来第四次减半和ETF通过,未来价格攀升将刺激矿商对算力硬件的需求激增;另一方面,零知识证明(ZKP)技术蓬勃发展,Vitalik多次强调ZK技术在未来十年对区块链领域的影响将不亚于区块链本身。虽然这项技术被寄予厚望,但ZK证明生成过程同样需要消耗大量算力和时间。
在可预见的未来,算力短缺将成为必然趋势,这不禁让人思考:去中心化算力市场是否会成为下一个风口?
去中心化算力市场定义
去中心化算力市场本质上属于去中心化云计算赛道,但用”算力市场”这个概念来描述新兴项目更为贴切。作为DePIN(去中心化物理基础设施网络)的子集,其目标是创建一个开放的算力交易平台,通过代币激励吸引闲置算力资源拥有者参与,主要服务于B端用户和开发者群体。Render Network和Akash Network就是这一赛道的典型代表,前者专注于去中心化GPU渲染解决方案,后者构建了分布式点对点云计算市场。
本文将首先介绍基础概念,然后重点探讨该赛道下的三个新兴市场:AGI算力市场、比特币算力市场以及ZK硬件加速市场。后两个市场将在《潜力赛道前瞻:去中心化算力市场(下)》中详细讨论。
算力概述
算力概念可以追溯到计算机诞生之初,最初指机械装置的计算能力。随着技术进步,现代算力指的是计算机硬件(CPU、GPU、FPGA等)与软件协同工作的综合处理能力。
定义
算力(Computing Power)是衡量计算设备在一定时间内处理数据量或完成任务数量的能力指标,反映设备的整体性能。
衡量标准
算力评估维度包括计算速度、能耗、精度和并行度等。常用指标有FLOPS(每秒浮点运算次数)、IPS(每秒指令数)和TPS(每秒事务数)。FLOPS特别适合评估超级计算机和GPU的高性能计算能力,IPS则更适用于衡量CPU性能,TPS主要用于评估数据库服务器处理能力。此外,还有针对特定场景的指标如推理速度、图像处理速度等。
算力类型
GPU算力专指图形处理器的计算能力。与通用CPU不同,GPU专为处理图形数据设计,具有大量处理单元和高效并行计算能力。最初用于游戏图形处理的GPU通常具备更高时钟频率和更大内存带宽。
CPU与GPU差异
架构方面,CPU采用少量通用核心,GPU则拥有大量专为图像处理设计的流处理器和着色器。并行计算能力上,GPU凭借数千个流处理器明显优于CPU,特别适合机器学习等并行计算密集型任务。但GPU编程复杂度更高,需要使用CUDA或OpenCL等专用语言。
算力的重要性
如果说石油是工业时代的血液,那么算力就是AI时代的”数字石油”。从英伟达市值突破万亿美元,到美国对中国实施高端芯片封锁,算力的战略价值不言而喻。各大企业对AI芯片的疯抢充分证明,算力将成为数字经济时代最重要的战略资源。

人工通用智能概述
人工智能(Artificial Intelligence)是模拟、延伸和扩展人类智能的技术科学。经过半个多世纪发展,AI已经从实验室走向实际应用,正在深刻改变各行各业。当前热门的生成式AI更准确的定义是人工通用智能(AGI),这种系统能够在多领域表现出类人智能。AGI的实现需要三大要素:深度学习(DL)、大数据和大规模算力。
深度学习
作为机器学习的子领域,深度学习通过模拟人脑神经网络工作。人工神经网络由输入层、隐藏层和输出层构成,层间通过参数连接。输入层接收原始数据,隐藏层进行多级特征提取,输出层生成最终结果。参数数量决定模型容量,但也直接影响算力需求。

大数据
高质量、多样化的海量数据是训练神经网络的基础。通过分析大数据,模型能够学习数据内在规律,实现精准预测和分类。
大规模算力
神经网络的多层结构、海量参数、大数据处理和迭代训练特性,导致对算力的需求每年增长约10倍。最新模型GPT-4包含1.8万亿参数,单次训练成本超6000万美元,所需算力达2.15e25 FLOPS。随着模型持续进化,算力需求还将不断扩大。
AI算力经济学
市场规模
根据IDC报告,全球AI计算市场规模将从2022年的195亿美元增长到2026年的346.6亿美元,其中生成式AI占比将从4.2%提升至31.7%。

算力垄断
目前AI GPU市场被英伟达垄断,最新H100芯片售价高达4万美元仍供不应求。科技巨头通过云平台出租算力资源获取高额利润,AWS和微软云服务的毛利率分别达到61%和72%。这种集中式垄断导致大量开发者难以获取计算资源,不得不支付高昂费用使用云服务。

去中心化AGI算力的挑战
现有DePIN项目无法满足AGI算力需求,主要面临五大挑战:工作验证难题、市场冷启动问题、停机问题、隐私保护需求以及并行化实现难度。特别是并行化方面,中心化集群可以实现极低延迟,而分布式网络中的GPU性能参差不齐,如何实现高效异构并行计算是关键难题。
目前有两个项目在解决这些挑战方面取得进展:Gensyn设计了精巧的验证和激励系统,Together则通过创新算法降低了分布式训练延迟。虽然距离真正落地还有距离,但这些探索为去中心化算力市场指明了方向。
Gensyn

Gensyn是基于Polkadot的PoS协议,通过智能合约激励用户贡献闲置GPU资源。其核心创新在于解决了去中心化环境下的工作验证问题,通过概率学习证明、基于图的精确定位协议和激励博弈机制,构建了包含提交者、求解者、验证者和举报者的四角色系统。
系统运作分为任务提交、分析、训练、证明生成、验证、挑战、仲裁和结算八个阶段。虽然设计精巧,但参数设置、极端情况处理等细节仍需完善,实际落地面临诸多挑战。
项目简评
Gensyn的博弈系统设计颇具创新性,但具体实施细节仍需完善。参数设置如何平衡效率与公平?如何处理算力异构性问题?这些关键问题在当前白皮书中尚未得到充分解答。
Together.ai
Together致力于构建去中心化AI算力网络,其突破性贡献在于解决了分布式训练的延迟问题。通过创新的调度算法和AQ-SGD通信压缩技术,在比中心化网络慢100倍的条件下,将端到端训练速度差距缩小到1.7-2.3倍,通信效率提升至中心化网络的69%。

其核心技术包括:分布式训练计算建模将通信类型分为前向激活、反向梯度和横向通信;调度优化通过平衡图划分和旅行商问题最小化通信成本;AQ-SGD算法实现端到端通信压缩,将数据压缩至2-4位而不影响收敛性能。

结语
AI浪潮下,AGI算力市场潜力巨大但挑战重重。从Gensyn和Together的探索来看,去中心化算力网络距离实际应用还有相当距离。目前一些新兴项目开始转向难度较低的推理市场或小模型训练,这些尝试值得关注。
从长远看,去中心化算力的意义不仅在于技术突破,更在于打破巨头垄断,让AI发展成果惠及更多人。在数字经济时代,获取算力的权利不应成为少数企业的特权,而应该是开放共享的基础资源。
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/10640.html