需求中的算力
2009年,《阿凡达》以其震撼的3D视效开创了电影新纪元。这部划时代作品的幕后功臣Weta Digital,在新西兰的服务器农场中动用了占地10000平方英尺的计算机群。这些机器每天处理140万个任务,每秒吞吐8GB数据,持续运转超过一个月才完成全部渲染工作。正是这种前所未有的算力投入,成就了这部载入影史的视觉盛宴。
巧合的是,就在同年的1月3日,中本聪在芬兰赫尔辛基的一台小型服务器上挖出了比特币的创世区块,获得了50个BTC的奖励。从加密货币诞生的那一刻起,算力就成为了这个行业不可或缺的核心要素。
正如比特币白皮书所言:”最长链不仅证明了事件发生的顺序,更证明了它来自最大的CPU算力池。”在PoW共识机制下,算力的持续投入为区块链提供了坚实的安全保障。与此同时,不断攀升的哈希率也反映出矿工对行业前景的乐观预期。
这种对算力的旺盛需求,直接推动了芯片技术的革新。从最初的CPU、GPU,到后来的FPGA、ASIC,矿机芯片经历了快速迭代。如今,比特币矿机普遍采用ASIC芯片,专门优化SHA-256算法。比特币带来的巨大经济效益,使得挖矿算力需求水涨船高,但也导致了行业的高度集中化,无论是矿工还是设备制造商都呈现出资本密集型的特征。

随着以太坊智能合约的问世,其可编程性和可组合性特点催生了DeFi等创新应用,推动ETH价格持续攀升。在仍采用PoW共识机制的时期,以太坊挖矿难度也随之飙升。与比特币不同,以太坊挖矿主要依赖GPU,这导致Nvidia等厂商的高端显卡一度供不应求。

2022年11月30日,OpenAI推出的ChatGPT再次展示了算力的革命性力量。这个能够理解上下文、生成自然对话的AI助手,背后是超过万亿参数的预训练模型。GPT-4采用的Transformer架构引入了自注意力机制,使得模型能够同时关注输入序列的不同部分,这也对算力提出了极高要求。据估算,GPT-4单次训练成本高达6300万美元,日常运营同样需要海量算力支持。
算力硬件分类
当前主流的算力硬件包括CPU、GPU、FPGA和ASIC,它们各自适用于不同的计算场景。
从架构上看,GPU拥有更多核心,擅长并行计算,因此在机器学习和深度学习领域大显身手。相比之下,CPU核心数量较少,更适合处理复杂的串行任务。在图形渲染和神经网络计算这类需要大量并行运算的场景中,GPU的优势尤为明显。

FPGA作为一种半定制电路,由大量小型处理单元组成阵列,可以编程实现特定功能。它常与CPU协同工作,承担特定的加速任务。而ASIC则是完全定制的集成电路,在批量生产时具有体积小、功耗低、性能高等优势。比特币挖矿就是ASIC的典型应用场景。
值得注意的是,AI领域的快速迭代使得固定功能的ASIC和FPGA面临挑战。相比之下,GPU凭借其通用性和灵活性,在AI领域占据主导地位。以Nvidia为例,其专为深度学习设计的Tesla系列GPU集成了Tensor Core,大幅提升了神经网络计算的效率。配合CUDA等开发工具,GPU已成为AI开发者的首选硬件平台。
去中心化算力
去中心化算力通过分布式计算资源网络,结合区块链技术实现算力的共享与交易。这一概念的产生有着深刻的行业背景。
首先,数字内容创作的繁荣带来了爆炸式的渲染需求,而传统方式需要巨额的前期硬件投入。其次,AI发展加剧了算力争夺,Nvidia等厂商的供货能力甚至能影响行业发展。再者,当前算力服务高度依赖AWS等中心化云平台,租用成本居高不下。此外,地缘政治因素导致算力资源分配严重失衡,AI发展主动权掌握在少数巨头手中。
面对这些挑战,去中心化算力平台应运而生。从供给侧看,个人PC、物联网设备乃至数据中心都可以贡献闲置算力。特别值得关注的是,以太坊转向PoS后,大量退役的GPU矿机可能成为重要的算力来源。北美最大的以太坊矿场Coreweave就成功转型为GPU算力提供商。
从需求侧分析,去中心化算力目前更适用于图形渲染、视频转码等相对简单的任务。在AI领域,则主要服务于模型微调、推理等应用层需求。虽然大模型训练仍依赖中心化算力集群,但随着技术进步,去中心化方案有望在更多场景发挥作用。

不同领域的应用
数字媒体处理
Render Network是基于区块链的全球渲染平台,为创作者提供分布式GPU渲染服务。自2017年成立以来,已处理超过1600万帧渲染任务。近期,平台还集成了Stability AI工具,拓展了AI生成内容的能力。

Livepeer则专注于视频转码领域,通过网络参与者的GPU资源为内容创作者提供服务。用户可以通过质押代币获得更多任务机会,形成良性的经济循环。

AI领域的扩展
在AI生态中,不同环节对算力的需求差异显著。模型预训练需要强大的算力集群,而微调和推理则更适合分布式方案。Akash Network通过反向拍卖机制提供低价云服务,近期还计划支持GPU资源。

Gensyn.ai则聚焦深度学习,试图构建全球性的超级计算网络。项目借鉴了概率学习证明等前沿技术,但分布式训练的效率问题仍有待验证。
Edge Matrix Computing(EMC)协议将算力应用于AI、渲染等多个场景,并计划推出GPU RWA产品,为硬件资产提供流动性。同时,通过建设IDC机房来满足专业用户的集群需求。

Network3则构建了AI专属的Layer2,通过模型压缩和边缘计算技术,利用物联网设备为小模型训练提供支持。
综上
随着AI等技术的发展,算力的战略地位将进一步提升。去中心化算力不仅能降低中心化风险,还能作为传统方案的有益补充。虽然目前分布式算力在大模型训练等核心领域仍面临挑战,但随着技术进步,其应用场景必将不断扩展。
面对算力革命带来的机遇与挑战,我们需要保持开放心态,循序渐进地探索创新解决方案。
Reference
https://www.semianalysis.com/p/gpt-4-architecture-infrastructure
https://medium.com/render-token/render-network-q2-highlights-part-2-network-statistics-ac5aa6bfa4e5
https://know.rendernetwork.com/
https://medium.com/livepeer-blog/an-overview-of-the-livepeer-network-and-lpt-44985f9321ff
https://www.youtube.com/watch?v=FDA9wqZmsY8
https://mirror.xyz/1kx.eth/q0s9RCH43JCDq8Z2w2Zo6S5SYcFt9ZQaRITzR4G7a_k
https://mirror.xyz/gensyn.eth/_K2v2uuFZdNnsHxVL3Bjrs4GORu3COCMJZJi7_MxByo
https://docs.gensyn.ai/litepaper/#solution
https://a16zcrypto.com/posts/announcement/investing-in-gensyn/
https://www.pinecone.io/learn/chunking-strategies/
https://akash.network/blog/the-fast-evolving-ai-landscape/
https://aws.amazon.com/cn/blogs/compute/amazon-ec2-p4d-instances-deep-dive/
https://manual.edgematrix.pro/emc-network/what-is-emc-and-poc
声明:文章不代表CHAINTT观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险 自担!转载请注明出处:https://www.chaintt.cn/10628.html