后端层 – 后端层管理 Workers、集群/GPU 操作、客户交互、账单和使用监控、分析和自动扩展。
数据库层 – 该层是系统的数据存储库,使用主存储(用于结构化数据)和缓存(用于频繁访问的临时数据)。
消息代理和任务层 – 该层促进异步通信和任务管理。
基础设施层 – 该层包含 GPU 池、编排工具,并管理任务部署。
当前统计/路线图
截至撰写本文时:
总网络收益 – $ 1.08 m
总计算小时数 – 837.6 k 小时
总集群就绪 GPU – 20.4 K
总集群就绪 CPU – 5.6 k
总链上交易 – 1.67 m
总推理次数 – 335.7 k
总创建集群 – 15.1 k
(数据来源于 Io Net explorer)
Aethir
Aethir 是一个云计算 DePIN,促进高性能计算资源在计算密集型领域和应用中的共享。它利用资源池化,以显著降低成本实现全球 GPU 分配,并通过分布式资源所有权实现去中心化所有权。Aethir 专为高性能工作负载设计,适用于游戏和 AI 模型训练和推理等行业。通过将 GPU 集群统一到单一网络中,Aethir 的设计旨在增加集群规模,从而提高其网络上提供的服务的整体性能和可靠性。
Aethir Network 是一个由矿工、开发者、用户、代币持有者和 Aethir DAO 组成的去中心化经济。确保网络成功运行的三个关键角色是容器、索引器和检查器。容器是网络的核心节点,执行维护网络活跃性的重要操作,包括验证交易和实时渲染数字内容。检查器作为质量保证人员,持续监控容器的性能和服务质量,以确保为 GPU 消费者提供可靠和高效的操作。索引器作为用户与最佳可用容器之间的匹配者。支撑这一结构的是 Arbitrum Layer 2 区块链,它提供一个去中心化的结算层,以便在 Aethir 网络上以本地$ATH 代币支付商品和服务。
渲染证明
Aethir 网络中的节点有两个关键功能——渲染容量证明,其中一组这些工作节点每 15 分钟随机选择一次来验证交易;渲染工作证明,密切监控网络性能,以确保用户获得最佳服务,根据需求和地理位置调整资源。矿工奖励分配给在 Aethir 网络上运行节点的参与者,以他们借出的计算资源的价值计算,奖励以本地$ATH 代币支付。
Nosana
Nosana 是一个基于 Solana 构建的去中心化 GPU 网络。Nosana 允许任何人贡献闲置计算资源,并因此获得$NOS 代币形式的奖励。DePIN 促进了经济高效的 GPU 分配,可以用于运行复杂的 AI 工作负载,而没有传统云解决方案的开销。任何人都可以通过借出闲置 GPU 来运行 Nosana 节点,获得与其提供给网络的 GPU 功率成比例的代币奖励。
网络连接了分配计算资源的两个参与方:寻求访问计算资源的用户和提供计算资源的节点操作员。重要的协议决策和升级由 NOS 代币持有者投票并由 Nosana DAO 管理。
Nosana 为其未来计划制定了广泛的路线图——Galactica(v1.0 – 2024 上半年/下半年)将启动主网,发布 CLI 和 SDK,并专注于通过消费者 GPU 的容器节点扩展网络。Triangulum(v1.X – 2024 下半年)将集成主要的机器学习协议和连接器,例如 PyTorch、HuggingFace 和 TensorFlow。Whirlpool(v1.X -2025 上半年)将扩大对 AMD、Intel 和 Apple Silicon 的多样化 GPU 的支持。Sombrero(v1.X – 2025 下半年)将增加对中大型企业的支持,法币支付、账单和团队功能。
Akash
Akash 网络是一个基于 Cosmos SDK 构建的开源权益证明网络,允许任何人无许可地加入和贡献,创建一个去中心化的云计算市场。$AKT 代币用于保障网络安全、促进资源支付并协调网络参与者之间的经济行为。Akash 网络由几个关键组件组成:
区块链层,使用 Tendermint Core 和 Cosmos SDK 提供共识。
应用层,管理部署和资源分配。
提供者层,管理资源、投标和用户应用部署。
用户层,使用户能够与 Akash 网络互动、管理资源并使用 CLI、控制台和仪表板监控应用状态。
该网络最初专注于存储和 CPU 租赁服务,随着 AI 训练和推理工作负载的需求增长,网络已扩展其服务范围,涵盖 GPU 的租赁和分配,通过其 AkashML 平台响应这些需求。AkashML 使用“反向拍卖”系统,客户(称为租户)提交其期望的 GPU 价格,计算供应商(称为提供者)竞争以供应所请求的 GPU。
截至撰写本文时,
Akash 区块链已完成超过 1290 万次交易,超过 53.5 万美元被用于访问计算资源,并租赁出超过 18.9 万个独特部署。
荣誉提名
计算 DePIN 领域仍在发展,许多团队正在竞争以将创新和高效的解决方案推向市场。值得进一步研究的其他示例包括
Hyperbolic
,它正在构建一个用于 AI 开发的资源池协作开放访问平台,以及
Exabits
,它正在建立一个由计算矿工支撑的分布式计算能力网络。
重要考虑事项及未来展望
现在我们已经了解了计算 DePIN 的基本原理并审查了几个当前正在运行的补充案例研究,重要的是要考虑这些去中心化网络的影响,包括优点和缺点。
挑战
在规模上构建分布式网络通常需要在性能、安全性和弹性等方面做出权衡。例如,在全球分布的商品硬件网络上训练 AI 模型可能在成本效益和时间效率上远不如在集中式服务提供商上训练。正如我们之前提到的,AI 模型及其工作负载变得越来越复杂,需要更多高性能 GPU 而不是商品 GPU。这就是大型企业大量囤积高性能 GPU 的原因,也是旨在通过建立一个任何人都可以借出闲置 GPU 的无许可市场来解决 GPU 短缺问题的计算 DePINs 所面临的固有挑战。协议可以通过两种关键方式解决这一问题:一是为希望为网络做出贡献的 GPU 提供商建立基准要求,二是汇集提供给网络的计算资源,以实现更大的整体性。尽管如此,与集中式服务提供商相比,这种模式的建立本身就具有挑战性,因为集中式服务提供商可以分配更多资金与硬件提供商(如 Nvidia)直接交易。这是 DePINs 在前进过程中应该考虑的问题。如果去中心化协议拥有足够大的资金,DAO 可以投票决定分配一部分资金用于购买高性能 GPU,这些 GPU 可以用去中心化的方式进行管理,并以高于商品 GPU 的价格借出。
另一个特定于计算 DePINs 的挑战是管理适当的资源利用率。在其早期阶段,大多数计算 DePINs 将面临结构性需求不足的问题,正如许多初创公司今天所面临的那样。一般来说,DePINs 面临的挑战是早期建立足够的供应以达到最低可行产品质量。没有供应,网络将无法产生可持续的需求,也无法在需求高峰期为其客户服务。另一方面,过剩供应也是一个问题。在某个阈值以上,只有当网络利用率接近或达到满负荷时,更多的供应才有帮助。否则,DePIN 将面临为供应支付过多费用的风险,从而导致资源利用不足,除非协议提高代币发行以保持供应商的参与,否则供应商的收入将减少。
没有广泛的地理覆盖范围,电信网络就没有用武之地。如果乘客必须等待很长时间才能搭到车,出租车网络就不会有用。如果 DePIN 必须向长期提供资源的人员支付费用,那么它就不会有用。集中式服务提供商可以预测资源需求并有效管理资源供应,而计算 DePIN 则缺乏管理资源利用的中央机构。因此,对 DePIN 而言,尽可能战略性地确定资源利用率尤为重要。
一个更大的问题是,去中心化 GPU 市场可能不再面临 GPU 短缺的局面。马克·扎克伯格最近在一次采访中表示,他认为能源将成为新的瓶颈,而不是计算资源,因为企业现在将争相大规模建设数据中心,而不是像现在这样囤积计算资源。当然,这意味着 GPU 成本的潜在降低,但也提出了一个问题,即如果建设专有数据中心提高了 AI 模型性能的整体标准, AI 初创公司将如何在性能和提供的商品和服务质量上与大公司竞争。
计算 DePINs 的案例
重申一下, AI 模型的复杂性及其随后的处理和计算需求与可用高性能 GPU 和其他计算资源之间的差距正在扩大。
计算 DePINs 在计算市场领域有望成为创新的颠覆者,这些市场今天由主要硬件制造商和云计算服务提供商主导,基于以下几个关键能力:
1) 提供更低的商品和服务成本。
2) 提供更强的抗审查性和网络弹性保障。
3) 受益于可能要求 AI 模型尽可能开放以进行微调和训练的潜在监管准则,并且任何人都可以轻松访问。
DePIN赛道生态版图计算类全面解读
