source:@ionet
从io.net的供给端来看
网络节点的有效性已得到验证
算力设备在线稳定且数量充足
拥有一定数量的高端算力设备,能够填补一部分市场需求
但从需求端来看
还有很多设备处于空闲状态
大部分的算力任务需求来自于BC8.AI
企业端和个人端的需求还没有被激发出来
io.net的网络原生代币为$IO,8亿固定总量,5亿初始供应,剩余的3亿个分20年将作为奖励每小时发放并支付给供应商及代币质押者。
$IO采用销毁通缩机制:网络产生的收入用于购买和销毁$IO,代币燃烧数量根据$IO的价格来调整。
代币赋能
支付手段:对用户和供应商以USDC付款需支付2%的手续费,以$IO付款不收取任何费用。
质押:质押最少100个$IO代币,才能使节点从网络获得$IO空闲奖励。
代币分配比例
从分配比例图中可以看出,项目社区成员占据了一半的代币,这表明项目希望通过激励社区成员来推动项目的发展。研发生态系统占比16%,确保了项目的技术和产品开发能够得到持续的支持。
从代币释放图中可以看出,$IO代币是逐步线性释放的,这种释放机制有助于稳定$IO代币的价格,避免市场上突然出现大量的$IO代币导致价格波动。同时,$IO代币的奖励机制也能够激励长期持有者和质押者,增强项目的稳定性和用户黏性。
总的来说,io.net代币经济学是一个设计良好的代币方案。从代币分配比例中就可以看出,将一半的代币分配给社区,显示出了项目对社区驱动和去中心化治理的重视,这有助于项目的长期发展和公信力的建立。
在我们前面的DePIN经济发展的三个阶段的第三个阶段中,已经阐述了社区自治成为网络治理的主导模式,io.net已经为未来的社区自治打造了良好的基础。同时$IO代币的逐步释放机制和销毁机制也有效地分散了市场抛压,减少了价格波动的风险。
从这里可以看出,io.net的各种机制都说明了它是一个具有规划的长期发展的项目。
当前,io.net的点火奖励已经来到了第3季,持续时间为6月1日至6月30日,参与方式主要是将自己的算力设备并入到算力主网去参与挖矿。$IO代币的挖矿奖励与设备算力大小,网络带宽速度等多种因素有关。
在第1季的点火奖励中,用户设备并网的起步门槛为GeForceRTX1080Ti,这也体现了我们前文中所说的-给予低端设备一个参与机会,这才符合区块链公平、公正、透明的精神。而后,在第2季和第3季的点火奖励中的起步门槛为GeForceRTX3050。
这么做的原因是,从项目角度来说,在项目发展到一定阶段,低端算力设备对网络整体贡献较小,而且更好更强的算力设备能更好的维护网络稳定;从需求端用户来说,大多数用户更需要的是高端算力设备,他们需要高端算力设备去进行AI模型的训练和推理,低端的算力设备是满足不了他们的需求。
所以随着项目的良好发展,提升参与门槛是一条正确的路线,就像比特币网络一样,更好、更强、更多的算力设备,才是项目方追求的目标。
io.net在项目的冷启动期和网络建设阶段有着良好的表现,它完成了整个网络的搭建验证了算力节点的有效性,并产生了持续性的营收。
项目下一步的主要目标是进一步扩展网络生态,提升网络需求端的增量,算力需求市场是一个很大的市场,如何在市场上推广该项目需要项目方的市场营销团队做出努力。
实际上,我们通常所说的AI算法模型开发,主要是包括两大部分,一个是训练(Train),一个是推理(Inference)。我们用一个简单的例子来阐述这两个概念,现有一个一元二次方程:
我们利用(x,y)数据对(训练集)去求解未知系数 (a,b,c)的过程就是AI算法的训练(Train)过程;在得到未知系数(a,b,c)后,根据所给的x去求解y的过程就是AI算法的推理(Inference)过程。
从这个计算过程中,我们可以很明显的看出训练(Train)过程的计算量是远远大于推理(Inference)过程的,训练一个LLM(LargeLanguageModel,大语言模型)需要大量的算力集群支持,同时需要消耗大量的资金。以GPT-3175B为例,使用了数千块NvidiaV100GPU进行训练,训练时间约为几个月,训练成本高达数千万美元。
在去中心化计算平台上做AI大模型训练是很难的,因为模型训练过程中涉及到大规模数据之间的转移和传递,这个过程对网络带宽的需求非常高,而去中心化计算平台很难满足这一需求。英伟达(NVIDIA)之所以成为AI产业之王,除了其拥有高端算力芯片以及底层AI计算加速库(cuDNN)外还有其独有的通信桥NVLink,NVLink大大加快了模型训练过程中的大规模数据之间的流动。
在AI产业中,大模型的训练不仅需要大量的计算资源,还涉及到数据的收集、处理和转换。这些过程往往需要规模化的基础设施和集中化的数据处理能力。正因为如此,我们可以看到AI产业本质上是一个规模化和集中化的行业,它依赖于强大的技术平台和数据处理能力来推动创新和发展。
所以io.net等去中心化计算平台最适合做AI算法推理(Inference),它的潜在客户对象应该是学生和那些基于大模型进行下游任务微调(Finetuning)的任务需求,因为它价格便宜、访问简单、算力充足。
人工智能被视为人类见过的最重要的技术,随着通用人工智能(AGI)的到来,生活方式将发生翻天覆地的变化。然而,由于少数公司主导AI技术开发,导致了GPU富人和GPU穷人之间的AI财富差距。Aethir通过其分布式物理基础设施网络(DePINs),旨在增加按需计算资源的可获得性,从而平衡AI发展的成果分配。
Aethir是一个创新的分布式云计算基础设施网络,专门设计用于满足人工智能(AI)、游戏和虚拟计算领域对按需云计算资源的高需求。其核心理念是通过聚合来自全球各地的企业级GPU芯片,形成一个单一的全球网络,从而显著增加按需云计算资源的供应。
Aethir的主要目标是解决当前AI和云计算领域面临的计算资源短缺问题。随着人工智能的发展和云游戏的普及,对高性能计算资源的需求不断增加。然而,由于少数大公司垄断了大部分的GPU资源,中小型企业和初创公司往往难以获得足够的计算能力。Aethir通过其分布式网络,提供了一种可行的解决方案,既可以帮助资源所有者(如数据中心、科技公司、电信公司、顶级游戏工作室和加密货币挖矿公司)充分利用他们未充分利用的GPU资源,也可以为终端用户提供高效、低成本的计算资源。
分布式云计算的优势
企业级计算资源:Aethir聚合了高质量的GPU资源,例如NVIDIA的H100芯片,这些资源来自于各种企业和数据中心,确保了计算资源的高质量和可靠性。
低延迟:Aethir的网络设计能够支持低延迟的实时渲染和AI推理应用,这是当前集中式云计算基础设施难以实现的。特别是在云游戏领域,低延迟对于提供无缝的游戏体验至关重要。
快速扩展:由于采用了分布式模型,Aethir能够更快地扩展其网络,以满足快速增长的AI和云游戏市场需求。相比传统的集中式模型,分布式网络能够更灵活地增加计算资源供应。
优越的单位经济性:Aethir的分布式网络减少了传统云计算提供商的高运营成本,能够以更低的价格提供计算资源。这对于中小型企业和初创公司尤为重要。
去中心化所有权:Aethir确保资源所有者始终保留对其资源的控制权,资源提供者可以根据需求灵活调整其资源的利用,同时获得相应的收益。
通过这些核心优势,Aethir不仅在技术上领先,而且在经济和社会层面也具有重要意义。它通过分布式物理基础设施网络(DePINs),使得计算资源的供应更加公平,促进了AI技术的普及和创新。这种创新模式不仅改变了计算资源的供应方式,也为未来AI和云计算的发展提供了新的可能性。
Aethir的技术架构由多个核心角色和组件组成,确保其分布式云计算网络能够高效、安全地运行。以下是各个关键角色和组件的详细描述:
核心角色和组件
节点运营者(NodeOperators):
节点运营者提供实际的计算资源,他们将自己的GPU资源接入Aethir网络,以供使用。
节点运营者需要首先注册其计算资源,并经过Aethir网络的规格评估和确认后,才能开始提供服务。
AethirNetwork
以上就是DePIN赛道是什么?一文解密DePIN生态(AI算力的变革力量)的全部内容,望能这篇DePIN赛道是什么?一文解密DePIN生态(AI算力的变革力量)可以帮助您解决问题,能够解决大家的实际问题是非常好学习网一直努力的方向和目标。