Crypto AI:把握去中心化计算的投资机会

2024-12-09 20:00:00
文章探讨了 Crypto AI 的潜力与市场机会,强调去中心化计算在 AI 发展中的重要性及其与加密货币的结合,未来有望迎来巨大的市场规模。

早安!终于来了,大家准备好了吗?

这篇论文内容丰富,为了让大家更容易消化(同时不让邮箱炸裂),我决定将其分成几部分,接下来的一个月会慢慢分享。走起!

我一直记挂的一个大错失。

这事至今让我心里有点堵,因为这是个任何关注市场的人都能看出来的明显机会,但我却错失了,连一毛钱都没投。

不,这不是下一个 Solana 杀手,也不是那只搞笑帽子的狗狗币。

它是……NVIDIA。

NVDA 年初至今的股价表现

仅一年间,NVIDIA 的市值从 1 万亿飙升到 3 万亿,股价翻了三倍,甚至在同一时期的表现超过了比特币。

当然,这其中有 AI 热潮的推波助澜,但更重要的是,这种增长背后有着坚实的现实基础。NVIDIA 在 2024 财年收入达到了 600 亿美元,比 2023 年增长了 126%。这一惊人的增长,源于全球科技巨头们争相采购 GPU,以抢占通用人工智能(AGI)军备竞赛的先机。

我为啥错过了?

过去两年,我的注意力完全被加密货币吸引,AI 那边的动向完全没关注。这真是个大失误,现在想想都懊悔。

但这次,我不会再犯同样的错误了。

今天的 Crypto AI,给我一种似曾相识的感觉。

我们正处在一场创新爆炸的边缘,和 19 世纪中期的加州淘金热简直太像了——行业和城市一夜之间崛起,基础设施快速发展,敢于冒险的人们赚得盆满钵满。

就像早期的 NVIDIA,一旦未来回顾,Crypto AI 会显得如此显而易见。

Crypto AI:潜力无限的投资机会 在我的论文第一部分中,我提到为什么 Crypto AI 是如今最吸引人的潜力机会,投资者和开发者都不能错过。以下是几个关键点:

  • 很多人觉得这就像是“空中楼阁”。
  • 目前 Crypto AI 仍在早期阶段,离炒作巅峰可能还有 1-2 年的时间。
  • 这个领域的增长潜力至少有 2300 亿美元。

Crypto AI 的精髓在于将人工智能与加密基础设施结合,这让它更有可能沿着 AI 的指数增长轨迹发展,而不是随波逐流于更广泛的加密市场。因此,要想把握先机,关注 Arxiv 上的最新 AI 研究,并与那些自信能创造下一个大事件的创始人交流是必须的。

Crypto AI 的四大核心领域

在论文的第二部分,我会详细探讨 Crypto AI 中最具前景的四个子领域:

  1. 去中心化计算:模型训练、推理与 GPU 交易市场
  2. 数据网络
  3. 可验证 AI
  4. 链上 AI 智能体

这篇文章是几周深入研究和与 Crypto AI 领域创始人及团队交流的成果。它并不是对每个领域的全面分析,而是一个高层次的路线图,旨在激发你的好奇心、帮助你优化研究方向,并指导你的投资决策。


Crypto AI 的生态蓝图


我将去中心化 AI 的生态系统比作一个分层结构:在一端是去中心化计算和开放数据网络,为去中心化 AI 模型的训练奠定基础。

所有推理的输入和输出都通过密码学、加密经济激励以及评估网络进行验证。这些经过验证的结果流向链上自主运行的 AI 智能体,以及用户可以信赖的消费级和企业级 AI 应用。

协调网络将整个生态系统连接在一起,实现无缝的沟通与协作。 在未来的愿景里,任何涉及 AI 开发的团队都能根据自己的需求,接入生态中的不同层级。无论是利用去中心化计算进行模型训练,还是通过评估网络确保高质量输出,这个生态系统提供了丰富的选择。

模块化未来🌍

随着区块链的可组合性提升,我们正在逐步迈向一个模块化的未来。每一层都将高度专业化,协议将根据特定功能优化,而不是一味追求一体化解决方案。

寒武纪式增长🚀

最近,去中心化 AI 技术栈的各个层面涌现了众多初创企业,展现出「寒武纪式」的爆炸式增长。大部分企业成立时间仅为 1-3 年,显示出我们仍处行业早期阶段。

在我看到的 Crypto AI 初创企业生态图中,最全面且更新的版本由 topology.vc 的 Casey 和她的团队维护。这是追踪这一领域发展的必备资源。

巨大的机会💰

当我深入探索 Crypto AI 各个子领域时,心中总是思考:这里的机会有多大?我关注的并不是小市场,而是那些能扩展到数千亿美元规模的巨大机会。

  1. 市场规模

在评估市场规模时,我会问:这个子领域是创造了新市场,还是在颠覆现有市场?

以去中心化计算为例,这是一个颠覆性的领域。通过现有的云计算市场,我们可以估算其潜力。目前,云计算市场规模约 6800 亿美元,预计到 2032 年将达到 2.5 万亿美元。

与之相比,像 AI 智能体这样的新市场则更难量化。由于缺乏历史数据,我们只能凭直觉和合理推测进行估算。不过要小心,有些看似新市场的产品,实际上可能只是为问题寻找解决方案的产物。

  1. 时机

时机是成功的关键。虽然技术随着时间推移会不断改进并变得便宜,但不同领域的进步速度却差异巨大。

某个子领域的技术成熟度如何?是否已经足够成熟以支持大规模应用?还是仍处于研究阶段,离实际应用还有数年?时机决定了一个领域是否值得立即关注,还是要暂时观望。

以完全同态加密 (FHE) 为例:潜力无可否认,但目前技术性能依然缓慢,难以实现大规模应用。可能还需要几年才能看到它进入主流市场。因此,我会优先关注那些技术接近大规模应用的领域,将我的时间和精力聚焦于正在积聚势头的机会点上。 如果把这些子领域放在一个「市场规模 vs. 时机」的图上,可能会是这样的感觉。不过,得提醒你,这只是个概念图,不是教科书式的指南哦。每个领域内部其实也挺复杂的——就拿可验证推理 (verifiable inference) 来说,不同的方法(像 zkML 和 opML)在技术成熟度上可不是一个水平的。

尽管如此,我还是坚信,AI 的未来市场规模会非常庞大。即使现在看上去比较「冷门」的领域,将来也可能变得炙手可热。

同时,咱们得意识到,技术进步可不总是一条直线——它往往是跳跃式前进的。当新技术突破出现,我对市场时机和规模的看法也会随之改变。

基于以上框架,我们接下来将逐个解析 Crypto AI 的各个子领域,挖掘它们的发展潜力和投资机会。

领域 1:去中心化计算


--

总结

--

· 去中心化计算是去中心化 AI 的核心支柱。

· GPU 市场、去中心化训练和去中心化推理紧密相连,携手发展。

· 供应侧主要由中小型数据中心和普通消费者的 GPU 设备构成。

· 需求侧目前规模较小,但正在逐步扩大,主要包括对价格敏感、延迟要求不高的用户,以及一些小型 AI 初创公司。

· 当前 Web3 GPU 市场面临的最大挑战,是如何让这些网络真正高效运作。

· 在去中心化网络中协调 GPU 的使用,需要先进的工程技术和稳健的网络架构设计。


1.1 GPU 市场 / 计算网络


现下,一些 Crypto AI 团队正在建立去中心化的 GPU 网络,利用全球未被充分利用的计算资源池,来满足 GPU 需求远超供应的现状。

这些 GPU 市场的核心价值可以总结为以下三点:

  • 计算成本比 AWS 低多达 90%。这低成本来自两个方面:一是去掉了中间商,二是开放了供应端。用户可以接触到全球最低边际成本的计算资源。

  • 无需绑定长期合同、无需身份验证(KYC)、无需等待审批。

  • 抗审查能力。

  • 为了解决市场的供应方问题,这些市场从以下来源获取计算资源: · 企业级 GPU: 高性能的 GPU,如 A100 和 H100,通常来源于中小型数据中心(它们单打独斗很难吸引足够的客户)或希望拓展收入来源的比特币矿工。另外,还有团队借助政府资助的大型基础设施项目,建设了大量数据中心以支持技术进步。这些供应商通常会被激励不断接入 GPU 到网络,以帮助减轻设备的折旧压力。

· 消费者级 GPU: 数百万的玩家和家庭用户把自己的电脑连上网络,通过 Token 奖励赚取收益。

当前,去中心化计算的需求主要来自以下几类用户:

1. 预算敏感、对延迟要求不高的用户: 比如,资金紧张的研究人员和独立 AI 开发者等。他们更在意成本,而非实时处理能力。面对传统云服务巨头(如 AWS 或 Azure)的高价,他们常常无力承担。因此,精准营销对这一群体至关重要。

2. 小型 AI 初创公司: 这些公司需要灵活且可扩展的计算资源,但又不希望签长期合约与大型云服务商合作。吸引这一群体需要加强合作关系,因为他们在积极寻找传统云计算的替代方案。

3. Crypto AI 初创企业: 这些企业正在开发去中心化的 AI 产品,但缺乏自己的计算资源,得依赖这些去中心化网络。

4. 云游戏: 尽管与 AI 关系不大,云游戏对 GPU 资源的需求却在迅速增加。

记住:开发者始终将成本和可靠性放在第一位


真正的挑战:需求,而非供应


不少初创公司可能把 GPU 供应网络的规模视为成功的标志,但实际上,这只是一种「虚荣指标」。

真正的瓶颈在需求端,而非供应端。衡量成功的关键不在于网络中有多少 GPU,而在于 GPU 的利用率和实际租用的 GPU 数量。

Token 激励机制在启动供应端上非常有效,能够迅速吸引资源加入网络。但这并不能直接解决需求不足的问题。真正的考验在于,能否将产品打磨到足够好的状态,从而激发潜在的需求。

正如 Haseeb Qureshi(来自 Dragonfly)所说,这才是关键所在。


让计算网络真正运转起来


目前,Web3 分布式 GPU 市场的最大难题,真的是要让这些网络高效运转。😅

这可不是随便说说就能搞定的事儿。

协调 GPU 在分布式网络中 是个极其复杂的活,涉及到一堆技术难点,比如资源分配、动态工作负载扩展、节点和 GPU 的负载均衡、延迟管理、数据传输、容错能力,还得应对全球各地五花八门的硬件设备。这些问题叠加在一起,简直是个工程上的“大山”。

想要解决这些难题,得有超强的工程技术能力和一个健壮、设计合理的网络架构。

要理解这点,看看 Google 的 Kubernetes 系统 吧。Kubernetes 被视为容器编排的金标准,能自动处理分布式环境中的负载均衡和扩展等问题,这些跟分布式 GPU 网络面临的挑战很像。值得一提的是,Kubernetes 是基于 Google 十多年分布式计算经验开发的,尽管如此,还是花了好几年不断迭代才完善。

现在,一些已经上线的 GPU 计算市场能处理小规模的工作负载,但一旦扩大规模,问题就会暴露。这可能是因为它们的架构设计根本就有缺陷。

可信性问题:挑战与机遇🔍

去中心化计算网络还有一个重要问题是如何确保节点的可信性,也就是怎么验证每个节点是否真能提供它所声称的计算能力。目前,这个验证过程一般依赖网络的声誉系统,有时计算提供者会根据声誉排名。区块链技术在这方面有天然优势,因为它能实现无需信任的验证机制。一些初创公司,比如 GensynSpheron,正在探索如何通过信任机制解决这个问题。

目前,许多 Web3 团队还在努力应对这些挑战,这也意味着这个领域的机会依然广阔。


去中心化计算市场的规模📈


那么,去中心化计算网络的市场到底有多大呢?

现在,它可能仅占全球云计算市场(规模约为6800亿到2.5万亿美元)的一小部分。不过,只要去中心化计算的成本低于传统云服务提供商,就一定存在需求,哪怕用户体验有些小摩擦。 在短期到中期,去中心化计算的成本应该会保持在较低水平,这得益于两个主要因素:✨

  1. Token 补贴
  2. 非价格敏感用户的供应解锁

例如,我如果能把我的游戏笔记本电脑出租赚点外快,不管是每月 20 美元还是 50 美元,都会觉得超满足的😄。

去中心化计算网络的真正增长潜力和市场规模的扩展,依赖于几个关键因素:

1. 去中心化 AI 模型训练的可行性:
一旦去中心化网络支持 AI 模型的训练,市场需求会暴涨🚀。

2. 推理需求的爆发:
AI 推理需求的激增可能让现有数据中心不堪重负。NVIDIA 的 Jensen Huang 已经提到,推理需求会增长「十亿倍」📈。

3. 服务等级协议 (SLAs) 的引入:
现在,去中心化计算服务多是「尽力而为」,用户会面临服务质量的不确定性。有了 SLAs,网络可以提供标准化的可靠性和性能指标,这样企业更容易采纳去中心化计算,成为传统云计算的可行替代方案。

去中心化、无需许可的计算是去中心化 AI 生态系统的基石,也是其最重要的基础设施之一🛠️。

尽管 GPU 等硬件供应链在扩展,但我觉得我们仍处于「人类智能时代」的黎明。未来对计算能力的需求将是无止境的🔄。

注意可能会触发 GPU 市场重新定价的关键拐点,可能很快就会到来👀。


· 纯 GPU 市场竞争激烈,不仅要面对去中心化平台之间的竞争,还得面对 Web2 AI 新兴云平台(如 Vast.ai 和 Lambda)的强势崛起。

· 小型节点(比如 4 张 H100 GPU)的市场需求不大,但想找到出售大型集群的供应商几乎是不可能的,因为他们的需求依旧火爆🔥。

· 去中心化协议的计算资源供应,究竟是会被某个主导者整合,还是会继续分散在多个市场中?我更倾向于前者,认为最终会呈现幂律分布,因为整合往往能提升基础设施的效率。不过,这个过程需要时间,市场的分散和混乱还会继续一阵子。

开发者更希望专注于构建应用,而不是在部署和配置上浪费时间。因此,计算市场需要简化这些复杂性,尽量减少用户获取计算资源时的摩擦💡。 去中心化训练的未来 🤖


核心观点

  • 扩展法则的挑战:假如扩展法则成立,未来在单一数据中心训练前沿 AI 模型可能会变得不切实际。

  • 数据传输瓶颈:训练 AI 模型需要大量的 GPU 之间进行数据传输,而分布式 GPU 网络的低互连速度常常成为技术障碍。

  • 技术突破:研究人员正在探索多种解决方案,像 Open DiLoCo 和 DisTrO 这样的技术创新正在推动去中心化训练的进程。

  • 小型专用模型的兴起:未来去中心化训练可能会关注设计小型、专用模型,而非追求 AGI 的前沿模型。

  • 推理需求激增:随着 OpenAI 的 o1 等模型的流行,推理需求暴增,这为去中心化推理网络提供了巨大的机遇。

想象一下:一个颠覆世界的 AI 模型,不是某个秘密实验室的成果,而是数百万普通人共同的努力。游戏玩家的 GPU 不再仅仅是为了渲染《使命召唤》的酷炫画面,而是被用来实现更伟大的目标——一个开源且集体拥有的 AI 模型,没有任何中心化的管理者。

在这样的未来,基础规模的 AI 模型不再是顶尖实验室的专属,而是全民参与的结晶。

不过,现实是,目前大部分重型 AI 训练依旧集中在中心化数据中心,这种趋势在可预见的未来恐怕不会有太大改变。

像 OpenAI 这样的公司仍在不断扩展其庞大的 GPU 集群。Elon Musk 最近也透露,xAI 即将完成的一个数据中心,其 GPU 数量相当于 20 万张 H100。

但问题不仅仅在于 GPU 的数量。Google 在 2022 年的 PaLM 论文中提出了一个重要指标——模型 FLOPS 利用率 (Model FLOPS Utilization, MFU),用来衡量 GPU 最大计算能力的实际使用率。出人意料的是,这一利用率通常仅在 35-40% 之间。

为什么这么低呢?尽管 GPU 性能在摩尔定律的推动下飞速提升,网络、内存和存储设备的进步却远远滞后,形成了明显的瓶颈。结果,GPU 经常闲置,等待数据传输完成。

目前,AI 训练高度中心化的根本原因只有一个——效率。

大型模型训练依赖以下关键技术:

  • 数据并行:将数据集切分到多个 GPU 上进行并行处理,从而加快训练速度。 · 模型并行: 把模型的各个部分分散到多个 GPU 上,真是解决内存限制的绝妙法子。

为了实现这一点,GPU 之间需要频繁交换数据,所以互连速度(也就是网络中数据传输的快慢)变得超级重要。

当前沿 AI 模型的训练成本可能飙升至 10 亿美元时,任何一点效率提升都是金子般的存在。

中心化数据中心凭借其超快的互连技术,可以迅速在 GPU 之间传递数据,从而在训练时间上节省不小的成本。这一优势,去中心化网络现在还真没法比……至少目前是这样。


克服缓慢的互连速度


和 AI 领域的从业者聊起来,很多人可能会直言不讳:去中心化训练根本行不通。

在去中心化架构下,GPU 集群并不在同一个物理位置,导致它们之间的数据传输速度很慢,成了主要瓶颈。训练过程每一步都需要 GPU 进行数据同步和交换,距离越远,延迟就越高。而更高的延迟直接影响训练速度,成本自然也就水涨船高。

在中心化数据中心只需几天完成的训练任务,到了去中心化的环境下,可能需要两周,成本也更贵。这显然不太现实。

不过,好消息是,这种情况正在发生变化。

令人兴奋的是,分布式训练的研究正如火如荼。研究者们从多个方向展开探索,最近涌现出大量成果与论文,真是让人眼前一亮。这些技术进展将形成叠加效应,推动去中心化训练的发展。

另外,实际生产环境的测试也至关重要,这能帮助我们打破现有技术的界限。

目前,一些去中心化训练技术已能在低速互连环境中处理较小规模的模型。而前沿研究正致力于将这些方法扩展至更大规模的模型。

· 比如,Prime Intellect 的 Open DiCoLo 论文提出了一种实用方法:把 GPU 分成「群岛」,每个群岛在同步前先进行 500 次本地计算,将带宽需求降至原来的 1/500。这项技术最初是 Google DeepMind 针对小型模型的研究,现在已经成功扩展到训练一个拥有 100 亿参数的模型,并且已经完全开源。

· Nous Research 的 DisTrO 框架则进一步突破,通过优化器技术将 GPU 之间的通信需求降低了高达 10,000 倍,同时成功训练了一个拥有 12 亿参数的模型。

· 这一势头还在持续。Nous 最近宣布,他们已完成一个 150 亿参数模型的预训练,其损失曲线和收敛速度甚至超越了传统的中心化训练表现。

微小发报道:
(推文详情:

https://x.com/NousResearch/status/1863622813317464157?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1863622813317464157%7Ctwgr%5E1e5a66f4a968150161a81a5e8c884574d4538df2%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.chainofthought.xyz%2Fp%2Four-crypto-ai-thesis-part-ii-decentralised-compute
)

🔍 训练超大规模AI模型的新途径
像 SWARM Parallelism 和 DTFMHE 这样的新方法,正在尝试在不同设备上训练超大规模的 AI 模型,哪怕这些设备的速度和链接状况千差万别。

💻 GPU硬件的挑战
另一个棘手的问题是如何管理多样化的 GPU 硬件,特别是在去中心化网络中常见的消费级 GPU,这些设备通常内存有限。通过模型并行技术(将模型的不同层分配到多台设备上),这个问题正在逐步迎刃而解。


🌟 去中心化训练的未来畅想
目前,去中心化训练的模型规模距离最前沿的模型仍有不小差距(比如 GPT-4 的参数量接近一万亿,远超 Prime Intellect 的 100 亿参数)。要实现真正的规模化,我们必须在模型架构、网络基础设施和任务分配策略上实现重大突破。

大胆设想一下:未来,去中心化训练可能集结比最大中心化数据中心更多的 GPU 计算能力。Pluralis Research(一个在去中心化训练领域相当有眼光的团队)相信,这不仅是可能的,还是必然的。中心化数据中心受限于物理条件,如空间和电力,而去中心化网络则能利用全球几乎无限的资源。

🎤 业界领袖的看法
甚至 NVIDIA 的 Jensen Huang 也表示,异步去中心化训练可能是释放 AI 扩展潜力的关键。此外,分布式训练网络还具备更强的容错能力。

所以,未来有个可能性是:世界上最强大的 AI 模型将以去中心化的方式进行训练。 这一愿景确实让人激动,但我还是有点犹豫 🤔。我们需要更扎实的证据,来证明去中心化训练超大规模模型在技术和经济上都是可行的。

最佳应用场景?我觉得去中心化训练最适合的其实是那些小巧、专门的开源模型,专为特定应用而设计,而不是跟那些超大型、追求 AGI 的模型去拼。某些架构,尤其是非 Transformer 的那些,已经展现出它们在去中心化环境中的强大适应性。

另外,Token 激励机制将会是未来的关键。当去中心化训练规模可行后,Token 可以有效激励和回报贡献者,推动这些网络的发展 🚀。

尽管路途漫长,但目前的进展真让人振奋。去中心化训练的突破,不仅能使去中心化网络受益,还能为大型科技公司和顶尖 AI 实验室开启新的可能性……


1.3 去中心化推理


目前,AI 的计算资源大多用于训练大型模型,顶尖 AI 实验室之间的军备竞赛正如火如荼,目标是开发出最强基础模型,最终实现 AGI。

不过,我觉得这种对训练资源的集中投入,未来几年将逐渐转向推理。随着 AI 技术越来越多地融入我们的日常应用——从医疗到娱乐,推理所需的计算资源将会变得异常庞大。

这可不是无的放矢。推理时的计算扩展(Inference-time Compute Scaling)已成为 AI 领域的热门话题。OpenAI 最近发布了最新模型 o1(代号:Strawberry)的预览版,其最大的亮点是:它会“花时间思考” 💭。具体来说,它会先分析自己需要采取哪些步骤来回答问题,然后逐步完成这些步骤。

这个模型专为更复杂且需要规划的任务设计,比如填字游戏,能够处理深度推理的问题。虽然它生成响应的速度较慢,但结果更加细致和深思熟虑。然而,这种设计也带来了高昂的运行成本,其推理费用是 GPT-4 的 25 倍。

从这个趋势来看,AI 性能的下一个飞跃,不仅仅依赖于训练更大的模型,还将依靠推理阶段计算能力的扩展。

如果你想更深入了解,已有几项研究证明:

· 通过重复采样扩展推理计算,能在许多任务中显著提升性能。

· 推理阶段也遵循一种指数级的扩展法则 (Scaling Law)。 一旦高效的 AI 模型训练完成,推理任务(也就是实际应用阶段)可以轻松转移到去中心化计算网络。这种方式吸引力十足,原因有三:

  • 资源需求低:推理所需的资源远少于训练。完成训练的模型可以通过量化、剪枝或蒸馏等技术进行压缩和优化。甚至可以运用张量并行或流水线并行,将模型拆分,允许在普通消费级设备上运行。推理不再依赖高端 GPU。

  • 初露端倪:比如,Exo Labs 找到了在 MacBook 和 Mac Mini 等消费硬件上运行 4500 亿参数 Llama3 模型的方法。通过将推理任务分布于多个设备,即使是庞大的计算需求也能高效且低成本完成。

  • 更佳用户体验:将计算能力部署得更靠近用户,显著降低延迟,这对实时应用至关重要。像游戏、增强现实(AR)和自动驾驶汽车,这些场景中每毫秒的延迟都可能改变用户体验。

去中心化推理就像 AI 的 CDN(内容分发网络)。传统的 CDN 通过连接邻近服务器快速传输网站内容,而去中心化推理则利用本地计算资源,以极快速度生成 AI 响应。这样一来,AI 应用程序变得更高效、响应更快,可靠性也大幅提升。

这一趋势已经显现。苹果最新的 M4 Pro 芯片性能接近 NVIDIA RTX 3070 Ti——曾经的游戏玩家梦寐以求的高性能 GPU。如今,我们的日常硬件正愈发能够应对复杂的 AI 任务。


加密货币的价值赋能


想让去中心化推理网络真正奏效,得给参与者足够有吸引力的经济激励。网络中的计算节点需要因其贡献的计算能力获得合理报酬,系统还需确保奖励分配公平且高效。此外,地理多样性也至关重要。它不仅能降低推理任务的延迟,还能提升网络的容错能力,从而增强整体稳定性。

那么,构建去中心化网络的最佳方式是什么呢?答案就是加密货币。 Token 是个超级厉害的工具,能把所有参与者的利益整合到一起,确保大家都朝着同一个方向努力:扩展网络规模,提升 Token 的价值📈。

不仅如此,Token 还可以大幅加速网络的成长。它们解决了早期发展中那些经典的“鸡和蛋”难题。通过奖励早期采用者,Token 从一开始就能推动更多人参与到网络建设中来👥。

比特币和以太坊的成功已经证明了这套机制的有效性——它们吸引了地球上最大的计算能力池。

下一个接力者将是去中心化推理网络。这些网络通过地理多样性,能够减少延迟、增强容错能力,并将 AI 服务更贴近用户。而凭借加密货币驱动的激励机制,去中心化网络的扩展速度和效率将远超传统网络🚀。


在接下来的系列文章中,我们将深入探讨数据网络,研究它们如何帮助突破 AI 面临的数据瓶颈🔍。


免责声明


本文仅供教育用途,不构成任何财务建议。这并不是对资产买卖或财务决策的背书。在进行投资选择时,请务必自行研究并保持谨慎。

Reminder: Develop a sound understanding of currency and investment, approach blockchain rationally, and stay aware of risks. Report any illegal activities to the authorities
温馨提醒,请广大读者树立正确的货币观念和投资理念,理性看待区块链,切实提高风险意识;对发现的违法犯罪线索,可积极向有关部门举报反映。
  • English ·
  • 简体中文 ·
  • 繁體中文 ·