AI 的三个问题和 DePIN 的解法
撰文:FMGResearch
TL; DR
AI 时代产品竞争,离不开资源端(算力、数据等),尤其是稳定资源端做支持。
模型训练 / 迭代同时还需要庞大的用户标的(IP)来帮忙喂养资料,来对模型效率产生质变。
与 Web3 的结合,能够帮助中小型 AI 初创团队实现对传统 AI 巨头的弯道超车。
对于 DePIN 生态,算力、带宽等资源端决定下限(单纯算力集成没有护城河);AI 模型的应用、深度优化(类似 BitTensor)、专业化(Render、Hivemaper)以及对数据的有效利用等维度决定项目上限。
AI+DePIN 语境下,模型推理 微调,以及移动端 AI 模型市场将得到重视。
AI 市场分析 三个问题
有数据统计,从 2022 年 9 月,ChatGPT 诞生前夕到 2023 年 8 月,全球 Top 50 的 AI 产品就产生了超过 240 亿次的访问量,平均每月增长量为 2.363 亿次。
AI 产品的繁荣,背后是对于算力依赖程度的加剧。
Source: Language Models are Few-Shot Learners
马萨诸塞大学阿莫斯特分校的一篇论文指出,「训练一个人工智能模型,其一生所排放的碳相当于五辆汽车的碳排放量。」然而,这一分析仅涉及一次训练。当模型通过反复训练得到改进时,能量的使用将会大大增加。
最新的语言模型包含数十亿甚至数万亿的权重。一种流行的模型 GPT-3 拥有 1750 亿个机器学习参数。如果使用 A100 需要 1024 个 GPU、34 天和 460 万美元来训练该模型。
后 AI 时代的产品竞争,已经逐渐延展成为以算力为主的资源端战争。
Source:AI is harming our planet: addressing AI’s staggering energy cost
这就延展出三个问题:第一,一个 AI 产品是否有足够的资源端(算力、带宽等)尤其是稳定资源端做支持。这种可靠需要算力足够的去中心化。在传统领域,由于芯片需求端的缺口,再加上基于政策、意识形态构建的世界墙,让芯片制造商天然处于优势地位,并能够大幅度哄抬价格。比如 NVIDIA H100 型号芯片从 2023 年 4 月份的 3.6 万美元涨至 5 万美元,这进一步加重了 AI 模型训练团队的成本。
第二个问题,资源端条件的满足帮助 AI 项目解决了硬件刚需,但模型训练 / 迭代同时还需要庞大的用户标的(IP)来帮忙喂养资料。模型规模超过一定阈值之后,在不同任务上的性能都表现出突破式增长。
第三个问题在:中小型 AI 初创团队难以实现弯道超车。传统金融市场算力的垄断性也导致 AI 模型方案也存在垄断性,以 OPenAI、Google Deepmind 等为代表的大型 AI 模型厂商正在进一步构建自己的护城河。中小型 AI 团队需要谋求更多的差异化竞争。
以上三个问题,都可以从 Web3 中找到答案。事实上,AI 与 Web3 的结合由来已久,并且生态较为繁荣。
下图为 Future Money Group 制作的 AI+Web3 生态的部分赛道项目展示。
AI+DePIN
1. DePIN 的解决方案
DePIN 是去中心化物理基础设施网络的缩写,同时也是人和设备的生产关系集合,通过代币经济学与硬件设备(比如计算机、车载摄像头等)的结合,来将用户与设备进行有机结合,同时实现经济模型的有序运转。
相较于定义更广泛的 Web3,由于 DePIN 天然与硬件设备和传统企业有更深的关联,因此 DePIN 在吸引场外 AI 团队和相关资金方面有着天然的优势。
DePIN 生态对于分布式算力的追求和贡献者的激励,恰好解决了 AI 产品对于算力和 IP 的需求。
-
DePIN 以代币经济学来推动世界算力(算力中心 闲置个人算力)的入驻,降低了算力的中心化风险,同时降低了 AI 团队调用算力的成本。
-
DePIN 生态数量庞大、多元化的 IP 构成帮助 AI 模型能够实现数据获取渠道的多样性和客观性,足够多的数据提供者也能确保 AI 模型性能的提升。
-
DePIN 生态用户与 Web3 用户在人物画像上的重叠,能够帮助入驻的 AI 项目开发出更多带有 Web3 特色的 AI 模型,形成差异化竞争,这是传统 AI 市场所不具备的。
在 Web2 领域,AI 模型数据采集通常来自公开数据集或模型制作方自行收集,这就会受到文化背景和地域的限制,让 AI 模型产出的内容存在主观性「失真」。传统数据采集方式又受限于采集效率和成本,难以获得更大的模型规模(参数数量、训练时长和数据质量)。对于 AI 模型而言,模型规模越大,模型的性能越容易引起质变。
Source:Large Language Models’ emergent abilities: how they solve problems they were not trained to address?
DePIN 恰好在这一领域有着天然优势。以 Hivemapper 为例,分布于全球 1920 个地区,接近 4 万名贡献者在为 MAP AI(地图 AI 模型)提供着数据。
AI 与 DePIN 的结合还意味着 AI 与 Web3 的融合上升了新的高度。当前 Web3 中的 AI 项目,广泛爆发于应用端,并且几乎没有摆脱对 Web2 基础设施的直接依赖,即将依托于传统算力平台的已有 AI 模型植入到 Web3 项目中,对于 AI 模型的创建则很少涉猎。
Web3 要素一直处于食物链下游,无法获得真正的超额回报。对于分布式算力平台而言也是如此,单纯的 AI+ 算力,并不能真正挖掘出二者的潜力,在这一关系中,算力提供方无法获得更多超额利润,且生态架构过于单一,因此也就无法通过代币经济学去促使飞轮运转。
但 AI+DePIN 概念,正在打破这一固有关系,并将 Web3 的注意力转移至更广阔的 AI 模型方面。
2. AI+DePIN 项目汇总
DePIN 内部天然拥有 AI 所亟需的设备(算力、带宽、算法、数据)、用户(模型训练数据提供者),以及生态内激励机制(代币经济学)。
我们可以大胆地下一个定义:为 AI 提供完备的客观条件(算力 / 带宽 / 数据 /IP),提供 AI 模型(训练 / 推理 / 微调)场景,并被赋予代币经济学的项目,可以被定义为 AI+DePIN。
Future Money Group 将会列举以下 AI+DePIN 的经典范式进行梳理。
我们按照资源提供类别的不同,分成了算力、带宽、数据、其他四个板块,尝试对不同板块项目进行梳理。
2.1 算力
算力端是 AI+DePIN 板块的主要构成,也是目前项目构成数量最多的部分。算力端项目,算力的主要构成是 GPU(图形处理器)、CPU(中央处理器)和 TPU(专业机器学习芯片)。其中,TPU 由于制造难度高,主要由 Google 打造,只对外进行云算力租赁服务,因此市场规模较小。而 GPU 是一种与 CPU 类似,但更专业的硬件组件。与普通 CPU 相比,它可以更高效地处理并行运行的复杂数学运算。最初的 GPU 专用于处理游戏和动画中的图形渲染任务,不过现在它们的用途已远超于此。因此,GPU 是目前算力市场的主要来源。
因此,我们能够看到的算力方面的 AI+DePIN 项目,很多都专长于图形和视频渲染,或者相关的游戏方面,这是由于 GPU 的特性导致的。
从全局看,算力类 AI+DePIN 产品,其算力的主要提供方由三部分构成:传统云算力服务商;闲置个人算力;自有算力。其中,云算力服务商占比较大,闲置个人算力第二。这意味着此类产品更多时候扮演着算力中介的身份。需求端则是各种 AI 模型开发团队。
目前这一分类中,算力几乎无法 100% 被运用于实际,更多时候处于闲置状态。比如 Akash Network,目前处于使用状态的算力为 35% 左右,其余算力则处于闲置状态。io.net 也是类似情况。
这可能是目前 AI 模型训练需求数量较少导致的,并且也是 AI+DePIN 能够提供廉价算力成本的原因。后续随着 AI 市场的扩大,这一情况将得以改善。
Akash Network:去中心化的点对点云服务市场
Akash 网络是一个去中心化的点对点云服务市场,通常被称为云服务的 Airbnb。Akash 网络允许不同规模的用户和公司快速、稳定且经济地使用他们的服务。
与 Render 类似,Akash 同样为用户提供了 GPU 部署、租赁以及 AI 模型训练等服务。
2023 年 8 月,Akash 上线了 Supercloud,允许开发者设定他们愿意支付的价格来部署他们的 AI 模型,而具有额外计算能力的提供商则托管用户的模型。该功能与 Airbnb 非常相似,允许提供商出租未使用的容量。
通过公开竞价的方式,激励资源提供方开放其网络中的空闲计算资源,Akash Network 实现了资源的更有效利用,从而为资源需求方提供了更具竞争力的价格。
目前 Akash 生态 GPU 总量为 176 枚 GPU,但活跃数量为 62 枚,活跃度为 35%,低于 2023 年 9 月份 50% 的水平。预估日收入为 5000 美元左右。AKT 代币具有质押功能,用户通过将代币进行质押以参与网络安全的维护,获得 13.15% 左右的年化收益。
Akash 在当前 AI+DePIN 板块数据表现比较优质,且 7 亿美元的 FDV 相较于 Render 和 BitTensor,具有较大上涨空间。
Akash 还接入了 BitTensor 的 Subnet,用于扩大自身发展空间。总体而言,Akash 的项目作为 AI+DePIN 赛道的几个优质项目之一,基本面表现优异。
io.net:接入 GPU 数量最多的 AI+DePIN
io.net 是一个去中心化计算网络,支持在 Solana 区块链上开发、执行和扩展 ML (机器学习)应用程序,利用世界上最大的 GPU 集群,以允许机器学习工程师以相当于中心化服务成本的一小部分,来租用并访问分布式云服务算力。
据官方数据显示 io.net 拥有超过 100 万个处于待命状态的 GPU。此外,io.net 与 Render 的合作也扩展了可供部署的 GPU 资源。
io.net 生态的 GPU 较多,但几乎都是来自于与各云计算厂商的合作和个人节点的接入,且闲置率较高,以数量最多的 RTX A6000 为例,8426 枚 GPU 中,只有 11%(927)枚处于使用状态,而更多型号的 GPU 几乎没有人使用。但目前 io.net 产品的一大优势在于定价便宜,相较于 Akash 1.5 美元一小时 GPU 调用成本,io.net 上成本最低能做到 0.1-1 美元之间。
后续 io.net 还考虑允许 IO 生态的 GPU 提供商通过抵押原生资产的方式来提高被使用的机会。投入资产越多,被选中的机会越大。同时,质押原生资产的 AI 工程师同样可以使用高性能的 GPU。
在 GPU 接入规模上,io.net 是本文所列 10 个项目中最大的。刨除闲置率之外,处于使用状态的 GPU 数量也处于第一。在代币经济学方面,io.net 原生代币与协议代币 IO 将于 2024 年第一季度上线,最大供应量为 22,300,000 枚。用户使用网络时将收取 5% 的费用,该费用将用于 Burn IO 代币或为供需双方的新用户提供激励。代币模型有着明显的拉升特性,因此 io.net 尽管未发币,但市场热度很大。
Golem:以 CPU 为主的算力市场
Golem 是一个去中心化算力市场,支持任何人都可以通过创建共享资源的网络来共享和聚合计算资源。Golem 为用户提供了算力租赁的场景。
Golem 市场由三方组成,分别是算力供应方、算力需求方、软件开发者。算力需求方提交计算任务,Golem 网络将计算任务分配给合适的算力供应方(提供 RAM、硬盘空间及 CPU 核数等),计算任务完成之后,双方通过 Token 进行支付结算。
Golem 主要采用 CPU 来进行算力堆叠,尽管在费用方面会比 GPU 的成本更低(Inter i9 14900k 价格 700 美元左右,而 A100 GPU 价格在 12000-25000 美元)。但 CPU 无法进行高并发运算,且能耗更高。因此以 CPU 来进行算力租赁可能在叙事上相较于 GPU 项目会稍微弱一些。
Magnet AI:AI 模型资产化
Magnet AI 通过整合 GPU 算力提供商,为不同 AI 模型开发者提供模型训练服务。和其他 AI+DePIN 产品不同,Magent AI 允许不同 AI 团队基于自身模型发布 ERC-20 代币,用户通过参与不同模型互动,获得不同模型代币空投和额外奖励。
2024 年 Q2,Magent AI 将上线 Polygon zkEVM Arbrium。
与 io.net 有点类似,对于 GPU 算力都是以整合为主,并为 AI 团队提供模型训练服务。
不同点在于,io.net 更侧重于 GPU 资源的整合,鼓励不同 GPU 集群、企业以及个人贡献 GPU,同时获得回报,是算力驱动。
Magent AI 看起来更侧重 AI 模型,由于 AI 模型代币的存在,可能会围绕代币、空投来完成用户的吸引和留存,并通过这种将 AI 模型资产化的方式来推动 AI 开发者的入驻。
简单概括:Magnet 相当于用 GPU 搭建了一个集市,任何 AI 开发者,模型部署者都可以在上面发 ERC-20 代币,用户可以获取不同代币,或者主动持有不同代币。
Render:图形渲染型 AI 模型专业玩家
Render Network 是基于去中心化 GPU 的渲染解决方案提供商,旨在通过区块链技术连接创作者和闲置 GPU 资源,以消除硬件限制,降低时间和成本,同时提供数字版权管理,进一步推动元宇宙的发展。
根据 Render 白皮书内容,基于 Render,艺术家、工程师和开发者可以创建一系列 AI 应用,比如 AI 辅助 3D 内容生成、AI 加速全系渲染,以及利用 Render 的 3D 场景图数据进行相关的 AI 模型的训练。
Render 为 AI 开发者提供了 Render Network SDK,开发者将能够利用 Render 的分布式 GPU 来执行从 NeRF(神经反射场)和 LightField 渲染过程到生成性 AI 任务的 AI 计算任务。
根据 Global Market Insights 的报告,预计全球 3D 渲染市场规模达 60 亿美元。而 FDV 22 亿美元的 Render 相比仍具发展空间。
目前查询不到 Render 基于 GPU 的具体数据,但由于 Render 背后 OTOY 公司数次表现出与苹果公司的关联性;再加上业务广泛,OTOY 旗下的明星渲染器 OctaneRender,支持 VFX、游戏、动效设计、建筑视觉化和模拟领域的所有行业领先的 3D 工具集,包括对于 Unity3D 和 Unreal 引擎的原生支持。
以及谷歌和微软加入了 RNDR 网络。Render 曾在 2021 年处理了近 25 万个渲染请求,生态中的艺术家通过 NFT 产生了 50 亿美元左右的销售额。
因此,对于 Render 的参考估值应该对照泛渲染市场潜力(约 300 亿美元)。加上 BME(燃烧和铸造平衡)经济模型,无论从单纯代币价格还是 FDV 来看,Render 依旧有一定上涨空间。
Clore.ai:视频渲染
Clore.ai 是一个建立在 PoW 基础上的提供 GPU 算力租用服务的平台。用户可出租自己的 GPU 用于 AI 培训、视频渲染和加密货币挖矿等任务,其他人可以以低价获取这种能力。
业务范围包括:人工智能培训、电影渲染、VPN、加密货币挖矿等。有具体算力服务需求的时候,完成网络分配的任务;如果没有算力服务需求的时候,网络找到当时挖矿收益率最高的加密货币,参与挖矿。
Clore.ai 过去半年,GPU 数量从 2000 涨到 9000 左右,但从 GPU 集成数量上来看,Clore.ai 超过 Akash。但其二级市场 FDV 只有 Akash 的 20% 左右。
代币模型上,CLORE 采用 POW 挖矿模式,没有预挖和 ICO,每个区块的 50% 分配给矿工,40% 分配给出租者,10% 分配给团队。
代币总量 13 亿枚,自 2022 年 6 月开始挖矿,至 2042 年基本进入全流通,当前流通量大约为 2.2 亿枚。2023 年底流通量约为 2.5 亿枚,占代币总量的 20%。所以当前实际 FDV 为 3100 万美元,理论上,Clore.ai 处于严重被低估状态,但由于其代币经济学上,矿工分配比例 50%,挖卖提比例过高,因此币价提升具有较大阻力。
Livepeer:视频渲染、推理
Livepeer 是基于以太坊的去中心化视频协议,向以合理价格安全地处理视频内容的各方发放奖励。
据官方称,Livepeer 每周有数千个 GPU 资源进行数百万分钟的视频转码。
Livepeer 或将采用「主网」+「子网」的方式,让不同的节点运营商生成子网,通过在 Livepeer 主网上兑现付款来执行这些任务。比如,引入 AI 视频子网用于专门进行视频渲染领域的 AI 模型训练。
Livepeer 此后会将与 AI 有关的部分从单纯的模型训练扩列至推理 微调。
Aethir:专注于云游戏和 AI
Aethir 是一个云游戏平台,专为游戏和人工智能公司构建的去中心化云基础设施 (DCI)。它有助于代替玩家交付繁重的 GPU 计算负载,确保游戏玩家在任何地方、任何设备上都能获得超低延迟的体验。
同时,Aethir 提供包括 GPU、CPU、磁盘等要素的部署服务。2023 年 9 月 27 日,Aethir 正式为全球客户提供云游戏和 AI 算力的商用服务,通过集成去中心化算力的方式来为自身平台的游戏以及 AI 模型提供算力支持。
云游戏通过将计算渲染的算力需求转移到云端,消除了终端设备的硬件及操作系统的限制,显著扩大了潜在的玩家基础规模。
2.2 带宽
带宽是 DePIN 向 AI 提供的资源中的一种,2021 年全球带宽市场规模超过 500 亿美元,预测 2027 年将突破千亿。
由于 AI 模型的越来越多以及更复杂,模型训练通常采用多种并行计算策略,例如数据并行、流水线并行和张量并行等。在这些并行计算模式下,多台计算设备间集体通信操作的重要性日益凸显。因此,在构建大型 AI 模型的大规模训练集群时,网络带宽的作用就凸显了出来。
更重要的是,一个稳定且足够可靠的带宽资源,能够确保不同节点之间同时相应,技术上避免了单点控制的出现(比如 Falcon 采用低延迟 + 高带宽的中继网络模式来寻求延迟与带宽之间需求的平衡),最终确保整个网络的可信任和抗审查。
Grass:兼容移动端的带宽挖矿产品
Grass 是 Wynd Network 的旗舰产品, Wynd 专注于开放⽹络数据,于 2023 年融资 100 万美元。Grass 允许⽤户通过出售未使⽤的⽹络资源来通过互联⽹连接来获得被动收⼊。
用户可以在 Grass 上出售互联网带宽,为有需要的 AI 开发团队提供带宽服务,帮助 AI 模型训练,从而获得代币回报。
目前,Grass 即将推出移动端版本,由于移动端与 PC 端具有不同的 IP 地址,这意味着 Grass 的用户将为平台同时提供更多的 IP 地址,而 Grass 将收集到更多的 IP 地址从而为 AI 模型训练提供更好的数据效率。
目前 Grass 有两种 IP 地址提供方式:PC 端下载拓展程序,以及移动端 APP 下载。(PC 端与移动端需处于不同网络)
截至 2023 年 11 月 29 日,Grass 平台已经拥有 103,000 次下载和 1,450,000 个唯一 IP 地址。
移动端和 PC 端对 AI 的需求度不一样,因此适用的 AI 模型训练类别有所不同。
比如,移动端对于图片优化、人脸识别、实时翻译、语音助手、设备性能优化等方面拥有大量数据。这些是 PC 端难以提供的。
目前 Grass 在移动端 AI 模型训练上处于比较先发的身位。考虑到当前全球范围内,移动端市场的巨大潜力,Grass 的前景值得关注。
但目前 Grass 尚未在 AI 模型方面提供更有效的信息,推测前期可能单纯以矿币为主要运营方式。
Meson Network:Layer 2 兼容移动端
Meson Network 是基于区块链 Layer 2 的下一代存储加速网络,通过挖矿的形式聚合闲置服务器,调度带宽资源并将其服务于文件以及流媒体加速市场,包含传统网站、视频、直播及区块链存储方案。
我们可以将 Meson Network 理解为一个带宽资源池,池子两边可以看作是供需双方。前者贡献带宽,后者使用带宽。
在 Meson 具体的产品结构中,有 2 个产品(GatewayX、GaGaNode)在负责接收全球不同节点贡献的带宽,1 个产品(IPCola)则负责将这些汇聚的带宽资源进行变现。
GatewayX:以集成商业闲置带宽为主,主要瞄准 IDC 中心。
从 Meson 的数据看板可以发现,目前接入的 IDC 在全世界范围内共有 2 万多个节点,并且形成了 12.5Tib/s 的数据传输能力。
GaGaNode:主要整合住宅及个人设备闲置带宽,提供边缘计算辅助。
IPCola:Meson 变现渠道,进行 IP 和带宽分配等任务。
目前 Meson 透露,半年收入在百万美金以上。据官网统计,Meson 有 IDC 节点 27116 个,IDC 容量 17.7TB/s。
目前 Meson 预计 2024 年 3-4 月份发行代币,但公布了代币经济学。
代币名称:MSN,初始供应量 1 亿枚,第一年挖矿通胀率为 5%,每年下降 0.5%。
Network 3:与 Sei 网络集成
Network3 是一家 AI 公司,构建了一个专门的 AI Layer 2,并与 Sei 集成。通过 AI 模型算法优化和压缩,边缘计算和隱私计算,为全球范围内的 AI 开发者提供服务,帮助开发者快速、便捷、高效地大規模训练和验证模型。
据官网数据,目前 Network3 已经有超过 58000 个活跃节点,提供 2PB 的带宽服务。与 Alchemy Pay、ETHSign、IoTeX 等 10 个区块链生态达成合作。
2.3 数据
与算力和带宽不同,数据端供应目前市场较为小众。并且具有鲜明的专业性。需求群体通常是项目自身或者相关品类的 AI 模型开发团队。比如 Hivemapper。
通过自身数据喂养训练自己的地图模型,这一范式在逻辑上并不存在难点,因此我们可以尝试将视野放宽到与 Hivemapper 类似的 DePIN 项目中,比如 DIMO、Natix 和 FrodoBots。
Hivemapper:专注于自身 Map AI 产品赋能
HiveMapper 是 Solana 上 DePIN 概念 Top 之一,致力于创建一个去中心化的「谷歌地图」。用户通过购买 HiveMapper 推出的行车记录仪,通过使用并与 HiveMapper 共享实时影像,便能获得 HONEY 代币。
关于 Hivemapper,Future Money Group 曾在《 FMG 研报:30 天上涨 19 倍,读懂以 Hivemapper 为代表的汽车类 DePIN 业态 》中有详细描述,在此不做展开。之所以把 Hivemapper 列入 AI+DePIN 板块,是因为 Hivemapper 推出了 MAP AI,是一个 AI 地图制作引擎,可以基于行车记录仪所采集的数据生成高质量地图数据。
Map AI 设置了一个新角色,AI 训练师。该角色该角色囊括了此前的行车记录仪数据贡献者,以及 Map AI 模型训练师。
Hivemapper 对于 AI 模型训练师的要求并没有刻意专业化,反而采用了类似远程任务、猜地理位置等类似游戏行为的低参与门槛,让更多的 IP 地址参与进来。DePIN 项目的 IP 资源越丰富,AI 获取数据的效率就更高。而参与 AI 训练的用户,同样也能获得 HONEY 代币的奖励。
AI 在 Hivemapper 中的应用场景较为小众,Hivemapper 也并不支持第三方模型训练,Map AI 目的在于优化自身地图产品。因此对 Hivemapper 的投资逻辑不会产生改变。
Potential
DIMO:对汽车内部数据进行采集
DIMO 是一个建立在 Polygon 上的汽车物联网平台,使驾驶员能够收集和共享他们的车辆数据,记录的数据包括汽车行驶公里、行驶速度、位置追踪、轮胎压力、电池 / 发动机健康状况等。
通过分析车辆数据,DIMO 平台可以预测何时需要维护并及时提醒用户。驾驶员不仅能深入了解自己的车辆,还能将数据贡献给 DIMO 的生态系统,从而可以获得 DIMO 代币作为奖励。而作为数据消费方可以从协议中提取数据以了解电池、自动驾驶系统和控件等组件的性能。
Natix:隐私赋能地图数据收集
Natix 是一个利用 AI 隐私专利打造的去中心化网络。旨在基于 AI 隐私专利,将全球与摄像头设备(智能手机、无人机、汽车)进行结合,创建中保摄像头网络,同时在隐私合规性的前提下收集数据,并对去中心化动态地图(DDMap)进行内容填充。
参与数据提供的用户可以获得代币和 NFT 进行激励。
FrodoBots:机器人为载体的去中心化网络应用
FrodoBots 是一个以移动机器人为载体,通过摄像头采集影响数据,具有一定社交属性的 DePIN 类游戏。
用户通过购买机器人来参与到游戏过程中,与全球玩家进行交互。同时机器人自带的摄像头也会对道路和地图数据进行采集汇总。
以上三个项目,都具有数据采集和 IP 提供两个要素,尽管他们尚未进行相关的 AI 模型训练,但都为 AI 模型的引入提供了必要条件。这些项目包括 Hivemapper 在内,都是需要通过摄像头来采集数据,并形成完备的图谱。因此适配的 AI 模型也都局限于以地图构建为主的领域。AI 模型的赋能,将能够帮助帮助项目建立更高的护城河。
需要注意的点在于,通过摄像头采集往往会遇到双向的隐私侵犯等法规问题:比如外置摄像头采集外部影像对于路人肖像权的定义;以及用户对自身隐私的重视。比如 Natix 运营 AI 来进行隐私保护。
2.4 算法
算力、带宽、数据侧重于资源端的区分,而算法则侧重于 AI 模型方面。本文以 BitTensor 为例,BitTensor 既直接不贡献数据,也不直接贡献算力,而是通过区块链网络和激励机制,来对不同的算法进行调度和筛选,从而让 AI 领域形成一个自由竞争、知识共享的模型市场。
类似 OpenAI,BitTensor 目的在于在维持模型去中心化特性的同时,以达到与传统模型巨头相匹配的推理性能。
算法赛道具有一定超前性,类似的项目并不多见。当 AI 模型,尤其是基于 Web3 诞生的 AI 模型涌现,模型之间的竞争就将成为常态化。
同时,模型之间的竞争也会让 AI 模型产业的下游:推理、微调的重要性提高。AI 模型训练只是 AI 产业的上游,一个模型需要先经过训练,具备初始的智能性,并在此基础上对模型进行更仔细的模型推理和调整(可以理解为优化),最终才能作为一个成品来进行边缘部署。这这些过程需要更复杂的生态架构和算力支撑。也意味着潜在的发展潜力巨大。
BitTensor:AI 模型预言机
BitTensor 是一个架构类似 Polkadot 主网 + 子网的去中心化机器学习生态。
工作逻辑:子网将活动信息传给 Bittensor API(角色类似预言机),然后 API 会将有用信息传给主网,主网再分发 Rewards。
BitTensor 32 个子网
BitTensor 生态内角色:
-
矿工:可以理解为全世界各种 AI 算法和模型的提供方,它们托管 AI 模型并将其提供给 Bittensor 网络;不同类型的模型组成了不同的子网。
-
验证者:Bittensor 网络内的评估者。评估 AI 模型的质量和有效性,根据特定任务的性能对 AI 模型进行排名,帮助消费者找到最佳解决方案。
-
用户:Bittensor 提供的 AI 模型最终使用方。可以是个人,也可以是谋求 AI 模型来做应用的开发者们。
-
提名人:将代币委托给特定验证者来表示支持,也可以换不同的验证者来委托。
开放的 AI 供需链条 :有人提供不同模型,有人评价不同模型,有人使用最好的模型所提供的结果。
和 Akash、Render 这种类似「算力中介」的角色不同,BitTensor 更像一个「劳务市场」,用已有模型去吸收更多数据以此来让模型更加合理。矿工和验证者更像「施工方」和「监工」的角色。用户提出问题,矿工们输出答案,验证者再来评估答案的质量,最终返回给用户。
BitTensor 代币为 TAO。TAO 的市值目前仅次于 RNDR,但由于 4 年减半的长期释放机制存在,市值与完全稀释价值的比率反而是几个项目中最低的,也意味着 TAO 的总体流通量目前来看相对较低,但单价较高。因此意味着 TAO 的实际价值处于低估状态。
目前比较难以寻找合适估值标的,如果从架构相似性出发,Polkadot(约 120 亿美元)为参照对象,TAO 有接近 8 倍的上涨空间。
如果按照「预言机」属性出发,Chainlink(140 亿美元)为参照对象,TAO 有接近 9 倍的涨幅。
如果以业务相似性出发,OpenAI(从微软获得约 300 亿美元)为参照,TAO 的上涨硬顶可能在 20 倍左右。
结论
总体而言,AI+DePIN 推动了 Web3 语境下 AI 赛道的范式转移,让市场从「AI 能在 Web3 里做什么?」的固有思维中跳出,去思考「AI 和 Web3 能为世界带来什么?」这一更大的问题。
如果说英伟达 CEO 黄仁勋将生成式大模型的发布称为 AI 的「iPhone」时刻,那么 AI 与 DePIN 的结合便意味着 Web3 真正迎来「iphone」时刻。
DePIN 作为 Web3 在现实世界最容易被接受以及最成熟的用例,正在让 Web3 变的更加可被接受。
由于 AI+DePIN 项目中 IP 节点与 Web3 玩家的部分重合性,二者的结合,同时也在帮助行业催生属于 Web3 自己的模型和 AI 产品。这将有利于 Web3 行业的整体发展,并且为行业去开拓新的赛道,比如 AI 模型的推理和微调、以及移动端 AI 模型发展等。
一个有趣的点在于,文中所罗列的 AI+DePIN 的产品,似乎可以去嵌套公链的发展路径。在此前的周期中,各种新公链涌现,用自身的 TPS 和治理方式来吸引各种开发者的入驻。
当前的 AI+DePIN 产品也是这样,基于自身的算力、带宽、数据以及 IP 优势来吸引各种 AI 模型开发者入驻。所以,我们目前看到 AI+DePIN 产品有偏向同质化竞争的趋势。
问题的关键并不在于算力的多少(尽管这是个很重要的先决条件),而在于如何去运用这些算力。现在的 AI+DePIN 赛道仍旧处于「野蛮生长」的早期,因此我们对于 AI+DePIN 的未来格局以及产品形式,可以抱有一个充满期待的预期。
免责声明:文章中的所有内容仅代表作者的观点,与本平台无关。用户不应以本文作为投资决策的参考。
你也可能喜欢
Perena 推出 Numeraire:一个多稳定币流动性池
简单来说 Perena 引入了 Numeraire,通过利用统一的枢纽资产 USD* 来优化市场流动性并提高运营效率。
Synthetix 推出“Synthetix Vaults”产品线,并宣布计划收购杠杆代币协议 TLX
简单来说 Synthetix 推出了新的产品线“Synthetix Vaults”,以补充其去中心化衍生品平台并使该协议的收入来源多样化。
QCP Capital:杠杆过高导致市场超买,回调在所难免
简单来说 QCP Capital 指出,由于大选之后市场严重超买,比特币正在回撤至上周初的水平,因此回调是自然而然的结果。
Anthropic 推出模型上下文协议,用于改善 AI 模型生成的响应
简单来说 Anthropic 已经开源了其模型上下文协议,使 Claude 能够连接到本地计算机上的任何资源并与任何 API 或云服务器进行交互。