对话 GoodVision AI:用全新的调度方式解决AI算力的短缺

2026-04-02 15:15:25AI云资讯1723

喂不饱的“龙虾”:Token爆炸时代的算力困局

被黄仁勋盛赞为“有史以来最重要的软件发布”——Open Claw(龙虾)短短 60 天内在Github上斩获了超过24 万的星标数,其增长速度已经“碾压”了拥有十几年历史的 Linux。

它所代表的,是一种能够精准理解目标、具备长期记忆、调用工具并持续执行任务的AI助手,这让人很难不心动。

但等到你真正开始使用这些自主Agent 时,很快就会发现一个问题:AI Agent的一次复杂任务就需要调用模型上百次,Token消耗会是普通对话的数百倍!有开发者在社区分享过自己的使用体验:每个月在Agent任务上花费的Token费用达到上千美元。甚至有土豪玩家一天消耗的Token就有10个亿!

今年的GTC 2026上,黄仁勋直言:AI基础设施的本质,正在从“数据中心”转向“Token工厂”,推理计算需求会在未来短短两年内增长近百万倍。

巨头们早就注意到了未来的走势,微软、亚马逊、谷歌和 Meta 四家科技巨头在 2026 年的资本支出计划超过 2,800 亿美元。 并抢空了到2027年的配电额度。但是,仅仅是对算力能级上“大力出奇迹”,真的能够解决用户在使用场景中遇到的痛点吗?

GoodVision AI给出了不一样的解法:算力智能调度 + 边缘算力部署。

算力挤兑,“大算力”是最优解吗?

GoodVision AI 的CEO David 在云计算领域深耕多年,积累了跨越多家全球头部云厂商的丰富经验。他曾任 IBM 合伙人、AWS 高级管理层成员,同时也是阿里云创始团队成员之一,并担任腾讯云北美负责人。在 AWS 早期发展阶段,他深度参与区域业务建设,推动其从零起步扩展至数亿美元规模。

频繁与云计算行业打交道的他早早地就意识到:应用需求的增长速度往往远远快于算力基础设施的建设速度。正是这种结构性的供需错配,让他看到了新的机会,也成为他在 2019 年创立 GoodVision AI 的重要动机之一。

随着大模型和AI应用的快速普及,他的观点不断地得到了验证。公司内部数据显示,在过去几年AI需求快速增长的背景下,GoodVision AI 的AI业务收入也进入快速增长阶段:2025年公司AI相关业务营收已达到近千万美元,并保持 超过100%的年增长率。随着AI Factory和算力基础设施逐步落地,预计2027年公司整体AI业务收入预计达到数亿美元的规模,进入新的增长阶段。

过去几年,当OpenAI把大模型真正带到台前来时,行业讨论 AI 时几乎所有问题都围绕“训练算力”展开。但在那时David认为,真正的变化正在发生在推理侧——模型只需要训练一次,但推理会发生数十亿次。当 AI Agent 和各类应用被数百万用户同时调用时,推理需求就会分布在全球不同地区、设备与网络环境中。

而现有的云计算体系并不是为这种需求结构设计的。那么当算力需求爆发,AI 推理需求暴增而算力供给跟不上时,就会出现延迟变高、成本飙升,甚至“已读乱回”的问题。

所以David认为AI算力体系也应该逐渐走向类似的结构。大型云端模型适合处理复杂、高价值的任务;而大量简单、实时、频繁的推理需求,则更适合在本地或边缘侧完成。通过智能调度系统,让不同复杂度的任务被分配到最合适的算力资源上,才能避免所有请求都涌向远端巨型数据中心,从而导致算力拥堵和成本失控。

解决AI算力供需的关键在于分发

如果把今天的AI算力产业简单划分,大致可以看到几种不同的模式:

首先就是微软,亚马逊,谷歌几大巨头。他们也被称为“Hyperscalers”(超大规模云服务商,他们的主要业务主要是IAAS(Infrastructure as an Service 基础设施即服务)面向通用需求,

一类则以CoreWeave 和Lambda为代表的GPU云基础设施公司。这类公司主要为AI训练和推理提供算力资源,本质上类似新一代的GPU云服务。

另一类则是像FireworksAI和OpenRouter 这样的模型服务平台。它们为开发者提供统一接口,让用户可以在不同大模型之间切换和调用。

传统大型云厂商过于依赖中心化数据中心;虽然算力资源池大,但遇到需要远端需求和计算资源调度的情景下可能低效。后两类公司的出现则是为了填补前者够不到的市场空白,即算力供给大模型路由

但他们也有各自的弱点:API 路由平台缺乏算力控制权,GPU 租赁平台缺乏调度能力。而伴随AI Agent应用的兴起,行业开始出现新的需求。Agent任务通常包含多个步骤,需要调用不同模型、执行不同类型的计算,并且对响应速度和成本都有要求。如果所有推理任务都集中在远程云数据中心,延迟和成本都会迅速增加。

解决此类问题的核心关键不仅仅只是配置“更大更多的算力”,更需要智能的算力分发网络进行算力的智能调度;而这也正是GoodVision AI正在做的事情。

算力分发网络:Good Vision AI 的“AI CDN”路径

在互联网早期,网站访问主要集中在少数服务器上。随着用户规模扩大,CDN网络逐渐出现,将内容缓存到全球各地的节点,让数据更接近用户。在AI时代,类似的结构也可能出现。当AI Agent开始大规模运行时,算力需求将分布在全球不同节点。推理任务需要在不同云环境、不同数据中心甚至边缘设备之间进行调度。

如果说算力供需失衡是 AI 时代正在出现的核心矛盾,那么解决这一问题的关键就不只是“生产更多算力”,而是重新思考算力如何被分发。黄仁勋在GTC 2026中也提到,未来AI系统的核心指标不再是算力规模,而是单位功耗下的Token产出、吞吐效率与响应速度,这也重新定义了“Token工厂”的竞争力。Good Vision AI 正是基于这一思路构建自身的技术体系。

在Good Vision AI内部,这套架构被称为 AI Factory:它不仅包括 GPU 算力资源本身,还包括一整套全球的推理算力节点网络和智能调度系统,用于在不同环境之间分配 AI 计算任务。

在这一架构中,Good Vision AI自研了一款AI Agent进行智慧大脑层级的调度,并提供现有模式的AI Token聚合器能力,利用自有的物理算力与可部署的私有化模型库,提升算力资源利用。其中一个关键技术即Token 级算力调度。与传统以“模型”为单位的调用方式不同,Token 级调度可以根据任务复杂度、成本要求和延迟需求,在不同模型和算力资源之间进行更细粒度的动态分配。它能够在 AWS、GCP 等公有云以及私有机房之间进行动态调度,根据任务需求自动选择最合适的算力节点。同时Good Vision AI具备可控的AI算力资源,在确保在Token供给的稳定同时,能够争取到市场销售的定价权和最大化利润。

与此同时,GVAI 也在推进边缘算力节点的部署。当 AI Agent 开始进入更多终端设备与现实场景时,一部分推理任务并不适合始终依赖远端云端完成,将算力节点部署在更靠近用户的位置,可以显著降低延迟并提升响应速度。这种CDN 网络相似的架构逻辑解决了调度系统能够直接把算力“送到”发起AI推理意图的用户身边

自有AI算力扩张的速度优势

在 AI 算力竞争日益激烈的背景下,“谁能更快接入电力和算力基础设施”,正在成为决定胜负的关键。Good Vision AI和其他同类型产品最大的不同,即团队在早期便积累了大量的能源基础设施资源

自2025年起,GoodVision AI 已经开始从亚洲为起点,乃至全球,布局自己的推理算力基础设施。其中,日本、韩国与美国被视为最重要的区域节点之一。公司在这些地区已经储备超过 400MW 的电力资源,并计划逐步部署规模化的AI推理算力中心。按照规划,未来整体算力网络将具备 40万张推理GPU卡的部署能力,对应推理算力资产规模可达到数十亿美元级别。这些算力节点将与公司的智能调度系统共同构成一个分布式算力网络。

未来愿景:当每座城市都有自己的 AI Factory

毫无疑问,随着 AI Agent 逐渐进入日常工作流,算力需求将迎来爆发式增长。这些需求本质上来自持续不断的推理任务——它们分布在企业系统、个人设备乃至城市基础设施中,对实时性与稳定性提出更高要求。

与之对应的,则是AI基础设施也会逐渐演化为由全球算力节点构成的网络,使计算资源能够像互联网数据一样被动态调度。这正是 GoodVision AI 提出的 AI Factory 构想:为本地与区域AI应用提供推理能力。每一个 AI Factory 都可以理解为一个小型AI生产中心,既服务本地企业与开发者,也接入全球算力网络进行协同调度。

与传统大型数据中心不同,这些 AI Factory 更接近用户侧,可在城市级节点完成大量实时推理任务,从而显著降低延迟并提升算力利用效率。在已落地案例中,客户迁移至 GoodVision AI Factory 后,整体成本降低约60%,延迟降低约50%,平台毛利率提升约50%。

目前,Good Vision AI已经开始与 视频生成、生物医药等高算力消耗领域 的相关企业展开合作。对这些行业而言,真正的问题不在于模型能力,而是持续增长的推理需求、Token 消耗与算力供给之间的匹配效率。例如视频生成中海量的图像与视频推理请求;和AI制药体系中,从分子结构生成、蛋白质折叠预测,到药物筛选、临床试验模拟;每一个环节都依赖大规模计算,其背后都需要稳定、低延迟且可持续扩展的推理算力支持。随着这些高精尖行业,尤其是生物医药对 AI 的依赖不断加深,它们也会持续成为 Good Vision AI 算力网络的重要客户与增长来源。

当越来越多城市拥有自己的 AI Factory,算力将不再只是少数科技公司的资源,而会逐渐成为类似电力与网络的基础设施。个人开发者乃至普通用户,也能按需调用Agent完成创作、开发与自动化任务。AI的真正普及,将建立在这样一张分布式算力网络之上。

相关文章

人工智能企业

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>

人工智能技术

更多>>
AI云资讯(爱云资讯)立足人工智能科技,打造有深度、有前瞻、有影响力的泛科技信息平台。
合作QQ:1211461360微信号:icloudnews