英伟达免费模型API
前言
最近在折腾 AI Agent 和模型接入相关的事情时,意外发现英伟达居然提供了一个面向开发者、可以免费调用模型 API 的平台。更关键的是,这个平台上不仅能用到一些主流开源模型,还能直接使用最近热度很高,号称开源 Coding 能力最强的 GLM4.7,以及综合表现相当稳的 minimax-m2.1。
说实话,在如今 API 几乎全面 token 计费、随便一个复杂任务就轻松几十万甚至上百万 token 的背景下,这种可以正经做开发实验、不用一上来就烧钱的平台,对个人开发者和学习阶段的人来说非常友好。所以这篇文章主要做三件事:
- 介绍 NVIDIA Build 平台本身能做什么
- 记录从注册到实际调用 API 的完整流程
- 分享一段真实使用下来的模型体验与限制
整体偏实践,结论也会尽量基于实际使用情况展开。
NVIDIA Build 模型平台概览
NVIDIA Build可以理解为英伟达官方提供的一个模型集成与调试平台。平台上已经部署了大量模型,涵盖文生文(Chat / Reasoning / Coding)、文生图 / 图生文、语音相关等模型。目前平台上可见的模型数量在 180+,基本覆盖了市面上主流的开源模型生态,例如:deepseek-R1 / deepseek-v3.x、qwen3 / qwen-coder、kimi-k2、minimax-m2.1、z-ai/glm4.7,平台本身还提供了在线 Playground(支持参数调节、tools 调用)、OpenAI 风格的 API 接口、模型示例代码一键生成等能力。
注册账号与 API Key 申请
账号封控说明
需要先说明一个情况:疑似因为近期注册用户激增,新账号存在一定概率无法正常申请 API Key 的问题。具体触发条件并不透明,可能与注册高峰、账号风控策略等因素有关。
在不影响账号合规性的前提下,比较稳妥的做法是:使用非国内常见的邮箱注册,例如相对少见的邮箱(yeah.net),或国外邮箱(gamil.com)等,以及注册时使用浏览器无痕窗口,避免历史状态干扰。
创建账号
访问:https://build.nvidia.com/ ,点击左上角 Login。

在弹窗中输入邮箱并点击 Next,随后填写注册信息并完成人机验证。
这里需要注意:在“更多注册选项”中可以看到 QQ、微信等方式,但不建议使用第三方快捷登录。在当前阶段,使用这些方式注册后,账号更容易出现 API 权限受限的情况。
完成注册后,会进入一些偏个性化设置的步骤(例如名称、偏好选项),按需填写即可。

如果账号状态正常,稍等片刻后,页面顶部会出现提示:
Please verify your account to get API access
点击右上角的 Verify 进入验证流程。
手机号验证
在验证弹窗中,将默认的 +1 修改为 +86,输入国内手机号即可。这里不需要刻意规避,国内手机号是可以正常通过验证的。

点击 Send Code via SMS,完成验证码验证。
创建 API Key
验证完成后,点击右上角头像,进入 API Keys 管理页面。

如果账号状态正常,这里可以看到 Generate API Key 按钮。
点击后,输入一个 Key 名称(仅用于区分),过期时间选择 Never Expire。

生成完成后,复制并妥善保存该 API Key,后续调用只会展示一次。

如果在 API Keys 页面完全看不到生成按钮,而是类似下图所示的提示界面,基本可以确认该账号当前无法使用 API 功能,建议更换账号重新注册。

使用 API Key 进行实际调用
在本地客户端中配置
只要是支持 OpenAI 风格接口的客户端基本都可以直接使用,我这里以 Jan 为例。
进入设置页,添加一个新的模型提供商。

- Provider Name:自定义(例如
Nvidia) - API Key:填写刚刚生成的 Key
- Base URL:
https://integrate.api.nvidia.com/v1
完成后添加模型。

例如添加 GLM4.7:
1 | |

新建会话并选择该模型后,即可正常对话。从体感上看,在普通对话场景下 token 输出速度非常快。

通过 /models 接口获取模型列表
Jan 也支持直接调用 /models 接口获取模型列表,点击刷新即可自动拉取并添加。

需要注意的是:
/models返回的是平台全量模型列表- 其中包含文生图、语音、多模态等模型
- 并非所有模型都支持 chat / text-to-text
因此,如果在客户端中直接选择不支持 chat 的模型发送消息,会直接报错,这是模型能力不匹配,不是接口问题。
平台 Playground 与模型调试
在 NVIDIA Build 平台的 Models 页面中,可以直接筛选支持 Chat / Reasoning 的模型。

以 kimi-k2 为例,点击模型后可以进入在线调试界面。

- 左侧 Tools:可启用模型支持的工具
- 右侧 Parameters:控制温度、最大 token 等参数

点击右上角 View Code,可以直接看到对应的 API 调用示例,包括 Base URL、Model ID、Messages 结构等。

Tools 调用示例
在部分模型中可以直接启用 tools,这里以 minimax-m2 为例演示。
启用 get_current_weather 工具后,询问某地天气,模型会自动进行 tools 规划与调用,并返回结果。

再次点击 View Code,可以看到完整的 tools 调用示例代码。

模型与接口的一些补充说明
NVIDIA Build 提供的是 OpenAI 风格 API,接口层面兼容 chat.completions / responses,是否支持 chat、tools、多模态,取决于模型本身。所以,最稳妥的方式仍然是在平台 Models 页面中筛选 chat / reasoning,再决定是否接入到本地客户端或代码中。
使用体验与限制
说回使用体验,整体来看,这个平台给我的感觉还是非常不错的:模型多、接入成本低、示例清晰,对学习和实验阶段的开发者非常友好。
平台层面的限制也比较明确:API 调用频率限制:40 次 / 分钟,超出后会直接返回错误。这一点在 minimax-m2 上表现得尤为明显,如果任务规划较激进,很容易直接撞上限流。
至于 GLM4.7,需要单独说一下,这个模型我并不是第一次用,在其他 API 渠道中也试用过。综合这两次使用下来的体感来说,整体功能层面完全正常,包括工具调用,代码编辑,对话速度快,复杂任务执行明显偏慢,且偶尔会出现卡顿或中途停顿。在相同客户端、相同任务复杂度下,minimax-m2 的执行节奏会明显更顺畅,但代价就是更容易触发平台限流。
结语
实话说,这个平台在当前这个时间点,真的算是相当良心的存在。对想学习 AI Agent、工具调用、多模型编排的开发者来说,能够在不额外付费的情况下反复试错,本身就很有价值。
当然了,平台策略和风控状态可能随时变化,如果只是想白嫖一点体验,建议还是尽早注册,至少在账号状态正常的前提下,把 API Key 拿到手。
至于模型怎么选,建议多试、多对比,别迷信单一模型。能稳定把活干完的模型,才是好模型。