0
| 本文作者: 刘伊伦 | 2025-12-16 14:00 |
雷峰网(公众号:雷峰网)消息,2025年12月15日,英伟达正式对外发布Nemotron 3系列开放模型及配套的数据集与工具库,这一举措精准切入全球企业AI转型的核心诉求,为行业带来了兼具透明度与高效能的代理式AI开发解决方案。
随着AI技术在产业场景的深度渗透,企业对AI的应用需求已从单一对话交互升级为复杂工作流自动化,协作式多智能体系统成为必然趋势。
然而,开发者在转型过程中始终面临三重核心困境:智能体间通信开销过高、长任务推理易出现上下文漂移、推理成本居高不下,同时,模型透明度不足也让企业和开发者难以放心将核心业务托付给AI系统。
Nemotron 3的推出正直面这些挑战。
Nemotron 3模型推出Nano、Super和Ultra三种规模,突破性异构潜在混合专家(MoE)架构是核心亮点,既守住了专业化代理式AI所需的性能,又坚持开放特质,让开发者无需在“性能强度”与“使用自由度”间做取舍,成为高效的开发底座。
“开放创新是AI进步的基础。通过Nemotron,我们将先进AI转化成开放平台,为开发者提供构建大规模代理式系统所需的透明度与效率。”英伟达创始人兼首席执行官黄仁勋表示。
Nemotron并非孤立的模型发布,而是英伟达主权AI战略的关键支撑。
埃森哲、德勤、安永、ServiceNow、西门子、Zoom等12家企业已经成为Nemotron早期用户,从制造业的智能产线优化,到网络安全的威胁闭环应对,再到媒体通信的高效协作,这些行业标杆企业正将这款开放模型深度融入核心AI工作流,一场跨领域的智能升级浪潮已悄然拉开序幕。
Token吞吐量提高4倍、减少60%推理Token生成量,Nemotron 3让每一分算力「物超所值」
在多智能体AI系统愈发深入产业的今天,开发者面临很现实的问题:既要依赖专有模型的前沿推理能力支撑复杂任务,又希望借助开放模型的高效与可定制性控制成本。
Nemotron 3的出现,正在解决这种“性能与经济不可兼得”的困境。
任务路由技术成为关键。在单一工作流中,开发者可通过智能调度,让日常高效型任务交由Nemotron 3这样的开放模型处理,而核心复杂的前沿推理则联动专有模型,既保证了智能体的能力,又优化了Token经济效益。这一模式并非理论构想,已在Perplexity的实践中落地。
作为AI浏览器领域的创新者,Perplexity正将Nemotron 3 Ultra纳入其智能体路由器的核心选项。
“Perplexity的构建理念是当精准AI融入先进工具时(例如 AI 助手),人类的好奇心将被放大。通过我们的智能体路由器,可以将工作负载定向到领先的精细调优开放模型,如Nemotron 3 Ultra,或在任务能够从其独特能力中受益时,利用领先的专有模型,以此确保我们的AI助手能够以卓越的速度、效率和规模运行。”Perplexity首席执行官Aravind Srinivas表示。
如果说大企业借助Nemotron 3实现了效率升级,那么这款开放模型对初创公司而言,更像是一把加速创新的“钥匙”。General Catalyst和Mayfield旗下的诸多创业公司,正借助Nemotron 3搭建人机协作的AI队友,实现工作效能的快速提高。
这背后离不开NVIDIA全生态的支撑。
Mayfield管理合伙人Navin Chaddha表示:“英伟达的开放模型堆栈与初创加速计划为初创公司提供了各类模型、工具及经济高效的基础设施,助力其开展试验、实现差异化发展并快速扩展规模。Nemotron 3可以让创始人在构建代理式AI应用和AI队友方面取得先机,并帮助他们利用英伟达庞大的用户基础。”
Nemotron 3系列MoE模型包含三种规模:
Nemotron 3 Nano:是一款具备300亿参数的小型模型,每次运行最多激活30亿参数,适用于针对性、高效的任务。
Nemotron 3 Super:是一款具备约1000亿参数的高精度推理模型,每个Token最多激活100亿参数,适用于多智能体应用。
Nemotron 3 Ultra:是一款具备约5000亿参数的大型推理引擎,每个Token最多激活500亿参数,适用于复杂的AI应用。
Nemotron 3 Nano已正式上线,是计算成本效益极高的模型,其针对软件调试、内容摘要、AI助手工作流及信息检索等任务进行了优化,同时保持了较低的推理成本。并且,模型采用独特的异构MoE架构,以实现效率与可扩展性的提升。
这一设计使其Token吞吐量较Nemotron 2 Nano至高提升4倍,并减少了多达60%的推理Token生成量,大大降低了推理成本。同时,具备100万Token的上下文处理能力,Nemotron 3 Nano具有更强的记忆能力,在处理长时间多步骤任务时能更精准地关联信息。

独立AI基准测试机构Artificial Analysis评定该模型为同等规模模型中兼具极高开放性和效率及卓越精度的模型。
在需要多智能体协作完成低延迟复杂任务的应用中,Nemotron 3 Super表现出色。Nemotron 3 Ultra则作为高级推理引擎,服务于需要深度研究和策略规划的AI工作流。
Nemotron 3 Super与Ultra采用基于英伟达Blackwell架构的超高效4位NVFP4训练格式,可显著降低显存需求并加速训练进程。这种效率使更大规模模型能在现有基础设施上进行训练,不会因更高精度格式而牺牲准确性。
借助Nemotron 3系列模型,开发者可根据特定工作负载选择适配的开放模型,在数十至数百个智能体间灵活扩展,同时在复杂工作流中获得更快速、精准的长时推理能力。
3万亿Token数据、NeMo开源工具库发布,英伟达为开发者按下 「加速键」
英伟达还发布了面向专业AI智能体开发者的训练数据集与前沿强化学习库集合。
3万亿Token规模的全新Nemotron预训练、后训练及强化学习数据集,为开发高性能特定领域智能体提供了丰富的推理、编码及多步骤工作流范例。Nemotron Agentic Safety Dataset则提供真实场景的遥测数据,帮助团队评估并提升复杂智能体系统的安全性。
为加速开发进程,英伟达发布了NeMo Gym与NeMo RL开源库,为Nemotron模型提供训练环境及后训练基础,同时还推出用于验证模型安全性和性能的NeMo Evaluator。所有工具及数据集现已上线GitHub和Hugging Face平台。
Nemotron 3已获得LM Studio、llama.cpp、SGLang和vLLM支持。此外,Prime Intellect与Unsloth正将NeMo Gym 的即用型训练环境直接集成至其工作流,使团队能够更加快速、便捷地获得强大的强化学习训练能力。
目前,Nemotron 3 Nano已上线Hugging Face平台,并通过Baseten、Deepinfra、Fireworks、FriendliAI、OpenRouter、Together AI等推理服务商提供。
Nemotron还上线了多个企业级AI与数据基础设施平台,包括Couchbase、DataRobot、H2O.ai、JFrog、Lambda 及 UiPath。Nemotron 3 Nano将通过Amazon Bedrock(无服务器模式)在亚马逊云科技 (AWS) 平台上提供给使用公有云的客户,并且也即将支持Google Cloud、Coreweave、Crusoe、Microsoft Foundry、Nebius、Nscale及Yotta。
Nemotron 3 Nano同时以NVIDIA NIM形式提供,可以在英伟达加速基础设施上进行安全、可扩展的部署,具有极高的隐私性与可控性。Nemotron 3 Super和Ultra预计将于 2026 年上半年推出。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。