1月31日消息,英伟达官方公告称,DeepSeek-R1 是一个具有最先进推理能力的开放模型。DeepSeek-R1 等推理模型不会提供直接响应,而是对查询进行多次推理,采用思路链、共识和搜索方法来生成最佳答案。
执行这一系列推理过程(使用推理得出最佳答案)称为测试时间扩展。DeepSeek-R1 是此扩展定律的完美示例,证明了加速计算对于代理 AI推理的需求至关重要。
由于模型可以反复思考问题,因此它们会创建更多输出标记和更长的生成周期,因此模型质量会不断提高。大量的测试时计算对于实现实时推理和来自 DeepSeek-R1 等推理模型的更高质量响应至关重要,这需要更大规模的推理部署。
R1 在需要逻辑推理、推理、数学、编码和语言理解的任务中提供了领先的准确性,同时还提供了高推理效率。
为了帮助开发人员安全地试验这些功能并构建自己的专用代理,6710 亿参数的 DeepSeek-R1 模型现已作为 NVIDIA NIM 微服务预览版在build.nvidia.com上提供。
DeepSeek-R1 NIM 微服务可以在单个 NVIDIA HGX H200 系统上每秒提供多达 3872 个词元。
开发人员可以使用应用程序编程接口 (API) 进行测试和试验,该接口预计很快将作为可下载的 NIM 微服务提供,是NVIDIA AI Enterprise软件平台的一部分。
DeepSeek-R1 NIM 微服务通过支持行业标准 API 简化了部署。企业可以通过在其首选的加速计算基础设施上运行 NIM 微服务来最大限度地提高安全性和数据隐私。通过使用NVIDIA AI Foundry和NVIDIA NeMo软件,企业还可以为专门的 AI 代理创建定制的 DeepSeek-R1 NIM 微服务。