NVIDIA NeMo 检索器

NVIDIA NeMo™ Retriever 是一系列微服务,用于构建多模态提取、重排序和嵌入工作流,具有较高的准确性和更大的数据隐私性。它为高级检索增强生成 (RAG)代理式 AI 工作流等 AI 应用提供快速的上下文感知响应。作为 NVIDIA NeMo 平台的一部分,NeMo Retriever 使用 NVIDIA NIM™ 构建,允许开发者灵活利用这些微服务,将 AI 应用连接到位于任何位置的大型企业数据集,并对其进行微调,以与特定用例保持一致。

在 NVIDIA GTC 2025 上宣布推出全新 NeMo Retriever 微服务,与开源替代方案相比,多模态 PDF 提取速度提高了 15 倍,错误答案减少了 50%。

立即试用
论坛


文档

借助可扩展的数据提取以及高精度嵌入和重排序,构建出色的信息检索工作流和 AI 查询引擎

摄取

快速提取海量数据,同时提取文本、图形、图表和表格,实现高度准确的检索。

嵌入

提升文本问答检索性能,为许多下游自然语言处理 (NLP) 任务提供高质量嵌入。

重排序

通过微调的重排序模型进一步增强检索性能,在查询大语言模型 (LLM) 时寻找最相关的段落以作为上下文提供。


NVIDIA NeMo 检索器的工作原理

NeMo Retriever 提供用于构建数据提取和信息检索工作流的组件。流程提取结构化和非结构化数据 (例如。文本、图表、表格) ,将其转换为文本,然后过滤掉重复内容。NeMo Retriever 嵌入 NIM 将数据块转换为嵌入,并将其存储在由 NVIDIA cuVS 加速的向量数据库中,以提高索引和搜索的性能和速度。

NeMo Retriever 解析这是一种基于 VLM 的 OCR 微服务,用于文本和表格提取,可保留语义结构,按读取顺序将文档图像转录为文本,对内容类型进行分类,并输出结构化标记以保留空间布局和格式。

提交查询时,系统使用向量相似性搜索检索相关信息,然后使用 NeMo Retriever 重排序 NIM 对结果进行重新排序,以确保准确性。借助最相关的信息,LLM NIM 会生成信息丰富、准确且与上下文相关的回复。您可以使用 NVIDIA API Catalog 中的各种 LLM NIM 微服务来启用其他功能,例如合成数据生成。

A diagram showing how NVIDIA NeMo Retriever works from data ingestion to information retrieval.
NVIDIA NeMo Retriever NIM 微服务集合用于构建优化的提取和检索工作流,以大规模进行高度准确的信息检索。

介绍性资源

详细了解如何使用 NeMo Retriever 构建高效的信息检索工作流。

介绍性博客

了解信息检索工作流中模型嵌入和重新排序的功能、首要注意事项等。

阅读博客

介绍性网络会议

提高生产就绪型生成式 AI 工作流的文本检索的准确性和可扩展性,并进行大规模部署。

立即观看

适用于 RAG 的 AI Blueprint

了解使用行业领先的嵌入和重排序模型将 AI 应用连接到企业数据的最佳实践。

试用
蓝图

GTC 介绍性会议

了解用于创建用于多模态数据提取、提取和检索的代理式和 RAG 工作流的新模型、工具和技术。

观看会议

出色的信息检索性能

NeMo Retriever 微服务可加速多模态文档提取和实时检索,同时降低 RAG 成本并提高准确性。它们支持可靠的多语种跨语言检索,并优化数据平台的存储、性能和适应性,从而实现高效的向量数据库扩展。

错误答案减少 50%

NeMo Retriever 多模态提取召回率 = 5 准确率

 A graph showing NeMo Retriever has achieved 2X throughput for fast info retrieval
基于公开可用的 PDF 数据集 (包括文本、图表、表格和信息图) 进行评估。开启 NeMo 检索器提取:nemoretriever-page-elements-v2、nemoretriever-table-structure-v1、nemoretriever-graphic-elements - v1、paddle-ocr
与关闭 NeMo Retriever 的比较:开源替代方案:HW - 1xH100

嵌入吞吐量提高 3 倍

NeMo Retriever Llama 3.2 多语种文本嵌入

 A graph showing NeMo Retriever has achieved high accuracy with 30% fewer incorrect answers
此测试的执行要求如下:1xH100 SXM;通道令牌长度:512,批量大小:64,并发客户端请求:5;OSS 替代:与 NeMo Retriever lama-3.2-nv-embedqa-1b-v2 相比的 FP16,NIM:FP8

多模态数据提取吞吐量提高 15 倍

NeMo Retriever Extraction NIM 微服务

A graph showing NeMo Retriever embedding model is a leader on the Massive Text Embedding Benchmark (MTEB) leaderboard
每秒页面数,使用公开可用的 PDF 数据集 (包括文本、图表和表格) 进行评估,并使用 NeMo Retriever 提取 NIM 微服务:与开源替代方案相比,nv-yolox-structured-image-v1、nemoretriever-page-elements-v1、nemoretriever-graphic-elements - v1、nemoretriever-table-structure - v1、PaddleOCR、nv-llama3.2-embedqa-1b-v2;HW - 1xH100

数据存储效率提高 35 倍

多语种、长上下文、文本嵌入 NIM 微服务

A graph showing NeMo Retriever embedding model, llama-3.2-nv-embedqa-1b-v2.
使用最新的 NeMo Retriever 嵌入模型 llama-3.2-nv-embedqa-1b-v2 进行测试,显示了长上下文支持、动态嵌入和高效存储对高性能、可扩展数据处理的影响。在上表中,DIM = 维度。

开始使用 NVIDIA NeMo Retriever 的方法

使用合适的工具和技术构建和部署生成式 AI 应用,这些应用需要安全准确的信息检索,以便为各行各业的组织生成实时业务见解。

Decorative

试用

通过基于 UI 的门户体验 NeMo Retriever NIM 微服务,借助 NVIDIA 管理的端点进行探索和原型设计。

试用 NeMo Retriever 微服务
Decorative icon representing source code

构建

利用 NVIDIA Blueprints 快速开始构建您的 AI 解决方案、可定制的参考应用,可在 NVIDIA API Catalog 中获取。

试用 Blueprint
Decorative icon

部署

获取免费许可证以试用
NVIDIA AI Enterprise 使用现有基础架构在生产环境中运行 90 天。

申请 90 天
许可证

入门套件

开始为多模态数据提取、嵌入、重排序、检索增强生成和代理式工作流构建信息检索工作流和生成式 AI 应用 NVIDIA Blueprints、教程、Notebook、博客、论坛、参考代码、综合文档等。

客服 AI 助手

利用 RAG、NeMo Retriever、NIM 和最新的 AI 智能体构建方法,构建更个性化、更安全的增强型 AI 助手。

零售购物助手

开发由 LLM 提供支持的多模态 RAG 应用,实现更个性化的购物体验。

面向客户服务的数字人

借助 AI 赋能的数字虚拟形象,打造如生的应用,从而改变客户服务体验。

用于视频搜索和摘要的可视化智能体

提取大量实时或存档视频,并提取见解进行总结和交互式问答。


NVIDIA NeMo 检索器学习资源库


更多资源

Decorative image representing forums

探索社区

获取培训和认证

加速您的初创公司发展


道德 AI

NVIDIA 的平台和应用框架使开发者能够构建各种 AI 应用。在选择或创建要部署的模型时,请考虑潜在的算法偏差。与模型的开发者合作,确保其满足相关行业和用例的要求;提供必要的说明和文档以了解错误率、置信区间和结果;并确保在预期的条件和方式下使用模型。

立即开始使用 NeMo Retriever。

立即试用