面向消费者互联网的开发者资源

一个为消费者互联网行业的开发者提供新闻和技术资源的中心。

加入 NVIDIA 开发者计划,以访问社区中各种 SDK, 技术资料和更多其它资源。注册

消费者互联网资源

推荐系统

NVIDIA Merlin

NVIDIA Merlin 是一种基于 GPU 的端到端推荐系统框架,可提供快速的特征工程和较高的训练吞吐量,以加速深度学习推荐模型的实验和生产再训练。Merlin 还支持低延迟、高吞吐量和生产推理。


适用于推荐系统的 Merlin

对话式 AI 和自然语言处理

NVIDIA Riva

NVIDIA Riva 框架包括预训练的对话式 AI 模型、工具和优化的端到端服务,可用于语音、视觉和自然语言理解 (NLU) 任务。除了 AI 服务之外,Riva 还可让您同时融合视觉、音频和其他传感器输入内容,以在虚拟助理、多用户说话者分类和呼叫中心助理等应用领域中提供多用户、多情景对话等功能。


适用于对话式 AI 和 NLU 的 Riva

NVIDIA NeMo

借助 NVIDIA NeMo™,研究人员和开发者可以通过易于使用的应用程序编程接口构建先进的对话式 AI 模型。


适用于对话式 AI 的 NeMo

图像和视频理解

NVIDIA Maxine

NVIDIA Maxine 是一款完全加速的平台 SDK,供视频会议服务开发者构建和部署支持 AI 的功能,以在云中使用先进模型。Maxine 包括用于 NVIDIA 研究推出的最新创新(例如面部对齐、注视校正、面部重新照明和实时翻译,以及超分辨率、噪音消除、隐藏式字幕和虚拟助理等)的 API。


适用于视频会议的 Maxine

NVIDIA DeepStream

使用 NVIDIA DeepStream SDK,您可以构建和部署支持 AI 的智能视频分析 (IVA) 应用程序和服务。DeepStream 提供采用安全传输层协议 (TLS) 的多平台可扩展框架,在边缘进行部署以及连接到任何云。


适用于智能视频分析的 DeepStream SDK

迁移学习工具包

NVIDIA 迁移学习工具包使您能够为智能视频分析 (IVA) 和计算机视觉应用程序创建准确高效的 AI 模型,而无需具备 AI 框架方面的专业知识。构建智能视觉 AI 应用程序和服务的开发者、研究人员和软件合作伙伴可以将自己的数据用于调优预训练模型,免去了从头开始训练的麻烦。


适用于智能视频分析的 Tao 工具包TAO

深度学习 SDK

训练

NVIDIA® CUDA-X AI™ 是一个完整的深度学习软件堆栈,可供研究人员和软件开发者构建适用于对话式 AI、推荐系统和计算机视觉的高性能 GPU 加速应用程序。CUDA-X AI 库为 MLPerf 等行业基准测试提供出色的训练和推理性能。


加速 AI 训练

推理

NVIDIA TensorRT™ 是用于高性能深度学习推理的 SDK。它包含深度学习推理优化器和运行环境,让深度学习推理应用程序实现低延迟和高吞吐量。


提升推理能力

数据科学

RAPIDS

NVIDIA RAPIDS™ 是由 NVIDIA 开发的一套开源数据处理和机器学习库,可为数据科学工作流程实现 GPU 加速。RAPIDS 依赖于 NVIDIA 的 CUDA® 语言,允许用户通过易于使用的 Python 界面利用 GPU 处理和高带宽 GPU 显存。


加速数据科学

Apache Spark 3.0

GPU 加速的 Apache Spark 3.0 可在不更改代码的情况下加快数据科学管道以及数据处理和模型培训,同时大幅降低基础设施成本。


加速数据处理

分析工具

Deep Learning Profiler

Deep Learning Profiler 是一种用于分析深度学习模型的工具,旨在通过 TensorBoard 或分析文本报告直观地理解和提升数据科学模型的性能。


借助 DLProf 提高性能

NVIDIA Nsight Systems

NVIDIA Nsight™ Systems 是一个系统级性能分析工具,专用于实现应用算法的可视化,以帮助您发现诸多优化机会,以及进行调优以便跨任意数量或大小的 CPU 和 GPU(从大型服务器到最小的系统级芯片 [SoC])进行高效扩展。


借助 Nsight 扩展 AI 系统

预认证容器

NGC 提供了一系列选项,可满足拥有不同水平 AI 专业知识的数据科学家、开发者和研究人员的需求。通过容器快速部署 AI 框架,利用预训练模型或模型训练脚本获得领先优势,并使用领域特定的工作流程和 Helm 图表加速 AI 实施,让您更快地获得解决方案。


适用于 AI 的预认证容器

NVIDIA GPU 上的 Kubernetes

通过 NVIDIA GPU 上的 Kubernetes,企业可将训练和推理部署无缝扩展到多云 GPU 集群。它能支持您在节点集群之间自动部署、维护、调度和操作多个 GPU 加速的应用容器。


使用 Kubernetes 扩展企业 AI

NVIDIA Data Center GPU Manager

NVIDIA Data Center GPU Manager (DCGM) 是一套用于管理和监控集群环境中 NVIDIA GPU 的工具。这是一款开销较低的工具套件,可在每个主机系统上执行各种功能,包括主动运行状况监控、诊断、系统验证、策略、电源和时钟管理、组配置和会计。


适用于集群的 NVIDIA Data Center GPU Manager

利用 Kubernetes 和 RAPIDS 提高数据科学团队的效率

大规模收集的数据从根本上改变了组织开展业务的方式,推动了团队对快速提供基于数据科学、机器学习和深度学习的有意义的业务见解的需求。了解数据科学领导者如何使用 RAPIDS 提高团队的工作效率,同时优化其成本并最大限度地缩短部署时间。


提高数据科学生产力

适用于 GPU 加速的对话式 AI 应用程序的框架

实时对话式 AI 是一项复杂而具有挑战性的任务。探索 NVIDIA Riva,以及如何使用多个命令轻松快速地访问其高性能对话式 AI 服务。


适用于对话式 AI 的框架

在 GPU 上加速广泛而深入的推荐系统推理

此博客介绍了基于 TensorFlow 的 DNNLinearCombinedClassifier API 的广泛而深入的模型如何进行高度优化的 GPU 加速的推理实施。通过建议的解决方案,可以轻松将经过训练的 TensorFlow 广泛而深入的模型转换为混合精度推理部署。


混合精度推理部署

利用 GPU 和 RAPIDS 对 Apache Spark 3.0 进行加速

NVIDIA 与 Apache Spark 社区合作,通过发布 Spark 3.0 和适用于 Spark 的开源 RAPIDS 加速器实施 GPU 加速。在此博客中,了解适用于 Apache Spark 的 RAPIDS 加速器如何使用 GPU 加速相同的 Spark 集群、Spark SQL 和 DataFrame 操作的端到端数据准备和模型训练,而无需更改任何代码。


适用于 Spark 的 RAPIDS 加速器

使用 NVIDIA NGC 训练和调优 BERT

BERT(基于变换器的双向编码器)为自然语言处理 (NLP) 领域提供了颠覆性的转换。它在受 NVIDIA GPU 支持的超级计算机上运行,以训练其巨大的神经网络并实现前所未有的 NLP 准确性,从而影响已知的人类语言理解空间。数十年来,这种 AI 一直备受期待。借助 BERT,这一刻终于到来。


调优 NLP

推荐系统训练框架

点击率 (CTR) 估算是现代推荐系统最关键的组成部分之一。在本博客中,我们介绍了 HugeCTR,这是一个用于 CTR 估计的 GPU 加速训练框架,也是 NVIDIA Merlin 的支柱。HugeCTR 基于单个 NVIDIA V100 Tensor Core GPU,可将基于 40 核 CPU 节点的 TensorFlow 的速度提升高达 114 倍,将基于同一 V100 GPU 的 TensorFlow 的速度提升高达 8.3 倍。


适用于推荐系统的框架
阅读更多开发者博客


NVIDIA 深度学习学院

NVIDIA 深度学习培训中心 (DLI) 针对 AI 和加速计算提供实操培训,旨在解决现实问题。培训可通过自定进度式在线课程或面对面的讲师授课式研讨会进行。


查看所有课程

注册以接收 NVIDIA 发布的近期开发者新闻

订阅