深度学习揭秘网络研讨会 | 2022 年 12 月 1 日,星期四免费注册

深度学习框架

深度学习 (DL) 框架提供了通过高级编程接口设计、训练和验证深度神经网络的构建块。广泛使用的深度学习框架(例如 PyTorch、TensorFlow、 PyTorch Geometric、DGL等)依赖 GPU 加速库(例如 cuDNN、NCCL 和 DALI)来提供高性能、多 GPU 加速的训练。


查看所有框架

NVIDIA 优化的深度学习框架

开发人员、研究人员和数据科学家可以轻松访问 NVIDIA AI 优化的深度学习框架容器,其中包含针对 NVIDIA GPU 进行性能调整和测试的深度学习示例。这消除了管理包和依赖项或从源代码构建 DL 框架的需要。包含所有依赖项的容器化深度学习框架提供了一个轻松开始开发常见应用程序的地方,例如对话式 AI 、自然语言理解 (NLU)、推荐系统和计算机视觉。请访问NVIDIA NGC™ 目录以了解更多信息。


PyTorch 徽标

PyTorch

PyTorch 是一个 Python 包,提供两个高级功能:

  • 具有强大 GPU 加速功能的张量计算(如 numpy)。
  • 深度神经网络 (DNN) 构建在基于磁带的自动分级系统上。

在需要时重用您最喜欢的 Python 包(例如 numpy、scipy 和 Cython)来扩展 PyTorch。


NGC 上的 PyTorch示例模型自动混合精度

模型部署

对于 PyTorch 训练模型的高性能推理部署:

  • 1. 使用 Torch-TensorRT 集成在 PyTorch 中优化和部署模型。
  • 2. 将 PyTorch 模型导出为ONNX格式,并使用NVIDIA TensorRT™(用于高性能深度学习推理的 SDK)导入、优化和部署。

学习资源


张量流标志

TensorFlow

TensorFlow 是一个使用数据流图进行数值计算的开源软件库。图中的节点表示数学运算,而图的边表示在它们之间流动的多维数据数组(张量)。这种灵活的架构允许您将计算部署到桌面、服务器或移动设备中的一个或多个 CPU 或 GPU,而无需重写代码。为了可视化 TensorFlow 结果,TensorFlow 提供了 TensorBoard,这是一套可视化工具。


NGC 上的 TensorFlow GitHub 上的 TensorFlow示例模型适用于 JetPack 的自动混合精度TensorFlow

模型部署

对于 TensorFlow 训练模型的高性能推理部署:

  • 1. 使用 TensorFlow-TensorRT 集成在 TensorFlow 中优化和部署模型。
  • 2. 将 TensorFlow 模型导出到ONNX ,并使用NVIDIA TensorRT(用于高性能深度学习推理的 SDK)导入、优化和部署。

学习资源


JAX

JAX

JAX 是一个专为高性能数值计算和机器学习研究而设计的 Python 库。 JAX可以自动区分原生Python并实现NumPy API。只需更改几行代码,JAX 即可实现跨多节点、多 GPU 系统的分布式训练,并通过 NVIDIA GPU 上的 XLA 优化内核加速性能。 Python 和 NumPy 都被广泛使用和熟悉,使得 JAX 简单、灵活且易于采用。


申请早期访问开发者论坛网络研讨会

PaddlePaddle

PaddlePaddle

PaddlePaddle 提供了一个直观且灵活的界面来加载数据和指定模型结构。支持CNN、RNN等多种变体,轻松配置复杂的深度模型。

PaddlePaddle还提供极其优化的操作、内存回收和网络通信,并可以轻松扩展异构计算资源和存储以加速训练过程。


NGC PaddlePaddle 安装页面上的 PaddlePaddle PADDLEPADDLE 源

模型部署

对于 PaddlePaddle 训练模型的高性能推理部署:

  • 使用 Paddle-TensorRT 集成在 PaddlePaddle 中优化和部署模型。
  • 将 PaddlePaddle 模型导出到 ONNX,并使用 NVIDIA TensorRT(一种用于高性能深度学习推理的 SDK)导入、优化和部署。

学习资源


MXNet 徽标

MXNet

MXNet 是一个专为提高效率和灵活性而设计的深度学习框架。它允许您混合符号编程和命令式编程的风格,以最大限度地提高效率和生产力。

其核心是一个动态依赖调度程序,可以动态自动并行化符号操作和命令操作。其之上的图形优化层使符号执行快速且内存高效。该库是可移植的、轻量级的,并且可以扩展到多个 GPU 和机器。


NGC 上的 MXNet样本模型自动混合精度

模型部署

对于经过训练的模型的高性能推理部署,导出为ONNX格式,并使用NVIDIA TensorRT (一种用于高性能深度学习推理的 SDK)进行优化和部署。


学习资源


MATLAB 徽标

MATLAB

MATLAB 让工程师、科学家和领域专家能够轻松进行深度学习。 MATLAB 不仅具有用于管理和标记大型数据集的工具和功能,还提供用于处理机器学习、神经网络、计算机视觉和自动驾驶的专用工具箱。只需几行代码,MATLAB 就可以让您创建和可视化模型,并将模型部署到服务器和嵌入式设备,而无需成为专家。 MATLAB 还使用户能够从 MATLAB 代码自动生成用于 DL 和视觉应用程序的高性能 CUDA 代码。


NGC 上的 MATLAB用于深度学习的 MATLAB

模型部署

为了对 MATLAB 训练模型进行高性能推理部署,请使用MATLAB GPU Coder自动生成从云到嵌入式部署环境的 TensorRT 优化推理引擎。


学习资源