深度学习
深度学习
深度学习是 AI 和机器学习的一个分支,其使用多层人工神经网络精准完成物体检测、语音识别、语言翻译等任务。
深度学习与传统机器学习技术的区别在于,前者可以自动从图像、视频或文本等数据中学习表征,无需引入手写代码规则或人类的领域知识。其高度灵活的架构可以直接从原始数据中学习,获得更多数据后,其预测准确度也将随之提升。
深度学习常用于计算机视觉、对话式 AI 和推荐系统等应用。计算机视觉应用使用深度学习从数字图像和视频中获取知识。对话式 AI 应用能够帮助计算机通过自然语言进行理解和交流。推荐系统会利用图像、语言和用户兴趣来提供有意义且相关的搜索结果和服务。
近期,深度学习在 AI 领域实现了许多突破,例如 Google DeepMind 的 AlphaGo、自动驾驶汽车、智能语音助手等。借助 NVIDIA GPU 加速的深度学习框架,研究人员和数据科学家可显著提升深度学习训练的速度,只需几小时就能完成之前需要几天才能完成的训练,而原先需要几周才能完成的训练只需几天即可完成。准备好部署模型后,开发者可依靠面向云、嵌入式设备或自动驾驶汽车的 GPU 加速推理平台,为计算密集型深度神经网络实现高性能、低延迟的推理。
面向开发者的 NVIDIA AI 平台
要开发 AI 应用,首先要利用大型数据集训练深度神经网络。GPU 加速的深度学习框架为设计和训练自定义深度神经网络带来灵活性,并为 Python 和 C/C++ 等常用编程语言提供编程接口。TensorFlow、PyTorch 等主流深度学习框架皆已获得 GPU 加速,因此数据科学家和研究人员可在几分钟内取得成效,且无需任何 GPU 编程。
对 AI 研究人员和应用开发者而言,由 Tensor Core 提供动力支持的 NVIDIA Volta 和 Turing GPU 提供了一条捷径,可助其提升训练速度和深度学习性能。启用 Tensor Core 后,FP32 和 FP16 混合精度矩阵乘法将能显著提高吞吐量,并缩短 AI 训练时间。
对于将深度神经网络集成到基于云的应用或嵌入式应用的开发者来说,深度学习 SDK 包含实现基础模组 API 的高性能库,可直接在您的应用中实现训练和推理。通过可用于所有 GPU 平台(包括桌面操作系统、数据中心和嵌入式设备)的单一编程模型,开发者可以从其桌面着手开发,接着纵向扩展到云端,然后再部署到边缘设备,整个过程仅涉及极少、甚至不涉及代码更改。
NVIDIA 提供经过优化的软件栈,可加速深度学习工作流程的训练和推理阶段。单击以下链接了解详情。
每个 AI 框架 – 经过加速
深度学习框架提供基础模组,用于通过高级编程界面设计、训练和验证深度神经网络。各种主流深度学习框架(例如 Microsoft Cognitive Toolkit、MxNet、PaddlePaddle、Pytorch 和 TensorFlow)均依赖深度学习 SDK 库实现经由多 GPU 加速的高性能训练。对框架用户而言,只需下载框架,并指导框架使用 GPU 进行训练即可。详细了解深度学习框架,深入研究示例以实现快速入门。
深度学习框架
经 Tensor Core 优化的模型脚本
统一平台
开发到部署
深度学习框架已针对包括 Titan V 桌面开发者 GPU 和数据中心级 Tesla GPU 在内的各个 GPU 平台进行优化。此举使研究人员和数据科学家团队能够从小处着手,然后随数据、实验次数、模型和团队规模的增加逐步扩展。深度学习 SDK 库在所有 NVIDIA GPU 平台上与 API 兼容,因此在模型准备就绪,可以集成到应用中时,开发者可以在桌面操作系统上进行本地测试和验证。开发者仅需少量或无需任何代码更改,即可完成验证并将模型部署至 Tesla 数据中心平台、Jetson 嵌入式平台或 DRIVE 自动驾驶平台。这将在从原型设计到生产的过程中提高开发者效率,减少引入错误的几率。
开始实战培训
NVIDIA 深度学习学院 (DLI) 为开发者、数据科学家和研究人员提供了有关 AI 和加速计算的实战培训。在线完成自主实操课程后,可获得计算机视觉基础课程认证。此外,学员还需观看时长两小时的选修课程,内容涉及数字内容创建、医疗健康和智能视频分析。