快速上手TensorRT搭建高性能推理模型,听听英伟达专家怎么说

  • 时间:
  • 浏览:3
  • 来源:中大南方教务系统_中大教务系统_中北大学教务处|中北大学教务处
阅读模式

TensorRT 是 NVIDIA 推出的用于加速深度学习推理的开发工具。现已有大量的线上模型在它上面运行,实现了相比于原生框架最高近 10 倍的加速比,极大地提高了 GPU 的利用效率,降低了 GPU 的使用成本。不过,由于许多模型无法被原生框架彻底地转换到 TensorRT 上,需要手工搭建,所涉及的学习和时间成本让一些开发者望而却步,遗憾地失去了加速程序的机会。

为此,NVIDIA GPU 计算专家团队高级工程师季光博士将带来一场线上直播分享,面向对深度学习和编程语言有基本了解的深度学习开发者,通过一个典型的深度学习模型作为例子,深入讲解利用 NVIDIA TensorRT 自由搭建各种模型的实用技巧,希望可以帮助开发者可以快速上手 TensorRT,独立地利用它加速自己的模型,获得丰厚的收益。

通过本次在线上分享,您将了解以下内容:

如何利用 NVIDIA TensorRT 自由搭建各种模型独立地利用 NVIDIA TensorRT 加速模型

本次线上分享详情如下:

主题:利用 TensorRT 自由搭建高性能推理模型

日期:2019 年 10 月 16 日,星期三

时间:20:00-21:30

演讲嘉宾

季光 (Gary Ji)

NVIDIA GPU 计算专家团队高级工程师

季光博士毕业于中科院计算所,擅长领域为 GPU 加速的视频编解码以及深度学习模型推理。NVIDIA GPU 计算专家团队致力于为中国客户提供基于 GPU 系统的最快解决方案,工作内容涉及视频图像处理、语音识别和合成、自然语言处理、推荐系统等各个方面,通过代码优化、模型优化和 Pipeline 优化,提供端到端的解决方案。本团队开源了若干原型项目,帮助用户评估 GPU 可以带来的业务收益,并通过进一步开发集成,利用 GPU 为用户降低成本,提高效率。

猜你喜欢