您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Nvidia TensorRT官方例程源代码

  2. Nvidia TensorRT官方例程源代码,从TX1上拷贝下来的。
  3. 所属分类:C++

    • 发布日期:2017-02-20
    • 文件大小:42991616
    • 提供者:jesse_mx
  1. Nvidia TensorRT官方API文档

  2. Nvidia TensorRT官方API文档,离线使用。
  3. 所属分类:C++

    • 发布日期:2017-02-20
    • 文件大小:264192
    • 提供者:jesse_mx
  1. TensorRT推理加速

  2. TensorRT Python API的使用,8bits量化,语义分割方面的应用。
  3. 所属分类:深度学习

    • 发布日期:2018-05-07
    • 文件大小:1048576
    • 提供者:nature553863
  1. 支持多层输出的TensorRT

  2. 这个demo是支持多层输出网络结构的TensorRT接口,原始资源来源于github,相应链接找不到了,不好意思;
  3. 所属分类:深度学习

    • 发布日期:2018-10-17
    • 文件大小:54525952
    • 提供者:qq_22764813
  1. TensorRT-Developer-Guide.pdf

  2. TensorRT-Developer-Guide.pdf 官方文档 英文版。英文看习惯就好了
  3. 所属分类:其它

    • 发布日期:2020-05-13
    • 文件大小:2097152
    • 提供者:Vertira
  1. 带tensorRT的paddle1.70-gpu版本whl安装包

  2. 由于百度paddle官方提供的whl安装包没有包含tensorrt,需要自己从源码编译较为麻烦,这里我提供自己编译好的带tensorrt的whl安装包,大家可以不必编译而直接pip install 安装就行了。此版本为paddle1.70-gpu版本,并且带tensorRT,可以测试开启tensorrt后的加速效果
  3. 所属分类:深度学习

    • 发布日期:2020-04-21
    • 文件大小:170917888
    • 提供者:info_black_hole
  1. 带tensorrt的paddle1.70-gpu whl安装包

  2. 由于百度paddle官方提供的whl安装包没有包含tensorrt,需要自己从源码编译较为麻烦,这里我提供自己编译好的带tensorrt的whl安装包,大家可以不必编译而直接pip install 安装就行了。此版本为paddle1.70-gpu版本,并且带tensorRT,可以测试开启tensorrt后的加速效果
  3. 所属分类:深度学习

    • 发布日期:2020-04-21
    • 文件大小:177209344
    • 提供者:info_black_hole
  1. s9818-integration-of-tensorrt-with-dali-on-xavier.pdf

  2. tensorRT,深度学习,xavier集成,说明在xavarier上怎么使用dali,tensorrt,是不错得一份而文档。。。
  3. 所属分类:深度学习

    • 发布日期:2020-04-04
    • 文件大小:2097152
    • 提供者:vilor
  1. yolov3-tiny-onnx-TensorRT.zip

  2. tensorrt转换,本人代码,盗版必究,禁止商用,
  3. 所属分类:互联网

    • 发布日期:2020-04-01
    • 文件大小:51380224
    • 提供者:qq_34647388
  1. tensorrt.7z

  2. 对yolov3进行TensorRT加速,大约提高30%的inference速度,仅供学习参考,请勿商业使用。
  3. 所属分类:深度学习

    • 发布日期:2020-06-24
    • 文件大小:4096
    • 提供者:m0_37347379
  1. TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.2.cudnn7.6.tar.gz

  2. TensorRT 7.0.0.11 for Ubuntu 18.04 and CUDA 10.2 tar package
  3. 所属分类:深度学习

    • 发布日期:2020-08-03
    • 文件大小:765460480
    • 提供者:u011017620
  1. TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz

  2. TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz
  3. 所属分类:深度学习

    • 发布日期:2020-10-29
    • 文件大小:743440384
    • 提供者:u012219045
  1. TensorFlow-TensorRT-User-Guide.pdf

  2. NVIDIA Accelerating Inference In TensorFlow With TensorRT (TF-TRT)文档。
  3. 所属分类:深度学习

    • 发布日期:2020-11-18
    • 文件大小:565248
    • 提供者:TracelessLe
  1. TensorRT-6.0.1.5.Ubuntu-18.04.x86_64-gnu.cuda-10.1.cudnn7.6.tar.gz

  2. TensorRT 6.0.1.5 for ubuntu18.04 x 86_64 + cuda10.1 + cudnn7.6
  3. 所属分类:深度学习

    • 发布日期:2020-12-12
    • 文件大小:723517440
    • 提供者:JaimeLee6741
  1. TensorRT安装

  2. TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashr
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38706294
  1. TensorRT安装

  2. TensorRT安装以及相关配置 看到很多tensorrt安装教程有一些问题,所以我安装完后写这篇记录并分享一下. 1.下载tar包 TensorRT官方API提供了四种安装方式,建议下载tar包进行安装。下载地址https://developer.nvidia.com/tensorrt 2. 安装TensorRT 2.1 解压 tar xzvf TensorRT-6.0.1.5..-gnu.cuda-10.1.cudnn7.x.tar.gz 2.2 添加环境变量 $ vim ~/.bashr
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:73728
    • 提供者:weixin_38616809
  1. yolo-tensorrt.tar.gz

  2. yolo-tensorrt源码
  3. 所属分类:深度学习

    • 发布日期:2021-03-23
    • 文件大小:1048576
    • 提供者:qq_37817129
  1. yolov4-triton-tensorrt:该存储库将YOLOv4作为优化的TensorRT引擎部署到Triton Inference Server-源码

  2. 使用TensorRT的Triton Inference Server上的YOLOv4 该存储库展示了如何将YOLOv4作为优化的引擎部署到 。 Triton Inference Server具有许多现成的优势,可用于模型部署,例如GRPC和HTTP接口,在多个GPU上自动调度,共享内存(甚至在GPU上),运行状况度量和内存资源管理。 TensorRT将通过融合层并为我们的特定硬件选择最快的层实现来自动优化模型的吞吐量和延迟。我们将使用TensorRT API从头开始生成网络,并将所有不支持的
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:373760
    • 提供者:weixin_42123296
  1. volksdep:volksdep是一个开源工具箱,可通过TensorRT部署和加速PyTorch,ONNX和TensorFlow模型-源码

  2. 介绍 volksdep是一个开源工具箱,用于通过TensorRT部署和加速PyTorch,ONNX和TensorFlow模型。 特征 自动转换和加速volksdep可以使用TensorRT并仅需少量代码即可加速PyTorch,ONNX和TensorFlow模型。 吞吐量,延迟和指标的基准使用给定的模型,volksdep可以生成吞吐量,延迟和度量的基准。 执照 该项目是在下。 安装 要求 Linux Python 3.6或更高版本 TensorRT 7.1.0.16或更高版本 PyTorch 1
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:22528
    • 提供者:weixin_42131261
  1. yolov4-custom-functions:在TensorFlow,TFLite和TensorRT中实现的针对YOLOv4,YOLOv4-tiny,YOLOv3和YOLOv3-tiny的多种自定义功能-源码

  2. yolov4-自定义功能 在TensorFlow,TFLite和TensorRT中实现的YOLOv4,YOLOv4-tiny,YOLOv3和YOLOv3-tiny的各种自定义功能。 免责声明:此存储库与我的存储库非常相似: 。我创建此存储库是为了探索要用YOLOv4实现的编码自定义功能,它们可能会使应用程序的总体速度变差,并且就时间复杂度而言未对其进行优化。因此,如果您想使用TensorFlow运行最佳的YOLOv4代码,而不是转到我的其他存储库。这是一个探索可以使用YOLOv4创建的很棒的自
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:63963136
    • 提供者:weixin_42132598
« 12 3 4 5 6 »