您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. High-performance cone beam reconstruction using CUDA compatible GPUs.pdf

  2. Compute unified device architecture (CUDA) is a software development platform that allows us to run C-like programs on the nVIDIA graphics processing unit (GPU). This paper presents an acceleration method for cone beam reconstruction using CUDA comp
  3. 所属分类:Access

    • 发布日期:2010-06-08
    • 文件大小:908kb
    • 提供者:huiyuanwujian
  1. Amlogic S805 Datasheet

  2. Amlogic S805 Datasheet, Revision: 0.8, Release date: 1/26/2015 S805 is an advanced application processor designed for Set Top Box(STB) and high-end media player applications. It integrates a powerful CPU/GPU subsystem, and a secured FHD video CODEC
  3. 所属分类:Android

    • 发布日期:2015-01-27
    • 文件大小:2mb
    • 提供者:gdrguy69
  1. 在FPGA上优化实现复数浮点计算

  2. 高性能浮点处理一直与高性能CPU相关联。在过去几年中,GPU也成为功能强大的浮点处理平台,超越了图形,称为GP-GPU(通用图形处理单元)。
  3. 所属分类:硬件开发

    • 发布日期:2018-09-25
    • 文件大小:494kb
    • 提供者:washingtonxr
  1. Algorithms for hyper-parameter optimization

  2. Algorithms for hyper-parameter optimization.pdf,讲述贝叶斯算法的TPE过程的专业论文The contribution of this work is two novel strategies for approximating f by modeling H: a hier archical Gaussian Process and a tree-structured parzen estimator. These are described in
  3. 所属分类:其它

    • 发布日期:2019-09-03
    • 文件大小:268kb
    • 提供者:yangtao_whut
  1. Keras中文文档.pdf

  2. Keras官方文档PDF版,带书签,一共307页,完整版,目前最好的版本!欢迎下载!model train on batch(x batch, y batch) 只需一行代码就能评估模型性能: loss and metrics modelevaluate(x test, y test, batch size=128) 或者对新的数据生成预测: classes =model predictx test, batch size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的
  3. 所属分类:深度学习

    • 发布日期:2019-09-03
    • 文件大小:12mb
    • 提供者:dzgybd
  1. IMX8QXPAEC.pdf

  2. imx8qxp datahsheet, This data sheet contains specifications for the i.MX 8QuadXPlus and 8DualXPlus processors, which, along with the i.MX 8DualX processor, comprise the i.MX 8X Family (for i.MX 8DualX specifications, see i.MX 8DualX Automotive and In
  3. 所属分类:Android

  1. 寒武纪 AI 指令集 论文

  2. 寒武纪发布在ISCA 2016上的一篇论文,设计了一个通用的神经网络指令集;Table i. an overview to cambricon instructions Instruction Type Examples Operands Control jump, conditional branch register (scalar value), immediate Matrix matrix load/store/move register (matrix address/size, s
  3. 所属分类:深度学习

    • 发布日期:2019-03-02
    • 文件大小:836kb
    • 提供者:u011831874
  1. 嵌入式系统/ARM技术中的在FPGA上优化实现复数浮点计算

  2. 高性能浮点处理一直与高性能CPU相关联。在过去几年中,GPU也成为功能强大的浮点处理平台,超越了图形,称为GP-GPU(通用图形处理单元)。新创新是在苛刻的应用中实现基于FPGA的浮点处理。本文的重点是FPGA及其浮点性能和设计流程,以及OpenCL的使用,这是高性能浮点计算前沿的编程语言。   各种处理平台的GFLOP指标在不断提高,现在,TFLOP/s这一术语已经使用的非常广泛了。但是,在某些平台上,峰值GFLOP/s,即,TFLOP/s表示的器件性能信息有限。它只表示了每秒能够完成的理论
  3. 所属分类:其它

    • 发布日期:2020-10-16
    • 文件大小:348kb
    • 提供者:weixin_38693720
  1. DSP中的GPU架构下的并行计算

  2. 摘要:为降低粒子群优化算法(PSO:Particle Swarm Optimization)时间和空间的复杂度随问题规模的增大而越来越高的问题,对图形处理器(GPU:Graphic Processing Unit)用于并行计算的方法进行了分析,利用GPU的并行特性,实现了粒子群优化算法路径搜索过程的并行化.测试函数实验结果证明,GPU平台较CPU模式下的计算,其搜索速率有明显提高.   O 引言   图形处理芯片(GPU:Graphic Processing Unit)技术日渐成熟,当前可编
  3. 所属分类:其它

    • 发布日期:2020-10-20
    • 文件大小:113kb
    • 提供者:weixin_38722184
  1. 基础电子中的谈GPU的作用、原理及与CPU、DSP的区别

  2. GPU是显示卡的“心脏”,也就相当于CPU在电脑中的作用,它决定了该显卡的档次和大部分性能,同时也是2D显示卡和3D显示卡的区别依据。2D显示芯片在处理3D图像和特效时主要依赖CPU的处理能力,称为“软加速”。3D显示芯片是将三维图像和特效处理功能集中在显示芯片内,也即所谓的“硬件加速”功能。显示芯片通常是显示卡上最大的芯片(也是引脚最多的)。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理
  3. 所属分类:其它

    • 发布日期:2020-10-19
    • 文件大小:111kb
    • 提供者:weixin_38722607
  1. Python基于pyCUDA实现GPU加速并行计算功能入门教程

  2. 本文实例讲述了Python基于pyCUDA实现GPU加速并行计算功能。分享给大家供大家参考,具体如下: Nvidia的CUDA 架构为我们提供了一种便捷的方式来直接操纵GPU 并进行编程,但是基于 C语言的CUDA实现较为复杂,开发周期较长。而python 作为一门广泛使用的语言,具有 简单易学、语法简单、开发迅速等优点。作为第四种CUDA支持语言,相信python一定会 在高性能计算上有杰出的贡献–pyCUDA。 pyCUDA特点 CUDA完全的python实现 编码更为灵活、迅速、
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:83kb
    • 提供者:weixin_38730129
  1. Pytorch to(device)用法

  2. 如下所示: device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") model.to(device) 这两行代码放在读取数据之前。 mytensor = my_tensor.to(device) 这行代码的意思是将所有最开始读取数据时的tensor变量copy一份到device所指定的GPU上去,之后的运算都在GPU上进行。 这句话需要写的次数等于需要保存GPU上的tensor变量的个数;一般情况下这些t
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:54kb
    • 提供者:weixin_38553466
  1. 解决Tensorflow占用GPU显存问题

  2. 我使用Pytorch进行模型训练时发现真正模型本身对于显存的占用并不明显,但是对应的转换为tensorflow后(权重也进行了转换),发现Python-tensorflow在使用时默认吃掉所有显存,并且不手动终结程序的话显存并不释放(我有两个序贯的模型,前面一个跑完后并不释放占用显存)(https://github.com/tensorflow/tensorflow/issues/1727),这一点对于后续的工作有很大的影响。 后面发现python-tensorflow限制显存有两种方法: 1.
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:62kb
    • 提供者:weixin_38631454
  1. gpt2-small-spansih:通用模型库和通用模型库gpt2小实用程序Wikipedia西班牙语-源码

  2. gpt2-small-spansih 通用模型库和通用模型库gpt2小实用程序Wikipedia西班牙语 在获取模型 西班牙语英语教学法。 (英语) GPT2-small-spanish:用于西班牙文本生成的语言模型(以及更多NLP任务...) GPT2-small-spanish是基于GPT-2小型模型的西班牙语最新语言模型。 它已使用迁移学习和微调技术在西班牙语维基百科上进行了培训。 使用四个具有11GB DDR5的GPU NVIDIA GTX 1080-Ti和大约3GB(已处理)的培训
  3. 所属分类:其它

  1. gpytorch:PyTorch中高斯过程的高效模块化实现-源码

  2. GPy火炬 新闻:GPyTorch v1.3 GPyTorch v1.3刚刚发布。 GPyTorch是使用PyTorch实现的高斯进程库。 GPyTorch旨在轻松创建可扩展,灵活和模块化的高斯过程模型。 在内部,GPyTorch与许多现有的GP推理方法不同,它使用诸如预处理共轭梯度之类的现代数值线性代数技术执行所有推理操作。 实施可扩展的GP方法非常简单,就像通过我们的LazyTensor接口或内核很多现有的LazyTensors为内核矩阵及其派生词提供矩阵乘法例程LazyTensors
  3. 所属分类:其它

  1. Cell5:C语言中的Cell Machine-源码

  2. 单元格5 四环 0 128 bit A SIMD X Stacks, Queue, Processes, Lists E Arrays 1 256 bit B AVX Y Lists, Trees F Lists 2 320 bit C GP/GPU Z Trees
  3. 所属分类:其它

    • 发布日期:2021-02-15
    • 文件大小:16mb
    • 提供者:weixin_42153691
  1. Portland Group PGI 9.0编译器简化x64+GPU编程

  2. 意法半导体全资子公司Portland Group宣布支持 Linux、Mac OS X和Windows三大操作系统的PGI 9.0版高性能并行编译器及开发工具系列产品正式上市。PGI 9.0版编译器是首款在含有英伟达(NVIDIA)CUDA图形处理器(GPU)的基于x64位处理器的Linux系统中支持PGI Accelerator编程模型的公开发行版。   在高性能计算技术(HPC)领域,将图形处理器用作通用加速器是一大趋势。直到目前为止,从Fortran语言应用程序调用GPU还是受到极大的限
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:52kb
    • 提供者:weixin_38613173
  1. 在FPGA上优化实现复数浮点计算

  2. 高性能浮点处理一直与高性能CPU相关联。在过去几年中,GPU也成为功能强大的浮点处理平台,超越了图形,称为GP-GPU(通用图形处理单元)。新创新是在苛刻的应用中实现基于FPGA的浮点处理。本文的重点是FPGA及其浮点性能和设计流程,以及OpenCL的使用,这是高性能浮点计算前沿的编程语言。   各种处理平台的GFLOP指标在不断提高,现在,TFLOP/s这一术语已经使用的非常广泛了。但是,在某些平台上,峰值GFLOP/s,即,TFLOP/s表示的器件性能信息有限。它只表示了每秒能够完成的理论
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:911kb
    • 提供者:weixin_38718223
  1. condensate:Python包裹的C ++ CUDA加速了GP方程的数值解-源码

  2. 凝结水 GP方程的交互式GPU加速数值解。 用C ++ / CUDA编写,使用SWIG封装在python中。 用法 该项目仅在具有NVIDIA GPULinux机器上运行。 Docker使入门变得容易。 安装 (确保您具有官方的NVIDIA驱动程序)。 然后,在您的终端中运行 chmod +x start-condensate.sh ./start-condensate.sh docker 注意:Leap Motion控制器当前与Docker不兼容。 如果你想使用的飞跃动作,更换docker与
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:15mb
    • 提供者:weixin_42166105