您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. how-to-read-pytorch:通过五个colab笔记本快速,直观,原则性地介绍pytorch代码-源码

  2. 大卫关于如何阅读火炬的技巧 这五个python笔记本是对pytorch核心习语的插图说明。单击下面的命令在Colab上运行它们。 :用于在CPU或GPU上处理n维数字数组的表示法。 :如何获得关于任何张量输入的任何标量的导数。 :使用自动渐变梯度更新张量参数以减少任何计算目标的方法。 :pytorch如何表示神经网络以方便组合,训练和保存。 :用于大型数据流的高效多线程预取。 Pytorch是一个数值库,可以非常方便地在GPU硬件上训练深度网络。它引入了一个新的编程词汇表,它比常规
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:575kb
    • 提供者:weixin_42102933
  1. pytorch_block_sparse:用于Pytorch的快速块稀疏矩阵-源码

  2. 用于Pytorch的快速块稀疏矩阵 这个PyTorch扩展使用块稀疏矩阵而不是密集矩阵来替代torch.nn.Linear。 由于您可以用稀疏矩阵直接替换模型中的线性层,因此可以非常轻松地进行稀疏矩阵实验。 动机 该库的目的是表明稀疏矩阵可用于神经网络,而不是密集网络,而不会显着改变精度。 这是个好消息,因为稀疏矩阵可释放空间和计算方面的节省: 50%的稀疏矩阵将仅使用50%的内存,并且理论上将仅使用50%的计算。在这个库中,与天真的实现相比,我们利用Cutlass来提高CUDA性能。但是,由于
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:954kb
    • 提供者:weixin_42168902
  1. pytorch-NMF:一个用于非负矩阵分解的pytorch软件包-源码

  2. PyTorch中的非负矩阵组合 PyTorch不仅是一个很好的深度学习框架,而且还是矩阵操作和大数据卷积方面的快速工具。 一个很好的例子是 。 在此程序包中,我基于torch.nn.Module在PyTorch中实现了NMF,PLC​​A及其反卷积变化,因此可以在CPU / GPU设备之间自由移动模型并利用cuda的并行计算。 模组 NMF 基本的NMF和NMFD模块使用乘法更新规则将beta差异最小化。 乘数是通过torch.autograd获得的,因此减少了代码量并且易于维护。 该界
  3. 所属分类:其它

  1. Simple-Sparsely-Connected-NN:稀疏连接的多层神经网络的简单C ++实现,使用OpenMP和CUDA进行并行化-源码

  2. 简单稀疏连接神经网络 稀疏连接的多层神经网络的简单C ++实现,使用OpenMP和CUDA进行并行化。 OpenMP的 该程序的该版本使用OpenMP来实现并行性。 编译并运行 脚步: cd OpenMP/src g++ -fopenmp main.cpp NeuralNet.cpp Vector.cpp -o openmp OMP_NUM_THREADS=p ./openmp [N] [K] [p_mode] [v_mode] 争论 N,指定输入层中节点(神经元)的数量,应为正整数 K,指
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:592kb
    • 提供者:weixin_42131261
  1. NN-CUDA-源码

  2. 神经网络
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:13kb
    • 提供者:weixin_42100032
  1. Jittor-summary:Jittor中的Keras样式model.summary(),从torchsummary修改而来-源码

  2. model.summary()中的Keras样式model.summary() 1.用法 git clone https://github.com/liuruiyang98/Jittor-summary.git from jittorsummary import summary summary ( your_model , input_size = ( channels , H , W )) 请注意, input_size是通过网络进行前向传递所必需的。 请注意,不支持带有cuda的jit
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:15kb
    • 提供者:weixin_42138525
  1. jittor:Jittor是基于JIT编译和元运算符的高性能深度学习框架-源码

  2. Jittor:即时(JIT)深度学习框架 | | Jittor是基于JIT编译和元运算符的高性能深度学习框架。 整个框架和元运算符都是实时编译的。 强大的op编译器和调谐器已集成到Jittor中。 它使我们能够生成专门针对您的模型的高性能代码。 Jittor还包含大量的高性能模型库,包括:图像识别,检测,分割,生成,可微分渲染,几何学习,强化学习等。 前端语言是Python。 前端使用模块设计和动态图执行,这是用于深度学习框架接口的最受欢迎的设计。 后端由高性能语言(例如CUDA,C ++)
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:786kb
    • 提供者:weixin_42164702
  1. Road_extraction:注意Unet和Deep Unet实现,用于道路提取多gpu张量流-源码

  2. Road_extraction 使用多GPU模型张量流的Attention Unet和Deep Unet实现道路提取 Deep U-Net的多种变体已经过额外的层和额外的卷积测试。 尽管如此,优于所有人的模型是Attention U-Net:学习在哪里寻找胰腺。 我添加了一个额外的调整来提高性能,将卷积块切换为残差块 TensorFlow分割 TF细分模型,U-Net,Attention Unet,Deep U-Net(U-Net的所有变体) 使用神经网络(NN)进行图像分割,旨在从遥感影像
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:16mb
    • 提供者:weixin_42172972
  1. torchgpipe:PyTorch中的GPipe实现-源码

  2. 火炬管 实施。 它针对CUDA(而非TPU)进行了优化。 from torchgpipe import GPipe model = nn . Sequential ( a , b , c , d ) model = GPipe ( model , balance = [ 1 , 1 , 1 , 1 ], chunks = 8 ) output = model ( input ) 什么是GPipe? GPipe是Google Brain发布的可扩展的管道并行性库,可以有效地训练大型的,消耗内
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:182kb
    • 提供者:weixin_42133452
  1. kmcuda:NVIDIA GPU CUDA上的大规模K-means和K-nn实施-源码

  2. 使用NVIDIA CUDA的“阴阳” K均值和K-nn K均值的实现基于 。 尽管它引入了一些开销和许多对CUDA不利的条件子句,但与Lloyd算法相比,它仍然显示出1.6到2倍的加速。 K近邻采用相同的三角形不等式思想,并且需要预先计算的质心和聚类分配,类似于展平的球树。 sklearn KMeans KMeansRex KMeansRex OpenMP 塞班 克库达 kmcuda 2 GPU 速度 1倍 4.5倍 8.2倍 15.5倍 17.8倍 29.8倍 记忆 1倍 2倍 2倍
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:423kb
    • 提供者:weixin_42133861
  1. perturbations-differential-pytorch:在Pytorch中具有扰动的可微分优化器-源码

  2. PyTorch中具有扰动的可微分优化器 这包含Tensorflow中的可的PyTorch实现。 所有版权归原始作者所有,可以在下面找到。 下面给出的源代码,测试和示例是原始作品的一对一副本,但带有纯PyTorch实现。 概述 我们在这项工作中提出了一种通用方法,以可微分的近似方式转换任何优化器。 我们提供了一个PyTorch实施,此处在一些示例中进行了说明。 摄动argmax 我们从一个原始的优化器argmax函数开始,该函数是根据示例输入theta计算的。 import torch imp
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:14kb
    • 提供者:weixin_42172204