点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - NN-CUDA-源码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
how-to-read-pytorch:通过五个colab笔记本快速,直观,原则性地介绍pytorch代码-源码
大卫关于如何阅读火炬的技巧 这五个python笔记本是对pytorch核心习语的插图说明。单击下面的命令在Colab上运行它们。 :用于在CPU或GPU上处理n维数字数组的表示法。 :如何获得关于任何张量输入的任何标量的导数。 :使用自动渐变梯度更新张量参数以减少任何计算目标的方法。 :pytorch如何表示神经网络以方便组合,训练和保存。 :用于大型数据流的高效多线程预取。 Pytorch是一个数值库,可以非常方便地在GPU硬件上训练深度网络。它引入了一个新的编程词汇表,它比常规
所属分类:
其它
发布日期:2021-03-19
文件大小:575kb
提供者:
weixin_42102933
pytorch_block_sparse:用于Pytorch的快速块稀疏矩阵-源码
用于Pytorch的快速块稀疏矩阵 这个PyTorch扩展使用块稀疏矩阵而不是密集矩阵来替代torch.nn.Linear。 由于您可以用稀疏矩阵直接替换模型中的线性层,因此可以非常轻松地进行稀疏矩阵实验。 动机 该库的目的是表明稀疏矩阵可用于神经网络,而不是密集网络,而不会显着改变精度。 这是个好消息,因为稀疏矩阵可释放空间和计算方面的节省: 50%的稀疏矩阵将仅使用50%的内存,并且理论上将仅使用50%的计算。在这个库中,与天真的实现相比,我们利用Cutlass来提高CUDA性能。但是,由于
所属分类:
其它
发布日期:2021-03-18
文件大小:954kb
提供者:
weixin_42168902
pytorch-NMF:一个用于非负矩阵分解的pytorch软件包-源码
PyTorch中的非负矩阵组合 PyTorch不仅是一个很好的深度学习框架,而且还是矩阵操作和大数据卷积方面的快速工具。 一个很好的例子是 。 在此程序包中,我基于torch.nn.Module在PyTorch中实现了NMF,PLCA及其反卷积变化,因此可以在CPU / GPU设备之间自由移动模型并利用cuda的并行计算。 模组 NMF 基本的NMF和NMFD模块使用乘法更新规则将beta差异最小化。 乘数是通过torch.autograd获得的,因此减少了代码量并且易于维护。 该界
所属分类:
其它
发布日期:2021-03-12
文件大小:1mb
提供者:
weixin_42120563
Simple-Sparsely-Connected-NN:稀疏连接的多层神经网络的简单C ++实现,使用OpenMP和CUDA进行并行化-源码
简单稀疏连接神经网络 稀疏连接的多层神经网络的简单C ++实现,使用OpenMP和CUDA进行并行化。 OpenMP的 该程序的该版本使用OpenMP来实现并行性。 编译并运行 脚步: cd OpenMP/src g++ -fopenmp main.cpp NeuralNet.cpp Vector.cpp -o openmp OMP_NUM_THREADS=p ./openmp [N] [K] [p_mode] [v_mode] 争论 N,指定输入层中节点(神经元)的数量,应为正整数 K,指
所属分类:
其它
发布日期:2021-03-07
文件大小:592kb
提供者:
weixin_42131261
NN-CUDA-源码
神经网络
所属分类:
其它
发布日期:2021-03-07
文件大小:13kb
提供者:
weixin_42100032
Jittor-summary:Jittor中的Keras样式model.summary(),从torchsummary修改而来-源码
model.summary()中的Keras样式model.summary() 1.用法 git clone https://github.com/liuruiyang98/Jittor-summary.git from jittorsummary import summary summary ( your_model , input_size = ( channels , H , W )) 请注意, input_size是通过网络进行前向传递所必需的。 请注意,不支持带有cuda的jit
所属分类:
其它
发布日期:2021-03-04
文件大小:15kb
提供者:
weixin_42138525
jittor:Jittor是基于JIT编译和元运算符的高性能深度学习框架-源码
Jittor:即时(JIT)深度学习框架 | | Jittor是基于JIT编译和元运算符的高性能深度学习框架。 整个框架和元运算符都是实时编译的。 强大的op编译器和调谐器已集成到Jittor中。 它使我们能够生成专门针对您的模型的高性能代码。 Jittor还包含大量的高性能模型库,包括:图像识别,检测,分割,生成,可微分渲染,几何学习,强化学习等。 前端语言是Python。 前端使用模块设计和动态图执行,这是用于深度学习框架接口的最受欢迎的设计。 后端由高性能语言(例如CUDA,C ++)
所属分类:
其它
发布日期:2021-02-25
文件大小:786kb
提供者:
weixin_42164702
Road_extraction:注意Unet和Deep Unet实现,用于道路提取多gpu张量流-源码
Road_extraction 使用多GPU模型张量流的Attention Unet和Deep Unet实现道路提取 Deep U-Net的多种变体已经过额外的层和额外的卷积测试。 尽管如此,优于所有人的模型是Attention U-Net:学习在哪里寻找胰腺。 我添加了一个额外的调整来提高性能,将卷积块切换为残差块 TensorFlow分割 TF细分模型,U-Net,Attention Unet,Deep U-Net(U-Net的所有变体) 使用神经网络(NN)进行图像分割,旨在从遥感影像
所属分类:
其它
发布日期:2021-02-19
文件大小:16mb
提供者:
weixin_42172972
torchgpipe:PyTorch中的GPipe实现-源码
火炬管 实施。 它针对CUDA(而非TPU)进行了优化。 from torchgpipe import GPipe model = nn . Sequential ( a , b , c , d ) model = GPipe ( model , balance = [ 1 , 1 , 1 , 1 ], chunks = 8 ) output = model ( input ) 什么是GPipe? GPipe是Google Brain发布的可扩展的管道并行性库,可以有效地训练大型的,消耗内
所属分类:
其它
发布日期:2021-02-04
文件大小:182kb
提供者:
weixin_42133452
kmcuda:NVIDIA GPU CUDA上的大规模K-means和K-nn实施-源码
使用NVIDIA CUDA的“阴阳” K均值和K-nn K均值的实现基于 。 尽管它引入了一些开销和许多对CUDA不利的条件子句,但与Lloyd算法相比,它仍然显示出1.6到2倍的加速。 K近邻采用相同的三角形不等式思想,并且需要预先计算的质心和聚类分配,类似于展平的球树。 sklearn KMeans KMeansRex KMeansRex OpenMP 塞班 克库达 kmcuda 2 GPU 速度 1倍 4.5倍 8.2倍 15.5倍 17.8倍 29.8倍 记忆 1倍 2倍 2倍
所属分类:
其它
发布日期:2021-02-03
文件大小:423kb
提供者:
weixin_42133861
perturbations-differential-pytorch:在Pytorch中具有扰动的可微分优化器-源码
PyTorch中具有扰动的可微分优化器 这包含Tensorflow中的可的PyTorch实现。 所有版权归原始作者所有,可以在下面找到。 下面给出的源代码,测试和示例是原始作品的一对一副本,但带有纯PyTorch实现。 概述 我们在这项工作中提出了一种通用方法,以可微分的近似方式转换任何优化器。 我们提供了一个PyTorch实施,此处在一些示例中进行了说明。 摄动argmax 我们从一个原始的优化器argmax函数开始,该函数是根据示例输入theta计算的。 import torch imp
所属分类:
其它
发布日期:2021-04-01
文件大小:14kb
提供者:
weixin_42172204