您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. cudnn-8.0-windows10-x64-v6.0

  2. NVIDIA® cuDNN is a GPU-accelerated library of primitives for deep neural networks. cuDNN是一个对DNN的GPU加速库。他提供高度可调整的在DNN中的常用的例程实现。 It provides highly tuned implementations of routines arising frequently in DNN applications: 常用语前向后向卷积网络,包括交叉相关。Convolutio
  3. 所属分类:其它

    • 发布日期:2017-10-30
    • 文件大小:101mb
    • 提供者:ziqjay
  1. 关于Relu文章的理解翻译Deep Sparse Rectifier Neural Networks

  2. 关于Relu文章的理解翻译,原文见paper:Deep Sparse Rectifier Neural Networks
  3. 所属分类:深度学习

    • 发布日期:2017-10-30
    • 文件大小:515kb
    • 提供者:popoala
  1. Applied Deep Learning

  2. 使用深度学习中的高级主题,例如优化算法,超参数调整,丢失和错误分析,以及解决训练深度神经网络时遇到的典型问题的策略。您将首先研究激活函数,主要是使用单个神经元(ReLu,Sigmoid和Swish),了解如何使用TensorFlow执行线性和逻辑回归,并选择正确的成本函数。 下一节将讨论具有多个层和神经元的更复杂的神经网络架构,并探讨权重随机初始化的问题。整章专门介绍神经网络误差分析的完整概述,给出了解决来自不同分布的方差,偏差,过度拟合和数据集的问题的示例。 Applied Deep Lear
  3. 所属分类:深度学习

    • 发布日期:2018-12-26
    • 文件大小:11mb
    • 提供者:weixin_39397839
  1. TensorFlow.js Machine Learning for the Web and Beyond.pdf

  2. TensorFlow.js, Google 提供的基于TensorFlow的Javascr ipt库。方便使用JS的开发者使用,并且可以为未来的边缘计算提供支持。TensorFlow. js: Machine Learning for the Web and beyond acceleration, notably TensorFire(Kwok et al., 2017), Propel Layers APl, which provides higher-level model buildin
  3. 所属分类:机器学习

    • 发布日期:2019-07-15
    • 文件大小:568kb
    • 提供者:nicholaskong
  1. 向人类学习如何抓取:数据驱动的架构 拟人软手自主抓握

  2. 软手是将顺应性元素嵌入其机械设计中的机器人系统。这样可以有效地适应物品和环境,并最终提高其抓握性能。如果与经典的刚性手相比,这些手在人性化操作方面具有明显的优势,即易于使用和坚固耐用。但是,由于缺乏合适的控制策略,它们在自主控制方面的潜力仍未得到开发。为了解决这个问题,在这项工作中,我们提出了一种方法,可以从观察人类策略开始,使软手能够自主地抓握物体。通过深度神经网络实现的分类器将要抓取的物体的视觉信息作为输入,并预测人类将执行哪些操作来实现目标。因此,此信息用于从一组人类启发的原语中选择一个,
  3. 所属分类:深度学习

    • 发布日期:2019-10-20
    • 文件大小:547kb
    • 提供者:qq_16481211
  1. Keras中文文档.pdf

  2. Keras官方文档PDF版,带书签,一共307页,完整版,目前最好的版本!欢迎下载!model train on batch(x batch, y batch) 只需一行代码就能评估模型性能: loss and metrics modelevaluate(x test, y test, batch size=128) 或者对新的数据生成预测: classes =model predictx test, batch size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的
  3. 所属分类:深度学习

    • 发布日期:2019-09-03
    • 文件大小:12mb
    • 提供者:dzgybd
  1. Hindsight Experience Replay.pdf

  2. 关于Hindsight Experience Replay的原始论文,适合初学者对深度强化学习Hindsight Experience Replay的认识和了解is to periodically set the weights of the target network to the current weights of the main network(e. g Mnih et al. (2015)) or to use a polyak-averaged(Polyak and Judits
  3. 所属分类:讲义

    • 发布日期:2019-09-02
    • 文件大小:2mb
    • 提供者:m0_37384317
  1. glow编译器,降低了计算图之间的计算量

  2. 具体描述Glow编译器的基础知识,glow是通过减少计算图的计算量来优化的have implemented a high-level intermediate represen Variable name: save saveLl tation that allows a compiler to reason about and Value: 0.000000e+C0 output: floaK optimize high-level constructs such as tensors and
  3. 所属分类:其它

    • 发布日期:2019-07-27
    • 文件大小:824kb
    • 提供者:xiao_mei_mei
  1. A Framework for Generating High Throughput CNN Implementations on FPGAs.pdf

  2. 一种FPGA硬件加速方案,实现深度学习,可实现高吞吐量的CNN网络Session 3: Deep Learning FPGA 18, February 25-27, Monterey, CA, USA maps. Let b, n and m index into the Batch, fin and fout dimensions Table 1: Variation of model paramcters Equation 4 specifies the operations of a co
  3. 所属分类:深度学习

    • 发布日期:2019-07-20
    • 文件大小:2mb
    • 提供者:shiyangcool
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1mb
    • 提供者:abacaba
  1. better_deep_learning_mini_course

  2. Jason Brownlee 博士的最新力作,深度学习速成课程,共七个章节,每个章节用时5--30分钟,阅读速度根据个人的基础因人而异,很实用的技巧,书里代码运行一遍之后,保障有质的提升。Contents Before We get started Lesson 01: Better Deep Learning Framework Lesson 02 batch size 1357 Lesson 03: Learning Rate Schedule Lesson 04 Batch normali
  3. 所属分类:深度学习

    • 发布日期:2019-03-15
    • 文件大小:201kb
    • 提供者:weixin_44684345
  1. mine-pytorch:利用互信息神经估计(MINE)实现信息瓶颈-源码

  2. 互信息神经估计 该存储库包含使用相互信息神经估计(MINE)的信息瓶颈(IB)的pytorch实现。 已使用标准基线MLP(如Deep VIB论文中所述进行了比较)。 设置 git clone https://github.com/mohith-sakthivel/mutual_information_neural_estimation.git mine cd mine conda create -n mine -f environment.yml conda activate mine 跑
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:10kb
    • 提供者:weixin_42134143
  1. mnist-explanation:在MNIST数据集上试用DNN的复制技术-源码

  2. 简单说明 在该存储库中,我尝试实现G. Montavon等人所述的解释方法。 在他们的Methods for Interpreting and Understanding Deep Neural Networks中的文章[1] 神经网络实施 在他们的原始论文中,研究人员就使用哪种深度神经网络(DNN)提供了建议,以最大程度地提高其解释性。 我们将遵循以下建议: 根据需要使用尽可能少的完全连接的层,并通过辍学来训练这些层 大量使用求和池层,并且比其他类型的池层更喜欢它们 在线性层(卷积和完全连接
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:468kb
    • 提供者:weixin_42136826
  1. Consistent-Sparse-Deep-Learning-Theory-and-Computation-源码

  2. 一致的稀疏深度学习:理论与计算 我们提出了一种类似于常客的方法来学习稀疏DNN,并证明其在贝叶斯框架下的一致性。 稀疏DNN的结构可以在经过训练的贝叶斯神经网络与常规先验混合的基础上,使用基于拉普拉斯近似的边际后验包含概率方法一致地确定。 相关刊物 孙燕* ,宋其凡*和梁发名, JASA,印刷中。 复制论文中的实验结果: 模拟: 产生资料: python Generate_Data.py 回归: python Simulation_Regression.py --data_index 1
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:59kb
    • 提供者:weixin_42138780
  1. Deep-Learning-Fundementals-源码

  2. 深度学习基础 在此存储库中,ComVIS Lab团队将共享深度学习模型中使用的基本功能和基本算法。 在深度学习中,有激活函数用于获取单个神经元的输出。 这些功能可以是“线性的”或“非线性的”。 在深度学习中,首选“非线性”激活函数。 因为具有非线性函数,所以可以进行“学习”。 对于“线性”激活函数,系统表现为线性模型,因此不适合学习复杂数据。 但是我们不必忘记,对于DL(深度学习),激活函数应该是可区分的(我的意思是,我们可以采用函数的梯度/取导数)。 鉴于以上解释,我们在此给出众所周知
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:13kb
    • 提供者:weixin_42130786