您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Keras中文手册

  2. Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版
  3. 所属分类:讲义

    • 发布日期:2018-09-18
    • 文件大小:3mb
    • 提供者:yanghefeng22
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1mb
    • 提供者:abacaba
  1. TensorFlow实现简单的CNN的方法

  2. 主要介绍了TensorFlow实现简单的CNN的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:589kb
    • 提供者:weixin_38633576
  1. Tensorflow卷积神经网络

  2. 卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种前馈神经网络,在计算机视觉等领域被广泛应用.本文将简单介绍其原理并分析Tensorflow官方提供的示例.关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现.卷积是图像处理中一种基本方法.卷积核是一个f*f的矩阵.通常n取奇数,使得卷积核有中心点.对图像中每个点取以其为中心的f阶方阵,将该方阵中各值与卷积核中对应位置的值相乘,并用它们的和作为结果矩阵中对应点的值.1*1+1*0+
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:559kb
    • 提供者:weixin_38645133
  1. Tensorflow卷积神经网络

  2. 卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种前馈神经网络,在计算机视觉等领域被广泛应用.本文将简单介绍其原理并分析Tensorflow官方提供的示例.关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现.卷积是图像处理中一种基本方法.卷积核是一个f*f的矩阵.通常n取奇数,使得卷积核有中心点.对图像中每个点取以其为中心的f阶方阵,将该方阵中各值与卷积核中对应位置的值相乘,并用它们的和作为结果矩阵中对应点的值.1*1+1*0+
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:543kb
    • 提供者:weixin_38732425
  1. TensorFlow实现简单的CNN的方法

  2. 这里,我们将采用Tensor Flow内建函数实现简单的CNN,并用MNIST数据集进行测试 第1步:加载相应的库并创建计算图会话 import numpy as np import tensorflow as tf from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets import matplotlib.pyplot as plt #创建计算图会话 sess = tf.Session()
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:587kb
    • 提供者:weixin_38605538
  1. 使用Tensorflow实现可视化中间层和卷积层

  2. 为了查看网络训练的效果或者便于调参、更改结构等,我们常常将训练网络过程中的loss、accurcy等参数。 除此之外,有时我们也想要查看训练好的网络中间层输出和卷积核上面表达了什么内容,这可以帮助我们思考CNN的内在机制、调整网络结构或者把这些可视化内容贴在论文当中辅助说明训练的效果等。 中间层和卷积核的可视化有多种方法,整理如下: 1. 以矩阵(matrix)格式手动输出图像: 用简单的LeNet网络训练MNIST数据集作为示例: x = tf.placeholder(tf.float32,
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:54kb
    • 提供者:weixin_38718415