您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Chemistry.AI | 基于卷积神经网络(CNN)预测分子特性

  2. CNN :Convolutional Neural Networks (卷积神经网络 ) 环境准备 Python版本:Python 3.6.8 PyTorch版本:PyTorch1.1.0 RDKit版本:RDKit 2020.03.1 基于卷积神经网络(CNN)预测分子特性 导入库 from rdkit import Chem from rdkit.Chem.Crippen import MolLogP import numpy as np import torch import tim
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:56320
    • 提供者:weixin_38509082
  1. 深度可分离卷积网络的理论与实战(TF2.0)

  2. 1、深度可分离卷积网络的理论 深度可分离卷积是普通卷积操作的一个变种,它可以替代不同卷积,从而构成卷积神经网络。 以精度损失为代价去换取计算量的减少和参数量的减少,从而使得深度可分离卷积网络可以在手机端运行。 用右图的结构代替左图: 它的好处是,有不同尺寸的视野域, 如下图是Inception V3的结构:从左到右的视野域为:1*1,3*3,6*6,5*5,在这四个分支上有4种不同的视野域,4种不同的视野域也就提取出了4种不同尺寸的图像特征。最后输出的信息就更丰富,效果更好。并且相对于不做分支
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:152576
    • 提供者:weixin_38665193
  1. Tensorflow 卷积的梯度反向传播过程

  2. 一. valid卷积的梯度 我们分两种不同的情况讨论valid卷积的梯度:第一种情况,在已知卷积核的情况下,对未知张量求导(即对张量中每一个变量求导);第二种情况,在已知张量的情况下,对未知卷积核求导(即对卷积核中每一个变量求导) 1.已知卷积核,对未知张量求导 我们用一个简单的例子理解valid卷积的梯度反向传播。假设有一个3×3的未知张量x,以及已知的2×2的卷积核K Tensorflow提供函数tf.nn.conv2d_backprop_input实现了valid卷积中对未知变量的求导,以
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:43008
    • 提供者:weixin_38538224
  1. pytorch实现CNN卷积神经网络

  2. 本文为大家讲解了pytorch实现CNN卷积神经网络,供大家参考,具体内容如下 我对卷积神经网络的一些认识     卷积神经网络是时下最为流行的一种深度学习网络,由于其具有局部感受野等特性,让其与人眼识别图像具有相似性,因此被广泛应用于图像识别中,本人是研究机械故障诊断方面的,一般利用旋转机械的振动信号作为数据。     对一维信号,通常采取的方法有两种,第一,直接对其做一维卷积,第二,反映到时频图像上,这就变成了图像识别,此前一直都在利用keras搭建网络,最近学了pytroch搭建cnn的方
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:50176
    • 提供者:weixin_38718434
  1. Tensorflow tf.nn.depthwise_conv2d如何实现深度卷积的

  2. 实验环境:tensorflow版本1.2.0,python2.7 介绍 depthwise_conv2d来源于深度可分离卷积: Xception: Deep Learning with Depthwise Separable Convolutions tf.nn.depthwise_conv2d(input,filter,strides,padding,rate=None,name=None,data_format=None) 除去name参数用以指定该操作的name,data_format指
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:176128
    • 提供者:weixin_38682406
  1. Tensorflow tf.nn.atrous_conv2d如何实现空洞卷积的

  2. 实验环境:tensorflow版本1.2.0,python2.7 介绍 关于空洞卷积的理论可以查看以下链接,这里我们不详细讲理论: 1.Long J, Shelhamer E, Darrell T, et al. Fully convolutional networks for semantic segmentation[C]. Computer Vision and Pattern Recognition, 2015. 2.Yu, Fisher, and Vladlen Koltun. “Mu
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:186368
    • 提供者:weixin_38716556
  1. 使用卷积神经网络(CNN)做人脸识别的示例代码

  2. 上回书说到了对人脸的检测,这回就开始正式进入人脸识别的阶段。 关于人脸识别,目前有很多经典的算法,当我大学时代,我的老师给我推荐的第一个算法是特征脸法,原理是先将图像灰度化,然后将图像每行首尾相接拉成一个列向量,接下来为了降低运算量要用PCA降维, 最后进分类器分类,可以使用KNN、SVM、神经网络等等,甚至可以用最简单的欧氏距离来度量每个列向量之间的相似度。OpenCV中也提供了相应的EigenFaceRecognizer库来实现该算法,除此之外还有FisherFaceRecognizer、L
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:739328
    • 提供者:weixin_38714653
  1. Python使用scipy模块实现一维卷积运算示例

  2. 本文实例讲述了Python使用scipy模块实现一维卷积运算。分享给大家供大家参考,具体如下: 一 介绍 signal模块包含大量滤波函数、B样条插值算法等等。下面的代码演示了一维信号的卷积运算。 二 代码 import numpy as np import scipy.signal x = np.array([1,2,3]) h = np.array([4,5,6]) print(scipy.signal.convolve(x, h))#一维卷积运算 三 运行结果 [ 4 13 28 2
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:39936
    • 提供者:weixin_38657290
  1. pytorch神经网络之卷积层与全连接层参数的设置方法

  2. 当使用pytorch写网络结构的时候,本人发现在卷积层与第一个全连接层的全连接层的input_features不知道该写多少?一开始本人的做法是对着pytorch官网的公式推,但是总是算错。 后来发现,写完卷积层后可以根据模拟神经网络的前向传播得出这个。 全连接层的input_features是多少。首先来看一下这个简单的网络。这个卷积的Sequential本人就不再啰嗦了,现在看nn.Linear(???, 4096)这个全连接层的第一个参数该为多少呢? 请看下文详解。 class Alex
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:44032
    • 提供者:weixin_38584642
  1. 利用c语言实现卷积码编码器示例

  2. 实现(2, 1, 7)卷积码编码信息序列1001 1010 1111 1100生成序列g1 = 1011011;g2 = 1111001初始状态全0.以上参数可自行在main中修改。 代码如下:/***This is an simple example program of convolutional encoder.   *The information sequence, the register initial states and the generation sequence   *
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:31744
    • 提供者:weixin_38598703
  1. 基于matlab的GUI界面多种卷积计算和滤波器等

  2. 本资源时基于matlab的GUI界面多种卷积计算和滤波器等,可以实现手动输入,锯齿、正弦等波形选择,也可以由自己任意输入序列。一步一步的演示卷积计算步骤和结果。包括循环卷积、线性卷积、快速卷积。其次含有卡尔曼滤波等功能。
  3. 所属分类:专业指导

    • 发布日期:2020-12-30
    • 文件大小:303104
    • 提供者:jellywon
  1. FFT和矩阵乘法实现线性卷积(MATLAB)

  2. 分别使用FFT和矩阵乘法实现线性卷积,并在CPU和GPU两种情况下比较运行时间。
  3. 所属分类:专业指导

    • 发布日期:2020-12-28
    • 文件大小:2048
    • 提供者:baidu_41651935
  1. TensorFlow卷积神经网络之使用训练好的模型识别猫狗图片

  2. 本文是Python通过TensorFlow卷积神经网络实现猫狗识别的姊妹篇,是加载上一篇训练好的模型,进行猫狗识别 本文逻辑: 我从网上下载了十几张猫和狗的图片,用于检验我们训练好的模型。 处理我们下载的图片 加载模型 将图片输入模型进行检验 代码如下: #coding=utf-8 import tensorflow as tf from PIL import Image import matplotlib.pyplot as plt import input_data imp
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:144384
    • 提供者:weixin_38658085
  1. 卷积神经网络基础

  2. 1.二维互相关运算:由二维的输入数组和二维的核数组得到一个二维的输出数组。 这个二维的核数组通常称为卷积核或过滤器(filter),它的高度和宽度一般比输入数组小。 二维卷积层是将输入与卷积核做互相关运算,再加一个标量偏置。因此卷积层的模型参数就包括卷积核和标量偏置。 2.特征图(feature map):简单来说就是指输出数组,因为它可以看作是输入在空间维度(高和宽)上的某一级表征。 感受野(receptive field):输出数组上的某一个数y可以被输入数组上的哪些数字x所影响,这些x就是
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:59392
    • 提供者:weixin_38714761
  1. 深度学习(五)————卷积神经网络基础、leNet、卷积神经网络进阶

  2. 目录 卷积神经网络基础 二维互相关运算 填充 步幅 多输入通道和多输出通道¶ 卷积层与全连接层的对比 池化 LeNet 模型 深度卷积神经网络(AlexNet) AlexNet 使用重复元素的网络(VGG)¶ ⽹络中的⽹络(NiN) GoogLeNet 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义 我们介绍卷积层的两个超参数,即填充和步幅,它们可以对给定形状的输入和卷积核改变输出形状。 二维互相关运算 二维互相关(cros
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:899072
    • 提供者:weixin_38516706
  1. 深度学习d5:卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络:包括卷积层、池化层 二维卷积层: 最常用,用于处理图像数据,将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。 其模型参数=卷积核+标量偏置。 训练模型的时候,通常我们先对卷积核随机初始化,然后不断迭代卷积核和偏差,即可通过数据学习核数组。每次迭代中,将输出与真实值进行比较,然后计算梯度进行更新。 可用来进行图像边缘检测。 互相关运算和卷积运算: 两者十分相似,将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。两者都是学习出来的,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:43008
    • 提供者:weixin_38548394
  1. 空洞卷积为何有用及弊端

  2. 空洞卷积能够在不减小感受野的情况下降低空间特征的损失,可以获取long-ranged information。但是也有弊端:比如空间上的连续所能给出的信息可能因此而丢失(比如边缘之类的),同时对于小物体的分割未必有利。同时,当空洞卷积的rate调得很大时,比如rate和feature map大小一致时,3×3卷积会退化成1×1卷积。为了解决这些问题,图森提出了称为HDC(Hybrid Dilated Convolution)的结构 作者:小伟db
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:25600
    • 提供者:weixin_38624437
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38630571
  1. 动手学深度学习(五):卷积神经网络

  2. 卷积神经网络基础 卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本文中介绍的卷积神经网络均使用最常见的二维卷积层。它有高和宽两个空间维度,常用来处理图像数据。本文中,我们将介绍简单形式的二维卷积层的工作原理。 1、二维互相关运算 虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlation)运算。在二维卷积层中,一个二维输入数组和一个二维
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:101376
    • 提供者:weixin_38653085
  1. 卷积神经网络和机器翻译笔记

  2. 卷积神经网络基础笔记 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:556032
    • 提供者:weixin_38742421
« 1 2 ... 45 46 47 48 49 50»