您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. kaggle-mnist.zip

  2. kaggle入门赛中的手写体识别数据集,以及用Lenet实现,环境是pytorch,python3.6
  3. 所属分类:深度学习

    • 发布日期:2019-09-29
    • 文件大小:13mb
    • 提供者:qq_35701703
  1. Pytorch之LeNet实现(CIFAR10).rar

  2. LetNet是卷积神经网络的祖师爷LeCun在1998年提出, 用于解决手写体识别的视觉任务, 我们用CIFAR-10数据集,验证LeNet模型的准确率, 希望能够帮助大家更好的理解LeNet的模型,以及网络训练的整个流程,谢谢大家指正。
  3. 所属分类:深度学习

    • 发布日期:2020-04-15
    • 文件大小:208mb
    • 提供者:qq_37766812
  1. pytorch实现lenet5

  2. Pytorch 搭建的LeNet-5网络,使用Minist数据集,测试集准确率接近98.4%。文件内包含代码、Minist数据集和训练好的模型参数。
  3. 所属分类:深度学习

    • 发布日期:2020-08-14
    • 文件大小:11mb
    • 提供者:qq_34288751
  1. LeNet-5.py

  2. 卷积神经网络LeNet-5的pytorch代码实现,关于详细内容,可以参考博客:https://blog.csdn.net/didi_ya/article/details/108317958
  3. 所属分类:Python

    • 发布日期:2020-09-03
    • 文件大小:5kb
    • 提供者:didi_ya
  1. 动手学深度学习(PyTorch实现)(七)–LeNet模型

  2. LeNet模型1. LeNet模型2. PyTorch实现2.1 模型实现2.2 获取数据与训练 1. LeNet模型 LeNet分为卷积层块和全连接层块两个部分。下面我们分别介绍这两个模块。 卷积层块里的基本单位是卷积层后接平均池化层:卷积层用来识别图像里的空间模式,如线条和物体局部,之后的平均池化层则用来降低卷积层对位置的敏感性。 卷积层块由两个这样的基本单位重复堆叠构成。在卷积层块中,每个卷积层都使用5×55 \times 55×5的窗口,并在输出上使用sigmoid激活函数。第一个卷积
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:196kb
    • 提供者:weixin_38553837
  1. pytorch实现task5——卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络包括卷积层和池化层。 二维卷积层 最常见的是二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60kb
    • 提供者:weixin_38666300
  1. 动手学深度学习(PyTorch实现)(八)–AlexNet模型

  2. AlexNet模型1. AlexNet模型介绍1.1 AlexNet的特点1.2 AlexNet的结构1.3 AlexNet参数数量2. AlexNet的PyTorch实现2.1 导入相应的包2.2 构建AlexNet网络2.3 加载数据集2.4 训练网络 1. AlexNet模型介绍 由于受到计算机性能的影响,虽然LeNet在图像分类中取得了较好的成绩,但是并没有引起很多的关注。 直到2012年,Alex等人提出的AlexNet网络在ImageNet大赛上以远超第二名的成绩夺冠,卷积神经网络乃
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:195kb
    • 提供者:weixin_38540819
  1. pytorch 学习笔记 part9 LeNet 模型

  2. 通过Sequential类来实现LeNet模型 #import import sys sys.path.append(/home/kesci/input) import d2lzh1981 as d2l import torch import torch.nn as nn import torch.optim as optim import time #net class Flatten(torch.nn.Module): #展平操作 def forward(self, x):
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:42kb
    • 提供者:weixin_38737213
  1. Pytorch 实现 LeNet

  2. #import import sys import d2lzh_pytorch as d2l import torch import torch.nn as nn import torch.optim as optim import time #net class Flatten(torch.nn.Module): #展平操作 def forward(self, x): return x.view(x.shape[0], -1) class Reshape(torch
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:35kb
    • 提供者:weixin_38681082
  1. LeNet、AlexNet、VGG、NiN、GoogLeNet

  2. 文章目录LeNet、AlexNet、VGG、NiN、GoogLeNet全连接层与卷积层的优势对比LeNetLeNet模型LeNet的pytorch实现AlexNetAlexNet模型AlexNet的pytorch实现VGGVGG模型VGG的实现NiN(网络中的网络)NiN模型NiN的pytorch实现GooLeNetInception块完整goolenet模型GooLeNet的pytorch小结 LeNet、AlexNet、VGG、NiN、GoogLeNet 全连接层与卷积层的优势对比 使用全连
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:443kb
    • 提供者:weixin_38612811
  1. AlexNet、VGG11、NiN、GoogLeNet等网络的Pytorch实现

  2. 目录AlexNetAlexNet摘要AlexNet代码VGGVGG摘要VGG的优缺点代码NiNNiN摘要GoogLeNetGoogLeNet完整结构 AlexNet AlexNet摘要 由于受到计算机性能的影响,虽然LeNet在图像分类中取得了较好的成绩,但是并没有引起很多的关注。 知道2012年,Alex等人提出的AlexNet网络在ImageNet大赛上以远超第二名的成绩夺冠,卷积神经网络乃至深度学习重新引起了广泛的关注 AlexNet是在LeNet的基础上加深了网络的结构,学习更丰富更高维
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:365kb
    • 提供者:weixin_38571544
  1. pytorch实现VGG网络

  2. 使用重复元素的网络(VGG) AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗口、输出通道数和构造顺序均做了大量的调整。虽然AlexNet指明了深度卷积神经网络可以取得出色的结果,但并没有提供简单的规则以指导后来的研究者如何设计新的网络。我们将在本章的后续几节里介绍几种不同的深度网络设计思路。 本节介绍VGG,它的名字来源于论文作者所在的实验室Visual Geometry Group [1]。VGG提出了可以通过重复使用简单的基础块来构建深度模型的思路。
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65kb
    • 提供者:weixin_38692184
  1. 动手学深度学习实现DAY-2

  2. 节选自“ElitesAI·动手学深度学习PyTorch版” Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training err
  3. 所属分类:其它

  1. Fault-injection-code-源码

  2. 此处的新内容:世界您好 该存储库包含项目“ DNN故障注入”的Python源代码。 它是在Pytorch框架之上开发的。 模拟器的主要功能: 训练深度神经网络(DNN)模型 在测试仪上进行图像分类 在存储DNN参数的存储块中注入位翻转 评估故障环境下的网络弹性 故障注入模拟的输出(即将推出): .csv文件中已定义故障率范围内的精度曲线 有关注入位置的统计信息摘要,例如e7或数字的符号位。 显示精度曲线的'.png'文件 项目中使用的数据集: MNIST CIFAR-10 CIFAR
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:12kb
    • 提供者:weixin_42137539
  1. cifar-10-cnn:使用CIFAR数据集进行深度学习-源码

  2. 用于CIFAR-10的卷积神经网络 该存储库是关于cifar10的CNN体​​系结构的一些实现的。 我只是用Keras和Tensorflow到implementate所有这些CNN模型。 (如果有时间,可能是火炬/火炬版) pytorch版本可在 要求 巨蟒(3.5) keras(> = 2.1.5) tensorflow-gpu(> = 1.4.1) 建筑与论文 第一个CNN模型: LeNet 网络中的网络 Vgg19网络 在ILSVRC 2014本地化任务的第一个地方 在
  3. 所属分类:其它

  1. Pytorch实现的手写数字mnist识别功能完整示例

  2. 本文实例讲述了Pytorch实现的手写数字mnist识别功能。分享给大家供大家参考,具体如下: import torch import torchvision as tv import torchvision.transforms as transforms import torch.nn as nn import torch.optim as optim import argparse # 定义是否使用GPU device = torch.device(cuda if torch.cuda.
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:53kb
    • 提供者:weixin_38670208