点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 动手学:深度学习Task5
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
动手学:深度学习Task5
卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
所属分类:
其它
发布日期:2021-01-06
文件大小:57kb
提供者:
weixin_38614268
《动手学深度学习》Task5
1.卷积神经网络基础; 对于CNN中一些概念的理解 1.feature map 在CNN的各个卷积层中,数据都是以3维形式存在的。我们可以把它看成许多个2维平面图叠在一起,其中每个2维图称为一个feature map . 在输入层,如果是灰度图,只有一个feature map;如果是彩色图片,一般是3个feature map(RGB)。 其他层:层与层之间会有若干个卷积核(kernel),上一层每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map,如果有N个
所属分类:
其它
发布日期:2021-01-06
文件大小:368kb
提供者:
weixin_38672812
动手学深度学习-Task3-Task5
知识点协变量偏移标签偏移概念偏移 协变量偏移 在传统机器学习中,一个常见的问题的协变量偏移(Covariate Shift)。协变量是一个统计学概念,是可能影响预测结果的统计变量。 在机器学习中,协变量可以看作是输入。一般的机器学习算法都要求输入在训练集和测试集上的分布是相似的。如果不满足这个假设,在训练集上学习到的模型在测试集上的表现会比较差。 内部协变量偏移(Internal Covariate Shift): 从机器学习角度来看,如果某个神经层的输入分布发生了改变,那么其参数需要重新学习,
所属分类:
其它
发布日期:2021-01-20
文件大小:51kb
提供者:
weixin_38537684
《动手学深度学习Pytorch版》Task5-卷积神经网络
卷积神经网络基础 需要理解卷积神经网络的基础概念,主要是卷积层和池化层、填充、步幅、输入通道和输出通道的含义。 几个经典的模型 LeNet AlexNet VGG NiN GoogLeNet 1×1卷积核作用 放缩通道数:通过控制卷积核的数量达到通道数的放缩。 增加非线性:1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。 计算参数少 LeNet vs AlexNet 注:5*5 Conv(16),这里的16指的是输出的通道数 LeNet的图
所属分类:
其它
发布日期:2021-01-20
文件大小:214kb
提供者:
weixin_38605967
动手学DL|Task5 LeNet+卷积神经网络进阶+循环神经网络进阶
LeNet 笔记 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。 LeNet-5是Yann LeCun等人在多次研究后提出的最终卷积神经网络结构,一般LeNet即指代LeNet-5,是最早的卷积神经网络之一,并且推动了深度学习领域的发展。 LeNet-5包含七层,
所属分类:
其它
发布日期:2021-01-20
文件大小:869kb
提供者:
weixin_38646634
动手学深度学习第二次打卡2/18
task3 task4 and task5 1.过拟合、欠拟合及其解决方案 解决方法包括:验证数据集和交叉验证 权重衰减 L2 范数正则化(regularization) 例如在线性回归中加入带有l2范数惩罚项的损失函数。 当 λ 较大时,惩罚项在损失函数中的比重较大,这通常会使学到的权重参数的元素较接近0。当 λ 设为0时,惩罚项完全不起作用。 2.(1)梯度消失、梯度爆炸以及Kaggle房价预测 当神经网络的层数较多时,模型的数值稳定性容易变差 (2)考虑环境因素 协变量偏移 标签偏移 概
所属分类:
其它
发布日期:2021-01-20
文件大小:149kb
提供者:
weixin_38686542