点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Task03打卡
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
刻意练习:LeetCode实战 — Task03. 移除元素
背景 本篇图文是LSGO软件技术团队组织的 第二期基础算法(Leetcode)刻意练习训练营 的打卡任务。本期训练营采用分类别练习的模式,即选择了五个知识点(数组、链表、字符串、树、贪心算法),每个知识点选择了 三个简单、两个中等、一个困难 等级的题目,共计三十道题,利用三十天的时间完成这组刻意练习。 本次任务的知识点:数组 数组 是在程序设计中,为了处理方便,把具有相同类型的若干元素按有序的形式组织起来的一种形式。抽象地讲,数组即是有限个类型相同的元素的有序序列。若将此序列命名,那么这个名称即
所属分类:
其它
发布日期:2020-12-22
文件大小:120kb
提供者:
weixin_38673237
打卡第三天(Task03)—-移除元素
Leetcode刻意练习—-数组3 题目 给定一个数组 nums 和一个值 val,你需要原地移除所有数值等于val 的元素,返回移除后数组的新长度。不要使用额外的数组空间,你必须在原地修改输入数组并在使用 O(1) 额外空间的条件下完成。元素的顺序可以改变。你不需要考虑数组中超出新长度后面的元素。 示例 1 给定 nums = [3,2,2,3], val = 3, 函数应该返回新的长度 2, 并且 nums 中的前两个元素均为 2。 你不需要考虑数组中超出新长度后面的元素。 示例 2 给定
所属分类:
其它
发布日期:2020-12-22
文件大小:57kb
提供者:
weixin_38632488
Task 03 打卡
1. 过拟合、欠拟合及其解决方案 过拟合和欠拟合 模型训练中经常出现两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 模型复杂度 给定训练数据集,模型复杂度和误差之间的关系: 训练数据集大小 影响欠
所属分类:
其它
发布日期:2021-01-07
文件大小:249kb
提供者:
weixin_38650516
【DL学习笔记】打卡02:Task03-05
Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
所属分类:
其它
发布日期:2021-01-07
文件大小:69kb
提供者:
weixin_38508497
《动手学深度学习》第二次打卡-学习小队
一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
所属分类:
其它
发布日期:2021-01-06
文件大小:500kb
提供者:
weixin_38613154
ElitesAI·动手学深度学习PyTorch版Task03打卡
Task3打卡 1、过拟合、欠拟合及其解决方案 目录: 相关的基本概念 权重衰减 过拟合、欠拟合解决方法 1、相关的基本概念 训练误差: 模型在训练数据集上表现出的误差。 泛化误差: 模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 欠拟合(underfitting): 模型无法得到较低的训练误差。 过拟合(overfitting): 模型的训练误差远小于它在测试数据集上的误差。 注:在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟
所属分类:
其它
发布日期:2021-01-06
文件大小:432kb
提供者:
weixin_38641876
ElitesAI·动手学深度学习PyTorch版-第二次打卡task03
1、卷积神经网络基础: 1.1 二维卷积操作: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 其中。卷积核为2:heavy_m
所属分类:
其它
发布日期:2021-01-06
文件大小:923kb
提供者:
weixin_38718262
伯禹《动手学深度学习》打卡博客:Task03+Task04
量太大了,我先挑几个我感兴趣的学一下,漏下的等有空再补上了 文章目录一、循环神经网络二、GRU(gated recurrent unit)三、LSTM(长短期记忆) 一、循环神经网络 参考博客:零基础入门深度学习(5) – 循环神经网络 1.循环神经网络最大的用处就是处理序列的信息,即前面和后面的输入是有关系的,比如理解一句话的意思,以及处理视频 2.语言模型:给定一句话前面的成分,预测接下来最有可能的一个词是什么 3.下面是一个简单的RNN模型示意图,它由输入层、隐藏层和输出层组成 4.全
所属分类:
其它
发布日期:2021-01-06
文件大小:254kb
提供者:
weixin_38659646
ElitesAI·动手学深度学习PyTorch版(第二次打卡)
• Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸 知识点 1.训练误差(training error)和泛化误差(generalization error) 训练误差:训练数据集上表现出的误差 泛化误差:模型在测试数据样本上表现出的误差 验证误差:我们可以预留一部分在训练数据集和测试数据集以外的数据代入模型求得得误差。训练数据集和测试数据集以外的数据被称为验证数据集,简称验证集(validation set) 2.过拟合、欠拟合 欠拟合(underfitting):模型无法得到较
所属分类:
其它
发布日期:2021-01-06
文件大小:424kb
提供者:
weixin_38523728
动手学深度学习打卡之二。
第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
所属分类:
其它
发布日期:2021-01-20
文件大小:28kb
提供者:
weixin_38506835
动手学深度学习(Pytorch版)task3-5打卡
对于task3-5的内容进行打卡 Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 模型复杂度和误差之间的关系 权重衰减的计算公式: Xavier初始化 梯度裁剪 循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量 g ,并设裁剪的阈值是 θ 。裁剪后的梯度为: GRU 重置门用于捕捉时间序列里的短期依赖关系 更新门有助于捕捉时间
所属分类:
其它
发布日期:2021-01-20
文件大小:755kb
提供者:
weixin_38735790