您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 【DL学习笔记】打卡02:Task03-05

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:69kb
    • 提供者:weixin_38508497
  1. 《动手学深度学习》第二次打卡-学习小队

  2. 一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:500kb
    • 提供者:weixin_38613154
  1. DataWhale组队打卡学习营task04-1 机器翻译

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 import os os.listdir('/home/kesci/input/') [‘fraeng6506’, ‘d2l9528’, ‘d2l6239’] import sys sys.path.append('/home/kesci/input/d2l9528/') impo
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:784kb
    • 提供者:weixin_38672794
  1. Task 04 打卡

  2. 1. 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 流程:数据预处理、导入、训练、测试 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence 模型: 训练 预测 具体结构: 2. 注意力机制与Seq2Seq模型 注意力机制 在“编码器—
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:195kb
    • 提供者:weixin_38529123
  1. 伯禹《动手学深度学习》打卡博客:Task03+Task04

  2. 量太大了,我先挑几个我感兴趣的学一下,漏下的等有空再补上了 文章目录一、循环神经网络二、GRU(gated recurrent unit)三、LSTM(长短期记忆) 一、循环神经网络 参考博客:零基础入门深度学习(5) – 循环神经网络 1.循环神经网络最大的用处就是处理序列的信息,即前面和后面的输入是有关系的,比如理解一句话的意思,以及处理视频 2.语言模型:给定一句话前面的成分,预测接下来最有可能的一个词是什么 3.下面是一个简单的RNN模型示意图,它由输入层、隐藏层和输出层组成 4.全
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:254kb
    • 提供者:weixin_38659646
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28kb
    • 提供者:weixin_38506835
  1. 动手学深度学习(Pytorch版)task3-5打卡

  2. 对于task3-5的内容进行打卡 Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 模型复杂度和误差之间的关系 权重衰减的计算公式: Xavier初始化 梯度裁剪 循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量 g ,并设裁剪的阈值是 θ 。裁剪后的梯度为: GRU 重置门用于捕捉时间序列里的短期依赖关系 更新门有助于捕捉时间
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:755kb
    • 提供者:weixin_38735790