您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:308kb
    • 提供者:weixin_38739837
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:132kb
    • 提供者:weixin_38630571
  1. 《动手学深度学习》-小白笔记三

  2. 小白知识点 训练误差和泛化误差 训练误差:模型在训练数据集上表现出的误差 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 验证数据集、测试数据集和训练数据集三者的功能 训练集:模型训练的过程其实就是在求参数,我们通过训练集来分别对模型进行训练,学习到每一个模型中对应的最优的参数。 验证集:我们要考察不同结构的模型在数据上的优劣程度,而模型的结构是由其中的超参数决定的,所以我们引入验证集来对这些超参数进行选择,以求找到最优效果的超参数。 测试集:当前
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:233kb
    • 提供者:weixin_38606656
  1. 动手学深度学习之卷积神经网络进阶(ModernCNN)

  2. 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/lesson/T5r2YnM8A4vZpxPUbCQSyW 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹的其他课程:
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:394kb
    • 提供者:weixin_38530202
  1. 动手学深度学习-循环神经网络进阶(ModernRNN)

  2. 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/qC-4p–OiYRK9l3eHKAju 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹的其他课程: 数学基
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:297kb
    • 提供者:weixin_38667207
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 08 学习笔记 Task 08:文本分类;数据增强;模型微调 微信昵称:WarmIce 文本分类 前面一堆数据处理和对双向循环神经网络的讲解可以忽略了,之前都讲过,咱也都详细聊过。 这里主要说一下情感分类在使用双向循环神经网络时的一个细节。我们可以根据双向循环网络得到t个时刻的双向的经过concat的隐藏状态,那么如何利用这t个信息进行二分类呢(假设只进行正面与反面的二分类)。给的例子中,只使用了第1个时刻的concat后的隐藏状态与第t
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:97kb
    • 提供者:weixin_38706455
  1. 《动手学深度学习》PyTorch实现(过拟合、欠拟合及其解决方案)

  2. 笔记整理 代码整理 L2 范数正则化(regularization) %matplotlib inline import torch import torch.nn as nn import numpy as np import sys sys.path.append(/home/kesci/input) import d2lzh1981 as d2l # L2范数正则化 def fit_and_plot_pytorch(wd): # 对权重参数衰减。权重名称一般是以weight结
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:765kb
    • 提供者:weixin_38641150
  1. 《动手学深度学习》task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:77kb
    • 提供者:weixin_38687968
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:48kb
    • 提供者:weixin_38720653
  1. 《动手学深度学习》pytorch版笔记2

  2. 《动手学深度学习》pytorch版笔记2 Task3 过拟合、欠拟合及其解决方案 这部分内容比较简单,写下问题吧,再挖几个坑 1.模型复杂度如何改变,三阶到一阶等 2.L2范数正则化为什么是权重衰减的一种方式? 梯度消失,梯度爆炸 1.初始化过程 2.标签偏移的概念 3.数据处理过程 循环神经网络进阶 GRU,LSTM中的门结构实现起来还挺复杂的,有空再自己实现一遍吧。另外深度循环神经网络貌似叫多层循环神经网络,印象中一般不会堆叠很多层,有空再研究一下吧 Task4 机器翻译及相关技术 机器翻
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:112kb
    • 提供者:weixin_38686677
  1. 动手学深度学习之从批量归一化和残差网络、凸优化、梯度下降

  2. 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/jupyter/6X2EcSYKYpTDlzAKwQhNi 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹的其他课程:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:504kb
    • 提供者:weixin_38674627
  1. 《动手学深度学习》学习笔记

  2. 文本预处理 常见的四个步骤: 读入文本 分词 建立字典,将每个词映射到一个唯一的索引(index) 将文本从词的序列转换为索引的序列,方便输入模型 import collections import re def read_time_machine(): with open('/home/kesci/input/timemachine7163/timemachine.txt', 'r') as f: lines = [re.sub('[^a-z]+', ' ',
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:44kb
    • 提供者:weixin_38508126
  1. 动手学深度学习之机器翻译和数据集

  2. 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/MZn2AdNyGzumTprVPwV3y 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹的其他课程: 数学
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:351kb
    • 提供者:weixin_38593723
  1. PyTorch版《动手学深度学习》学习笔记 Task.4

  2. 有效长度 def SequenceMask(X, X_len,value=0): maxlen = X.size(1) mask = torch.arange(maxlen)[None, :].to(X_len.device) < X_len[:, None] X[~mask]=value return X 在seq2seq模型中,解码器只能隐式地从编码器的最终状态中选择相应的信息。然而,注意力机制可以将这种选择过程显式地建模。 unsqueeze()函数
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:31kb
    • 提供者:weixin_38695773
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 06 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 06 学习笔记 Task 06:批量归一化和残差网络;凸优化;梯度下降 微信昵称:WarmIce 批量归一化和残差网络 BN和ResNet都没什么特别好说的。 DenseNet久闻其名,但是一直没有细节了解过其实现。这一次大开眼界,原来文章里面那么密集的连线是由于concat导致的啊。 可以想象一下作者当初提出这个网络的时候是什么想的。第一,像ResNet那样子在skip之后使用加法直接把得到的特征和原特征相加会不会破坏好不容易搞出来的特
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:54kb
    • 提供者:weixin_38637884
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 07 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 07 学习笔记 Task 07:优化算法进阶;word2vec;词嵌入进阶 微信昵称:WarmIce 优化算法进阶 emmmm,讲实话,关于所谓的病态问题是什么,条件数在复杂优化目标函数下的计算,讲者也没说,咱也没法问,只知道要计算一个Hessian矩阵,然后计算得到特征值,但是具体怎么操作实属未知,还得去参看别的材料。总而言之,很多机器学习的优化目标函数是个病态的函数,整体就是个病态问题。其实在《数值分析》里面也有提到过条件数的计算,不
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:142kb
    • 提供者:weixin_38704156
  1. 《动手学深度学习》-小白笔记四

  2. 小白知识 二维互相关运算 输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。 图例:阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 代码实现:corr2d函数实现二维互相关运算,它接受输入数组X与核数组K,并输出数组Y。 import torch import t
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:203kb
    • 提供者:weixin_38677472
  1. 《动手学深度学习》task3——过拟合、欠拟合及解决方案,梯度消失、梯度爆炸,循环神经网络进阶笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:190kb
    • 提供者:weixin_38584058
  1. 《动手学深度学习》——笔记2

  2. 第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟合 过拟合:泛化误差高于训练误差,原因是模型过于复杂或者训练数据集比较小。当模型过于复杂时,可以简化模型参数或者加入L2正则化对参数进行惩罚,也可以采用丢弃法泛化误差不会随着训练数据集里的样本数量增加儿增大,所以通常选择大一些的训练数据集。 欠拟合:无法得到较低的训练误差。原因是训练数据集不够或者模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:356kb
    • 提供者:weixin_38537689
  1. 《动手学深度学习PyTorch版》打卡_Task4,机器翻译及相关技术,注意力机制与Seq2seq模型

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:300kb
    • 提供者:weixin_38517212
« 12 »