您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. nlp_overview:应用于自然语言处理的现代深度学习技术概述-源码

  2. 现代深度学习技术在自然语言处理中的应用 该项目概述了基于深度学习的自然语言处理(NLP)的最新趋势。 它涵盖了深度学习模型(如递归神经网络(RNN),卷积神经网络(CNN)和强化学习)背后的理论描述和实现细节,用于解决各种NLP任务和应用。 概述还包含NLP任务(例如机器翻译,问题解答和对话系统)的最新结果摘要。 您可以在以下地址找到学习资源: : 。 网站快照如下: 关于这个项目 该项目的主要动机如下: 维护最新的学习资源,以整合与NLP研究相关的重要信息,例如: 最新的结果 新兴概念
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:4194304
    • 提供者:weixin_42131405
  1. 讲座实验室:幻灯片和Jupyter笔记本,用于巴黎理工学院2年级数据科学硕士的深度学习讲座-源码

  2. 深度学习课程:讲义幻灯片和实验笔记本 本课程是作为一部分授课的 目录 该课程涵盖了深度学习的基础知识,重点是应用程序。 演讲幻灯片 注意:按“ P”以显示演示者的注释,其中包括一些注释和其他参考。 实验室和家庭作业笔记本 可以在的labs文件夹中找到用于实验室的Jupyter笔记本: git clone https://github.com/m2dsupsdlclass/lectures-labs 这些笔记本仅适用于keras and tensorflow请按照入门。 到渲染笔记本的直接链
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:150994944
    • 提供者:weixin_42122340
  1. PyTorch:PyTorch教程A到Z-源码

  2. 内容 1. PyTorch基本版 2.神经网络基础 3.维森 4. NLP 系统要求 conda install pytorch torchvision cudatoolkit=10.1 -c pytorch pip install -r requirements.txt 入门 $ git clone https://github.com/gyunggyung/PyTorch.git $ cd PyTorch $ jupyter notebook 其他Github 教程 书 维森
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:408944640
    • 提供者:weixin_42181319
  1. 翻译:翻译-PyTorch语言库-源码

  2. 注意 现在不建议使用PyTorch Translate,请改用 。 翻译-PyTorch语言库 翻译是一个用PyTorch编写的机器翻译库。 它提供了序列到序列模型的训练。 Translate依赖于 (一个通用的序列到序列库),这意味着可以训练在Translate和Fairseq中实现的模型。 Translate还提供了通过将某些模型导出到Caffe2图形以及从C ++加载和运行这些模型以用于生产目的的能力。 当前,我们将组件(编码器,解码器)分别导出到Caffe2,并且波束搜索是在C ++中实
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:280576
    • 提供者:weixin_42123191
  1. WebGLToolkitDevGuide ZH.pdf

  2. 基于webgl的web预览三维模型开发指南-机器翻译中文版
  3. 所属分类:Web开发

    • 发布日期:2021-01-28
    • 文件大小:1048576
    • 提供者:fuyun1327
  1. Tensorflow 框架实战 第3课 cnn-intro.rar

  2. 七月在线TensorFlow 框架实战,包含授课课件和部分源码,Jupyter打开。 计算机视觉:分类,识别,无人驾驶,图像搜索等 自然语言处理:语言模型、机器翻译、词性标注、实体识别、情感分析等
  3. 所属分类:互联网

    • 发布日期:2021-01-27
    • 文件大小:5242880
    • 提供者:kuaileren003
  1. 在ApacheHadoop中运行深度学习框架

  2. Hadoop是用于大型企业数据集的分布式处理的最流行的开源框架,它在本地和云端环境中都有很多重要用途。深度学习对于语音识别,图像分类,AI聊天机器人,机器翻译等领域的企业任务非常有用,仅举几例。为了训练深度学习 /机器学习模型,可以利用TensorFlow/MXNet/Pytorch/Caffe /XGBoost等框架。有时需要将这些框架进行组合
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:3145728
    • 提供者:weixin_38723513
  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:2097152
    • 提供者:weixin_38693657
  1. 山书学习第四次笔记

  2. 机器翻译及相关技术 数据预处理,一堆文本中,可能会出现不再ASCII可见字符的范围中,有些数需其他的规范中,超出了gbk的范围,所以应该去除。 原理 翻译的过程就相当于,把初始文本翻译成一个过度文本,然后再用一个解码器,来输出成想要的语言。 其中encoder为: decoder: 注意力机制与Seq2seq模型 注意力机制 翻译的过程中,有些时候直接一个字一个字的翻译是不合逻辑的。就比如hello world翻译成法语的时候,会直接翻译成Bonjour le monde,但这样是不对的
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:185344
    • 提供者:weixin_38716519
  1. 《动手学深度学习》task3——过拟合、欠拟合及解决方案,梯度消失、梯度爆炸,循环神经网络进阶笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:194560
    • 提供者:weixin_38584058
  1. 《动手学深度学习》——笔记2

  2. 第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟合 过拟合:泛化误差高于训练误差,原因是模型过于复杂或者训练数据集比较小。当模型过于复杂时,可以简化模型参数或者加入L2正则化对参数进行惩罚,也可以采用丢弃法泛化误差不会随着训练数据集里的样本数量增加儿增大,所以通常选择大一些的训练数据集。 欠拟合:无法得到较低的训练误差。原因是训练数据集不够或者模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:364544
    • 提供者:weixin_38537689
  1. Datawhale 《动手学深度学习》(二)

  2. 动手学深度学习(二)Day 3过拟合&欠拟合及其解决方案一些概念高维线性回归实验从零开始的实现丢弃法梯度消失&梯度爆炸一些理论Kaggle房价预测实战循环神经网络进阶代码实现Day 4机器翻译及相关技术定义代码实现注意力机制与Seq2seq模型注意力机制框架点积注意力多层感知机注意力Seq2seq模型Transformer结构代码实现Day 5卷积神经网络基础二维卷积层填充和步幅多输入通道和多输出通道简洁实现池化IeNet代码实现卷积神经网络进阶深度卷积神经网络(AlexNet)使用重复元素的网
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:1048576
    • 提供者:weixin_38693506
  1. DAY 2 动手学习深度学习

  2. 【任务安排】: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) Task03: 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 梯度消失、梯度爆炸 梯度消失和梯度爆炸 考虑到环境因素的其他问题 Kaggle房价预测 循环神经网络进阶 深度卷积神经网络(AlexNet) 使
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:194560
    • 提供者:weixin_38520258
  1. 论文翻译:Attention is all you need

  2. Attention is all you need 摘要 主要的序列转换模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单的网络体系结构Transformer,它完全基于注意力机制,完全不需要重复和卷积。在两个机器翻译任务上的实验表明,这些模型在质量上更优越,同时更具并行性,需要的训练时间明显减少。我们的模型在2014年WMT英德翻译任务中达到28.4 BLEU,比现有的最佳结果(包括集成部分)提高了2个BLEU以上。在
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:1048576
    • 提供者:weixin_38516956
  1. 打卡2

  2. 一、过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合; 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 二、梯度消失和梯度爆炸 深度模型有关数值稳定性的典型问题是消失和爆炸。 三、循环神经网络 RNN存在的问题:梯度较容易出现衰减或爆炸 ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:53248
    • 提供者:weixin_38552305
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28672
    • 提供者:weixin_38506835
  1. 动手学深度学习Task4

  2. 机器翻译及相关技术;注意力机制与Seq2Seq模型;Transformer 1.机器翻译及相关技术 2.注意力机制与Seq2Seq模型 3.Transformer 一 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词,且 输出序列的长度可能与源序列的长度不同;输入序列长度可变,输出序列长度可变。 二 注意力机制与Seq2seq模型 2.1 注意力机制 “ 机器翻译及相关技
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:111616
    • 提供者:weixin_38660802
  1. DataWhale 深度学习 第二次打卡

  2. 第二次打卡学习笔记 1.过拟合欠拟合及其解决方案 2.梯度消失与梯度爆炸 3.循环神经网络进阶 4.机器翻译及相关技术 5.注意力机制与Seq2seq模型 6.Transfomer 7.卷积神经网络基础 8.LeNet 9.卷积神经网络进阶 过拟合欠拟合及其解决方案 在解释过拟合和欠拟合现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:2097152
    • 提供者:weixin_38544781
  1. 【人工智能学习】【十一】循环神经网络进阶

  2. RNN的问题 RNN(Recurrent Neural Network,循环神经网络)主要应用在自然语言处理、机器翻译、情感分析、时序序列问题。这些的功能的共同特点是具有时序性。卷积神经网络是没有记忆性的(我对这句话的理解是神经元之间没有信息传递,各个WWW矩阵是独立计算的,当然不是说整个网络没有记忆,只是记忆是独立的),RNN通过神经元之间的信息传递保留了记忆(就是一个state变量,加变量是为了增加模型的非线性表达能力),但在长序列,即长时间步的问题上,梯度消失会让网络变得不可训练。 Ht
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:329728
    • 提供者:weixin_38666527
  1. 【略解】copy机制与SpanPtr

  2. 一、概述 背景:学习多领域多轮问答DST模型TRADE,发现其中一个技术点copy机制,对其调研如下: 1.1 Copy机制相关论文 No. 标题 简介 1 Vinyals et al., 2015 《Pointer networks》 Pointer network;index-based copy;copy机制起源 2 Gulcehre et al., 2016《Pointing the unknown words》 Pointer Softmax Network;hard
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:318464
    • 提供者:weixin_38625464
« 1 2 ... 9 10 11 12 13 1415 »