您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Task03&04&05 : 要点记录

  2. Task 03:  欠拟合现象:模型无法达到一个较低的误差 过拟合现象:训练误差较低但是泛化误差依然较高,二者相差较大 Task 04: 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 注意力机制 注意力层显式地选择相关的信息。 注意层的内存由键-值对组成,因此它的输出接近于键类似于查询的值。 Task 05: 卷积神经网络基础
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:35840
    • 提供者:weixin_38545959
  1. chatbot-python-project-源码

  2. chatbot-python-project 聊天机器人是一款智能软件,能够传达和执行类似于人类的动作。聊天机器人在客户互动,在社交网站上进行营销以及即时向客户发送消息等方面被广泛使用。根据聊天机器人的构建方式,它有两种基本类型:基于检索和基于生成的模型。 1.基于检索的聊天机器人 基于检索的聊天机器人使用预定义的输入模式和响应。然后,它使用某种启发式方法来选择适当的响应。它在行业中广泛用于制造面向目标的聊天机器人,我们可以在其中自定义聊天机器人的音调和流程,以带给我们最佳体验的客户。 2.
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:144384
    • 提供者:weixin_42144366
  1. AI-Surveys:整理AI相关领域的一些概述-源码

  2. 人工智能调查 本repo主要整理AI相关领域的一些概述,起因是看到了这个非常棒的项目。 目前添加了『自然语言处理』模块的部分觉得不错的概述。 欢迎有兴趣的小伙伴们一起整理。 自然语言处理(NLP) 文本分类(文本分类) 情感分析 命名实体识别(命名实体识别) 关系抽取(关系提取) 文本匹配(文本匹配) 阅读理解(阅读理解) 机器翻译(机器翻译) 文本生成(文本生成) 摘要抽取(Abstractive Summarization) 对话系统 知识图谱(知识图) 深度学习(深度学习) 迁移学习(转移
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:4096
    • 提供者:weixin_42131618
  1. deepmux_sentiment_analysis-源码

  2. 拥抱面部变压器和DeepMux在云中轻松进行情感分析 情感分析是NLP的一项实际任务,它涉及从在线购物到社交媒体分析的各个领域。在这篇指导性文章中,我们将展示如何在云中进行部署,以及如何使用最先进的模型来进行情感分析,仅需几行代码。 Hugging Face的Transformers库提供了一个方便,易于使用的API,用于下载和运行预先训练的NLP模型。有成千上万种用于各种任务的工具,例如文本生成,问题解答,机器翻译等。您可以在找到更多信息。 反过来, DeepMux提供了一个方便灵活的环境,
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:3072
    • 提供者:weixin_42120550
  1. Web藏文文本资源挖掘与利用研究

  2. 该文结合链接分析技术和藏文编码识别技术,使用网络爬虫实现对互联网上藏文文本资源的挖掘,分析了Web藏文文本资源的分布情况。统计数据显示,国内藏文网站50%以上在青海省;约87%的藏文网页集中分布在31个大型网站中;人们正在逐步弃用旧有藏文编码,使用Unicode编码来制作网页。利用HTML标记、栏目归属、标点符号等自然标注信息对这些文本进行抽取,可以构建篇章语料和文本分类语料,可以抽取互联网藏文词库,进行词频统计和训练藏文语言模型,结合双语词典和搜索引擎技术抽取双语平行语料。这些语料可用于藏文分
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:2097152
    • 提供者:weixin_38747906
  1. langrank:选择用于跨语言学习的传输语言的程序-源码

  2. 郎朗克 通过 LangRank是用于为跨语言迁移学习选择传输语言的程序,我们在ACL 2019上的主题中对此进行了介绍。跨语言传输,其中使用高资源传输语言来提高低资源任务的准确性语言现在是提高自然资源处理(NLP)在低资源语言上的性能的宝贵工具。但是,给定特定的任务语言,尚不清楚要从哪种语言进行转换,标准策略是根据特殊标准(通常是实验人员的直觉)选择语言。由于大量功能有助于跨语言传输(包括系统发育相似性,类型学特性,词汇重叠或可用数据的大小)的成功,因此即使是最开明的实验者也很少考虑所有这些
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:3145728
    • 提供者:weixin_42116921
  1. holbertonschool-machine_learning:机器学习-源码

  2. 机器学习 这是霍尔伯顿学校的机器学习(ML)培训计划,分为三个学期。从一些数学开始,然后在实践练习中深入学习各种技巧(监督,无监督,强化)。 课程的一些主题: 头三个学期 数学: 线性代数简介 微积分简介 绘图简介 概论 监督学习: 二进制分类 多类别分类 优化技术 正则化技术 卷积神经网络 深度卷积架构 物体检测 人脸验证 神经风格转移 第二学期 数学: 高级线性代数 进阶机率 无监督学习: 降维 聚类 嵌入 自动编码器 生成对抗网络 超参数优化 隐马尔可夫模型 监督学习: 递归神经网络 变形
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:1048576
    • 提供者:weixin_42176827
  1. 面向多引擎融合技术的统计后编辑方法研究

  2. 本文介绍了我单位研发的机器翻译系统融入统计后编辑方法后实现串行结构多引擎融合技术,该方法的目的是解决翻译领域适应性的问题,矫正规则为主导的系统翻译结果,提高翻译译文的质量。其中包括提取系统生成的译文作为源语言构建中文平行语料库,然后采用统计的方法训练翻译模型和语言模型,抽取短语表和N-gram文本用于统计后编辑翻译引擎的解码。文中给出了该方法综合性能评价,最后给出下一步工作设想。
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:1048576
    • 提供者:weixin_38742124
  1. RLSeq2Seq-源码

  2. RLSeq2Seq 注意:该代码不再有效维护。 该存储库包含在为以下论文开发的代码: 创建人: , , 和 如果您使用此代码,请考虑引用以下文章: article{keneshloo2018deep, title={Deep Reinforcement Learning For Sequence to Sequence Models}, author={Keneshloo, Yaser and Shi, Tian and Ramakrishnan, Naren and Redd
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:10240
    • 提供者:weixin_42134168
  1. Mayi-internal-recommendation-源码

  2. 蒸汽预测项目背景 火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。锅炉的燃烧效率的影响因素很多,包括锅炉的可调参数,如燃烧给量,一二次风,引风,返料风,给水水量;以及锅炉本项目采用38个匿名特征(V0-V37),预测蒸汽量(目标)。 项目描述 训练集包括3000条数据,测试集包括2000条数据,每行数据V0〜V37共38个分段是特征细分,target是目标细分 评估指标 采用常用的均方误差MSE为评判标准 最终结果 经过删除异常值,归
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:417792
    • 提供者:weixin_42109732
  1. NLP-Pivot-Translation-in-low-resource-environment-源码

  2. 低资源环境中的NLP轴翻译 这个机器翻译项目的重点是翻译数据量有限的低资源语言,以训练NLP模型。在这里,我们使用透视技术处理低资源设置环境,在该技术中,我们将源语言旋转为具有足够数据集进行训练的语言非常准确的模型,然后将关键的语言转换为目标语言。 在这个项目中,我们将土耳其语作为主要语言将阿塞拜疆语翻译成英语,以提高翻译质量。 该项目中生成的预处理数据集,模型和输出可以在下面链接的google存储库中找到。
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:19922944
    • 提供者:weixin_42157166
  1. Transformer-For-CV:适用于计算机视觉任务的Transformer应用程序摘要-源码

  2. 大事记 注意力 视觉注意的循环模型[2014 deepmind NIPS] 通过共同学习对齐和翻译的神经机器翻译[ICLR 2015] 整体调查 高效变压器:调查[] Visual Transformer概述[] 视觉中的变形金刚:调查[] 自然语言处理 语言 使用神经网络进行序列到序列学习[NIPS 2014] [] [] 端到端存储网络[NIPS 2015] [] [] 注意就是您所需要的全部内容[NIPS 2017] [] [] 乙idirectionalËncoderř对产权
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:3072
    • 提供者:weixin_42127783
  1. TranslateAlignRetrieve:来自ccasimiro88的合成QA语料库生成叉子的Translate-Align-Retrieve(TAR)方法-源码

  2. 用于合成QA语料库生成的Translate-Align-Retrieve(TAR)方法 该存储库包含TAR方法的实现,该方法是为将斯坦福大学问答数据集(SQuAD)自动翻译为西班牙语而设计和实现的。 它分为四个文件夹: src/tar :TAR方法的代码 SQuAD-es-v1.1 :SQuAD v1.1培训数据集的西班牙语翻译 SQuAD-es-v2.0 :SQuAD v2.0培训数据集的西班牙语翻译 src/qa :用于根据经过预训练的Multilingual-BERT模型(使用SQuAD
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:35651584
    • 提供者:weixin_42118770
  1. seq2seq.pytorch:使用PyTorch进行序列到序列学习-源码

  2. PyTorch中的Seq2Seq 这是用于在训练序列到序列模型的完整套件。 它由几个模型和代码组成,可以训练和推断使用它们。 使用此代码,您可以训练: 神经机器翻译(NMT)模型 语言模型 图像到字幕的生成 跳过思维的句子表示 和更多... 安装 git clone --recursive https://github.com/eladhoffer/seq2seq.pytorch cd seq2seq.pytorch; python setup.py develop 楷模 当前可用的模型:
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:1048576
    • 提供者:weixin_42128988
  1. 公平交易-源码

  2. Fairseq(-py)是一个序列建模工具包,研究人员和开发人员可以使用它们来训练定制模型,以进行翻译,摘要,语言建模和其他文本生成任务。 我们提供各种序列建模论文的参考实现: 实施文件清单 卷积神经网络(CNN) LightConv和DynamicConv模型 长短期记忆(LSTM)网络基于注意力的神经机器翻译的有效方法(Luong et al。,2015) 变压器(自我关注)网络 注意就是您所需要的(Vaswani et al。,2017) 非自回归变压器 非自回归神经机器翻译(
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:126877696
    • 提供者:weixin_42129300
  1. 利用深度学习进行时序数据的异常检测

  2. 神经网络是一种模拟生物学神经的机器学习模型,数据来源于输入层并流经具有各种激活阈值的节点。递归神经网络是一种在输入被理解之前保持其内部记忆的神经网络,所以它们可以进行数据流中时间依赖的结构的学习。机器学习早已在许多产品中发挥过威力了,我们日常就与很多打过交道,从像苹果的Siri和谷歌的Now之类的“智能”助手,到像亚马逊建议买新产品的推荐引擎,再到谷歌和Facebook使用的排名系统,凡此种种,不一而足。最近,机器学习由于“深度学习”的进展闯入了公众视野,这些进展包括AlphaGo击败了围棋大师
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:156672
    • 提供者:weixin_38526823
  1. 基于SparkMLPipeline构建机器学习应用

  2. 使用机器学习的方法可以解决越来越多的实际问题,它在现实世界中的应用越来越广泛,比如智能风控、欺诈检测、个性化推荐、机器翻译、模式识别、智能控制,等等。我们都知道,机器学习可以分为三大类:监督学习(SupervisedLearning)、无监督学习(UnsupervisedLearning)和强化学习(ReinforcementLearning),下面简单介绍一下它们含义:监督学习是根据给定的标签(Label)已知的训练数据集,通过选定的算法在该训练数据集上进行训练学习,最后得到一个可以描述该数据
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:458752
    • 提供者:weixin_38518885
  1. 在ApacheHadoop中运行深度学习框架

  2. Hadoop是用于大型企业数据集的分布式处理的最流行的开源框架,它在本地和云端环境中都有很多重要用途。深度学习对于语音识别,图像分类,AI聊天机器人,机器翻译等领域的企业任务非常有用,仅举几例。为了训练深度学习/机器学习模型,可以利用TensorFlow/MXNet/Pytorch/Caffe/XGBoost等框架。有时需要将这些框架进行组合使用以用于解决不同的问题。为了使分布式深度学习/机器学习应用程序易于启动,管理和监控,Hadoop社区启动了Submarine项目以及其他改进,例如一流的G
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:3145728
    • 提供者:weixin_38655284
  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:2097152
    • 提供者:weixin_38746926
  1. espresso:Espresso:快速的端到端神经语音识别工具包-源码

  2. 浓咖啡 Espresso是基于深度学习库和流行的神经机器翻译工具的开源,模块化,可扩展的端到端神经自动语音识别(ASR)工具包。 Espresso支持在GPU和计算节点之间进行分布式训练,并具有ASR中常用的各种解码方法,包括基于超前单词的语言模型融合,为此实现了快速,并行的解码器。 我们为以下语音数据集提供最新的培训食谱: 什么是新的: 2020年6月:发布了变压器配方。 2020年4月:现已支持 (使用 )和混合ASR的交叉熵训练。 和分别提供WSJ配方作为示例。 2020年3月:支
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:3145728
    • 提供者:weixin_42116585
« 1 2 ... 7 8 9 10 11 1213 14 15 »