您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Cognos 学习文档

  2. PowerPlay Transformer
  3. 所属分类:Java

    • 发布日期:2009-05-09
    • 文件大小:1048576
    • 提供者:peter_huangcw
  1. CognosTransformer培训课件

  2. 很不错的Cognos学习课件!详细的介绍了COGNOS Transformer的使用方法
  3. 所属分类:专业指导

    • 发布日期:2009-12-31
    • 文件大小:1048576
    • 提供者:lhj821130
  1. Design of Planar Power Transformer

  2. Planar transformers can be constructed as stand alone components, with a stacked layer design or a small multilayer PCB, or integrated into a multilayer board of the power supply.
  3. 所属分类:专业指导

    • 发布日期:2010-06-20
    • 文件大小:329728
    • 提供者:leadertcc
  1. cognos cube制做

  2. 本人根据项目,写的iqd到transformer建模到生成cube 过程
  3. 所属分类:Java

    • 发布日期:2010-07-27
    • 文件大小:182272
    • 提供者:aqiang_008
  1. powerplay transformer培训资料

  2. 介绍cognos8下的transformer开发的基础知识。
  3. 所属分类:专业指导

    • 发布日期:2008-02-28
    • 文件大小:3145728
    • 提供者:mygodwang
  1. TRANSFORMER用户指南

  2. TRANSFORMER用户指南,英文的,自己学习用的,与大家分享
  3. 所属分类:Java

    • 发布日期:2010-08-26
    • 文件大小:3145728
    • 提供者:ryan_yu
  1. Cognos transformer优化

  2. Cognos transformer优化介绍
  3. 所属分类:专业指导

    • 发布日期:2008-03-03
    • 文件大小:1048576
    • 提供者:guxzlogo
  1. tr0109 transformer couldn

  2. 整了两个小时,终于弄明白了这个问题,共享一下。。。。
  3. 所属分类:Java

    • 发布日期:2010-11-26
    • 文件大小:84
    • 提供者:lbq794619111
  1. cognos安装配置Transormer建模FrameworkManager建模Report使用

  2. 详细讲诉了cognos在windows上的安装与配置,使用流程,以及transformer的建模,和Framework Manager的建模,LDAP的配置,cube的使用,report的使用。cognos的审计功能,安全,部署。是一本很好的学习手册。
  3. 所属分类:其它

    • 发布日期:2012-04-06
    • 文件大小:12582912
    • 提供者:lixiaoyu0707
  1. IBM Cognos 10 Transformer

  2. 因为功能点都写出来就会显得很杂乱,作为User Guide的简化版,总体来说,还是可以辅助大家的个人学习的。
  3. 所属分类:其它

    • 发布日期:2012-04-09
    • 文件大小:1048576
    • 提供者:zzphapy
  1. DataStage_Transformer常用函数

  2. DataStage Transformer 常用函数
  3. 所属分类:其它

    • 发布日期:2012-06-19
    • 文件大小:18432
    • 提供者:shulkial
  1. 3.Transformer模型原理详解.pdf

  2. 小白总结的Transformer
  3. 所属分类:互联网

    • 发布日期:2021-01-30
    • 文件大小:2097152
    • 提供者:qq_40208392
  1. 即将取代RNN结构的Transformer

  2. 本文来自于segmentfault,文章介绍了Transformer的整体结构、attention计算过程等相关内容。上图是经典的双向RNN模型,我们知道该模型是通过递归的方式运行,虽然适合对序列数据建模,但是缺点也很明显“它无法并行执行”也就无法利用GPU强大的并行能力(这里插句题外话,正因为GPU强大的并行能力,所以batch_size等于1和等于200运算时间基本差不多),再加上各种门控机制,运行速度很慢。一般而言,编码器输出编码向量C作为解码器输入,但是由于编码向量C中所有的编码器输入值
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:935936
    • 提供者:weixin_38506798
  1. Transformer学习总结——原理篇

  2. 首先从整体上看一下Transformer的结构:从图中可以看出,整体上Transformer由四部分组成:Inputs:Inputs=WordEmbedding(Inputs)+PositionalEmbeddingInputs=WordEmbedding(Inputs)+PositionalEmbeddingInputs=WordEmbedding(Inputs)+PositionalEmbeddingOutputs:Ouputs=WordEmbedding(Outputs)+Position
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:983040
    • 提供者:weixin_38661236
  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:2097152
    • 提供者:weixin_38693657
  1. 图解Transformer

  2. Transformer在Goole的一篇论文被提出,为了方便实现调用Transformer Google还开源了一个第三方库,基于TensorFlow的,一个NLP的社区研究者贡献了一个Torch版本的支持:。这里,我想用一些方便理解的方式来一步一步解释Transformer的训练过程,这样即便你没有很深的深度学习知识你也能大概明白其中的原理。 我们先把Transformer想象成一个黑匣子,在
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38625442
  1. 一文理解Transformer的工作原理

  2. 自然语言处理中的Transformer模型真正改变了我们处理文本数据的方式。Transformer是最近自然语言处理发展的幕后推手,包括Google的BERT。了解Transformer的工作原理、它如何与语言建模、序列到序列建模相关,以及它如何支持Google的BERT模型。现在,我喜欢做一名数据科学家,从事自然语言处理(NaturalLanguageProcessing,NLP)方面的工作。这些突破和发展正以前所未有的速度发生。从超高效的ULMFiT框架到Google的BERT,自然语言处理
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:1048576
    • 提供者:weixin_38596879
  1. 基于Transformer模型的智能问答原理详解

  2. 图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:946176
    • 提供者:weixin_38632146
  1. 《动手学深度学习——机器翻译及相关技术,注意力机制与seq2seq模型,Transformer》笔记

  2. 动手学深度学习:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer 初次学习机器翻译相关,把课程的概念题都记录一下。 目录: 1、机器翻译及相关技术 2、注意力机制与seq2seq模型 3、Transformer 1、机器翻译以及相关技术 1、机器翻译以及相关技术 1、关于Sequence to Sequence模型说法错误的是: A 训练时decoder每个单元输出得到的单词作为下一个单元的输入单词。 B 预测时decoder每个单元输出得到的单词作为下一个单元的输入单
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:363520
    • 提供者:weixin_38659789
  1. Datawhale 组对学习打卡营 任务12:Transformer

  2. 目录 Transformer 多头注意力层 基于位置的前馈网络 Add and Norm 位置编码 多层感知机注意力 测试 译码器 解码器 训练 Transformer CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。 为了整合CNN和RNN的优势,[Vaswani et al., 2017] 创新性地使用注意力机制设计了Transformer模型。该模型利用attention机制实现了并行化捕捉序列依赖,并且同时处
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:537600
    • 提供者:weixin_38628926
« 1 2 3 4 5 67 8 9 10 11 ... 38 »