您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. TensorFlow.js Machine Learning for the Web and Beyond.pdf

  2. TensorFlow.js, Google 提供的基于TensorFlow的Javascr ipt库。方便使用JS的开发者使用,并且可以为未来的边缘计算提供支持。TensorFlow. js: Machine Learning for the Web and beyond acceleration, notably TensorFire(Kwok et al., 2017), Propel Layers APl, which provides higher-level model buildin
  3. 所属分类:机器学习

    • 发布日期:2019-07-15
    • 文件大小:568kb
    • 提供者:nicholaskong
  1. 关于深度强化学习的测试算法

  2. 之前已经介绍在anaconda3.5.1(python3.6)中安装tensorflow gpu 1.2的方法,这个帖子主要讲gym的安装。 主要参考https://blog.csdn.net/chenhanxuan1999/article/details/100703675 (1)进入anaconda prompt; (2)就在base环境中安装pip install gym -i https://pypi.tuna.tsinghua.edu.cn/simple; (3)在bas
  3. 所属分类:深度学习

    • 发布日期:2020-02-10
    • 文件大小:6kb
    • 提供者:zhenglei_wei
  1. 结合知识图谱实现基于电影的推荐系统.pdf

  2. 在推荐算法中融入电影的知识图谱,能够将没有任何历史数据的新电影精准地推荐给目标用户。交叉特征矩阵 Cr 交叉单元 第层 el 7交叉压缩单元模型的结构 交叉压缩单元模型的具体处理过程如下 (1)将与进行矩阵相乘得到。 (2)将复制一份,并讲行转置得到。实现特征交叉融合 (3)将经过权重矩阵进行线性变化(与矩阵相乘) (4)将经过权重矩阵进行线性变化。 (5)将(3)与(4)的结果相加,再与偏置参数相加,得到。将用于推荐算法模型的后续计算。 (6)按照第(3)、(4)、(5)步的做法,同理可以得到
  3. 所属分类:机器学习

    • 发布日期:2019-09-02
    • 文件大小:847kb
    • 提供者:zjxaut2008
  1. Attention Is All You Need.pdf

  2. 谷歌提出的Transformer结构tput Probabilities Softmax Linear Add& Norm Feed orwa Add& Norm Add norm Multi-Head Attention Forward N Add Norm I Add norm Masked Multi-Head Multi-Head Attention Atention Encoding ① Encoding ut Output Embedding Embedding Inputs Ish
  3. 所属分类:深度学习

  1. tensorflow-base-2.4.1-

  2. tensorflow-base-2.4.1-
  3. 所属分类:Linux

    • 发布日期:2021-03-23
    • 文件大小:125mb
    • 提供者:weixin_37190249
  1. DistilBERT-base-jp-源码

  2. 语言 执照 日本人 麻省理工学院 日本DistilBERT预训练模型 一个日语DistilBERT预训练模型,该模型在上进行了训练。 找到日语的快速入门指南。 目录 介绍 DistilBERT是基于Bert架构的小型,快速,便宜且轻便的Transformer模型。 与GLUE语言理解基准相比,它的参数比基于BERT的参数少40%,运行速度提高60%,同时保留BERT的97%的性能。 此模型从在AWS p3dn.24xlarge实例上使用官方的Hugging Face实施进行了2周的培训。
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:137kb
    • 提供者:weixin_42161450
  1. RoBERTa-japanese:日语BERT预训练模型-源码

  2. RoBERTa-日语 日语BERT预训练模型 RoBERTaとは, ,BERTの改良版です。モデル构造そのものはオリジナルのBERTと同じで,学习手法に工夫があります。 のプロジェクトは,。 RoBERTa(改良BERT)日本语モデル 新 Tensorflow 1.x / 2.x両対応しました RoBERTa(改良BERT)の日本语版です 学习済みモデルについて 学习させたコーパスについて スポンサーシップについて 去做 ✓smallモデルの公开(2020/12/6) ✓baseモデルの公开(2
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:47kb
    • 提供者:weixin_42168555
  1. win10系统Anaconda和Pycharm的Tensorflow2.0之CPU和GPU版本安装教程

  2. tf2.0的三个优点: 1、方便搭建网络架构; 2、自动求导 3、GPU加速(便于大数据计算) 安装过程(概要提示) step1:安装annaconda3 step2:安装pycharm step3:安装tensorflow2.0 cpu版本 (1)进入anaconda prompt(anaconda3) (2)默认为(base)环境 (3)输入python,查看python版本;输入exit()退出 (4)输入conda info –envs查看虚拟环境 (5)此处以在(base)环境中安装
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:75kb
    • 提供者:weixin_38698590