您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. textCNN文本分类相关论文Convolutional Neural Networks for Sentence Classification

  2. textCNN文本分类相关论文Convolutional Neural Networks for Sentence Classification
  3. 所属分类:深度学习

    • 发布日期:2019-03-16
    • 文件大小:220kb
    • 提供者:zgj_gutou
  1. 基于深度学习的文本分类6大算法.rar

  2. 收集的文本分类深度学习算法,包括TextCNN,BI-LSTM,RCNN,Bert等经典深度学习文本分类英文论文。
  3. 所属分类:深度学习

    • 发布日期:2020-10-16
    • 文件大小:2mb
    • 提供者:bean435
  1. 关于介绍TextCNN的最初两篇论文

  2. 关于介绍TextCNN的最初两篇论文
  3. 所属分类:互联网

    • 发布日期:2021-03-18
    • 文件大小:532kb
    • 提供者:Ricardo_ChenM
  1. PaperReading:每天阅读过的论文的简要笔记-源码

  2. 270.《决策前先征求父母子女_充分利用分层结构进行自我监督分类法的发展》,腾讯,刘邦 分类树扩展的工作,用于腾讯的疫情问答场景。刘邦的博士论文可以一读。 269.联合学习 《保护数百万人的隐私保护技术_预防卒中联合预测模型》 FL使用传统模型,也是目前主要做的工作 《自然语言处理的机构联合学习的实证研究》 FL使用TextCNN的经验性工作 《联邦政府:通过整体蒸馏进行联合学习以提取医疗关系》 内容:FL透析医疗关系撤除 结果:实现了隐私保护,但指标下降 核心:在通信,不在计算 科普:
  3. 所属分类:其它

  1. bert_distill:BERT蒸馏(基于BERT的蒸馏实验)-源码

  2. 基于BERT的蒸馏实验 参考论文《从BERT提取任务特定的知识到简单神经网络》 分别采用keras和pytorch基于textcnn和bilstm(gru)进行了实验 实验数据分割成1(有标签训练):8(无标签训练):1(测试) 在情感2分类服装的数据集上初步结果如下: 小模型(textcnn&bilstm)准确率在0.80〜0.81 BERT模型准确率在0.90〜0.91 蒸馏模型准确率在0.87〜0.88 实验结果与论文某些基本一致,与预期相符 后续将尝试其他更有效的蒸馏方案 使用方法 首
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:30mb
    • 提供者:weixin_42146086
  1. chinese_text_cnn:TextCNN Pytorch实现中文文本分类情感分析-源码

  2. TextCNN Pytorch实现中文文本分类 论文 参考 依赖项 python3.5 pytorch == 1.0.0 torchtext == 0.3.1 jieba == 0.39 词向量 (这里用的是Zhihu_QA知乎问答训练出来的单词Word2vec) 用法 python3 main.py -h 训练 python3 main.py 准确率 CNN-rand随机初始化嵌入 python main.py Batch[1800] - loss: 0.009499 a
  3. 所属分类:其它

  1. TextClassification-Keras:在Keras中实现的文本分类模型,包括:FastText,TextCNN,TextRNN,TextBiRNN,TextAttBiRNN,HAN,RCNN,RCNNVariant等-源码

  2. TextClassification-Keras 这个代码库实现了一个各种深学习模型使用Keras框架,其中包括文本分类:FastText,TextCNN,TextRNN,TextBiRNN,TextAttBiRNN,韩,RCNN,RCNNVariant等除了模型实现,简化应用程序包括在内。 指导 环境 Python 3.7 NumPy 1.17.2 Tensorflow 2.0.1 用法 所有代码都位于目录/model ,每种模型都有对应的目录,其中放置了模型和应用程序。 例如,Fas
  3. 所属分类:其它

  1. bert_language_understanding:用于语言理解的深度双向变压器的预训练:TextCNN的预训练-源码

  2. Google的bert提出的有关语言理解的想法:训练TextCNN 目录 1.引言 2.性能 3.用法 4.样本数据,数据格式 5.对用户的建议 6.BERT的简短描述 7.作者对BERT的详细描述 8,预训练语言理解任务 9,环境 10.实施细节 11,更好地理解变压器和BERT的问题 12,玩具任务 13.多标签分类任务 14.TODO列表 15,结论 16,参考文献 介绍 预训练就是您所需要的! BERT最近在10多个nlp任务上取得了最新的技术成果。 这是用于语言理解的深度双向变压器
  3. 所属分类:其它