您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2017-05-23
    • 文件大小:300byte
    • 提供者:huanxtt
  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2020-02-22
    • 文件大小:650byte
    • 提供者:ximo881206
  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2020-01-21
    • 文件大小:650byte
    • 提供者:coffee2008yy
  1. 维基百科中文语料(已分词)

  2. 自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。 共包含3273626个段落的文本(一个段落包含了多个语句)。 处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
  3. 所属分类:机器学习

    • 发布日期:2020-06-28
    • 文件大小:650byte
    • 提供者:liqibiao666