您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. svm matlab版本

  2. need to conduct installation. If you have modified the sources and would like to re-build the package, type 'mex -setup' in MATLAB to choose a compiler for mex first. Then type 'make' to start the installation. Starting from MATLAB 7.1 (R14SP3), the
  3. 所属分类:机器学习

    • 发布日期:2017-09-26
    • 文件大小:86kb
    • 提供者:qq_40399625
  1. 基于NLP自然语言构建的文档自动分类系统_data

  2. 对爬取的搜狐文档数据进行自动分类,主要有“体育,健康,房地产,娱乐,女人,文化,新闻”等文章类别,已经标记好为训练数据
  3. 所属分类:其它

    • 发布日期:2018-08-18
    • 文件大小:67mb
    • 提供者:wsp_1138886114
  1. FER2013数据集

  2. 包含以下几种表情: 0 anger 生气 1 disgust 厌恶 2 fear 恐惧 3 happy 开心 4 sad 伤心 5 surprised 惊讶 6 normal 中性 里面有原.csv文件还有处理好的.npy文件,其中名称带data的为图片的ndarray数据,带labels的为其对应的标签。 使用时只需要用 np.load("train_data.npy")语句读取即可
  3. 所属分类:深度学习

    • 发布日期:2018-10-01
    • 文件大小:179mb
    • 提供者:potato_uncle
  1. fer2013-bib

  2. 包含以下几种表情: 0 anger 生气 1 disgust 厌恶 2 fear 恐惧 3 happy 开心 4 sad 伤心 5 surprised 惊讶 6 normal 中性 里面有原.csv文件还有处理好的.npy文件,其中名称带data的为图片的ndarray数据,带labels的为其对应的标签。 使用时只需要用 np.load("train_data.npy")语句读取即可
  3. 所属分类:其它

    • 发布日期:2019-01-29
    • 文件大小:1kb
    • 提供者:tc_cc
  1. BA_EM_ELM.m

  2. function [TrainingTime,TestingTime,TrainingAccuracy, TestingAccuracy,TY_test,num,L,R,Q,F,TY]=BA_EM_ELM(train_data, test_data,Lmax,delta) global I; global T; global I_test; global T_test; global c; global d; global h0; %%%%%%%%%%% Load training datas
  3. 所属分类:机器学习

    • 发布日期:2019-05-15
    • 文件大小:5kb
    • 提供者:lsy0201
  1. DataPre.py

  2. # -*- coding: utf-8 -*- import pandas as pd import pickle import time from sklearn import preprocessing def current_time():  以固定格式打印当前时间 :return:返回当前时间的字符串  return time.strftime(%Y-%m-%d %X, time.localtime()) class DataPre:  数据预处理器 它的初始化需
  3. 所属分类:算法与数据结构

    • 发布日期:2019-07-17
    • 文件大小:5kb
    • 提供者:zhangtao8856
  1. word2vec+LSTM_Mini.rar

  2. word2vec+lstm情感分析(三分类)+使用说明 使用方法: 1、修改 ../data/neg(消极)../data/pos(积极)../data/neutral(中立)训练数据 及 ../data/sum(测试数据)(本数据为我上网download数据库,是不同情感方向的评价数据。) 2、运行 ../lstm/lstm_train 并修改 参数列表 (建议只修改代码30-33行)及 (119行代码)x_train, x_test, y_train, y_test = train_tes
  3. 所属分类:机器学习

    • 发布日期:2019-09-27
    • 文件大小:107mb
    • 提供者:qq_36238975
  1. aclImdb_v1.7z

  2. 用 (train_data, test_data), info = tfds.load('imdb_reviews/subwords8k', split = (tfds.Split.TRAIN, tfds.Split.TEST), with_info=True, as_supervised=True) 下载imdb_reviews电影评论数据集时,可能会出现错误
  3. 所属分类:深度学习

    • 发布日期:2020-04-11
    • 文件大小:52mb
    • 提供者:qq_36758914
  1. train_data.zip

  2. 在“大数据”的时代背景下,保证机器学习算法效果的同时,充分挖掘IT基础设施算力,提升算法计算性能,一方面有利于保护企业现有IT投资,另一方面能让数据分析师以更短的时间完成建模,从而可以选择出来更优化的业务模型。 在本次比赛中,我们准备了已经做好了特征工程处理的数据和对应的样例代码,您需要优化模型提升准确率和性能。 请您结合对机器学习算法的理解并结合鲲鹏处理器的特点对其进行优化,我们将会利用您的代码针对训练数据进行建模,并对测试数据进行预测。建模+预测要求在15分钟之内完成。模型准确率低于70%不
  3. 所属分类:Linux

    • 发布日期:2020-04-03
    • 文件大小:14mb
    • 提供者:hghhgghhg
  1. CNN人脸识别.zip

  2. 基于CNN卷积神经网络,对Olivetti人脸数据集,实现了小型人脸识别项目,准确率达到85%。 # train_data: 320张,57*47, train_label:320个,1*40 # valid_data: 40张,57*47 , valid_label:40个,1*40 # test_data: 40张,57*47 , test_label:40个,1*40
  3. 所属分类:机器学习

    • 发布日期:2020-02-04
    • 文件大小:1mb
    • 提供者:Twilight737
  1. Python3X np.load.txt

  2. python解决np.load异常问题,适用于Python3X import numpy as np # save np.load np_load_old = np.load # modify the default parameters of np.load np.load = lambda *a,**k: np_load_old(*a, allow_pickle=True, **k) # call load_data with allow_pickle implicitly set to
  3. 所属分类:Python

    • 发布日期:2019-08-18
    • 文件大小:390byte
    • 提供者:u012390131
  1. train_data.txt

  2. 命名实体人物优化后语料,对大量单字人物进行了重新标注
  3. 所属分类:深度学习

    • 发布日期:2019-07-13
    • 文件大小:13mb
    • 提供者:cyz52
  1. imdb.npz数据集电影评论情感二分类

  2. imdb.npz 电影评论数据集 当我们按照教程书籍里面的代码试验时,往往会出现数据集下载失败的问题. 执行 (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000) 出现Downloading data from https://s3.amazonaws.com/text-datasets/imdb.npz,网络连接失败。 此时,将下载好的imdb.npz文件放在主目录下的 .k
  3. 所属分类:机器学习

    • 发布日期:2019-03-16
    • 文件大小:16mb
    • 提供者:weixin_43064339
  1. 简单bp神经网络分类程序

  2. 一个简单的bp分类程序。里面有注释。。 % data1=train_data; % data2=test_data; % data3=train_labels; % data4=test_labels;
  3. 所属分类:C/C++

  1. Keras用IMDB数据源(imdb.npz + imdb_word_index.json)

  2. Keras用IMDB数据源(imdb.npz + imdb_word_index.json) from tensorflow.keras.datasets import imdb (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000) # word_index is a dictionary mapping words to an integer index word_ind
  3. 所属分类:深度学习

    • 发布日期:2020-08-02
    • 文件大小:17mb
    • 提供者:sinat_29046147
  1. train_data.zip

  2. 2020语言与智能技术竞赛:关系抽取任务数据集 DuIE 2.0 训练集;验证集和测试集也会上传,提供下载!
  3. 所属分类:深度学习

    • 发布日期:2020-10-16
    • 文件大小:21mb
    • 提供者:yangxudong
  1. PyTorch-GPU加速实例

  2. 硬件:NVIDIA-GTX1080 软件:Windows7、python3.6.5、pytorch-gpu-0.4.1 一、基础知识 将数据和网络都推到GPU,接上.cuda() 二、代码展示 import torch import torch.nn as nn import torch.utils.data as Data import torchvision # torch.manual_seed(1) EPOCH = 1 BATCH_SIZE = 50 LR = 0.001 DOWNLO
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:87kb
    • 提供者:weixin_38557370
  1. Pytorch入门之mnist分类实例

  2. 本文实例为大家分享了Pytorch入门之mnist分类的具体代码,供大家参考,具体内容如下 #!/usr/bin/env python # -*- coding: utf-8 -*- __author__ = 'denny' __time__ = '2017-9-9 9:03' import torch import torchvision from torch.autograd import Variable import torch.utils.data.dataloader as Dat
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:24kb
    • 提供者:weixin_38697171
  1. pytorch实现mnist数据集的图像可视化及保存

  2. 如何将pytorch中mnist数据集的图像可视化及保存 导出一些库 import torch import torchvision import torch.utils.data as Data import scipy.misc import os import matplotlib.pyplot as plt BATCH_SIZE = 50 DOWNLOAD_MNIST = True 数据集的准备 #训练集测试集的准备 train_data = torchvision.dataset
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:100kb
    • 提供者:weixin_38737144
  1. train_data-数据集

  2. train_data-数据集
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:53mb
    • 提供者:weixin_38545332
« 12 3 »