您好,欢迎光临本网站![请登录][注册会员]  

人工智能下载,深度学习下载列表 第193页

« 1 2 ... .88 .89 .90 .91 .92 193.94 .95 .96 .97 .98 ... 1775 »

[深度学习] Deep Reinforcement Learning for

说明:Abstract— Reinforcement learning holds the promise of enabling autonomous robots to learn large repertoires of behavioral skills with minimal human intervention. However, robotic applications of reinforcement learning often compromise the autonomy
<weixin_46044606> 上传 | 大小:2mb

[深度学习] FIRE眼底图像数据集-用于眼底图像配准

说明:一个视网膜眼底图像数据集,其拥有 129 张眼底彩色视网膜图像,并根据不同特征组合成 134 对图像.相关论文是:《FIRE: Fundus Image Registration Dataset》
<weixin_42332891> 上传 | 大小:263mb

[深度学习] IOSTAR-dataset 包含原图(彩色图)和分割图和关键点坐标,可以作为点检测和分割的数据集

说明:IOSTAR-dataset 包含原图(彩色图)和分割图和关键点坐标,可以作为点检测(分支点\交叉点\末梢点)或者分割的数据集,是经常拿来做点检测的数据集.DRIVE数据集也经常用来点检测,但是这里只有IOSTAR.
<weixin_42332891> 上传 | 大小:11mb

[深度学习] DRIVE 眼底图像数据集.zip

说明:眼底图像分割\关键点检测\动静脉区分常用数据集,是眼底最广泛的数据集之一,甚至可以去掉'之一'二字.这里面含有分割图的groundtruth,原图以及mask,没有关键点坐标的groundtruth,关键点在另一个上传的资源里,一次只能传一个压缩包..害!
<weixin_42332891> 上传 | 大小:28mb

[深度学习] DRIVE数据集的关键点的groundtruth, 注意这里只有点的坐标以及一位专家的手动分割图,想要原图的话去我的另一个资源里找,谢谢~

说明:DRIVE数据集的关键点的groundtruth,这是荷兰的一个团队标记的,是广泛流传的一个.其涉及到的算法主要有miccai的论文multi-task那篇,BICROS算法等. 注意这里只有点的坐标以及一位专家的手动分割图,想要原图的话去我的另一个资源里找,谢谢~
<weixin_42332891> 上传 | 大小:16mb

[深度学习] torchvision-0.3.0-cp36-cp36m-linux_x86_64.whl

说明:cpu版本的torchvision-0.3.0-cp36-cp36m-linux_x86_64.whl
<qq_35975447> 上传 | 大小:2mb

[深度学习] torch-1.1.0-cp36-cp36m-linux_x86_64.whl

说明:cpu版本的,torch-1.1.0-cp36-cp36m-linux_x86_64.whl。需要的请自行下载。
<qq_35975447> 上传 | 大小:96mb

[深度学习] cuda10.0+py3.7.7+tf1.14.0+pytorch1.2.0深度学习环境配置流程.docx

说明:流程中环境描述:cuda版本10.0,python版本3.7.7 ,tensorflow版本1.14.0,pytorch版本1.2.0
<qq_35839094> 上传 | 大小:1mb

[深度学习] 基于多元特征融合和LSTM神经网络的中文评论情感分析.caj

说明:本文的主要研究工作如下: (1)针对文本情感分析中对文本表示时遇到的维度过高和语义不相关 的问题,本文采用 word embedding 机制,通过神经网络语言模型对大量评 论文本进行训练,并在此基础上通过 distributed representation 的方式表示文 本,从而将文本映射为一个低维实数向量。这种文本表示方法同时也可以 表达文本的语义信息,有助于神经网络模型对文本更好地理解。 (2)针对情感分析任务的特殊性,本文提出了一种新的文本表示方法- ——多元特征词向量。这种表示方
<fengliren> 上传 | 大小:1mb

[深度学习] 基于word2vec的关键词提取算法.caj

说明:随着近些年深度学习的兴起,词语在计算机中的表示有了重大突破;而长期以来关键词提取算法均 以词语作为特征进行计算,效果并不理想。因此,本文提出了一种基于深度学习工具 word2vec 的 关键词提取算法。该算法首先使用 word2vec 将所有词语映射到一个更抽象的词向量空间中;然后 基于词向量计算词语之间的相似度,最终通过词语聚类得到文章关键词。实验表明该算法对于篇幅 长文章的关键词提取的准确率要明显高于其他算法
<fengliren> 上传 | 大小:695kb

[深度学习] 领域关键词抽取_结合LDA与Word2Vec.caj

说明:随着互联网与信息技术的发展,大数据分析成为目前热门话题之 一。大数据分析主要从海量数据中提取有意义的信息作为数据特征, 通过分析已有数据的特征,实现数据的归纳分析,预测数据集的发展 方向。自然语言处理是实现文本信息智能分析的一项重要研究工作。 对特定领域内文本的分析,可以获取该领域内的重要信息,以及实现 对该领域发展方向的预测。 针对财经领域而言,分析财经领域内海量的文本信息,可以了解 经济发展的前景,实现对经济发展的预测。中文文本分析主要是文本 的分类、聚类等工作,依赖于对文本中词汇的分析。
<fengliren> 上传 | 大小:255kb

[深度学习] 文本检索结果聚类及类别标签抽取技术研究.caj

说明:本文根据检索结果聚类特点进行语义特征信息抽取来辅助聚类过程。着眼 于深度挖掘文本之间语义联系,提出基于语义空间转换方法的类别标签自动发 现算法。针对检索结果聚类的实用特性,力图保持检索结果聚类的时效性、准 确性和覆盖性,重点研究了以下问题: 1、基于语义特征抽取的初始信息优化选择 检索结果聚类需要直接呈现给用户,这一特点决定了传统的机器学习算法并 不能完美解决这一问题。理解文本的语义是自然语言处理的终极目标,同样对 于检索结果聚类是十分重要的。针对中文语义分析并不成熟的现状,本文提出 从网络
<fengliren> 上传 | 大小:4mb
« 1 2 ... .88 .89 .90 .91 .92 193.94 .95 .96 .97 .98 ... 1775 »