您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. MATLAB训练的参数

  2. MATLAB训练的参数这是个人脸识别的程序训练后得到的训练参数
  3. 所属分类:电子商务

    • 发布日期:2014-03-19
    • 文件大小:23kb
    • 提供者:u014228325
  1. AlexNet网络的参数权值

  2. 使用ImageNet数据集训练AlexNet网络的参数权值,可以直接在tensorflow中使用
  3. 所属分类:深度学习

    • 发布日期:2018-08-04
    • 文件大小:216mb
    • 提供者:m_z_g_y
  1. 高能物理的参数化神经网络

  2. 我们通过扩展输入范围,不仅包括测量的特征,还包括物理参数,研究了一种使用神经网络构建的机器学习分类器的新结构,并将其应用于高能物理中的问题。 物理参数代表着平滑变化的学习任务,并且生成的参数化分类器可以在它们之间平滑地内插,并替换以单个值训练的分类器集。 即使在需要深度学习的复杂问题上,这也简化了训练过程并提高了中间值的性能。 应用程序包括根据理论模型参数(例如粒子的质量)进行参数化的工具,这些工具允许单个网络在整个质量范围内提供更好的辨别力。 该概念易于实现,并可以优化插值结果。
  3. 所属分类:其它

  1. 用于下肢康复训练机器人主动力训练的Youla-Kucera参数化自适应调节器设计

  2. 用于下肢康复训练机器人主动力训练的Youla-Kucera参数化自适应调节器设计,李峰,吴智政,下肢康复训练是针对偏瘫、脑卒中或其它神经系统疾病引起的运动功能损伤患者的主要治疗手段。面向任务的重复运动可以提高神经损伤
  3. 所属分类:其它

  1. transfer dense121迁移学习模型模板参数不变只训练classifier这一层的参数.py

  2. transfer dense121迁移学习模型模板参数不变只训练classifier这一层的参数 ,迁移学习的一个案例模板
  3. 所属分类:深度学习

    • 发布日期:2020-06-17
    • 文件大小:4kb
    • 提供者:studyvcmfc
  1. paddledetection训练的红绿灯检测模型的最好模型参数文件

  2. 使用教程:https://www.guyuehome.com/8604,该教程中output文件夹中的模型文件,因为单个文件上传github有大小限制所以拿出来单独上传,mAP = 90.89662
  3. 所属分类:其它

    • 发布日期:2020-06-16
    • 文件大小:183mb
    • 提供者:qq_37668436
  1. tensorflow 固定部分参数训练,只训练部分参数的实例

  2. 今天小编就为大家分享一篇tensorflow 固定部分参数训练,只训练部分参数的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:24kb
    • 提供者:weixin_38506852
  1. pytorch 固定部分参数训练的方法

  2. 今天小编就为大家分享一篇pytorch 固定部分参数训练的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:39kb
    • 提供者:weixin_38719564
  1. 在tensorflow实现直接读取网络的参数(weight and bias)的值

  2. 训练好了一个网络,想要查看网络里面参数是否经过BP算法优化过,可以直接读取网络里面的参数,如果一直是随机初始化的值,则证明训练代码有问题,需要改。 下面介绍如何直接读取网络的weight 和 bias。 (1) 获取参数的变量名。可以使用一下函数获取变量名: def vars_generate1(self,scope_name_var): return [var for var in tf.global_variables() if scope_name_var in var.name ]
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:63kb
    • 提供者:weixin_38626984
  1. tensorflow saver 保存和恢复指定 tensor的实例讲解

  2. 在实践中经常会遇到这样的情况: 1、用简单的模型预训练参数 2、把预训练的参数导入复杂的模型后训练复杂的模型 这时就产生一个问题: 如何加载预训练的参数。 下面就是我的总结。 为了方便说明,做一个假设:简单的模型只有一个卷基层,复杂模型有两个。 卷积层的实现代码如下: import tensorflow as tf # PS:本篇的重担是saver,不过为了方便阅读还是说明下参数 # 参数 # name:创建卷基层的代码这么多,必须要函数化,而为了防止变量冲突就需要用tf.name_scope
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:54kb
    • 提供者:weixin_38622427
  1. 用进化算法来优化SVM的参数C和Gamma——利用SCOOP库进行分布式加速计算

  2. 该案例展示了如何利用SCOOP库进行分布式加速计算Geatpy进化算法程序, 本案例和soea_demo6类似,同样是用进化算法来优化SVM的参数C和Gamma, 不同的是,本案例选用更庞大的数据集,使得每次训练SVM模型时耗时更高,从而更适合采用分布式加速计算。 该数据集存放在同目录下的Data_User_Modeling_Dataset_Hamdi Tolga KAHRAMAN.xls中, 有关该数据集的详细描述详见http://archive.ics.uci.edu/ml/datasets
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:57kb
    • 提供者:weixin_38723105
  1. Pytorch加载部分预训练模型的参数实例

  2. 前言 自从从深度学习框架caffe转到Pytorch之后,感觉Pytorch的优点妙不可言,各种设计简洁,方便研究网络结构修改,容易上手,比TensorFlow的臃肿好多了。对于深度学习的初学者,Pytorch值得推荐。今天主要主要谈谈Pytorch是如何加载预训练模型的参数以及代码的实现过程。 直接加载预选脸模型 如果我们使用的模型和预训练模型完全一样,那么我们就可以直接加载别人的模型,还有一种情况,我们在训练自己模型的过程中,突然中断了,但只要我们保存了之前的模型的参数也可以使用下面的代码直
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:47kb
    • 提供者:weixin_38666823
  1. 脑网络启发算法:预训练的极限学习机

  2. 极限学习机(ELM)是一种有前途的学习方法,用于训练“通用”单隐藏层前馈神经网络(SLFNs),近来其快速的学习速度,良好的泛化能力和易实现性引起了人们的极大兴趣。但是,由于其手动选择的网络参数(例如,输入权重和隐藏的偏差),ELM的性能可能会容易下降。 在本文中,我们针对分类问题提出了一种新颖的预先训练的极限学习机(简称P-ELM)..在P-ELM中,优越的网络参数由基于ELM的自动编码器(ELM-AE)预先训练在人脸图像识别和手写方面的实验和比较。图像注释应用表明,P-ELM是有前途的,并且
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:568kb
    • 提供者:weixin_38514322
  1. network_analysis:分析网络,包括经过训练的网络。 培训由pytorch完成-源码

  2. 网络分析 Python 3.7中的网络分析工具,包括受过训练的网络。 培训由pytorch完成。 主要有三个包 这些工具目前尚未准备好供广大读者使用(特别是文档稀疏且不一致)。 将来的更新可能会改变这一点。 主要模块有四个:(1)models.py包含PyTorch torch.nn.Module对象。 这些是可用于训练的网络模型。 (2)model_trainer.py包含一个函数train_model,该函数接受模型,优化器,损失函数等并训练模型。 (3)model_output_man
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:28kb
    • 提供者:weixin_42131443
  1. deep-learning-training-gui:通过GUI(网络应用)在经过预先训练的深度学习模型上进行训练和预测模型。 没有更多的参数,没有更多的数据预处理-源码

  2. 描述 我的目标是在不编写额外代码的情况下,通过GUI(或您可以调用Web应用程序)简化经过预训练的深度学习模型的安装和培训。 设置数据集并立即开始训练,并使用TensorBoard或DLTGUI工具对其进行监视。 没有更多的参数,没有更多的数据预处理。 在开发此应用程序时,我受到NVIDIA开发的DIGITS系统的启发。 训练图像分类算法不会有任何问题。 训练图像分类模型,保存模型并根据保存的模型进行预测很容易。 几个参数! 您将能够在预训练的模型上训练。 它在1.0中不存在,但是,
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:300mb
    • 提供者:weixin_42166626
  1. insitu_net:InSituNet:用于集成仿真的参数空间探索的深度图像合成(SciVis 2019)-源码

  2. InSituNet 我们SciVis 2019论文《 InSituNet:用于集成模拟的参数空间探索的深度图像综合》中介绍了深度学习模型的PyTorch实现。 具有不同损失功能的InSituNet训练的比较 由InSituNet生成的示例可视化图像
  3. 所属分类:其它

  1. gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码

  2. 适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:779kb
    • 提供者:weixin_42116805
  1. adabnn:与论文工作相关的代码:“ AdaBnn:经过自适应结构学习训练的二值化神经网络”-源码

  2. 阿达·本 与论文工作相关的代码: “ AdaBnn:经过自适应结构学习训练的二值化神经网络” 该存储库当前包含两个协作笔记本: 带有实验性质的基于Keras实施AdaNet算法提出的由该文件实验“ ”在,对于学习神经网络结构为子网的集合。 此外,AdaBnn表示为对AdaNet的修改,它对运行时间施加了二进制约束,以尝试在时间方面提高性能,并且是一种基于“的正则化方式”。 “。 另外,包含的单独代码包含Adanet和AdaBnn实现及其文档。 一些发现 根据笔记本中提供的实验: 在自
  3. 所属分类:其它

  1. pytorch 实现查看网络中的参数

  2. 可以通过model.state_dict()或者model.named_parameters()函数查看现在的全部可训练参数(包括通过继承得到的父类中的参数) 可示例代码如下: params = list(model.named_parameters()) (name, param) = params[28] print(name) print(param.grad) print('-------------------------------------------------
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28kb
    • 提供者:weixin_38670531
  1. Pytorch保存模型用于测试和用于继续训练的区别详解

  2. 保存模型 保存模型仅仅是为了测试的时候,只需要 torch.save(model.state_dict, path) path 为保存的路径 但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是 Adam优化器的时候, 一定要保存好训练的优化器参数以及epoch state = { 'model': model.state_dict(), 'optimizer':optimizer.state_dict(), 'epoch': epoch } torch.save(state, p
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:35kb
    • 提供者:weixin_38707153
« 12 3 4 5 6 7 8 9 10 ... 50 »