您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 自动超参数优化:算法和应用综述论文.pdf

  2. 本文对HPO中最基本的主题进行了综述。第一部分介绍了与模型训练和结构相关的关键超参数,并讨论了它们的重要性和定义值范围的方法。然后,研究了主要的优化算法及其适用性,包括它们的效率和准确性,特别是对于深度学习网络。本研究接下来将回顾HPO的主要服务和工具包,比较它们对最先进的搜索算法的支持、与主要深度学习框架的可行性以及用户设计的新模块的可扩展性。
  3. 所属分类:机器学习

    • 发布日期:2020-03-16
    • 文件大小:1mb
    • 提供者:syp_net
  1. 使用上千个优化任务学习超参数搜索策略【Google 大脑】.pdf

  2. 我们提供TaskSet,一个用于训练和评估优化器的任务数据集。TaskSet在规模和多样性上都是独一无二的,它包含了超过1000个任务,从使用全连接或卷积神经网络的图像分类,到变分自编码器,再到各种数据集上的非卷保存流。作为此类数据集的一个示例应用程序,我们将探索元学习一个超参数的有序列表并按顺序进行尝试。
  3. 所属分类:机器学习

    • 发布日期:2020-03-14
    • 文件大小:1mb
    • 提供者:syp_net
  1. 使用TensorBoard进行超参数优化的实现

  2. 主要介绍了使用TensorBoard进行超参数优化的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:605kb
    • 提供者:weixin_38689338
  1. 可靠:强化学习的分布式超参数优化框架-源码

  2. 责任 RLiable是用于增强学习代理的快速超参数调整的实验并行化框架。 它旨在满足对可分发的Spark / TF兼容模型的需求,该模型允许以简单reliable方式扩展实验。 执行 先决条件: 版本 Python > = 3.6 火花 3.0.1 Hadoop 2.7 Java 1.8 Scala 2.11 注意: scr ipts/install_spark_hpc.sh提供了Linux(基于Debian)安装脚本。 安装要求 创建virtualenv并安装Python
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:39kb
    • 提供者:weixin_42099987
  1. 芒果:Python中的并行超参数优化-源码

  2. 芒果:平行的黑匣子优化库 Mango是一个python库,用于在复杂搜索空间上进行并行优化。 目前,Mango旨在为机器学习算法找到最佳的超参数。 查看Mango的快速12秒演示,该演示近似于SVM的复杂决策边界 Mango在内部使用基于高斯过程的多臂Bandit贝叶斯优化器的并行实现。 芒果的一些突出特点是: 能够轻松定义与scikit-learn随机搜索和gridsearch函数兼容​​的复杂搜索空间。 内部使用最先进的优化器,该优化器允许并行采样一批值以进行评估。 目标函数可以任
  3. 所属分类:其它

  1. OHO:在线超参数优化-源码

  2. 通过实时循环学习进行在线超参数优化 Daniel Jiwoong Im,Cristina Savin和Kyunghyun Cho提供的在线超参数优化(OHO)代码的Pytorch实现一种在线超参数优化算法,在理论上和实践上都渐近精确且在计算上易于处理。 我们的框架利用了递归神经网络(RNN)中超参数优化和参数学习之间的类比。 它为RNN改编了经过广泛研究的在线学习算法系列,可同时调整超参数和网络参数,而无需反复进行迭代优化。 与标准方法相比,此过程可在较短的时钟时间上系统地产生更好的泛化性能。
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:83kb
    • 提供者:weixin_42128558
  1. tabular_baselines:XGBoost算法与Hyperband加贝叶斯优化(BOHB)相结合,用于超参数优化-源码

  2. 表格基线 不同的表格基线算法与超频带加贝叶斯优化(BOHB)相结合,用于超参数优化。
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:18kb
    • 提供者:weixin_42134097
  1. 很棒的AutoML和轻量级模型:高质量(最新)的AutoML作品和轻量级模型的列表,包括1.)神经体系结构搜索,2。)轻量级结构,3。)模型压缩,量化和加速,4。 )超参数优化,5.)自动化特征工程-源码

  2. 很棒的AutoML和轻量级模型:高质量(最新)的AutoML作品和轻量级模型的列表,包括1.)神经体系结构搜索,2。)轻量级结构,3。)模型压缩,量化和加速,4。 )超参数优化,5.)自动化特征工程
  3. 所属分类:其它

  1. DFLsklearn:DFLsklearn是用于根据超参数优化任何给定算法方法刺激器的软件。 它提供了一个用于自动优化sklearn估计器超参数的界面。 有关详细的文档页面,请访问http://mida.dima.unige.itdflsk

  2. DFLsklearn DFLsklearn是一种在查找机器学习算法的超参数的方法。 该方法自动支持Sklearn中存在的许多估计器,但是它也能够处理所有从BaseEstimator类继承的算法。 DFLsklearn已在linux和macos发行版上经过测试。 DFLsklearn文档可从以下网站在线获得: //mida.dima.unige.it/dflsklearn 安装 The code can be downloaded from github: git clone gitgit
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:22kb
    • 提供者:weixin_42177768
  1. osprey:machine机器学习管道的超参数优化:eagle:-源码

  2. 鱼鹰 Osprey是一种易于使用的工具,可使用scikit-learn(或使用scikit-learn兼容的API)对Python中的机器学习算法进行超参数优化。 每个Osprey实验都结合了数据集,估计量,搜索空间(和引擎),交叉验证和异步序列化,以进行模型超参数的分布式并行优化。 文献资料 有关完整文档,请访问。 安装 如果您具有Anaconda Python发行版,则安装非常简单: $ conda install -c omnia osprey 您还可以使用pip安装Osprey:
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:308kb
    • 提供者:weixin_42163404
  1. talos:TensorFlow,Keras和PyTorch的超参数优化-源码

  2. Keras的超参数优化 •••••••• Talos通过完全自动化的超参数调整和模型评估,从根本上改变了普通的Keras工作流程。 Talos完全公开了Keras功能,没有新的语法或模板可学习。 塔罗斯 TL; DR Talos可以从根本上改变普通的Keras工作流程,而不会占用任何Keras。 与任何Keras模型一起使用 花费几分钟来实施 无需学习新语法 为您的工作流程增加零新开销 Talos专为希望完全控制其Keras模型的数据科学家和数据工程师而设计,但他们厌倦了无意识的参数跳跃
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:329kb
    • 提供者:weixin_42099755
  1. 超参数:ES6超参数搜索tfjs-源码

  2. ES6超参数优化 :warning: 早期版本可能会更改。 产品特点 用javascr ipt写的-与tensorflow.js一起使用来代替python hyperparameters库 从CDN或NPM中使用-从CDN链接html文件中的hpjs,或使用npm安装在项目中 通用-利用多个参数和多种搜索算法(网格搜索,随机,贝叶斯) 安装 $ npm install hyperparameters 参数表达式 import * as hpjs from 'hyperparameters';
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:35kb
    • 提供者:weixin_42140625
  1. hyperparameter_hunter:轻松的超参数优化和跨机器学习算法和库的自动结果保存-源码

  2. 超参数猎人 自动保存并从实验结果中学习,从而进行长期,持续的优化,从而记住您的所有测试。 HyperparameterHunter为机器学习算法提供了一个包装器,该包装器保存了所有重要数据。 让HyperparameterHunter进行记录,组织测试以及从测试中学习的艰苦工作,从而简化了实验和超参数调整过程,而所有这些都使用了已经使用的相同库。 不要浪费您的任何实验,而是按照原本的方式开始进行超参数优化。 安装: pip install hyperparameter-hunter 来源
  3. 所属分类:其它

  1. MLJTuning.jl:用于MLJ机器学习框架的超参数优化算法-源码

  2. MLJTuning.jl:用于MLJ机器学习框架的超参数优化算法
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:72kb
    • 提供者:weixin_42138780
  1. 超参数优化:使用KerasClassifier和GridSearchCV来提高卷积神经网络的准确性-源码

  2. 超参数优化
  3. 所属分类:其它

  1. sklearn-audio-classification:对RAVDESS数据集上的音频分类进行深入分析。 使用多种ML技术和MLP进行特征工程,超参数优化,模型评估和交叉验证-源码

  2. sklearn-audio-classification:对RAVDESS数据集上的音频分类进行深入分析。 使用多种ML技术和MLP进行特征工程,超参数优化,模型评估和交叉验证
  3. 所属分类:其它

  1. Hyperactive:超参数优化和元学习工具箱,可方便,快速地进行机器深度学习模型的原型制作-源码

  2. 超参数优化和元学习工具箱,可方便,快速地建立机器学习模型的原型。 主人身份: 开发人员状态: 代码质量: 最新版本: Hyperactive主要是一个超参数优化工具包,旨在简化模型选择和调整过程。 您可以使用任何机器学习或深度学习软件包,而无需学习新语法。 Hyperactive具有两个特性,因此在模型优化中具有很高的通用性: 您可以在目标函数中定义任何类型的模型。 它只需要返回一个得分/度量值即可最大化。 搜索空间不仅接受“ int”,“ float”或“ str”作为数据类型,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:616kb
    • 提供者:weixin_42139042
  1. optuna:超参数优化框架-源码

  2. Optuna:超参数优化框架 | | | Optuna是一个自动超参数优化软件框架,专门为机器学习而设计。 它具有命令式,运行式定义的用户API。 多亏了我们的按运行定义API,用Optuna编写的代码具有高度的模块化,并且Optuna的用户可以动态构造超参数的搜索空间。 新闻 2020-12-02现在支持Python 3.9。 集成模块仍在开发中,并由进行跟踪 2020-09-17 isort已合并,以保持导入声明的一致性。 在了解更多有关它的信息 2020-08-07我们欢迎您的并正在努
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:699kb
    • 提供者:weixin_42175035
  1. Awesome-AutoDL:精选的自动化深度学习(包括神经体系结构搜索和超参数优化)资源列表-源码

  2. Awesome-AutoDL:精选的自动化深度学习(包括神经体系结构搜索和超参数优化)资源列表
  3. 所属分类:其它

  1. 使用TensorBoard进行超参数优化的实现

  2. 在本文中,我们将介绍超参数优化,然后使用TensorBoard显示超参数优化的结果。 深度神经网络的超参数是什么? 深度学习神经网络的目标是找到节点的权重,这将帮助我们理解图像、文本或语音中的数据模式。 要做到这一点,可以使用为模型提供最佳准度和精度的值来设计神经网络参数。 那么,这些被称为超参数的参数是什么呢? 用于训练神经网络模型的不同参数称为超参数。这些超参数像旋钮一样被调优,以提高神经网络的性能,从而产生一个优化的模型。超参数的一个通俗的解释是:用来优化参数的参数。 神经网络中的一些超参
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:604kb
    • 提供者:weixin_38500222
« 12 3 4 5 6 7 8 9 10 ... 29 »