点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 机器学习中的目标函数
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
机器学习中的范数规则化之L0、L1与L2范数
通俗易懂的讲解机器学习中的范数规则化之L0、L1与L2范数的原理,帮助理解稀疏编码中的目标函数优化问题中的L1范数规则化
所属分类:
IT管理
发布日期:2014-10-19
文件大小:757kb
提供者:
tiandijun
目标检测 机器学习方法 静态场景 测试车辆检测
利用机器学习方法(分类)实现静态场景下的测试车辆检测 利用C语言或者Open_CV库,或者是MATLAB软件编写实现静态场景下的测视车辆检测。需使用机器学习方法。代码可以通过一个主函数直接运行出实验结果。 Data文件夹中包含train_34x94(训练集)和test(测试集)两个文件夹。其中,train_34x94文件夹中的数据用于训练模型,包含pos文件夹(内有550个正例样本)和neg文件夹(内有500个负例样本); Test文件夹中的数据用于测试。 在Test测试集中的总体
所属分类:
讲义
发布日期:2017-02-14
文件大小:9mb
提供者:
u012863603
机器学习综述
了解机器学习中的相关基本概念和常用方法 初步掌握极大似然估计、梯度下降法的一般性计算套路 熟悉最小二乘法的目标函数建立和解决方案 了解期望最大化算法(EM算法)的思路
所属分类:
机器学习
发布日期:2017-11-12
文件大小:1mb
提供者:
gabriel1972
机器学习中的数学
介绍了机器中的数学知识,假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法和拟牛顿法。迭代公式为: 其中称为搜索方向,称为步长,为第k次迭代后x的值。不同的迭代算法的区别主要在搜索方向的确定上,而如何确定步长是另一个问题,这里不打算介绍。 假设函数 是 上具有二阶连续偏导数的函数,考虑无约束优化问题: 表示目标函数的极小点。解无约束优化问题一般常用迭代算法,常用的迭代算法有梯度下降法,牛顿法
所属分类:
机器学习
发布日期:2018-06-04
文件大小:1mb
提供者:
weixin_42383519
机器学习培训课程讲义第一章(管窥机器学习)
在具体学习机器学习的过程中,往往是因为推导造成的障碍 了解基本的高等数学知识是必要的 机器学习比想象中要简单的多 举例:kNN用于分类、基本的聚类过程 了解机器学习中的相关基本概念和常用方法 初步掌握极大似然估计、梯度下降法的一般性计算套路 熟悉最小二乘法的目标函数建立和解决方案 了解期望最大化算法(EM算法)的思路
所属分类:
专业指导
发布日期:2019-02-20
文件大小:1mb
提供者:
qq_31441951
机器学习中的最优化算法总结
机器学习中的最优化算法总结下图给出了这些算法的分类与它们之间的关系: 接下来我们将按照这张图来展开进行讲解。 费马定理 对于一个可导函数,寻找其极值的统一做法是寻找导数为0的点,即费马定理。微积分中的 这一定理指出,对于可导函数,在极值点处导数必定为0: 对于多元函数,则是梯度为0 导数为0的点称为驻点。需要注意的是,导数为0只是函数取得极值的必要条件而不是充分条 件,它只是疑似极值点。是不是极值,是极大值还是极小值,还需要看更高阶导数。对于 元函数,假设x是驻点 如果 (x)>0,则在该
所属分类:
机器学习
发布日期:2019-07-02
文件大小:557kb
提供者:
abacaba
机器学习算法基础学习总结
机器学习算法基础学习总结2.基本算法 2.1 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据。 类别:分类算法。 试用场景:解决二分类问题。 简述: Logistic回归算法基于 Sigmoid函数,或者说 Sigmoid就是逻辑回归函数。 Sigmoid函数定义如下:1/(1-exp(-z))。函数值域范围(0,1)。可以用来做分 类器。 Sigmoid函数的函数曲线如下: 逻辑凹归模型分解如下:(1)首先将不同
所属分类:
机器学习
发布日期:2019-07-02
文件大小:305kb
提供者:
abacaba
机器学习中的目标函数总结.docx
几乎所有的机器学习算法最后都归结为求解最优化问题,以达到我们想让算法达到的目标。为了完成某一目标,需要构造出一个“目标函数”来,然后让该函数取极大值或极小值,从而得到机器学习算法的模型参数。如何构造出一个合理的目标函数,是建立机器学习算法的关键,一旦目标函数确定,接下来就是求解最优化问题,这在数学上一般有现成的方案。
所属分类:
互联网
发布日期:2020-07-17
文件大小:195kb
提供者:
guzhao9901
python机器学习理论与实战(六)支持向量机
上节基本完成了SVM的理论推倒,寻找最大化间隔的目标最终转换成求解拉格朗日乘子变量alpha的求解问题,求出了alpha即可求解出SVM的权重W,有了权重也就有了最大间隔距离,但是其实上节我们有个假设:就是训练集是线性可分的,这样求出的alpha在[0,infinite]。但是如果数据不是线性可分的呢?此时我们就要允许部分的样本可以越过分类器,这样优化的目标函数就可以不变,只要引入松弛变量即可,它表示错分类样本点的代价,分类正确时它等于0,当分类错误时,其中Tn表示样本的真实标签-1或者1,回顾
所属分类:
其它
发布日期:2020-12-23
文件大小:195kb
提供者:
weixin_38724247
机器学习系列(三)——目标函数和损失函数
#机器学习基础(三) 文章目录4. 目标函数4.1 为什么要使用目标函数4.2 目标函数的作用原理4.3 为什么目标函数是负的4.4 常见的目标函数4.4.1 **二次代价函数(quadratic cost)**:4.4.2 **交叉熵代价函数(cross-entropy)**:4.4.3**对数似然代价函数(log-likelihood cost)**:5. 损失函数5.1 什么是损失函数5.2 常见的损失函数5.3 逻辑回归为什么使用对数损失函数5.4 对数损失函数是如何度量损失的 在本
所属分类:
其它
发布日期:2021-01-06
文件大小:426kb
提供者:
weixin_38654382
Rmleda:R软件包,可帮助进行受指导的机器学习任务的初步eda-源码
Rmleda Rmleda的目标是构建一个具有相关功能的R包Rmleda ,以帮助为给定的数据集进行初步的EDA。 该软件包包含的函数和类可帮助执行各种数据准备和整理任务,例如数据拆分,探索,插补和缩放。 这些功能在有监督的机器学习设置中被确定为通常执行的任务,但也可能在其他项目类型中提供价值。 Rmleda软件包将包括以下类/函数: SupervisedData是一个包装器类,它根据用户提供的列的列表将数据帧分为训练集和测试集,并进一步分为X和y子集。 dftype()函数将返回输入数
所属分类:
其它
发布日期:2021-03-13
文件大小:19kb
提供者:
weixin_42152298
机器学习中的目标函数总结.pdf
机器学习中的目标函数总结
所属分类:
互联网
发布日期:2021-03-03
文件大小:519kb
提供者:
jwy2014
用Python实现机器学习算法——简单的神经网络
本文来自于网络,文章详细介绍了使用Python实现机器学习算法的损失函数、反向传播过程等相关知识。在这一章节里,我们将实现一个简单的神经网络架构,将2维的输入向量映射成二进制输出值。我们的神经网络有2个输入神经元,含6个隐藏神经元隐藏层及1个输出神经元。我们将通过层之间的权重矩阵来表示神经网络结构。在下面的例子中,输入层和隐藏层之间的权重矩阵将被表示为W,隐藏层和输出层之间的权重矩阵为W。除了连接神经元的权重向量外,每个隐藏和输出的神经元都会有一个大小为1的偏置量。我们的训练集由m=750个样本
所属分类:
其它
发布日期:2021-02-24
文件大小:199kb
提供者:
weixin_38669674
自动化机器学习(AutoML)之自动贝叶斯调参
【导读】机器学习中,调参是一项繁琐但至关重要的任务,因为它很大程度上影响了算法的性能。手动调参十分耗时,网格和随机搜索不需要人力,但需要很长的运行时间。因此,诞生了许多自动调整超参数的方法。贝叶斯优化是一种用模型找到函数最小值方法,已经应用于机器学习问题中的超参数搜索,这种方法性能好,同时比随机搜索省时。此外,现在有许多Python库可以实现贝叶斯超参数调整。文章由贝叶斯优化方法、优化问题的四个部分、目标函数、域空间、优化过程、及结果展示几个部分组成。贝叶斯优化通过基于目标函数的过去评估结果建立
所属分类:
其它
发布日期:2021-02-24
文件大小:751kb
提供者:
weixin_38632624
SureStart-VAIL:一个存储库,其中包含SureStart Spring 2021 AI和机器学习程序的所有代码,项目和日常反思-源码
确保启动VAIL 2021程序 我正在以AI和机器学习学员的身份完成SureStart VAIL 2021程序的存储库。 该计划包括以下方面的技术技能培训: 机器学习 自然语言处理 计算机视觉 数据分析和可视化 符合道德规范的AI开发 回应 第2天:(02/09/21):机器学习(ML)和Scikit-Learn入门 第2天的材料可以在找到 监督学习与无监督学习有什么区别? 监督学习是指已根据一组预定义的训练示例进行训练的程序。 主要目标是提出一个预测器函数h(x) ,该函数使用数学算法优化该
所属分类:
其它
发布日期:2021-02-11
文件大小:21kb
提供者:
weixin_42116705
遗传学习:机器和深度学习算法,以取代遗传算法中的多目标函数-源码
基因学习 资讯资讯 作者:AndreaSoldà, 请注意,这是一个较旧的项目,将不会收到进一步的更新。 这是什么? 该项目的目的是证明可以将一定数量的目标函数简化为一个神经网络(NN),并且经过适当训练的NN在评估遗传算法进化过程中的个体适应性时可以提供好处。 (GA)。 这个怎么运作 步骤1:建立训练集 执行适当数量的多目标GA短期运行; 每次运行彼此独立,并产生不同的解决方案; 然后使用提供的目标函数评估每个解决方案。 对于每次运行,所有“帕累托最优”解决方案都会收集在一起,从而创建
所属分类:
其它
发布日期:2021-02-04
文件大小:22kb
提供者:
weixin_42122838
Hyperactive:超参数优化和元学习工具箱,可方便,快速地进行机器深度学习模型的原型制作-源码
超参数优化和元学习工具箱,可方便,快速地建立机器学习模型的原型。 主人身份: 开发人员状态: 代码质量: 最新版本: Hyperactive主要是一个超参数优化工具包,旨在简化模型选择和调整过程。 您可以使用任何机器学习或深度学习软件包,而无需学习新语法。 Hyperactive具有两个特性,因此在模型优化中具有很高的通用性: 您可以在目标函数中定义任何类型的模型。 它只需要返回一个得分/度量值即可最大化。 搜索空间不仅接受“ int”,“ float”或“ str”作为数据类型,
所属分类:
其它
发布日期:2021-02-03
文件大小:616kb
提供者:
weixin_42139042
自动化机器学习(AutoML)之自动贝叶斯调参
【导读】机器学习中,调参是一项繁琐但至关重要的任务,因为它很大程度上影响了算法的性能。手动调参十分耗时,网格和随机搜索不需要人力,但需要很长的运行时间。因此,诞生了许多自动调整超参数的方法。贝叶斯优化是一种用模型找到函数最小值方法,已经应用于机器学习问题中的超参数搜索,这种方法性能好,同时比随机搜索省时。此外,现在有许多Python库可以实现贝叶斯超参数调整。文章由贝叶斯优化方法、优化问题的四个部分、目标函数、域空间、优化过程、及结果展示几个部分组成。 贝叶斯优化通过基于目标函数的过去评估结果建
所属分类:
其它
发布日期:2021-01-27
文件大小:750kb
提供者:
weixin_38530415
人工智能与机器学习—梯度下降法
一、梯度下降法 1、概述 梯度下降(gradient descent)在机器学习中应用十分的广泛,不论是在线性回归还是Logistic回归中,它的主要目的是通过迭代找到目标函数的最小值,或者收敛到最小值。 2、原理 梯度下降算法的基本原理就是通过多次迭代,求得与精度值匹配的最后结果: 二、牛顿法 1、牛顿法的概述 牛顿法是机器学习中用的比较多的一种优化算法。牛顿法的基本思想是利用迭代点处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二次模型的极小点作为新的迭
所属分类:
其它
发布日期:2021-01-20
文件大小:597kb
提供者:
weixin_38719564
浅谈SciPy中的optimize.minimize实现受限优化问题
问题描述:有一批样本x,每个样本都有几个固定的标签,如(男,24岁,上海),需要从中抽取一批样本,使样本总的标签比例满足分布P(x),如(男:女=49%:51%、20岁:30岁=9%:11%、……….) 采用KL-散度作为优化目标函数。 KL-散度又叫相对熵 KL-散度在机器学习中,P用来表示样本的真实分布,比如[1,0,0]表示当前样本属于第一类。Q用来表示模型所预测的分布,比如[0.7,0.2,0.1] KL-散度直观的理解就是如果用P来描述样本,那么就非常完美。而用Q来描述样本,虽然可以大
所属分类:
其它
发布日期:2021-01-20
文件大小:63kb
提供者:
weixin_38621870
«
1
2
3
4
5
»