您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. LINGO软件的学习

  2. LINGO是用来求解线性和非线性优化问题的简易工具。LINGO内置了一种建立最优化模型的语言,可以简便地表达大规模问题,利用LINGO高效的求解器可快速求解并分析结果。 §1 LINGO快速入门 当你在windows下开始运行LINGO系统时,会得到类似下面的一个窗口: 外层是主框架窗口,包含了所有菜单命令和工具条,其它所有的窗口将被包含在主窗口之下。在主窗口内的标题为LINGO Model – LINGO1的窗口是LINGO的默认模型窗口,建立的模型都都要 在该窗口内编码实现。下面举两个例子
  3. 所属分类:C

    • 发布日期:2009-08-08
    • 文件大小:319488
    • 提供者:huxlaylyx
  1. 线性规划对偶型运筹学课件

  2. 为了方便与大家交流,相互学习,将自己学习所用的课件提供
  3. 所属分类:专业指导

    • 发布日期:2009-09-02
    • 文件大小:5242880
    • 提供者:tuzichaoren
  1. 浅谈SVM学习的对偶算法

  2. 简述了SVM的最优化问题模型如何求解:对偶问题的引入,等价性证明,以及具体求解策略。是SVM学习的一个比较详细的材料.
  3. 所属分类:教育

    • 发布日期:2013-03-25
    • 文件大小:565248
    • 提供者:stickgy
  1. 斯坦福机器学习公开课6-8

  2. 内含三个pdf文件,分别在博客http://blog.csdn.net/stdcoutzyx中有对应的文章,主要讲述了支持向量机的内容,包括最优间隔分类器、对偶问题、序列最小化算法等等,另外,笔记6中还包括了部分朴素贝叶斯和神经网络的内容。
  3. 所属分类:专业指导

  1. SVM对偶空间求解与直接求解效率比较

  2. .m 资源 本代码利用对偶空间求解SVM模型与直接求解进行对比,实现简单的模式分类
  3. 所属分类:专业指导

    • 发布日期:2014-04-08
    • 文件大小:399360
    • 提供者:yutian377547
  1. SVM学习的对偶算法

  2. 支持向量机(SVM)、优化理论、对偶问题的较清楚的讲解。
  3. 所属分类:讲义

    • 发布日期:2016-05-15
    • 文件大小:565248
    • 提供者:u010215207
  1. 斯坦福机器学习ML公开课笔记1-15(完整版、带目录索引和NG原版讲义)

  2. 1-15节全部完整版讲义!超清分享~~~(附赠目录索引和NG原版讲义) 含金量高,独家整理~~ 目录如下: 公开课笔记1-2——线性规划、梯度下降、正规方程组 公开课笔记3——局部加权回归、逻辑斯蒂回归、感知器算法 公开课笔记4——牛顿方法、指数分布族、广义线性模型 公开课笔记5——生成学习、高斯判别、朴素贝叶斯 公开课笔记6——NB多项式模型、神经网络、SVM初步 公开课笔记7——最优间隔分类、原始/对偶问题、SVM对偶 公开课笔记8———核技法、软间隔分类器、SMO算法 公开课笔记9—偏差
  3. 所属分类:机器学习

    • 发布日期:2017-11-07
    • 文件大小:8388608
    • 提供者:u012416259
  1. 统计学习课程练习(matlab)

  2. 1.熟悉Matlab内置线性规划函数的使用 2.对Iris数据集中的数据求取协方差和相关性系数矩阵。并对该数据集做KL变换。 3.随机产生100组数据,每组数据有25个点,数据点为函数sin(2*pi*x)加上高斯噪声,使用Ridge回归对不同的lambda值进行7阶多项式拟合。 4.实现感知机的原始形式算法和对偶形式,证明数据可分性 5.实现一个朴素贝叶斯分类器,并使用课堂中的数据测试,最后加入拉普拉斯平滑,查看输出有什么变化。 6.使用3 中产生的数据,使用CART方法生成一个回归树。 7
  3. 所属分类:讲义

    • 发布日期:2017-12-03
    • 文件大小:4194304
    • 提供者:u012525636
  1. Dual learning

  2. 对偶学习的基本思想是两个对偶的任务能形成一个闭环反馈系统,使我们得以从未标注的数据上获得反馈信息,进而利用该反馈信息提高对偶任务中的两个机器学习模型。
  3. 所属分类:深度学习

    • 发布日期:2018-03-20
    • 文件大小:529408
    • 提供者:qq_37879432
  1. 斯坦福Ng机器学习课程笔记(中文版)

  2. 【第1讲】 机器学习的动机与应用 【第2讲】 监督学习应用-线性回归 【第3讲】 线性回归的概率解释、局部加权回归、逻辑回归 【第4讲】 牛顿法、一般线性模型 【第5讲】 生成学习算法、高斯判别分析、朴素贝叶斯算法 【第6讲】 事件模型、函数间隔与几何间隔 【第7讲】 最优间隔分类器、拉格朗日对偶、支持向量机 【第8讲】 核方法、序列最小优化算法 【第9讲】 经验风险最小化 【第10讲】 交叉验证、特征选择 【第11讲】 贝叶斯统计、机器学习应用建议 【第12讲】 $k$-means算法、高斯
  3. 所属分类:讲义

    • 发布日期:2018-04-14
    • 文件大小:6291456
    • 提供者:difstone
  1. <统计学习方法>对偶感知器Python代码

  2. 统计学习方法例2.2,对偶感知器Python代码实现。需要的人可以参考下
  3. 所属分类:机器学习

    • 发布日期:2018-05-05
    • 文件大小:26214400
    • 提供者:x710777335
  1. SVM 拉格朗日对偶解释

  2. 关于机器学习中 SVM拉格朗日对偶的一些解释以及相关的求解问题
  3. 所属分类:机器学习

    • 发布日期:2018-06-12
    • 文件大小:113664
    • 提供者:lv0817
  1. 一种具有遗忘特性的在线学习算法框架

  2. 基于凸优化中的对偶理论,提出了一种具有遗忘特性的在线学习算法框架。其中,Hinge函数的 Fenchel对偶变换是将基本学习问题由批量学习转化为在线学习的关键
  3. 所属分类:算法与数据结构

    • 发布日期:2018-07-19
    • 文件大小:702464
    • 提供者:tonsz
  1. 论文:对偶学习

  2. 论文:对偶学习 用对偶的方式在机器翻译中利用单语语料。
  3. 所属分类:深度学习

    • 发布日期:2018-10-06
    • 文件大小:260096
    • 提供者:topgearic
  1. 机器学习中的最优化算法总结

  2. 机器学习中的最优化算法总结下图给出了这些算法的分类与它们之间的关系: 接下来我们将按照这张图来展开进行讲解。 费马定理 对于一个可导函数,寻找其极值的统一做法是寻找导数为0的点,即费马定理。微积分中的 这一定理指出,对于可导函数,在极值点处导数必定为0: 对于多元函数,则是梯度为0 导数为0的点称为驻点。需要注意的是,导数为0只是函数取得极值的必要条件而不是充分条 件,它只是疑似极值点。是不是极值,是极大值还是极小值,还需要看更高阶导数。对于 元函数,假设x是驻点 如果 (x)>0,则在该
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:570368
    • 提供者:abacaba
  1. 运筹学第二章:线性规划的对偶理论和灵敏度分析.pdf

  2. 运筹学教程第五版第二章——线性规划的对偶理论和灵敏度分析的一个学习笔记。主要介绍了对偶单纯形法和线性规划问题中不同变量变换时的灵敏度分析。也介绍了参数线性规划的内容。
  3. 所属分类:管理软件

    • 发布日期:2020-08-27
    • 文件大小:253952
    • 提供者:LIANG9JIAN
  1. 基于深度学习的复杂分拣图像快速识别方法研究

  2. 训练速度更快、识别精准度更高的图像识别技术一直是智能技术的研究热点及前沿。针对物流分拣仓库环境复杂、照明度不高以及快递外包装区别不明显的特点,对基于深度学习的分拣图像快速识别进行了研究,设计了一个卷积神经网络。由于仓库的封闭环境和光照条件等因素而导致分拣图像不是很清晰,首先用对偶树复小波变换对其进行降噪等预处理;然后在基于AlexNet神经网络的基础上,对于卷积神经网络的卷积层、ReLU层和池化层参数进行重新定义来加快神经网络的学习速度;最后根据新的图像分类任务对神经网络的最后三层全连接层、So
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:653312
    • 提供者:weixin_38742291
  1. 《机器学习对偶性》报告

  2. Google 研究科学家Mathieu Blondel在PSL大学的“机器学习的对偶性”课程材料。主题包括共轭函数,平滑技术,Fenchel对偶性,Fenchel-Young损失和块对偶坐标上升算法。
  3. 所属分类:机器学习

    • 发布日期:2020-11-29
    • 文件大小:1048576
    • 提供者:syp_net
  1. 深度学习 DAY2

  2. 一、SVM 1.几个概念需要理清 几何间隔 函数间隔 决策边界 2.求解 通过放缩w,b,使得函数间隔变成1,转而变成最小化||w||,等价于 min 1/2*||w||,变成2次规划问题 由此可以看出,函数间隔可以取任意值,函数间隔的数值越大,不能说明分类结果的确信度越大。 3.对偶问题 可以用SMO对α进行求解,然后求解w,注意w有唯一解,但是b的解在一个区间当中,并不唯一。 对于一些“渗透”的点,可以添加松弛变量 4.核函数 非线性关系怎么进行分割呢? 用特征映射
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38502916
  1. Stiefel流形上沿测地线搜索的自适应主(子)分量分析对偶学习算法

  2. Stiefel流形上沿测地线搜索的自适应主(子)分量分析对偶学习算法
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:634880
    • 提供者:weixin_38705788
« 12 3 4 »