点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 梯度下降算法(机器学习)
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
java实现随机梯度下降(含玫瑰花数据集)
用java实现了机器学习算法里面的随机梯度下降,并带有UCI数据集中的iris(玫瑰花)数据集的txt文件,还有数据库设计
所属分类:
Java
发布日期:2014-10-21
文件大小:30kb
提供者:
nswdtssroeydh
梯度下降详解(包含简单代码示例)
梯度下降算法详解,包括原理讲解和算法实例,简单易懂
所属分类:
讲义
发布日期:2015-01-03
文件大小:657kb
提供者:
hj1107402232
机器学习梯度算法
机器学习梯度下降算法 采用的方法:梯度下降法 运行环境:Eclipse 语言:Java 初始参数值:theta0=0,theta1=0 学习率:alpha=0.0001 终止条件:前后两次损失函数的差的绝对值小于0.00001 迭代次数:992次 运行结果:回归方程为:Price=0.1295+0.9087*Year 2014年南京的房价预测值为12.8512 输出精度:每次迭代过程输出theta0,theta1,当前次cost值,上一次迭代的cost值(保留了8位小数),以及迭代次数。最后输
所属分类:
Java
发布日期:2015-04-16
文件大小:2kb
提供者:
qq_23113771
斯坦福机器学习ML公开课笔记1-15(完整版、带目录索引和NG原版讲义)
1-15节全部完整版讲义!超清分享~~~(附赠目录索引和NG原版讲义) 含金量高,独家整理~~ 目录如下: 公开课笔记1-2——线性规划、梯度下降、正规方程组 公开课笔记3——局部加权回归、逻辑斯蒂回归、感知器算法 公开课笔记4——牛顿方法、指数分布族、广义线性模型 公开课笔记5——生成学习、高斯判别、朴素贝叶斯 公开课笔记6——NB多项式模型、神经网络、SVM初步 公开课笔记7——最优间隔分类、原始/对偶问题、SVM对偶 公开课笔记8———核技法、软间隔分类器、SMO算法 公开课笔记9—偏差
所属分类:
机器学习
发布日期:2017-11-07
文件大小:8mb
提供者:
u012416259
机器学习综述
了解机器学习中的相关基本概念和常用方法 初步掌握极大似然估计、梯度下降法的一般性计算套路 熟悉最小二乘法的目标函数建立和解决方案 了解期望最大化算法(EM算法)的思路
所属分类:
机器学习
发布日期:2017-11-12
文件大小:1mb
提供者:
gabriel1972
BAT机器学习面试1000题系列
BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 4
所属分类:
机器学习
发布日期:2018-03-07
文件大小:10mb
提供者:
qq_38873863
机器学习算法详解
机器学习算法详解▪ 一、线性回归 ◦ 1、代价函数 ◦ 2、梯度下降算法 ◦ 3、均值归一化 ◦ 4、最终运行结果 ◦ 5、使用scikit-learn库中的线性模型实现 ▪ 二、逻辑回归 ◦ 1、代价函数 ◦ 2、梯度 ◦ 3、正则化 ◦ 4、S型函数(即) ◦ 5、映射为多项式 ◦ 6、使用的优化方法 ◦ 7、运行结果 ◦ 8、使用scikit-learn库中的逻辑回归模型实现 ▪ 逻辑回归_手写数字识别_OneVsAll ◦ 1、随机显示100个数字 ◦ 2、OneVsAll ◦ 3、手
所属分类:
Python
发布日期:2018-04-12
文件大小:3mb
提供者:
yuyuyuxiaolei
线性回归(最小二乘法和梯度下降法实现)
这是机器学习中最常见的模型--线性回归的python实现,其中包含了最小二乘法和梯度下降法两种拟合算法
所属分类:
机器学习
发布日期:2020-02-15
文件大小:2kb
提供者:
qq_43116030
机器学习-15. Keras深度学习框架
人工智能基础视频教程零基础入门课程 第十四章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Tenso
所属分类:
机器学习
发布日期:2020-07-16
文件大小:669mb
提供者:
suolong123
梯度下降算法(机器学习)
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,这里就对常用梯度下降法做一个完整的总结。
所属分类:
机器学习
发布日期:2020-11-04
文件大小:3mb
提供者:
Northpavilion
python实现梯度下降算法
梯度下降(Gradient Descent)算法是机器学习中使用非常广泛的优化算法。当前流行的机器学习库或者深度学习库都会包括梯度下降算法的不同变种实现。 本文主要以线性回归算法损失函数求极小值来说明如何使用梯度下降算法并给出python实现。若有不正确的地方,希望读者能指出。 梯度下降 梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快。 在线性回归算法中,损失函数为 在求极小值时,在数据量很小的时候,可以使用矩阵求逆的方式求最优的θ值。
所属分类:
其它
发布日期:2020-12-25
文件大小:253kb
提供者:
weixin_38648037
人工智能与机器学习-梯度下降法
人工智能与机器学习-梯度下降法 一、梯度下降法概述 梯度下降法(Gradient descent)是一个一阶最优化算法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。 二、梯度下降法直观理解 以人下山为例,要到达最低点,需要以下步骤: 第一步,明确自己现在所处的位置 第二步,找到相对于该位置而言下降最快的方向 第三步,沿着第二步找到的方向走一小步,然后到底一个新的位置,这时候的位置就比原来更低 第四步,又明确当前所处
所属分类:
其它
发布日期:2020-12-21
文件大小:682kb
提供者:
weixin_38726407
最优化算法python实现篇(4)——无约束多维极值(梯度下降法)
最优化算法python实现篇(4)——无约束多维极值(梯度下降法)摘要算法简介注意事项算法适用性python实现实例运行结果算法过程可视化 摘要 本文介绍了多维无约束极值优化算法中的梯度下降法,通过python进行实现,并可视化展示了算法过程。 算法简介 给定初始点,沿着负梯度方向(函数值下降最快的方向)按一定步长(机器学习中也叫学习率)进行搜索,直到满足算法终止条件,则停止搜索。 注意事项 学习率不能太小,也不能太大,可以多尝试一些值。当然每次沿着负梯度方向搜索时,总会存在一个步长使得该次搜索
所属分类:
其它
发布日期:2020-12-20
文件大小:193kb
提供者:
weixin_38742647
机器学习之梯度下降法
1.基本概念 梯度下降法(Gradient descent)是一个一阶最优化算法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点;这个过程则被称为梯度上升法。 2.几种梯度下降方法(针对线性回归算法) 2.1 批量梯度下降法 1.批量梯度下降法的特点及原理 运算量大:批量梯度下降法中的每一项计算:,要计算所有样本(共 m 个); 批量梯度下降法的梯度是损
所属分类:
其它
发布日期:2021-01-06
文件大小:209kb
提供者:
weixin_38698149
梯度下降(Gradient Decent)与随机梯度下降(Stochastic Gradient Decent)
梯度下降(Gradient Decent) 主要参考资料:台大李宏毅教授的机器学习课程 B站视频 与之前我有讲过的EM算法类似,梯度下降算法同样是一个优化算法。它所要解决的问题是: 求得 θ⋆=arg minL(θ)\theta^{\star}=\argmin L(\theta)θ⋆=argminL(θ) 其中θ\thetaθ是待更新的参数,注意这可以包括多个参数,也就是说θ\thetaθ是一个向量,L(θ)L(\theta)L(θ)是loss function,也就是在优化过程中我们要不断减
所属分类:
其它
发布日期:2021-01-06
文件大小:498kb
提供者:
weixin_38601390
013-机器学习背后的思维-针对入门小白的概念算法及工具的朴素思考
6.2 梯度下降法 我们一直强调, 概念是知识体系中最重要的基础。 梯度下降法(Gradient Descent)是用来找到合适函数的方法。 为什么叫这个名字?我们把这个词拆开分三部分 「梯」、「度」、「下降」。 (前方预警,此章节文字纯属个人观点。) 先拿出第一个字,「梯」。你肯定头脑中会想到木梯子或楼梯的样子。 人们借助 这个工具到达房顶等高处或是下到一个深坑里。 试想一下, 你正在一个迷宫里往前 走, 突然前面出现扇门,打开门有一段往下或往上去的楼梯。 你要自然而然地拾阶而下(上)。你不会
所属分类:
其它
发布日期:2021-01-06
文件大小:82kb
提供者:
weixin_38657353
Lec_AI:KAIST讲座(金融工程的人工智能和机器学习,FE540)-源码
KAIST讲座 课程:金融工程的人工智能和机器学习 代号: FE540 教授:金阿云 学期: 19年秋季 在家工作 Hw01 线性回归的梯度下降算法的实现 使用sklearn的岭回归
所属分类:
其它
发布日期:2021-02-18
文件大小:40kb
提供者:
weixin_42168745
Python工作坊中的机器学习:我的研讨会使用python语言实现不同算法的机器学习-源码
Python工作坊中的机器学习 我的机器学习研讨会使用python语言实现不同算法(伊朗大不里士大学,2017年)。 内容 第1部分:使用现有软件包进行机器学习(第1至5周) 第01周和第02周: Numpy和Matplotlib软件包简介 第03周和第04周:使用Scikit Learn进行监督学习 第05周:使用Scikit Learn进行无监督学习 第2部分:实现我们的机器学习算法和模型(第5周至第10周) 第六周:线性分类 第07周:实现损耗功能(Softmax损耗和SVM损耗)
所属分类:
其它
发布日期:2021-02-03
文件大小:36mb
提供者:
weixin_42131633
Python-梯度下降法(最速下降法)求解多元函数
梯度下降法的计算过程就是沿梯度下降的方向求解极小值。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降法是最常采用的方法之一。 多元函数的图像显示 方程为z=x1 ^2 + 2 * x2 ^2 – 4 * x1- 2 * x1 * x2 import numpy as np import matplotlib.pyplot as plt import matplotlib as mpl %matplotlib inline import math from mpl_toolkits.m
所属分类:
其它
发布日期:2021-01-20
文件大小:126kb
提供者:
weixin_38734506
人工智能与机器学习—梯度下降法
一、梯度下降法 1、概述 梯度下降(gradient descent)在机器学习中应用十分的广泛,不论是在线性回归还是Logistic回归中,它的主要目的是通过迭代找到目标函数的最小值,或者收敛到最小值。 2、原理 梯度下降算法的基本原理就是通过多次迭代,求得与精度值匹配的最后结果: 二、牛顿法 1、牛顿法的概述 牛顿法是机器学习中用的比较多的一种优化算法。牛顿法的基本思想是利用迭代点处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二次模型的极小点作为新的迭
所属分类:
其它
发布日期:2021-01-20
文件大小:597kb
提供者:
weixin_38719564
«
1
2
3
4
»