您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 文本KL熵计算(计算两段文字的KL熵)java编程

  2. 自然语言处理学习中的一个小例子。具体请见 http://www.cnblogs.com/finallyliuyu/archive/2010/03/12/1684015.html
  3. 所属分类:Java

    • 发布日期:2010-03-12
    • 文件大小:6mb
    • 提供者:finallyliuyu
  1. matlab时频分析工具箱+安装方法+函数说明.

  2. 时频分析工具箱中提供了计算各种线性时频表示和双线性时频分布的函数, 本帖主要列出时频分析工具箱函数简介,以号召大家就时频分析应用展开相关讨论。 一、信号产生函数: amexpo1s 单边指数幅值调制信号 amexpo2s 双边指数幅值调制信号 amgauss 高斯幅值调制信号 amrect 矩形幅值调制信号 amtriang 三角形幅值调制信号 fmconst 定频调制信号 fmhyp 双曲线频率调制信号 fmlin 线性频率调制信号 fmodany 任意频率调制信号 fmpar 抛物线频率调
  3. 所属分类:其它

    • 发布日期:2014-02-27
    • 文件大小:2mb
    • 提供者:makenothing
  1. matlab时频分析工具箱+安装方法+函数说明.

  2. 时频分析工具箱中提供了计算各种线性时频表示和双线性时频分布的函数, 本帖主要列出时频分析工具箱函数简介,以号召大家就时频分析应用展开相关讨论。 一、信号产生函数: amexpo1s 单边指数幅值调制信号 amexpo2s 双边指数幅值调制信号 amgauss 高斯幅值调制信号 amrect 矩形幅值调制信号 amtriang 三角形幅值调制信号 fmconst 定频调制信号 fmhyp 双曲线频率调制信号 fmlin 线性频率调制信号 fmodany 任意频率调制信号 fmpar 抛物线频率调
  3. 所属分类:C++

    • 发布日期:2015-12-07
    • 文件大小:2mb
    • 提供者:sungege521
  1. 衡量两个概率分布的距离(KL散度、JS距离)评价两个变量的相似度MALTAB代码

  2. 衡量两个概率分布P(x);Q(x) 的距离 包括 Kullback–Leibler divergence和Jensen–Shannon divergence
  3. 所属分类:机器学习

  1. 机器学习中各种熵总结

  2. 机器学习中各种熵的总结笔记,包括对应公式及详细解释说明。
  3. 所属分类:机器学习

    • 发布日期:2018-08-06
    • 文件大小:504kb
    • 提供者:albert201605
  1. 机器学习算法笔记

  2. 本文总结博客中关于机器学习十大算法的详细过程,进行汇总,包括广义线性模型、softmax 回归 、逻辑回归、梯度下降法、Logistic 回归与牛顿迭代法、两种梯度下降法、相对熵(KL 散度)、K-Means 聚类算法 、朴素贝叶斯分类、决策树之 ID3 算法 、决策树之 C4.5 算法、 决策树之 CART 算法、随机森林、K-D 树、KNN 算法、BFGS 算法、L-BFGS 算法、文本特征属性选择。 十九、矩阵求导解最小二乘问题 二十、局部加权回归 二十一、最小二乘的概率解释
  3. 所属分类:机器学习

    • 发布日期:2018-11-21
    • 文件大小:1mb
    • 提供者:u013940210
  1. 机器学习相关的基础数学知识

  2. 一. 线性代数 二. 概率论 三. 数理统计 四. 优化相关 五.信息论 向量 条件概率 样本 目标函数 信息熵 矩阵 联合概率 总体 全局最小值 互信息 集合 全概率公式 统计量 局部极小值 信息增益 标量 逆概率 参数估计 无约束优化 KL 散度 张量 贝叶斯公式 假设检验 约束优化 最大熵原理 范数 贝叶斯定理 置信区间 拉格朗日函数 交叉熵和相对熵的对比 内积 先验概率 区间估计 KKT条件与对偶函数 各种熵之间的关系 向量正交 后验概率 泛化能力 梯度下降法 正交基 似然概率 泛化误
  3. 所属分类:机器学习

    • 发布日期:2019-02-21
    • 文件大小:320kb
    • 提供者:u012459213
  1. 宇宙学中的相对信息熵:信息纠缠问题

  2. 可以通过相对信息熵来度量将局部不均匀质量密度场与其在宇宙紧凑域上的空间平均值区分开的必要信息。 在这种情况下,Kullback-Leibler(KL)公式非常自然地出现,但是,它提供了一种非常复杂的方法,可以在现实的,不均匀的模型中计算宇宙中空间分离但因果连接的区域之间的互信息。 为了解决这个问题,请考虑
  3. 所属分类:其它

    • 发布日期:2020-03-21
    • 文件大小:419kb
    • 提供者:weixin_38604951
  1. 视频编解码学习之三:变换,量化与熵编码 - Mr.Rico - 博客园.pdf

  2. 介绍了变换编码、变换类型、KL变换、离散傅立叶变换、离散余弦变换、快速DCT变换、H.264的4x4整数变换等知识
  3. 所属分类:编解码

    • 发布日期:2019-09-03
    • 文件大小:4mb
    • 提供者:houxiaoni01
  1. 自信息量-信息熵-KL散度-交叉熵损失.pdf

  2. 详解交叉熵损失函数及Softmax激活函数Sigmoid激活函数在深度学习二分类/多分类任务中的应用
  3. 所属分类:深度学习

    • 发布日期:2020-12-30
    • 文件大小:520kb
    • 提供者:weixin_42397505
  1. 【TensorRT】TensorRT的INT8校准原理

  2. INT8校准就是原来用32bit(float32)表示的tensor现在用8bit来表示,并且要求精度不能下降太多。 将FP32转换为 INT8的操作需要针对每一层的输入tensor和网络学习到的参数进行。 但是不同网络结构的不同layer的激活值分布很不一样,因此合理的量化方式。应该适用于不同的激活值分布,并且减小信息损失。 使用相对熵(也叫KL散度)来衡量不同的INT8分布与原来的FP3F2分布之间的差异程度。 确定每一层的|T|值的过程称为校准。方法是从验证集选取一个子集作为校准集,校准
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:499kb
    • 提供者:weixin_38560502
  1. 分类问题损失函数 – 交叉熵

  2. 参考链接:https://zhuanlan.zhihu.com/p/61944055 信息熵: 表示随机变量不确定的度量,是对所有可能发生的事件产生的信息量的期望。熵越大,随机变量或系统的不确定性就越大。公式如下: 相对熵: 又称KL散度,用于衡量对于同一个随机变量x的两个分布p(x)和q(x)之间的差异。在机器学习中,p(x)从常用于描述样本的真实分布,而q(x)常用于表示预测的分布。KL散度值越小表示两个分布越接近。 公式如下: 交叉熵(cross entropy): 将KL散度公式进行变
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:122kb
    • 提供者:weixin_38681218
  1. BuildTheGround:我对一些初步知识和工具的说明-源码

  2. 夯实基础 吴宝 ☆使用Python进行相机校准 ☆Git ☆STFT和小波 ☆卡尔曼滤波器 ☆迹线,渐变,发散,卷曲,拉普拉斯算子,雅可比算子和黑森之间的关系。 ☆交叉熵,KL散度(RelativeEntropy),JS散度和Wasserstein距离的损失函数。 ☆TBD在发布python软件包 ☆ML注1:线性判别函数 ☆数学:特征值,特征向量,秩/迹 ☆ML注释2:逻辑回归 ☆机器学习注3:最大似然估计与最大后验估计 ☆待定 该存储库始于 2020年7月7日 2020年7月20日 2
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:96mb
    • 提供者:weixin_42178688
  1. 基于信噪比估计和信息测量指标的高光谱图像波段选择

  2. 有效的频段选择算法不仅可以大大加快速度,而且可以提高效果用于高光谱图像处理。 本文提出了一种基于信息的频段选择新方法提出了测量指标(IMI)。 熵代表一个波段的信息,而KL发散可用于测量不同频段上的两个图像的相似度。 IMI由以下公式计算熵与KL发散相结合,并选择IMI高的谱带。 此外,为了为了消除具有较高IMI和低SNR的频带,本文将小波分析用于SNR估计中(SNRE作为预处理步骤。通过高光谱实验对提出的方法进行了评估分类。 结果表明,SNRE-IMI可以有效地选择最重要的频段用于高光谱图像的
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:232kb
    • 提供者:weixin_38616809
  1. 分布分离方法的广义分析

  2. 从由两者的组合组成的混合模型中分离出两种概率分布对于广泛的应用来说是必不可少的。 例如,在信息检索(IR)中,通常存在一种混合分布,包括我们需要估计的相关性分布和我们希望摆脱的不相关性分布。 最近,有人提出了一种分布分离方法(DSM),通过从混合物分布中分离出种子的不相关性分布来近似相关性分布。 它已成功应用于IR任务,即伪相关反馈(PRF),其中查询扩展模型通常是混合项分布。 尽管DSM最初是在IR的背景下开发的,但确实是概率分布分离的通用数学公式。 因此,重要的是进一步概括其基本分析,并探索
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:461kb
    • 提供者:weixin_38624746
  1. 错误准则的信息理论解释

  2. 错误标准(或错误成本函数)在统计估计问题中扮演重要角色。 本文从信息论的角度研究错误准则。 研究了误差准则与误差熵准则之间的关系。 结果表明,误差准则等于误差的熵准则加上Kullback-Leibler信息散度(KL散度)。 基于此结果,证明了误差准则的两个重要性质。 特别地,可以通过熵和KL散度的含义来解释最佳误差准则。 此外,提出了一种用于选择p-功率误差标准的新颖方法,其中基于KL散度的成本被最小化。 蒙特卡罗仿真实验验证了该方法的有效性。
  3. 所属分类:其它

  1. POT:POT:Python最佳传输-源码

  2. POT:Python最佳传输 这个开源的Python库为与信号,图像处理和机器学习的最佳传输有关的优化问题提供了多个求解器。 网站和文档: : 源代码(MIT): : POT提供以下通用OT解算器(示例链接): 用于线性程序/土方距离[1]的。 [6]和正则OT的[7]。 带有[2],稳定版[9] [10],贪婪的Sinkhorn [22]和熵正则化OT解算器,具有可选的GPU实现(需要cupy)。 [3], [21]和分解[4]的Bregman投影。 来自经验数据的S
  3. 所属分类:其它

  1. 数学基础 | (6) 机器学习中的几个熵

  2. 原文地址 目录 1. 信息量 2. 信息熵 3. 相对熵(KL散度/KL divergence) 4. 交叉熵 5. 几个熵之间的关系 6. JS散度 7. Wasserstein距离 8. 总结 1. 信息量 事件发生的概率越小,信息量越大。 假设X是一个离散型随机变量,取值集合为 则定义事件的信息量为: 2. 信息熵 信息量的期望就是熵,假设事件X有n种可能,发生的概率为,那么该事件的熵H(X)为: 如果发生的事件只有两种可能性,那么熵的计算转化为下列式子: 3. 相对熵(KL散度/K
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:428kb
    • 提供者:weixin_38744435
  1. 浅谈SciPy中的optimize.minimize实现受限优化问题

  2. 问题描述:有一批样本x,每个样本都有几个固定的标签,如(男,24岁,上海),需要从中抽取一批样本,使样本总的标签比例满足分布P(x),如(男:女=49%:51%、20岁:30岁=9%:11%、……….) 采用KL-散度作为优化目标函数。 KL-散度又叫相对熵 KL-散度在机器学习中,P用来表示样本的真实分布,比如[1,0,0]表示当前样本属于第一类。Q用来表示模型所预测的分布,比如[0.7,0.2,0.1] KL-散度直观的理解就是如果用P来描述样本,那么就非常完美。而用Q来描述样本,虽然可以大
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:63kb
    • 提供者:weixin_38621870