您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 最近邻点对O(nlogn)算法

  2. 最近邻点对O(n^2)和O(nlogn)算法
  3. 所属分类:其它

    • 发布日期:2010-03-10
    • 文件大小:3kb
    • 提供者:loop111
  1. 一种基于图像特征点提取及匹配的方法

  2. 针对图像特征提取与匹配的适应性和准确性的问题,将尺度不变特征变换 (SIFT,Scale Invariant Feature Transform)算法应用到图像匹配领域.首先从原理上对SIFT算 法的特性进行了分析,并以visual studio 2005为开发平台对SIFT算法分步骤进行了实现;最后 以基于欧氏距离的最近邻准则作为特征的相似度量将SIFT算法提取的特征应用于图像特征 匹配,并对不同的近邻比进行比较,给出了建议值.通过3组实验图像的匹配结果表明,SIFT 算法提取的特征对图像缩
  3. 所属分类:C/C++

    • 发布日期:2011-06-06
    • 文件大小:228kb
    • 提供者:queencff
  1. 网格,反最近邻

  2. 自21世纪以来,在建设社会主义和谐社会的大背景下,怎样解决民生问题成为了党和国家的重点工作对象。加快推进以改善民生为重点的社会建设,大力推进社会体制改革、制度改革,完善公共服务制度并且加大社会管理力度,促进社会的公平正义,如何做到公共服务设施的科学合理布局成为了当今的热议话题,也是我们所面临的重大问题。 本文主要针对大规模商店定址问题进行分析和探讨。解决该问题的关键是如何能够快速对客户点进行查询访问以及怎么确定新店(新服务点)的后选址。以上两个问题是本文研究和讨论的重点,也是我们必须要解决的关
  3. 所属分类:IT管理

    • 发布日期:2014-05-21
    • 文件大小:1mb
    • 提供者:baidu_15631655
  1. Python最小距离法

  2. 对Iris数据进行两个特征选取,共6种组合,计算类别可分性准则函数J值,得出最好的分类组合,画出各种组合的分布图; 2、使用前期作业里面的程序、对6种组合分别使用不同方法进行基于120个训练样本30个测试样本的学习误差和测试计算,方法包括:最小距离法(均值为代表点)、最近邻法、k近邻法(k取3、5...)等;
  3. 所属分类:讲义

    • 发布日期:2018-04-06
    • 文件大小:2kb
    • 提供者:yizhan2
  1. 基于surf的特征点快速匹配算法

  2. 基于surf的特征点快速匹配算法。为了解决光电图像匹配过程中特征点错配率较高的问题,本文提出了一种基于SURF 特征点的匹配方法。该算法首先利用最近邻欧氏距离比率法对提取的SURF 特征做粗匹配, 然后获取特征点对应尺度的邻域灰度统计信息,进而利用Pearson 相关系数比得到鲁棒性较强 的匹配对。实验表明该方法能够有效提高匹配的准确率,且满足实时性要求。
  3. 所属分类:专业指导

    • 发布日期:2018-05-12
    • 文件大小:1mb
    • 提供者:baidu_39525096
  1. rd-cs算法.pdf

  2. rd-cs算法仿真,包含注释。本文讨论了距离多普勒算法和Chirp Scaling算法,其中距离多普勒算法考虑了最近邻点插值和sinc插值两种插值方法。 距离多普勒算法兼顾了成熟、简单、高效和精确等因素,至今仍被广泛使用,但是距离多普勒算法有两点不足:首先,当用较长的核函数提高距离徙动校正(RCMC)精度时,运算量较大;其次,二次距离压缩(SRC)对方位频率的依赖性问题较难解决,从而限制了其对某些大斜视角和长孔径SAR的处理精度。
  3. 所属分类:讲义

    • 发布日期:2019-08-04
    • 文件大小:637kb
    • 提供者:cc233cc
  1. hgw_k近邻.py

  2. k近邻法是基本且简单的分类与回归方法。k邻法的基本做法是:对给定的训练实例点和输入实例点,首先确定输入实例点的k个最近邻训练实例点,然后利用这k个训练实例点的类的多数来预测输入实例点的类。
  3. 所属分类:机器学习

    • 发布日期:2020-05-06
    • 文件大小:6kb
    • 提供者:qq_44990155
  1. 菊安酱的机器学习第1期-k-近邻算法(直播).pdf

  2. k-近邻算法的课件。来自于菊安酱的机器学习实战12期的免费教程。内涵python源码。菊安酱的直播间: 我们已经知道k近邻算法的工作原理,根据特征比较,然后提取样本集中特征最相似数据(最近邻)的分类标签。 那么如何进行比较呢?比如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所示。 电影分类 120 爱情片(1,101) 爱情片(12,97) 80 爱情片(5,89) 水弊 60 ?(24,67) 动作片(112,9 20 动作片(1158) 动作片(108,5) 0 20 60 8
  3. 所属分类:讲义

    • 发布日期:2019-07-27
    • 文件大小:847kb
    • 提供者:qiu1440528444
  1. 基于最近邻Marching Cubes的医学图像三维重建.pdf

  2. 摘要:在医学图像三维可视化中,移动立方体算法(Marching cubes,Mc)是面绘制的经典算法。针对Mc算 法计算插值点导致执行速度慢、效率不高的缺点,提出一种基于最近邻逼近的Mc算法,该方法在丹次等分点 量化序列中寻找等值面最近邻点代替线性或非线性插值,既避免了插值的大量计算又保证了误差精度,还可 改善三角面片结构。利用可视化工具开发包vTK对人体脸部和脚部CT数据集进行三维重建,实验表明改进算法明显缩短了绘制时间,提高了重建效率。
  3. 所属分类:医疗

    • 发布日期:2020-06-29
    • 文件大小:718kb
    • 提供者:phytle0
  1. 最近邻点对实现

  2. 寻找平面中距离最近的点对 时间复杂度为O(nlgn) 输入:点的个数<30000 点的坐标 输出:距离最近的点的距离的平方
  3. 所属分类:C/C++

    • 发布日期:2016-12-20
    • 文件大小:3kb
    • 提供者:cherrywang1997
  1. K 近邻法(K-Nearest Neighbor, K-NN)

  2. 文章目录1. k近邻算法2. k近邻模型2.1 模型2.2 距离度量2.2.1 距离计算代码 Python2.3 kkk 值的选择2.4 分类决策规则3. 实现方法, kd树3.1 构造 kdkdkd 树3.2 搜索 kdkdkd 树4. 鸢尾花KNN分类4.1 KNN实现4.2 sklearn KNN k近邻法(k-nearest neighbor,k-NN)是一种基本分类与回归方法。 输入:实例的特征向量,对应于特征空间的点 输出:实例的类别,可以取多类 假设:给定一个训练数据集,其中的实例
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:290kb
    • 提供者:weixin_38681147
  1. 统计学习方法——K近邻法(学习笔记)

  2. K近邻算法简介 K近邻法是一种基本分类与回归方法。K近邻法的输入为实例的特征向量(特征空间的点),输出为实例的类别,可以取多类。 K近邻算法假设给定一个训练数据集,其训练数据集实例的类别已定,对新的输入实例,找出新实例K个最近邻的训练点,根据K个最近邻训练实例的类别,通过多数表决等方式进行预测。 K近邻法的三个基本要素:K值的选择、距离度量、分类决策规则。 下面介绍一下kd树、搜索kd树的过程以及相关代码。 1.K近邻算法 根据给定的训练数据集,对新的实例,在训练数据集中找出与该实例最近邻的K个
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:188kb
    • 提供者:weixin_38557095
  1. 不规则模型的质量3D点云的并行快速排序算法

  2. 针对没有显式拓扑关系的质点云,提出了一种并行快速排序算法。 引入了莫顿阶并将其用于合并一维数据。 生成不规则模型的质量点云,对应的地址代码称为Morton码,这些点存储在八叉树结构链中。 然后使用基于欧几里得距离的并行快速排序算法对CPU和GPU进行排序。 点的k个最近邻居可以位于链中。 实验结果表明,该算法可以节省大量时间,并且可以直接搜索k点的最近邻。 该算法比在整个点云上使用的那些复杂排序方法更简单。
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:769kb
    • 提供者:weixin_38557515
  1. KICA空间中基于虚假最近邻的非线性软传感器的变量选择

  2. 针对虚拟传感器建模过程中,高维冗余的非线性辅助变量造成的尺寸灾难问题,提出一种结合核独立成分法(KICA)与虚假最近邻点法(虚假最近邻居) ,FNN)的非线性辅助变量选择方法。主要利用核函数将原始非线性数据映射到线性子空间,并采用独立的成分分析消除因子之间的多重共线性,再利用虚假最近邻点法,计算原始数据在KICA子空间中投影的距离,依次确定各辅助变量对变量变量的解释能力,转换进行非线性变量选择。以某企业氢氰酸(HCN)生产Craft.io过程中的转化替代软传感器预测目标,仿真结果表明该方法可有效
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:387kb
    • 提供者:weixin_38611796
  1. 大规模散乱点的k邻域快速搜索算法

  2. 针对大规模散乱点数据k最近邻域搜索速度慢和稳定性差的问题,提出一种新的k邻域快速搜索算法。首先,引入空间分块策略将数据集中的点归入不同的子空间;其次,动态控制搜索步长的改变量,根据点到其自身小立方体边界的最小距离保证搜索结果的准确性;最后,通过改变预筛选点数量的右侧控制阈值来消除已有算法中由于初始数值不当引起的死循环。实验结果表明该算法对初始搜索步长、搜索步长增量、采样密度和不同的拓扑结构具有较强的稳定性,并且能更快地完成k邻域搜索。
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:95kb
    • 提供者:weixin_38734361
  1. 三维点云中关键点误匹配剔除方法

  2. 三维点云关键点配准与识别过程中存在寻找匹配对不理想、大量误匹配对及配准与识别准确率下降等问题,提出了一种新颖的关键点误匹配剔除方法。在关键点检测阶段, 基于边缘点及其邻域点大多分布在同侧的特性, 提出了一种边缘点检测算法, 剔除处于边缘的关键点, 以提高关键点的可重复性和可匹配性, 并降低关键点特征匹配的误匹配率。在关键点特征匹配阶段, 对经由最近邻算法得到的初始关键点匹配对, 通过Kmeans算法和分裂法, 剔除掉大量错误的关键点匹配对, 从而提高三维点云之间关键点的匹配率。实验结果表明, 该
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:10mb
    • 提供者:weixin_38737144
  1. 基于高斯映射聚类的点云边缘提取算法

  2. 基于高斯映射聚类边缘提取算法提出了一种快速而精确的新方法,通过凝聚聚类和估计法线将高斯球中的法线进行聚类,通过分析每个点最近邻域点的协方差矩阵特征值来检测边缘特征。对不同的点云对象进行边缘提取对比实验,分别从边缘提取效果和提取时间进行对比分析。实验结果表明,所提方法能快速有效地提取点云的边缘特征,相比原高斯映射聚类边缘提取算法有很大的提升。
  3. 所属分类:其它

  1. 基于K近邻卷积神经网络的点云模型识别与分类

  2. 为了进一步提高大规模多种类点云模型识别与分类的准确率,提出了一种K近邻卷积神经网络模型。首先,利用最远点采样算法对点云模型均匀采样;其次,对采样后的点云模型用K近邻算法构建每个点的局部邻域,为防止信息的非局部扩散,对卷积层提取的特征也逐个建立局部邻域;然后,通过最大池化聚合所有局部特征得到点云模型的全局特征表示;最后,用全连接层与Softmax函数计算各类别对应的概率并分类。实验结果表明,本算法在公开数据集ModelNet40上的识别准确率为92%。与已有的点云模型识别与分类算法相比,能更有效地
  3. 所属分类:其它

  1. python K近邻算法的kd树实现

  2. k近邻算法的介绍 k近邻算法是一种基本的分类和回归方法,这里只实现分类的k近邻算法。 k近邻算法的输入为实例的特征向量,对应特征空间的点;输出为实例的类别,可以取多类。 k近邻算法不具有显式的学习过程,实际上k近邻算法是利用训练数据集对特征向量空间进行划分。将划分的空间模型作为其分类模型。 k近邻算法的三要素 k值的选择:即分类决策时选择k个最近邻实例; 距离度量:即预测实例点和训练实例点间的距离,一般使用L2距离即欧氏距离; 分类决策规则。 下面对三要素进行一下说明:
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:84kb
    • 提供者:weixin_38638309
  1. 基于加权自学习散列的高维数据最近邻查询算法

  2. 因为查询和存储具有高效性,学习型散列逐渐被应用于解决最近邻查询问题。学习型散列将高维数据转化成二进制编码,并使得原始高维空间中越相似的数据对应二进制编码的汉明距离越小。在实际应用中,每次查询都会返回许多与查询点汉明距离相同而编码互不相同的数据。如何对这些数据进行排序是一个难题。提出了一种基于加权自学习散列的近邻查找算法。实验结果表明,算法能够高效地对具有相同汉明距离的不同编码进行重排序,加权排序后查询的F1值约是原来的2倍并优于同系算法,时间开销可比直接计算原始距离进行排序降低一个数量级。
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:958kb
    • 提供者:weixin_38670065
« 12 3 4 5 »