您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Sphinx搜索引擎架构与使用文档(和MySQL结合)V1.1.

  2. 一、XX网搜索引擎架构设计: 3 1、搜索引擎架构图(基于PHP+MySQL+Sphinx): 3 2、搜索引擎架构设计思路: 3 ⑴、调用方式最简化: 3 ⑵、创建索引、查询速度快: 3 ⑶、按服务类型进行分离: 4 ⑷、“主索引+增量索引”更新方式: 4 ⑸、“Ext3文件系统+tmpfs内存文件系统”相结合: 4 ⑹、中文分词词库: 5 二、MYSQL+SPHINX+SPHINXSE安装步骤: 5 1、安装python支持 5 2、编译安装LibMMSeg 5 3、编译安装MySQL 5
  3. 所属分类:其它

    • 发布日期:2011-01-15
    • 文件大小:1mb
    • 提供者:nawxs110
  1. solr 企业搜索引擎教程

  2. Apache Solr 是一个开源的搜索服务器,Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache Lucene 实现。定制 Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一 个描述所有 Field 及其内容的 XML 文档就可以了。定制搜索的时候只需要发送 HTTP GET 请求 即可,然后对 Solr 返回的信息进行重新布局,以产生利于用户理解的页面内容布局。Solr 1.3 版 本开始支持从数据库(通过 JDBC)、 RSS 提要、 We
  3. 所属分类:项目管理

    • 发布日期:2011-10-08
    • 文件大小:704kb
    • 提供者:a280606790
  1. 网络爬虫入门到精通

  2. 为什么写这本书 网络爬虫其实很早就出现了,最开始网络爬虫主要应用在各种搜索引擎中。在搜索引擎中,主要使用通用网络爬虫对网页进行爬取及存储。 随着大数据时代的到来,我们经常需要在海量数据的互联网环境中搜集一些特定的数据并对其进行分析,我们可以使用网络爬虫对这些特定的数据进行爬取,并对一些无关的数据进行过滤,将目标数据筛选出来。对特定的数据进行爬取的爬虫,我们将其称为聚焦网络爬虫。在大数据时代,聚焦网络爬虫的应用需求越来越大。 目前在国内Python网络爬虫的书籍基本上都是从国外引进翻译的,国内的
  3. 所属分类:Python

    • 发布日期:2017-08-30
    • 文件大小:28mb
    • 提供者:brewin
  1. Artificial.Intelligence.with.Python.2017.pdf

  2. Python机器学习经典实例PDF版本。在如今这个处处以数据驱动的世界中,机器学习正变得越来越大众化。它已经被广泛地应用于不同领域,如搜索引擎、机器人、无人驾驶汽车等。本书首先通过实用的案例介绍机器学习的基础知识,然后介绍一些稍微复杂的机器学习算法,例如支持向量机、极-端随机森林、隐马尔可夫模型、条件随机场、深度神经网络,等等。 本书是为想用机器学习算法开发应用程序的Python 程序员准备的。它适合Python 初学者阅读,不过熟悉Python 编程方法对体验示例代码大有裨益。
  3. 所属分类:机器学习

    • 发布日期:2017-09-19
    • 文件大小:34mb
    • 提供者:a_white
  1. 基于卷积神经网络的问答方法研究

  2. 1.环境配置: ubantu(16.04) python(3.5) tensorflow(0.12.0) export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.10.0-cp35-cp35m-linux_x86_64.whl sudo pip3 install --upgrade $TF_BINARY_URL 2.模型介绍: https://www.tensorflow.org/
  3. 所属分类:Python

    • 发布日期:2018-09-13
    • 文件大小:101mb
    • 提供者:weixin_43093901
  1. python修改实例.zip

  2. Python 爬虫源码实例合集,本人亲测修改,这些源码是研究搜索引擎爬虫的书籍中的源代码,一共包括了9章内容,源代码中有很多模拟爬虫抓取网页的例子,比如模拟Google搜索引擎抓取等,几乎每一个代码文件都涉及到网络采集、爬虫抓取等内容,是学习人工智能、搜索引擎抓取内容方面,很好的例子。
  3. 所属分类:Python

    • 发布日期:2020-02-06
    • 文件大小:3mb
    • 提供者:tanyztj
  1. sphinx.conf

  2. Python版的 sphinx非实时搜索引擎实例, 具体生产环境使用, 关注本人博客进行分享使用,谢谢
  3. 所属分类:Python

    • 发布日期:2020-01-07
    • 文件大小:79kb
    • 提供者:weixin_43380311
  1. 用python做一个搜索引擎(Pylucene)的实例代码

  2. 下面小编就为大家带来一篇用python做一个搜索引擎(Pylucene)的实例代码。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-21
    • 文件大小:136kb
    • 提供者:weixin_38686153
  1. django 使用全局搜索功能的实例详解

  2. 安装需要的包 1 第一步: 全文检索不同于特定字段的模糊查询,使用全文检索的效率更高,并且能够对于中文进行分词处理。 haystack:全文检索的框架,支持whoosh、solr、Xapian、Elasticsearc四种全文检索引擎 whoosh:纯Python编写的全文搜索引擎对于小型的站点,whoosh已经足够使用 jieba:一款免费的中文分词包 1)在虚拟环境中依次安装需要的包。 pip install django-haystack pip install whoosh pip i
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:68kb
    • 提供者:weixin_38691199
  1. 用python做一个搜索引擎(Pylucene)的实例代码

  2. 1.什么是搜索引擎? 搜索引擎是“对网络信息资源进行搜集整理并提供信息查询服务的系统,包括信息搜集、信息整理和用户查询三部分”。如图1是搜索引擎的一般结构,信息搜集模块从网络采集信息到网络信息库之中(一般使用爬虫);然后信息整理模块对采集的信息进行分词、去停用词、赋权重等操作后建立索引表(一般是倒排索引)构成索引库;最后用户查询模块就可以识别用户的检索需求并提供检索服务啦。 图1 搜索引擎的一般结构 2. 使用python实现一个简单搜索引擎 2.1 问题分析 从图1看,一个完整的搜索引擎架构
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:136kb
    • 提供者:weixin_38609089
  1. python使用xmlrpclib模块实现对百度google的ping功能

  2. 本文实例讲述了python使用xmlrpclib模块实现对百度google的ping功能。分享给大家供大家参考。具体分析如下: 最近在做SEO的时候,为了让发的外链能够快速的收录,想到了利用ping的功能,google和百度都有相关的ping介绍,有兴趣的朋友可以去看看相关的知识。实现ping功能除了可以用一些开源的博客程序,比如WP,它是可以在后台设置ping地址的,只要设置好以后,你发帖子,就会自动的通知搜索引擎,我的博客已经更新了,而今天我用的方法是不通过WP等带有ping功能的博客,自己
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:49kb
    • 提供者:weixin_38713167
  1. 统计文本词频并输出为Excel表格形式——Python实现

  2. 统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:92kb
    • 提供者:weixin_38640443
  1. 统计文本词频并输出为Excel表格形式——Python实现

  2. 统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:93kb
    • 提供者:weixin_38629362
  1. python django使用haystack:全文检索的框架(实例讲解)

  2. haystack:全文检索的框架 whoosh:纯Python编写的全文搜索引擎 jieba:一款免费的中文分词包 首先安装这三个包 pip install django-haystack pip install whoosh pip install jieba 1.修改settings.py文件,安装应用haystack, 2.在settings.py文件中配置搜索引擎 HAYSTACK_CONNECTIONS = { 'default': { # 使用whoosh引擎 'ENGI
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:131kb
    • 提供者:weixin_38750209
  1. Python jieba库用法及实例解析

  2. 1、jieba库基本介绍 (1)、jieba库概述 jieba是优秀的中文分词第三方库 – 中文文本需要通过分词获得单个的词语 – jieba是优秀的中文分词第三方库,需要额外安装 – jieba库提供三种分词模式,最简单只需掌握一个函数 (2)、jieba分词的原理 Jieba分词依靠中文词库 – 利用一个中文词库,确定汉字之间的关联概率 – 汉字间概率大的组成词组,形成分词结果 – 除了分词,用户还可以添加自定义的词组 jieba库使用说明 (1)、jieba分词的三种模式
  3. 所属分类:其它

    • 发布日期:2021-01-02
    • 文件大小:252kb
    • 提供者:weixin_38622849
  1. visual_search:基于Elasticsearch和Tensorflow的视觉搜索引擎-源码

  2. 视觉搜寻 基于Elasticsearch和Tensorflow的可视搜索引擎(现已完全泊坞以在最新的开发环境中运行)。 描述 该存储库包含Python 2.7中的代码,并利用Tensorflow 0.12.1实现的Faster-RCNN (以VGG-16作为主干)从图像中提取特征。 Elasticsearch实例用于存储相应图像的特征向量,以及用于计算它们之间距离的插件。 待办事项:用更快,更准确的模型替换过时的Faster-RCNN (欢迎提出建议或任何合作)。 要求 该安装程序假设您正在运
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:883kb
    • 提供者:weixin_42121725
  1. Python爬虫实现爬取百度百科词条功能实例

  2. 本文实例讲述了Python爬虫实现爬取百度百科词条功能。分享给大家供大家参考,具体如下: 爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:368kb
    • 提供者:weixin_38628612
  1. python批量导入数据进Elasticsearch的实例

  2. ES在之前的博客已有介绍,提供很多接口,本文介绍如何使用python批量导入。ES官网上有较多说明文档,仔细研究并结合搜索引擎应该不难使用。 先给代码 #coding=utf-8 from datetime import datetime from elasticsearch import Elasticsearch from elasticsearch import helpers es = Elasticsearch() actions = [] f=open('index.txt') i
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:46kb
    • 提供者:weixin_38640985
  1. Python爬虫爬取百度搜索内容代码实例

  2. 这篇文章主要介绍了Python爬虫爬取百度搜索内容代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 搜索引擎用的很频繁,现在利用Python爬虫提取百度搜索内容,同时再进一步提取内容分析就可以简便搜索过程。详细案例如下: 代码如下 # coding=utf8 import urllib2 import string import urllib import re import random #设置多个user_agents,防止百度限制
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:40kb
    • 提供者:weixin_38635682