点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - python搜索引擎实例
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Sphinx搜索引擎架构与使用文档(和MySQL结合)V1.1.
一、XX网搜索引擎架构设计: 3 1、搜索引擎架构图(基于PHP+MySQL+Sphinx): 3 2、搜索引擎架构设计思路: 3 ⑴、调用方式最简化: 3 ⑵、创建索引、查询速度快: 3 ⑶、按服务类型进行分离: 4 ⑷、“主索引+增量索引”更新方式: 4 ⑸、“Ext3文件系统+tmpfs内存文件系统”相结合: 4 ⑹、中文分词词库: 5 二、MYSQL+SPHINX+SPHINXSE安装步骤: 5 1、安装python支持 5 2、编译安装LibMMSeg 5 3、编译安装MySQL 5
所属分类:
其它
发布日期:2011-01-15
文件大小:1mb
提供者:
nawxs110
solr 企业搜索引擎教程
Apache Solr 是一个开源的搜索服务器,Solr 使用 Java 语言开发,主要基于 HTTP 和 Apache Lucene 实现。定制 Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一 个描述所有 Field 及其内容的 XML 文档就可以了。定制搜索的时候只需要发送 HTTP GET 请求 即可,然后对 Solr 返回的信息进行重新布局,以产生利于用户理解的页面内容布局。Solr 1.3 版 本开始支持从数据库(通过 JDBC)、 RSS 提要、 We
所属分类:
项目管理
发布日期:2011-10-08
文件大小:704kb
提供者:
a280606790
网络爬虫入门到精通
为什么写这本书 网络爬虫其实很早就出现了,最开始网络爬虫主要应用在各种搜索引擎中。在搜索引擎中,主要使用通用网络爬虫对网页进行爬取及存储。 随着大数据时代的到来,我们经常需要在海量数据的互联网环境中搜集一些特定的数据并对其进行分析,我们可以使用网络爬虫对这些特定的数据进行爬取,并对一些无关的数据进行过滤,将目标数据筛选出来。对特定的数据进行爬取的爬虫,我们将其称为聚焦网络爬虫。在大数据时代,聚焦网络爬虫的应用需求越来越大。 目前在国内Python网络爬虫的书籍基本上都是从国外引进翻译的,国内的
所属分类:
Python
发布日期:2017-08-30
文件大小:28mb
提供者:
brewin
Artificial.Intelligence.with.Python.2017.pdf
Python机器学习经典实例PDF版本。在如今这个处处以数据驱动的世界中,机器学习正变得越来越大众化。它已经被广泛地应用于不同领域,如搜索引擎、机器人、无人驾驶汽车等。本书首先通过实用的案例介绍机器学习的基础知识,然后介绍一些稍微复杂的机器学习算法,例如支持向量机、极-端随机森林、隐马尔可夫模型、条件随机场、深度神经网络,等等。 本书是为想用机器学习算法开发应用程序的Python 程序员准备的。它适合Python 初学者阅读,不过熟悉Python 编程方法对体验示例代码大有裨益。
所属分类:
机器学习
发布日期:2017-09-19
文件大小:34mb
提供者:
a_white
基于卷积神经网络的问答方法研究
1.环境配置: ubantu(16.04) python(3.5) tensorflow(0.12.0) export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.10.0-cp35-cp35m-linux_x86_64.whl sudo pip3 install --upgrade $TF_BINARY_URL 2.模型介绍: https://www.tensorflow.org/
所属分类:
Python
发布日期:2018-09-13
文件大小:101mb
提供者:
weixin_43093901
python修改实例.zip
Python 爬虫源码实例合集,本人亲测修改,这些源码是研究搜索引擎爬虫的书籍中的源代码,一共包括了9章内容,源代码中有很多模拟爬虫抓取网页的例子,比如模拟Google搜索引擎抓取等,几乎每一个代码文件都涉及到网络采集、爬虫抓取等内容,是学习人工智能、搜索引擎抓取内容方面,很好的例子。
所属分类:
Python
发布日期:2020-02-06
文件大小:3mb
提供者:
tanyztj
sphinx.conf
Python版的 sphinx非实时搜索引擎实例, 具体生产环境使用, 关注本人博客进行分享使用,谢谢
所属分类:
Python
发布日期:2020-01-07
文件大小:79kb
提供者:
weixin_43380311
用python做一个搜索引擎(Pylucene)的实例代码
下面小编就为大家带来一篇用python做一个搜索引擎(Pylucene)的实例代码。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-21
文件大小:136kb
提供者:
weixin_38686153
django 使用全局搜索功能的实例详解
安装需要的包 1 第一步: 全文检索不同于特定字段的模糊查询,使用全文检索的效率更高,并且能够对于中文进行分词处理。 haystack:全文检索的框架,支持whoosh、solr、Xapian、Elasticsearc四种全文检索引擎 whoosh:纯Python编写的全文搜索引擎对于小型的站点,whoosh已经足够使用 jieba:一款免费的中文分词包 1)在虚拟环境中依次安装需要的包。 pip install django-haystack pip install whoosh pip i
所属分类:
其它
发布日期:2020-12-25
文件大小:68kb
提供者:
weixin_38691199
用python做一个搜索引擎(Pylucene)的实例代码
1.什么是搜索引擎? 搜索引擎是“对网络信息资源进行搜集整理并提供信息查询服务的系统,包括信息搜集、信息整理和用户查询三部分”。如图1是搜索引擎的一般结构,信息搜集模块从网络采集信息到网络信息库之中(一般使用爬虫);然后信息整理模块对采集的信息进行分词、去停用词、赋权重等操作后建立索引表(一般是倒排索引)构成索引库;最后用户查询模块就可以识别用户的检索需求并提供检索服务啦。 图1 搜索引擎的一般结构 2. 使用python实现一个简单搜索引擎 2.1 问题分析 从图1看,一个完整的搜索引擎架构
所属分类:
其它
发布日期:2020-12-25
文件大小:136kb
提供者:
weixin_38609089
python使用xmlrpclib模块实现对百度google的ping功能
本文实例讲述了python使用xmlrpclib模块实现对百度google的ping功能。分享给大家供大家参考。具体分析如下: 最近在做SEO的时候,为了让发的外链能够快速的收录,想到了利用ping的功能,google和百度都有相关的ping介绍,有兴趣的朋友可以去看看相关的知识。实现ping功能除了可以用一些开源的博客程序,比如WP,它是可以在后台设置ping地址的,只要设置好以后,你发帖子,就会自动的通知搜索引擎,我的博客已经更新了,而今天我用的方法是不通过WP等带有ping功能的博客,自己
所属分类:
其它
发布日期:2020-12-24
文件大小:49kb
提供者:
weixin_38713167
统计文本词频并输出为Excel表格形式——Python实现
统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
所属分类:
其它
发布日期:2020-12-23
文件大小:92kb
提供者:
weixin_38640443
统计文本词频并输出为Excel表格形式——Python实现
统计文本词频并输出为Excel表格形式——Python实现 本次实例主要是熟练对中文分词库_jieba库,以及二维数据存储_csv库的使用。 目录 简单介绍两个库的使用 实例问题及问题分析 Python实现 一、简单介绍两个库的使用 jieba库:中文分词库,将中文文本分解为单个词语进行处理。 jeba.lcut(s):精确模式,对原文本进行词语拆分,无冗余。 jieba.lcut(s,cut_all=True):全模式,对文本进行拆分,列出所以可以组成的词语,存在冗余。 jieba.lcut_
所属分类:
其它
发布日期:2020-12-23
文件大小:93kb
提供者:
weixin_38629362
python django使用haystack:全文检索的框架(实例讲解)
haystack:全文检索的框架 whoosh:纯Python编写的全文搜索引擎 jieba:一款免费的中文分词包 首先安装这三个包 pip install django-haystack pip install whoosh pip install jieba 1.修改settings.py文件,安装应用haystack, 2.在settings.py文件中配置搜索引擎 HAYSTACK_CONNECTIONS = { 'default': { # 使用whoosh引擎 'ENGI
所属分类:
其它
发布日期:2021-01-01
文件大小:131kb
提供者:
weixin_38750209
Python jieba库用法及实例解析
1、jieba库基本介绍 (1)、jieba库概述 jieba是优秀的中文分词第三方库 – 中文文本需要通过分词获得单个的词语 – jieba是优秀的中文分词第三方库,需要额外安装 – jieba库提供三种分词模式,最简单只需掌握一个函数 (2)、jieba分词的原理 Jieba分词依靠中文词库 – 利用一个中文词库,确定汉字之间的关联概率 – 汉字间概率大的组成词组,形成分词结果 – 除了分词,用户还可以添加自定义的词组 jieba库使用说明 (1)、jieba分词的三种模式
所属分类:
其它
发布日期:2021-01-02
文件大小:252kb
提供者:
weixin_38622849
visual_search:基于Elasticsearch和Tensorflow的视觉搜索引擎-源码
视觉搜寻 基于Elasticsearch和Tensorflow的可视搜索引擎(现已完全泊坞以在最新的开发环境中运行)。 描述 该存储库包含Python 2.7中的代码,并利用Tensorflow 0.12.1实现的Faster-RCNN (以VGG-16作为主干)从图像中提取特征。 Elasticsearch实例用于存储相应图像的特征向量,以及用于计算它们之间距离的插件。 待办事项:用更快,更准确的模型替换过时的Faster-RCNN (欢迎提出建议或任何合作)。 要求 该安装程序假设您正在运
所属分类:
其它
发布日期:2021-02-02
文件大小:883kb
提供者:
weixin_42121725
Python爬虫实现爬取百度百科词条功能实例
本文实例讲述了Python爬虫实现爬取百度百科词条功能。分享给大家供大家参考,具体如下: 爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页
所属分类:
其它
发布日期:2021-01-20
文件大小:368kb
提供者:
weixin_38628612
python批量导入数据进Elasticsearch的实例
ES在之前的博客已有介绍,提供很多接口,本文介绍如何使用python批量导入。ES官网上有较多说明文档,仔细研究并结合搜索引擎应该不难使用。 先给代码 #coding=utf-8 from datetime import datetime from elasticsearch import Elasticsearch from elasticsearch import helpers es = Elasticsearch() actions = [] f=open('index.txt') i
所属分类:
其它
发布日期:2021-01-20
文件大小:46kb
提供者:
weixin_38640985
Python爬虫爬取百度搜索内容代码实例
这篇文章主要介绍了Python爬虫爬取百度搜索内容代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 搜索引擎用的很频繁,现在利用Python爬虫提取百度搜索内容,同时再进一步提取内容分析就可以简便搜索过程。详细案例如下: 代码如下 # coding=utf8 import urllib2 import string import urllib import re import random #设置多个user_agents,防止百度限制
所属分类:
其它
发布日期:2021-01-20
文件大小:40kb
提供者:
weixin_38635682