说明: 使用Python实现微博爬虫 1. 需要爬取的页面URL存取在WeiboSpider/DataBase/UrlRecord.db, 该文件为sqlite数据库文件, URL数据会在爬取的过程中持续添加 2. 爬取的微博数据存放在WeiboSpider/WeiboData目录下, 每个用户单独一个数据文件 3. WeiboSpider/Config.txt文件记录了当前已经爬取的页面的ID, 设置为1则重新爬取 4. 运行WeiboSpider/Main.py即可运行爬虫 5. WeiboSpi
<theone_jie> 上传 | 大小:708kb