源码下载

爬取的数据,存到mysql中、爬虫和下载中间件、加代理,cookie,header,加入selenium、去重规则源码分析(布隆过滤器)、scrapy-redis实现分布式爬虫

# 1 scrapy架构 -爬虫:写的一个个类 -引擎: -调度器:排队,去重 -下载器 -pipline -下载中间件 -爬虫中间件 # 2 命令 -scrapy startproject 项目名 -scrapy gensipder 爬虫名 网址 -scrapy crawl 爬虫名字 -run.p ......

0 爬取的数据,存到mysql中 、1 爬虫和下载中间件、 2 加代理,cookie,header,加入selenium、3 去重规则源码分析(布隆过滤器) 、4 scrapy-redis实现分布式爬虫

0 爬取的数据,存到mysql中 # 存到mysql中 class FirstscrapyMySqlPipeline: def open_spider(self, spider): print('我开了') self.conn = pymysql.connect( user='root', pass ......