小白学爬虫-进阶-你知道Scrapy吗?
2020,努力做一个无可替代的人!
作者|小一
全文共2190字,阅读全文需8分钟
写在前面的话
正文
什么是Scrapy?
Scrapy 是一个基于 Twisted 的异步处理框架,是纯 Python 实现的爬虫框架,其架构清晰,模块之间的耦合程度低,可扩展性极强,可以灵活完成各种需求。
Engine,引擎
,用来处理整个系统的数据流处理,触发事务,是整个框架的核心。Item,项目
,它定义了爬取结果的数据结构,爬取的数据会被赋值成该对象。Scheduler, 调度器
,用来接受引擎发过来的请求并加入队列中,并在引擎再次请求的时候提供给引擎。Downloader,下载器
,用于下载网页内容,并将网页内容返回给蜘蛛。Spiders,蜘蛛
,其内定义了爬取的逻辑和网页的解析规则,它主要负责解析响应并生成提取结果和新的请求。Item Pipeline,项目管道
,负责处理由蜘蛛从网页中抽取的项目,它的主要任务是清洗、验证和存储数据。Downloader Middlewares,下载器中间件
,位于引擎和下载器之间的钩子框架,主要是处理引擎与下载器之间的请求及响应。Spider Middlewares, 蜘蛛中间件
,位于引擎和蜘蛛之间的钩子框架,主要工作是处理蜘蛛输入的响应和输出的结果及新的请求。
说白了就是把所有爬虫相关的东西都封装起来,你要用的时候内部会自己调用,你只需要处理好你的爬虫逻辑就行
Scrapy 数据流
Engine 首先打开一个网站,找到处理该网站的 Spider 并向该 Spider 请求第一个要爬取的 URL。
Engine 从 Spider 中获取到第一个要爬取的 URL 并通过 Scheduler 以 Request 的形式调度。
Engine 向 Scheduler 请求下一个要爬取的 URL。
Scheduler 返回下一个要爬取的 URL 给 Engine,Engine 将 URL 通过 Downloader Middlewares 转发给 Downloader 下载。
一旦页面下载完毕, Downloader 生成一个该页面的 Response,并将其通过 Downloader Middlewares 发送给 Engine。
Engine 从下载器中接收到 Response 并通过 Spider Middlewares 发送给 Spider 处理。
Spider 处理 Response 并返回爬取到的 Item 及新的 Request 给 Engine。
Engine 将 Spider 返回的 Item 给 Item Pipeline,将新的 Request 给 Scheduler。
重复第二步到最后一步,直到 Scheduler 中没有更多的 Request,Engine 关闭该网站,爬取结束。
Scrapy 安装
pip install scrapy
解决方法
创建 Scrapy 项目
其中 scrapy_demo 为项目名称
scrapy startproject scrapy_demo
开始 Scrapy 项目
依次选择 File --> Open --> 选择项目所在文件夹
scrapy.cfg
: 项目的配置文件scrapy_demo/
: 该项目的 Python 模块。之后你将在此加入代码;scrapy_demo/items.py
: 项目中的 item 文件,数据的容器;scrapy_demo/pipelines.py
: 项目中的 pipelines 文件,俗称数据管道;scrapy_demo/settings.py
: 项目的设置文件;scrapy_demo/spiders/
: 放置 spider 代码的目录。
items.py
pipelines.py
清洗过滤item 数据
验证数据、检查数据是否已存在
将爬取结果保存到数据库中
settings.py
数据库连接的参数设置
爬虫的参数设置
管道的参数设置
欢迎补充…
写在后面的话
要不是我在文档目录里面发现了这篇存货,我可能就
……
手撕Python高阶
了,可能是因为过了个年,回过头了才发现冷落了它。好巧啊,你也读到这了!
点个
在看
让小一看到你