Scrapy中如何提高数据的插入速度
速度问题
最近工作中遇到这么一个问题,全站抓取时采用分布式:爬虫A与爬虫B,爬虫A给爬虫B喂饼
,爬虫B由于各种原因运行
的比较慢,达不到预期效果,所以必须对爬虫B进行优化。
提升Scrapy运行速度有很多方法,国外有大佬说过
Speed up web scraper
Here's a collection of things to try:
use latest scrapy version (if not using already)
check if non-standard middlewares are used
try to increase CONCURRENT_REQUESTS_PER_DOMAIN, CONCURRENT_REQUESTS settings (docs) turn off logging LOG_ENABLED = False (docs)
try yielding an item in a loop instead of collecting items into the items list and returning them use local cache DNS (see this thread)
check if this site is using download threshold and limits your download speed (see this thread) log cpu and memory usage during the spider run - see if there are any problems there
try run the same spider under scrapyd service
see if grequests + lxml will perform better (ask if you need any help with implementing this solution)
try running Scrapy on pypy, see Running Scrapy on PyPy
大致看了下,确实可以提高爬虫运行速度,但是对于海量数据(这里说的是百万级)还需要考虑一点的就是数据插入问题,这里我们使用的是 Mongo。
官方示例
让我们先从官方文档开始 Write items to MongoDB
import pymongo
class MongoPipeline(object):
collection_name = 'scrapy_items'
def __init__(self, mongo_uri, mongo_db):
self.mongo_uri = mongo_uri
self.mongo_db = mongo_db
def from_crawler(cls, crawler):
return cls(
mongo_uri=crawler.settings.get('MONGO_URI'),
mongo_db=crawler.settings.get('MONGO_DATABASE', 'items')
)
def open_spider(self, spider):
self.client = pymongo.MongoClient(self.mongo_uri)
self.db = self.client[self.mongo_db]
def close_spider(self, spider):
self.client.close()
def process_item(self, item, spider):
self.db[self.collection_name].insert_one(dict(item))
return item
比较简单,这里插入使用的方法是 insert_one
,继续文档:
insert_one(document, bypass_document_validation=False, session=None)
Insert a single document.
'x': 1})
0
result = db.test.insert_one({'x': 1})
result.inserted_id
ObjectId('54f112defba522406c9cc208')
db.test.find_one({'x': 1})
{u'x': 1, u'_id': ObjectId('54f112defba522406c9cc208')}
db.test.count({以前经常使用的 insert
方法,已经不被赞同
insert(doc_or_docs, manipulate=True, check_keys=True, continue_on_error=False, **kwargs)
Insert a document(s) into this collection.
DEPRECATED - Use insert_one() or insert_many() instead.
Changed in version 3.0: Removed the safe parameter. Pass w=0 for unacknowledged write operations.
insert
简单理解就是插入,把我们采集到的 item
插入到数据库,这样存在一个很严重的问题,就是去重
去重
晚上有一种很流行的写法,使用 update
命令,如:
self.db[self.collection_name].update({'id': item['id']}, {'$set': dict(item)}, True)
解释为:
比较重要的一点就在于process_item,在这里使用了update方法,第一个参数传入查询条件,这里使用的是id,第二个参数传入字典类型的对象,就是我们的item,第三个参数传入True,这样就可以保证,如果查询数据存在的话就更新,不存在的话就插入。这样就可以保证去重了。
这确实是一种很简单的方法,其实原理很简单,就是在每次插入数据前,对数据库中查询,是否有该 ID,如果没有就插入,如果有就放弃。
对于数据量比较少的项目,这确实是一种很简单的方法,很简单就完成了目标。
但是,我们现在说的是百万级数据,如果每一条数据在插入前,都需要去查询该数据是否在数据库,那会多么耗时,效率会大大较低,那么还有什么好办法呢?
索引
MongoDB 索引
索引能够实现高效地查询。没有索引,MongoDB 就必须扫描集合中的所有文档,才能找到匹配查询语句的文档。这种扫描毫无效率可言,需要处理大量的数据。
索引是一种特殊的数据结构,将一小块数据集保存为容易遍历的形式。索引能够存储某种特殊字段或字段集的值,并按照索引指定的方式将字段值进行排序。
我们可以借助索引,使用 insert_one
方法提高效率。代码实现:
class MongoDBPipeline(object):
def open_spider(self, spider):
self.client = mongodb_client
self.db = self.client.get_database()
self.collection = self.db['test']
# 添加唯一索引
self.collection.create_index('id', unique=True)
def close_spider(self, spider):
self.client.close()
def process_item(self, item, spider):
try:
self.collection.insert_one(dict(item))
return item
except DuplicateKeyError:
spider.logger.debug(' duplicate key error collection')
return item
其实很简单,就是在 open_spider
先创建唯一索引,然后再插入数据。注意需要在process_item
中使用异常处理,因为很有可能插入重复数据,到时候就会输出日志。
其他方法
mongo 除了 insert_one
方法还有一种,insert_many
insert_many(documents, ordered=True, bypass_document_validation=False, session=None)
Insert an iterable of documents.
0
result = db.test.insert_many([{'x': i} for i in range(2)])
result.inserted_ids
[ObjectId('54f113fffba522406c9cc20e'), ObjectId('54f113fffba522406c9cc20f')]
db.test.count()
2
db.test.count()这样插入的数据不再是一条,而是很多,
What's the difference between insert(), insertOne() and insertMany() methods on MongoDB
大佬有写到,可以去看看。
同时插入多条数据,减轻数据库压力。但是这个“多”到底还是多少,目前不得而知。
结语
除了更多机器和更多节点,还有很多方法可以提升 Scrapy
运行速度。
今天说到的是管道阻塞问题,还有其他地方也可以优化,还需要努力。