开始第一个抓取程序,抓取豆瓣读书的一些电子书籍信息
安装 scrapy 爬虫框架,pip install scrapy
创建项目,在项目目录执行命令 scrapy startproject douban 生成下面的目录和文件
scrapy.cfg: 项目配置文件
douban/: 项目的 python 源代码 module
douban/items.py: 定义 item 类,用来存储爬取的数据.
douban/pipelines.py: pipelines文件,定义清洗,处理数据的类
douban/settings.py: 项目的配置文件
douban/spiders/: 放置你开发的蜘蛛(可以定义多个蜘蛛)
首先定义 items
item 就是存储爬取到数据的类,它的使用方式与字典相似。 定义的 item 继承自 scrapy.item.Item, 使用scrapy.item.Field 定义保存抓取数据的字段
修改 items.py 文件,定义抓取的三个字段
from scrapy.item import Item, Field class DoubanBookItem(Item): title = Field() author = Field() publisher = Field() category = Field() price = Field()
定义 spider
在spiders目录下创建 spider 文件 doubanbook_spider.py, spider 的工作是提供抓取的 url 列表,解析返回的响应页面,从中提取数据 items, spider 需要继承自 scrapy.spider.Spider
scrapy.spider.Spider 包含下面的方法和属性:
name: 指定 spider 的名字,必须是唯一的,不同的 spider 使用不同的名字(这个名字定义后在 scrapy命令行可以查看,并在运行时选择执行 spider)
start_urls: 这个属性定义了开始抓取的 url 列表,这个列表中的页面被下载后,从下载的页面中提取新的 url 请求
parse() 提供回调方法,解析抓取到的响应页面,提取数据并创建 items,或者生成更多的 request(url) 供下一步抓取
import bs4 from scrapy.selector import Selector from scrapy.spider import Spider class DoubanBookSpider(Spider): name = "doubanBook" allowed_domains = ["douban.com"] start_urls = [ "http://book.douban.com", # 第一页面 ] def parse(self, response): """通过 xpath 获取热门电子书的链接""" sel = Selector(response) sites = sel.xpath('//div[@class="section ebook-area"]//ul[@class="list-col list-col5"]/li//div[@class="title"]') for site in sites: title = site.xpath('a/@title').extract() link = site.xpath('a/@href').extract() title, link = title[0], link[0] print title, link yield Request(url=link, callback=self.parse2) def parse2(self, response): """ 解析电子书详细信息页面,使用 dom 解析获取数据 """ soup = bs4.BeautifulSoup(response.body) bookInfo = soup.findAll('div', attrs={'class':'article-profile-bd'}) if bookInfo: bookInfo = bookInfo[0] item = DoubanBookItem() item['title'] = "".join(bookInfo.findAll('h1', attrs={'class':'article-title'})[0].strings) item['author'] = "".join(bookInfo.findAll('p', attrs={'class':'author'})[0].strings) item['category'] = "".join(bookInfo.findAll('p', attrs={'class':'category'})[0].strings) item['price'] = bookInfo.findAll('div', attrs={'class':'article-actions purchase-none purchase-layout-horizontal'})[0]['data-readable-price'] # debug print item['title'].encode('utf-8') print item['author'].encode('utf-8') return item
运行爬虫
运行 scrapy list 查看当前有的蜘蛛
运行 scrapy crawl -t json -o result.json doubanBook 输出爬取的结果到 json 格式的结果文件
数据处理和存储
上面执行爬虫使用的是 scrapy 自身的数据导出方式(通过命令行参数 -t 指定),如果需要自定义导出方式,例如存储数据到 redis 队列可以如下操作
修改 pipelines.py 文件,添加如下代码
import redisimport json
class DoubanPipeline(object): def __init__(self): self.file = open('items.jl', 'wb') def process_item(self, item, spider): if int(item['price']) > 2: # to redis rd = redis.Redis(host='xxx', port=35000, db=0) rd.lpush('result', json.dumps(dict(item))) # to file line = json.dumps(dict(item)) + "\n" self.file.write(line) return item else: raise DropItem("Price err")
在配置文件中开启pipline插件,修改 settings.py 文件
ITEM_PIPELINES = { 'douban.pipelines.DoubanPipeline': 300, }
技术点
页面的分析主要采用 xpath/css选择器/dom解析/正则表达式 等方式处理(上面演示了2种方法)
解析函数被调用的方式是基于异步回调,不要在解析函数内调用长时间阻塞的函数,要尽快把控制权返回给引擎
相关文件链接
原文链接: