(1).scrapy介绍

scrapy startproject xxx

cd xxx

scrapy genspider xxxx xxxx.com

# -*- coding: utf-8 -*-
import scrapy


class ShiinaSpider(scrapy.Spider):
    name = 'shiina'
    allowed_domains = ['mashiro.com']
    start_urls = ['https://tieba.baidu.com/p/5290405550?red_tag=0653675634']

    def parse(self, response):
        # response:相应
        # 执行命令:scrapy crawl shiina --nolog,--log意思是不打印日志
        print(response)
        print(response.url)
        print(response.text)  # 这里不显示了
    # 程序运行结果
    '''
    <200 https://tieba.baidu.com/p/5290405550?red_tag=0653675634>
    https://tieba.baidu.com/p/5290405550?red_tag=0653675634

    '''

  

每一个创建的spider都会具有一个起始url,当我们执行的时候scrapy engine会将连接放在scheduler里面,然后往里面取链接,交给downloader去下载,下载完了交给spider。spider对内容进行解析,然后既可以将内容交给pipline进行持久化,也可以将新的url继续通过scrapy engine交给scheduler,然后继续递归爬取。

可以把scrapy engine看成一个while循环,scheduler看成是一个队列,scrapy engine不断地从队列里面取url,交给下载器去下载

猜你喜欢

转载自www.cnblogs.com/traditional/p/9255610.html