• python爬虫利器之scrapy的基本教程


    安装

    Scrapy 是一个十分强大的爬虫框架,使用 pip 来安装 scrapy 需要安装大量的依赖库,至少需要的依赖库有 Twisted,lxml,pyOpenSSL。而在不同平台环境又各不相同,所以推荐使用 anaconda 来进行安装 scrapy:

    conda install scrapy
    
    • 1

    测试是否安装成功,在命令行输入 scrapy,显示出版本号即安装成功。

    相关链接

    官网
    github
    官方文档
    中文文档

    开始使用

    创建项目

    在开始抓取之前,必须建立一个新的项目。在命令行中输入如下代码:

    scrapy startproject tutorial
    
    • 1

    这将创建一个 tutorial 目录包含以下内容:

    tutorial/
        scrapy.cfg            # deploy configuration file
        tutorial/             # project's Python module, you'll import your code from here
            __init__.py
            items.py          # project items definition file
            middlewares.py    # project middlewares file
            pipelines.py      # project pipelines file
            settings.py       # project settings file
            spiders/          # a directory where you'll later put your spiders
                __init__.py
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    第一只蜘蛛

    Spiders 是我们定义的类,Scrapy 会从一个网站(或一组网站)中抓取信息。它们必须是 Spider 的子类并定义初始请求,可选的是如何跟随页面中的链接,以及如何解析下载的页面内容以及提取数据。

    这是我们第一只蜘蛛的代码。将其保存在名为的文件中 quotes_spider.py 下 tutorial/spiders 项目中的目录:

    import scrapy
    
    class QuotesSpider(scrapy.Spider):
        name = 'quotes'
        start_urls = [
            'https://quotes.toscrape.com/tag/humor/',
        ]
    
        def parse(self, response):
            for quote in response.css('div.quote'):
                yield {
                    'author': quote.xpath('span/small/text()').get(),
                    'text': quote.css('span.text::text').get(),
                }
    
            next_page = response.css('li.next a::attr("href")').get()
            if next_page is not None:
                yield response.follow(next_page, self.parse)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    如上,我们的 Spider 子类 scrapy.Spider 并定义了一些属性和方法:

    • name :标识蜘蛛。它在一个项目中必须是唯一的,即不能为不同的爬行器设置相同的名称。

    • start_requests() :必须返回请求的可迭代(您可以返回请求列表或编写生成器函数),爬行器将从该请求开始爬行。后续请求将从这些初始请求中相继生成。

    • parse() :将被调用以处理为每个请求下载的响应的方法。Response 参数是 TextResponse 它保存页面内容,并具有进一步有用的方法来处理它。

    这个 parse() 方法通常解析响应,将抓取的数据提取为字典,还查找要遵循的新 URL 并创建新请求 (Request )。

    如何运行我们的蜘蛛

    要使蜘蛛正常工作,请转到项目的顶级目录并运行:

    scrapy crawl quotes
    
    • 1

    此命令会运行我们刚刚添加的名为 quotes 的 spider ,会发送一些请求到 quotes.toscrape.com 网址。将得到类似于以下内容的输出:

    在后台发生了什么?

    Scrapy 调度 Spider 的方法 scrapy.Request 返回的对象。start_requests 在收到每个响应的响应后,它会实例化 Response 对象并调用与请求关联的回调方法(在本例中为 parse 方法),将响应作为参数传递。

    启动 start_requests 的快捷方式

    无需实现 start_requests() 方法,该方法生成 scrapy.Request 对象,我们可以只定义一个具有 url 列表的 start_urls 的类属性。这些 url 列表会被 start_requests() 方法作为默认参数来使用:

    import scrapy

    class QuotesSpider(scrapy.Spider):
        name = "quotes"
        start_urls = [
            'http://quotes.toscrape.com/page/1/',
            'http://quotes.toscrape.com/page/2/',
        ]
    
        def parse(self, response):
            page = response.url.split("/")[-2]
            filename = f'quotes-{page}.html'
            with open(filename, 'wb') as f:
                f.write(response.body)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    调用 parse() 方法来处理这些 URL 的每个请求,即使我们还没有显式地告诉 Scrapy 这样做。发生这种情况是因为 parse() 是 Scrapy 的默认回调方法。

    提取数据

    安装 pyquery

    这里不使用 scrapy 自带的 css 选择器和 XPath 表达式,使用和 jquery 语法一样的 pyquery,首先使用 anaconda 安装 pyquery:

    conda install pyquery
    
    • 1

    提取名言和作者

    我们待提取的 html 结构如下:

    <div class="quote">
      <span class="text"
        >“The world as we have created it is a process of our thinking. It cannot be changed without
        changing our thinking.”span
      >
      <span>
        by <small class="author">Albert Einsteinsmall>
        <a href="/author/Albert-Einstein">(about)a>
      span>
      <div class="tags">
        Tags:
        <a class="tag" href="/tag/change/page/1/">changea>
        <a class="tag" href="/tag/deep-thoughts/page/1/">deep-thoughtsa>
        <a class="tag" href="/tag/thinking/page/1/">thinkinga>
        <a class="tag" href="/tag/world/page/1/">worlda>
      div>
    div>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    使用 pyquery 把名言、作者和标签提取出来:

    from pyquery import PyQuery as pq
    
    doc = pq(response.body)
    for quote in doc('.quote').items():
        text = quote('.text').text()
        author = quote('.author').text()
        tags = quote('.tags .tag').text().split(' ')
        print(dict(text=text, author=author, tags=tags))
    # 输出:
    {'text': '“The world as we have created it is a process of our thinking. It cannot be changed without changing our thinking.”', 'author': 'Albert Einstein', 'tags': ['change', 'deep-thoughts', 'thinking', 'world']}
    {'text': '“It is our choices, Harry, that show what we truly are, far more than our abilities.”', 'author': 'J.K. Rowling', 'tags': ['abilities', 'choices']}
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    在 Spider 中提取数据

    目前为止,Spider 并没有提取任何数据,只是将整个 HTML 页面保存到本地文件中。接下来把上面的提取逻辑集成到 Spider 中。

    Scrapy 的蜘蛛通常会生成许多字典,其中包含从页面中提取的数据。所以在回调中使用 Python 关键字 yield,如下所示:

    import scrapy
    from pyquery import PyQuery as pq
    
    class QuotesSpider(scrapy.Spider):
        name = "quotes"
        start_urls = [
            'https://quotes.toscrape.com/page/1/',
            'https://quotes.toscrape.com/page/2/',
        ]
    
        def parse(self, response):
            for quote in quotes.items():
                yield {
                    'text': quote('.text').text(),
                    'author': quote('.author').text(),
                    'tags': quote('.tags .tag').text().split(' '),
                }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    运行上面的蜘蛛,会输出如下提取的数据和日志::

    存储抓取的数据

    存储抓取数据的最简单方法是使用 Feed exports ,使用以下命令:

    scrapy crawl quotes -O quotes.json
    
    • 1

    这将生成一个quotes.json包含所有抓取项目的文件,并以JSON序列化。

    命令行-O(大写的O)开关覆盖任何现有文件;而是使用-o(小写的o)将新内容附加到任何现有文件。但是,附加到 JSON 文件会使文件内容无效 JSON。附加到文件时,请考虑使用不同的序列化格式,例如JSON Lines:

    scrapy crawl quotes -o quotes.jl
    
    • 1

    JSON Lines格式很有用,因为它类似于流,您可以轻松地将新记录附加到它。当你运行两次时,它没有同样的 JSON 问题。此外,由于每条记录都是单独的一行,因此您可以处理大文件而无需将所有内容都放入内存中,有JQ之类的工具可以在命令行中帮助执行此操作。

    在小型项目(如本教程中的项目)中,这应该足够了。但是,如果您想对抓取的项目执行更复杂的操作,您可以编写一个Item Pipeline。创建项目时,已为您设置了 Item Pipelines 的占位符文件,在 tutorial/pipelines.py. 如果您只想存储抓取的项目,则不需要实现任何项目管道。

    跟踪链接

    如果不光是想从 https://quotes.toscrape.com 的前两页中抓取,而是想从网站的所有页面中抓取内容,那么就需要跟踪链接。

    首先是提取我们关注页面的链接。检查页面,可以看到有一个链接上面带有前往下一页的标记:

    <ul class="pager">
        <li class="next">
            <a href="/page/2/">Next <span aria-hidden="true">span>a>
        li>
    ul>
    
    • 1
    • 2
    • 3
    • 4
    • 5

    把这个标记提取出来:

    next_page = doc('.pager .next a').attr('href')
    
    • 1

    然后把Spider修改为递归地跟随到下一页的链接,然后从中提取数据:

    import scrapy
    from pyquery import PyQuery as pq
    
    class QuotesSpider(scrapy.Spider):
        name = "quotes"
        start_urls = [
            'https://quotes.toscrape.com/page/1/',
        ]
    
        def parse(self, response):
            for quote in quotes.items():
                yield {
                    'text': quote('.text').text(),
                    'author': quote('.author').text(),
                    'tags': quote('.tags .tag').text().split(' '),
                }
            
            next_page = doc('.pager .next a').attr('href')
            if next_page is not None:
                next_page = response.urljoin(next_page)
                yield scrapy.Request(next_page, callback=self.parse)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    在提取数据后,该parse()方法查找到下一页的链接,使用该 urljoin()方法构建一个完整的绝对 URL(因为链接可以是相对的)并产生一个到下一页的新请求,将自己注册为回调来处理下一页的数据提取并保持爬取通过所有页面。

    您在这里看到的是 Scrapy 的以下链接机制:当您在回调方法中产生一个请求时,Scrapy 将安排发送该请求并注册一个回调方法以在该请求完成时执行。

    使用它,您可以构建复杂的爬虫,根据您定义的规则跟踪链接,并根据它访问的页面提取不同类型的数据。

    在我们的示例中,它创建了一种循环,跟踪所有指向下一页的链接,直到找不到一个——这对于爬取博客、论坛和其他带有分页的站点非常方便。

    创建请求的快捷方式

    作为创建请求对象的快捷方式,可以使用 response.follow:

    import scrapy
    from pyquery import PyQuery as pq
    
    class QuotesSpider(scrapy.Spider):
        name = "quotes"
        start_urls = [
            'https://quotes.toscrape.com/page/1/',
        ]
    
        def parse(self, response):
            for quote in quotes.items():
                yield {
                    'text': quote('.text').text(),
                    'author': quote('.author').text(),
                    'tags': quote('.tags .tag').text().split(' '),
                }
            
            next_page = doc('.pager .next a').attr('href')
            if next_page is not None:
                yield response.follow(next_page, callback=self.parse)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    与 scrapy.Request 不同,response.follow直接支持相对 URL - 无需调用 urljoin。注意response.follow只返回一个 Request 实例;你仍然需要提交这个请求。

    您还可以将选择器传递给response.follow而不是字符串;这个选择器应该提取必要的属性:

    for href in response.css('ul.pager a::attr(href)'):
        yield response.follow(href, callback=self.parse)
    
    • 1
    • 2

    对于元素有一个快捷方式:response.follow自动使用它们的 href 属性。所以代码可以进一步缩短:

    for a in response.css('ul.pager a'):
        yield response.follow(a, callback=self.parse)
    
    • 1
    • 2

    要从一个可迭代对象创建多个请求,您可以 response.follow_all改用:

    anchors = response.css('ul.pager a')
    yield from response.follow_all(anchors, callback=self.parse)
    
    • 1
    • 2

    或者,进一步缩短它:

    yield from response.follow_all(css='ul.pager a', callback=self.parse)
    
    • 1

    更多示例和模式

    这是另一个蜘蛛,它说明了回调和以下链接,这次是为了抓取作者信息:

    import scrapy

    class AuthorSpider(scrapy.Spider):
        name = 'author'
    
        start_urls = ['https://quotes.toscrape.com/']
    
        def parse(self, response):
            author_page_links = response.css('.author + a')
            yield from response.follow_all(author_page_links, self.parse_author)
    
            pagination_links = response.css('.pager .next a')
            yield from response.follow_all(pagination_links, self.parse)
    
        def parse_author(self, response):
            doc = pq(response.body)
            yield {
                'name': doc('.author-title').text(),
                'birthdate': doc('.author-born-date').text(),
                'address': doc('.author-born-location').text(),
                'bio': doc('.author-description').text(),
            }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    这个蜘蛛会从主页开始,它会跟随到所有作者页面的链接,在每个作者页面调用回调函数parse_author,来抓取作者信息。

    使用蜘蛛参数

    可以在运行Spider时使用 -a 选项提供命令行参数:

    scrapy crawl quotes -O quotes-humor.json -a tag=humor
    
    • 1

    这些参数被传递给 Spider 的__init__方法并默认成为 Spider 的属性。

    示例中,为tag参数提供的值将通过self.tag传递进去。可以使用它让蜘蛛仅获取带有特定标签的信息,并根据参数构建 URL:

    import scrapy
    
    
    class QuotesSpider(scrapy.Spider):
        name = "quotes"
    
        def start_requests(self):
            url = 'https://quotes.toscrape.com/'
            tag = getattr(self, 'tag', None)
            if tag is not None:
                url = url + 'tag/' + tag
            yield scrapy.Request(url, self.parse)
    
        def parse(self, response):
            for quote in response.css('div.quote'):
                yield {
                    'text': quote.css('span.text::text').get(),
                    'author': quote.css('small.author::text').get(),
                }
    
            next_page = response.css('li.next a::attr(href)').get()
            if next_page is not None:
                yield response.follow(next_page, self.parse)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23

    如果将tag=humor参数传递给这个蜘蛛,那么它只会访问来自humor标签的 URL,例如 https://quotes.toscrape.com/tag/humor

    结尾

    本教程只介绍 Scrapy 的基础知识,还有很多其他特性请参考官方文档的教程。

  • 相关阅读:
    log4j2原理分析及漏洞复现CVE-2021-44228
    关于linux与android传输代码tcp -传文件
    【HackTheBox】dancing(SMB)
    redis7.0源码阅读:redis的基本存储结构
    mongodb数据迁移的方法
    2021年6月大学英语六级作文
    【数据结构】一文了解链表【思路+例题学习】
    基于Java毕业设计职工工资管理系统源码+系统+mysql+lw文档+部署软件
    【现代密码学原理】——密钥管理和其他公钥密码体制(学习笔记)
    Redis.conf详解
  • 原文地址:https://blog.csdn.net/weekdawn/article/details/126299572