码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Python爬虫——Scrapy框架使用实例及执行过程


    文章目录

    • Python爬虫——Scrapy框架使用实例及执行过程
      • 1、Scrapy框架使用实例
      • 2、Scrapy框架执行过程

    Python爬虫——Scrapy框架使用实例及执行过程

    1、Scrapy框架使用实例

    1、创建scrapy项目

    scrapy项目名:scrapy_02_tc

    scrapy startproject scrapy_02_tc
    
    • 1

    2、创建爬虫文件

    爬虫文件名:tc_test

    要访问的域名:https://gz.58.com/sou/?key=%E5%89%8D%E7%AB%AF%E5%BC%80%E5%8F%91&classpolicy=classify_D

    scrapy genspider tc_test https://gz.58.com/sou/?key=%E5%89%8D%E7%AB%AF%E5%BC%80%E5%8F%91&classpolicy=classify_D
    
    • 1

    3、编写爬虫程序

    修改配置文件:settings.py

    ROBOTSTXT_OBEY = False
    USER_AGENT = Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36
    
    • 1
    • 2

    在 tc_test.py 文件中编写爬虫程序:

    import scrapy
    
    
    class TcTestSpider(scrapy.Spider):
        name = 'tc_test'
        allowed_domains = ['https://gz.58.com/sou/?key=%E5%89%8D%E7%AB%AF%E5%BC%80%E5%8F%91&classpolicy=classify_D']
        start_urls = ['https://gz.58.com/sou/?key=%E5%89%8D%E7%AB%AF%E5%BC%80%E5%8F%91&classpolicy=classify_D']
    
        def parse(self, response):
    
            # 使用xpath解析
            span = response.xpath('//div[@id="filter"]/div[@class="tabs"]/a/span')[0]
            print(span.extract())
            print(span.extract_first())  # 提取列表中第1个文本内容
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    Selector(选择器):Scrapy 提供的数据提取方法,Selector 基于 lxml ,支持 XPath 选择器、CSS 选择器以及正则表达式,功能全面,解析速度和准确度非常高。

    • extract():提取selector对象的文本内容

    • extract_first():提取selector列表中的第1个文本内容

    response 属性:

    • response.text:获取响应对象的字符串格式数据
    • response.body:获取响应对象的二进制格式数据

    2、Scrapy框架执行过程

    Scrapy框架执行过程图如下:

    在这里插入图片描述

    Scrapy框架执行过程步骤描述:

    • ①:spiders把待爬取的 URL传递给引擎
    • ②:引擎再把url传递给调度器
    • ③:调度器将url生成请求对象放入指定队列中,再从队列中取出第一个请求交给引擎
    • ④:引擎再把请求传递给下载器
    • ⑤:下载器向互联网发送请求下载数据(response对象)
    • ⑥:然后下载器先把数据传递给引擎,引擎再把数据传递给spiders
    • ⑦:spider用xpath处理、分析,并提取出所需要的数据,得到解析结果,然后传递给引擎
    • ⑧:引擎判断解析结果是数据还是url,如果是数据,就把数据传递给管道,由管道进行保存;如果是url,则交给调度器

    上述Scrapy框架执行过程会一直循环,直到没有要爬取的 URL 时才会停止。

  • 相关阅读:
    【31-业务开发-基础业务-品牌管理-级联类别信息业务功能实现-品牌管理和商品分类管理俩者业务关联出现数据冗余,导致数据不同步的问题-开启事务-项目测试】
    法语初级学习笔记-02-动词变位
    供应MAL-PEG-AC,Acrylate-PEG-Maleimide,马来酰亚胺PEG羧基
    IP溯源常用工具
    YOLOv5利用Labelimg标注自己数据集
    若依微服务集成Mybatis-plus详细教程
    [微前端实战]---033vue2 - 新能源子页面
    【Java数据结构】详解Stack与Queue(一)
    迈动互联中标北京人寿保险,助推客户提升品牌价值
    Android学习笔记5 - 初学Activity(二)多个、生命周期、启动模式
  • 原文地址:https://blog.csdn.net/wpc2018/article/details/126547966
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号