码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 【pyspider】爬取ajax请求数据(post),如何处理python2字典的unicode编码字段?


    情景:传统的爬虫只需要设置fetch_type=js即可,因为可以获取到整个页面。但是现在ajax应用越来越广泛,所以有的网页不能用此种爬虫类型来获取页面的数据,只能用slef.crawl()来发起http请求来抓取数据。

    直接上例子:
    可以看到,该网页的每一页的数据是通过ajax请求获取到的,方式为POST,所以不能用传统方法。
    在这里插入图片描述

    可以看到该请求的请求体,我们需要把请求体和请求方法写到crawl函数的参数里。
    在这里插入图片描述

    直接上代码:

    # coding: utf-8
    from pyspider.libs.base_handler import *
    
    class Handler(BaseHandler):
        @every(minutes=10)
        def on_start(self):
            data = {
                'channelid': 229105,
                'sortfield': '-docorderpri,-docreltime',
                'classsql': 'chnlid=40078',
                'classcol': 'publishyear',
                'classnum': 100,
                'classsort': 0,
                'cache': 'true',
                'page': 1,
                'prepage': 75,
        }
            save = {
                'req_body':data
            }
            # method指定POST,data指定请求体,save保存一些自定义字段。
            self.crawl('http://yjt.fujian.gov.cn/fjdzapp/search', callback=self.index_page, method="POST", data=data, save=save)
    
    	# 抓取请求的响应数据后会调用此接口
        @config(age=10*60)
        def index_page(self, response):
            print(response.save['req_body']) # 查看请求体
            print(response.json) # 获取所抓到的数据
            return response.json
            
        def on_result(self, result):
            # 处理结果 ...
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32

    请求体和响应如下:
    在这里插入图片描述

    需要注意的地方

    可以看到,字典的字段都是u'...',这表明是Unicode编码,所以想要获取字典中的字段,需要做下面的处理:

    response字典中有个recordCount的key,我想获取他的值,需要将其先按照utf-8的编码方式解码为Unicode(python2默认Unicode编码,但是我们的脚本是utf-8的编码方式),这样就可以获取到字典的值啦

    	recordCount = response.json.get('recordCount'.decode('utf-8'))
    
    • 1
  • 相关阅读:
    Sql注入详解(原理篇)
    汽车专场 | 新能源汽车动力电池PACK CAE分析实例解读
    ROS工程实践1—创建工作空间和功能包
    科技云报道:防患于未然,云安全要像空气和水一样无处不在
    java计算机毕业设计教务系统MyBatis+系统+LW文档+源码+调试部署
    电子病历结构化之实体识别(附完整项目代码)
    【云计算】三种云服务
    【ESD专题】TVS管的参数详解
    Linux学习之MySQL建表
    Python入门必学:单引号、双引号与三引号的差异与应用
  • 原文地址:https://blog.csdn.net/SingDanceRapBall/article/details/134233573
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号