• Python爬虫——Urllib库-3


    目录

    ajax的get请求

    获取豆瓣电影第一页的数据并保存到本地

    获取豆瓣电影前十页的数据

    ajax的post请求

    总结


    ajax的get请求

    获取豆瓣电影第一页的数据并保存到本地

    首先可以在浏览器找到发送数据的接口

    那么我们的url就可以在header中找到了

    再加上UA这个header

    进行请求对象的定制,模拟浏览器发送请求即可

    详细代码如下:

    1. # get请求
    2. # 获取豆瓣电影第一页的数据并且保存起来
    3. import urllib.request
    4. url = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20'
    5. headers = {
    6. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
    7. }
    8. # 请求对象的定制
    9. request = urllib.request.Request(url=url, headers=headers)
    10. # 模拟浏览器发送请求,获取响应的数据
    11. response = urllib.request.urlopen(request)
    12. content = response.read().decode('utf-8')
    13. # print(content)
    14. # 将数据下载到本地
    15. # open方法默认使用GBK,但是我们前面使用的是utf-8,那么这里
    16. # 需要将编码格式指定为utf-8
    17. fp = open('douban.json', 'w', encoding='utf-8')
    18. fp.write(content)
    19. # get请求
    20. # 获取豆瓣电影第一页的数据并且保存起来
    21. import urllib.request
    22. url = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20'
    23. headers = {
    24. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
    25. }
    26. # 请求对象的定制
    27. request = urllib.request.Request(url=url, headers=headers)
    28. # 模拟浏览器发送请求,获取响应的数据
    29. response = urllib.request.urlopen(request)
    30. content = response.read().decode('utf-8')
    31. # print(content)
    32. # 将数据下载到本地
    33. # open方法默认使用GBK,但是我们前面使用的是utf-8,那么这里
    34. # 需要将编码格式指定为utf-8
    35. fp = open('douban.json', 'w', encoding='utf-8')
    36. fp.write(content)

    这就下载下来了


    获取豆瓣电影前十页的数据

    首先我们找到第一次的刷新数据的请求url:

    https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=0&limit=20

    然后是第二次的:

    https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=20&limit=20

    然后是第三次的:
    https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&start=40&limit=20

            如果你观察这几个URL后面的参数的话,你就可以发现问题了,start每次都累加上limit,通过改变起始索引来挨个查询,这个在Java开发中经常会有这种代码,那么它查询的方法就已经是显而易见了。

    所以可以得出start的值是:(page - 1) * 20

    然后就可以写出下面的代码了:

    1. # get请求
    2. # 下载豆瓣电影前十页的数据
    3. import urllib.request
    4. import urllib.parse
    5. """
    6. 得到不同pages的request
    7. """
    8. def create_request(page):
    9. base_url = 'https://movie.douban.com/j/chart/top_list?type=13&interval_id=100%3A90&action=&'
    10. data = {
    11. 'start': (page - 1) * 20,
    12. 'limit': 20
    13. }
    14. data = urllib.parse.urlencode(data)
    15. url = base_url + data
    16. print(url)
    17. headers = {
    18. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
    19. }
    20. request = urllib.request.Request(url=url, headers=headers)
    21. return request
    22. """
    23. 得到返回的内容content
    24. """
    25. def get_content(request):
    26. response = urllib.request.urlopen(request)
    27. content = response.read().decode('utf-8')
    28. return content
    29. """
    30. 将得到的内容写入本地
    31. """
    32. def down_load(page, content):
    33. fp = open('douban_' + str(page) + '.json', 'w', encoding='utf-8')
    34. fp.write(content)
    35. """
    36. 主方法
    37. """
    38. if __name__ == '__main__':
    39. start_page = int(input('请输入起始页码'))
    40. end_page = int(input('请输入结束页码'))
    41. for page in range(start_page, end_page + 1):
    42. # 每一页都有自己的请求对象的定制
    43. request = create_request(page)
    44. # 获取响应数据
    45. content = get_content(request)
    46. # download下载
    47. down_load(page, content)

    然后就完美得到了所有的数据了 


    ajax的post请求

    对肯德基官网的餐厅位置进行爬取

    这为什么是一个ajax发送的数据呢,因为这里有一个ajax的核心对象

    然后就通过URL和header就可以得到下面的代码,并没有新的东西 ,都是前面的知识点的整合。

    1. # post请求
    2. # 肯德基官网
    3. import urllib.request
    4. import urllib.parse
    5. # 第一页
    6. # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
    7. # cname: 哈尔滨
    8. # pid:
    9. # pageIndex: 1
    10. # pageSize: 10
    11. # 第二页
    12. # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname
    13. # cname: 哈尔滨
    14. # pid:
    15. # pageIndex: 2
    16. # pageSize: 10
    17. """
    18. 请求对象定制
    19. """
    20. def create_request(page):
    21. base_url = 'https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=cname'
    22. data = {
    23. 'cname': '哈尔滨',
    24. 'pid': '',
    25. 'pageIndex': page,
    26. 'pageSize': '10'
    27. }
    28. data = urllib.parse.urlencode(data).encode('utf-8')
    29. headers = {
    30. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
    31. }
    32. request = urllib.request.Request(url=base_url, headers=headers, data=data)
    33. return request
    34. """
    35. 获取网页内容
    36. """
    37. def get_content(request):
    38. response = urllib.request.urlopen(request)
    39. content = response.read().decode('utf-8')
    40. return content
    41. """
    42. 下载内容到本地
    43. """
    44. def down_load(page, content):
    45. fp = open('KFC' + str(page) + ".json", 'w', encoding='utf-8')
    46. fp.write(content)
    47. if __name__ == '__main__':
    48. start_page = int(input("请输入起始页码"))
    49. end_page = int(input("请输入结束页码"))
    50. for page in range(start_page, end_page + 1):
    51. # 请求对象的定制
    52. request = create_request(page)
    53. # 获取网页内容
    54. content = get_content(request)
    55. # 下载内容到本地
    56. down_load(page, content)

    总结

    累了,没有总结,再见兄弟们ヾ( ̄▽ ̄)Bye~Bye~

  • 相关阅读:
    [李宏毅老师深度学习视频] BERT介绍
    【es5】标准库
    ceph部署踩坑——OSD服务无法启动
    Vue项目中使用element-plus UI库-并对下拉搜索框样式修改-el-select代码封装
    【毕业设计】基于Vue与SSM的在线聊天系统
    接口获取数据,转成JSONOBJECT
    【Linux】WSL
    Springboot + Vue实现审核功能(极简版)
    利用C库函数time()打印当前系统动态时间
    Java基于SpringBoot的4s店车辆管理系统
  • 原文地址:https://blog.csdn.net/DDDDWJDDDD/article/details/136389159