码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • Python爬虫实战-批量爬取豆瓣电影排行信息


    大家好,我是python222小锋老师。

    近日锋哥又卷了一波Python实战课程-批量爬取豆瓣电影排行信息,主要是巩固下Python爬虫基础

    视频版教程:

    Python爬虫实战-批量爬取豆瓣电影排行信息 视频教程_哔哩哔哩_bilibiliPython爬虫实战-批量爬取豆瓣电影排行信息 视频教程作者:小锋老师官网:www.python222.com, 视频播放量 344、弹幕量 0、点赞数 13、投硬币枚数 7、收藏人数 18、转发人数 0, 视频作者 java1234官方, 作者简介 公众号:java1234 微信:java9266,相关视频:Python爬虫实战-批量爬取下载网易云音乐,Python爬虫实战-批量爬取美女图片网下载图片 视频教程,这个视频可能会得罪很多人..终极爬虫JS逆向教程!突破反爬虫防御的终极指南,从入门到实战,就没有爬不了的网站!,【Python爬虫教程】你敢学我就敢发!300集从入门到入狱(完整版)胆小勿学!全程干货无废话,学完即可兼职接单!,2024 一天掌握python爬虫【基础篇】 涵盖 requests、beautifulsoup、selenium 【无废话版】,【Python爬虫】三分钟教你免费下载全网VIP音乐,音乐一键下载免费听,告别付费时代,小白也能学得会,附源码!,【Python爬虫】手把手教你爬取百度文库PPT文档,破解百度文库收费限制,下载PPT再也没花过钱!,【B站第一】清华大佬196小时讲完的Python入门学习教程!从小白到大神!整整300集,全干货无废话,学完即可就业!允许白嫖!!,【2023百度文库VIP文档PPT免费下载】Python白嫖百度文库付费VIP文档,破解百度文库收费限制,零基础白嫖教程!!!,【Python教程】一分钟轻松实现观影自由,教你用Python免费看电影,代码可分享 | Python爬虫教程icon-default.png?t=N7T8https://www.bilibili.com/video/BV1aN411u7o5/

    爬虫目标网站:

    https://movie.douban.com/top250

    经过分析,一共10页,第二页,第二页,...,第10页的规律是:

    1. 分页规律 第N页
    2. https://movie.douban.com/top250?start=25*(N-1)&filter=

    爬取网页,解析数据,处理数据,我们最终把数据存入Excel。

    因为涉及到分页,所以我们要对解析url,解析网页,导出Excel代码,进行封装,方便复用。

    解析请求,爬取网页方法:

    1. def crawl_html(url):
    2. """
    3. 解析请求,爬取网页
    4. :param url: 请求地址
    5. :return: 网页源码
    6. """
    7. response = requests.get(url=url, headers=headers)
    8. return response.text

    解析网页源码方法:

    1. def parse_html(html):
    2. """
    3. 解析网页源码
    4. :param html: 页面源码
    5. :return: 页面 电影对象信息列表 [ {'':''},{},{} ]
    6. """
    7. # 实例化soup
    8. soup = BeautifulSoup(html, "lxml")
    9. # 获取所有电影DOM
    10. movie_list = soup.select("ol.grid_view li")
    11. # print(movie_list)
    12. # 电影数据对象列表
    13. movie_data_list = []
    14. for movie in movie_list:
    15. try:
    16. rank = movie.select_one("div.pic em").text # 获取排名
    17. title = movie.select_one("div.info span.title").text # 获取电影名称
    18. info = movie.select_one("div.bd p").text.strip() # 获取电影描述信息
    19. rating_num = movie.select_one("div.star span.rating_num").text # 获取评分
    20. comment_count = movie.select("div.star span")[3].text.replace("人评价", "") # 获取评论数
    21. quete_dom = movie.select_one("p.quote span.inq")
    22. quote = ""
    23. if quete_dom:
    24. quote = quete_dom.text
    25. # quote = movie.select_one("p.quote span.inq").text # 获取电影描述
    26. movie_data_list.append({
    27. "rank": rank,
    28. "title": title,
    29. "info": info,
    30. "rating_num": rating_num,
    31. "comment_count": comment_count,
    32. "quote": quote
    33. })
    34. except:
    35. print(movie.select_one("div.pic em").text, "异常", traceback.print_exc())
    36. continue
    37. return movie_data_list

    导出Excel方法:借助pandas库

    1. def export_excel(datas):
    2. """
    3. 导出数据到Excel
    4. :param datas: 数据
    5. :return:
    6. """
    7. df = pd.DataFrame(datas)
    8. df.to_excel("豆瓣电影TOP250.xlsx")

    完整源码参考:具体代码解释,参考帖子顶部的视频教程。

    1. """
    2. 豆瓣电影 Top 250 抓取电影信息,存到excel里面
    3. 使用requests爬取网页,使用bs4解析数据,使用pandas将数据写入Excel
    4. 目标网页:https://movie.douban.com/top250
    5. 分页规律 第N页
    6. https://movie.douban.com/top250?start=25*(N-1)&filter=
    7. 作者:小锋老师
    8. 官网:www.python222.com
    9. """
    10. import traceback
    11. import requests
    12. from bs4 import BeautifulSoup
    13. import pandas as pd
    14. headers = {
    15. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/118.0.0.0 Safari/537.36'
    16. }
    17. url = "https://movie.douban.com/top250?start=0&filter="
    18. def crawl_html(url):
    19. """
    20. 解析请求,爬取网页
    21. :param url: 请求地址
    22. :return: 网页源码
    23. """
    24. response = requests.get(url=url, headers=headers)
    25. return response.text
    26. def parse_html(html):
    27. """
    28. 解析网页源码
    29. :param html: 页面源码
    30. :return: 页面 电影对象信息列表 [ {'':''},{},{} ]
    31. """
    32. # 实例化soup
    33. soup = BeautifulSoup(html, "lxml")
    34. # 获取所有电影DOM
    35. movie_list = soup.select("ol.grid_view li")
    36. # print(movie_list)
    37. # 电影数据对象列表
    38. movie_data_list = []
    39. for movie in movie_list:
    40. try:
    41. rank = movie.select_one("div.pic em").text # 获取排名
    42. title = movie.select_one("div.info span.title").text # 获取电影名称
    43. info = movie.select_one("div.bd p").text.strip() # 获取电影描述信息
    44. rating_num = movie.select_one("div.star span.rating_num").text # 获取评分
    45. comment_count = movie.select("div.star span")[3].text.replace("人评价", "") # 获取评论数
    46. quete_dom = movie.select_one("p.quote span.inq")
    47. quote = ""
    48. if quete_dom:
    49. quote = quete_dom.text
    50. # quote = movie.select_one("p.quote span.inq").text # 获取电影描述
    51. movie_data_list.append({
    52. "rank": rank,
    53. "title": title,
    54. "info": info,
    55. "rating_num": rating_num,
    56. "comment_count": comment_count,
    57. "quote": quote
    58. })
    59. except:
    60. print(movie.select_one("div.pic em").text, "异常", traceback.print_exc())
    61. continue
    62. return movie_data_list
    63. def export_excel(datas):
    64. """
    65. 导出数据到Excel
    66. :param datas: 数据
    67. :return:
    68. """
    69. df = pd.DataFrame(datas)
    70. df.to_excel("豆瓣电影TOP250.xlsx")
    71. datas = [] # 所有电影数据
    72. for i in range(1, 11): # 遍历10页
    73. start = 25 * (i - 1)
    74. url = f"https://movie.douban.com/top250?start={start}&filter="
    75. print(url)
    76. movie_data_list = parse_html(crawl_html(url))
    77. datas += movie_data_list
    78. export_excel(datas)

  • 相关阅读:
    Redis应用问题解决
    用HK-MSR165微型振动冲击记录仪记录动态机械应力,帮助优化机器、工件和生产
    计算机毕设(附源码)JAVA-SSM基于的宿舍楼跳蚤市场管理系统
    Linux下 Mysql 互为主从
    Linux操作系统的发展
    jsp 九大内置对象和四大域对象
    Java虚拟机(JVM)面试专题(初级程序员P6)
    毫米波V2I网络的链路层仿真研究(Matlab代码实现)
    【算法与数据结构】深入解析二叉树(一)
    【MDP】②quadprog求解正定、半正定、负定二次规划
  • 原文地址:https://blog.csdn.net/caoli201314/article/details/134267074
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号