• 挑战30天学完Python:Day22 爬虫


    🎉 本系列为Python基础学习,原稿来源于 30-Days-Of-Python 英文项目,大奇主要是对其本地化翻译、逐条验证和补充,想通过30天完成正儿八经的系统化实践。此系列适合零基础同学,或仅了解Python一点知识,但又没有系统学习的使用者。总之如果你想提升自己的Python技能,欢迎加入《挑战30天学完Python》

    📘 Day 22

    Python爬虫

    什么是数据抓取

    互联网上充满了大量的数据,可以应用于不同的目的。为了收集这些数据,我们需要知道如何从一个网站抓取这些数据。

    网络抓取本质上是从网站中提取和收集数据,并将其存储在本地机器或数据库中的过程。

    在本节中,我们将使用 beautifulsoup 和 requests 包来抓取数据。

    友情提醒:数据抓取不合法,本篇内容请仅用于测试和学习用。

    如果你的Python环境中还没如下两个库,请用pip进行安装。

    pip install requests
    pip install beautifulsoup4
    
    • 1
    • 2

    要从网站抓取数据,需要对HTML标记和CSS选择器有基本的了解。我们使用HTML标签,类或id定位来自网站的内容。

    首先导入 requests 和 BeautifulSoup 模块

    import requests
    from bs4 import BeautifulSoup
    
    • 1
    • 2

    接着将需要抓取的网页地址赋值给一个url变量,以下我们以手机新浪首页为例子。

    
    import requests
    from bs4 import BeautifulSoup
    url = 'http://wap.sina.cn/'
    
    # 让我们使用网络请求url,获取返回的数据
    response = requests.get(url)
    # 检查返回状态,200表示正常
    status = response.status_code
    print(status)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    200
    
    • 1

    使用 beautifulSoup 解析页面内容。

    import requests
    import re
    from bs4 import BeautifulSoup
    url = 'http://wap.sina.cn/'
    
    response = requests.get(url)
    # 获取请求页面的所有内容
    content = response.content
    # 加载成beautiful对象
    soup = BeautifulSoup(content, 'html.parser')
    #解析标题并打印
    print(soup.title)
    # 获取标题里内容
    print("《" + soup.title.get_text() + "》")
    # 网站整个页面
    # print(soup.body)
    # 寻找要闻片段(通过网页右键查看源代码)
    yaowen = soup.find(id="yaowen_defense")
    # 要闻对象中查找所有

    标签,并循环获取概要标题 for h2 in yaowen.find_all('h2'): print(h2.contents[0])
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    如果运行这段代码,可以看到提取到了所有的新闻标题。

    本节只是抛砖隐喻,并不是python基础学习中核心部分。不过多展开,更多参考官方文档 beautifulsoup documentation

    🌕 你如此有能力,每一天都在进步,挑战还剩余8天,加油!本篇内容虽少,但练习不能少。

    💻 第22天练习

    1. 抓取豆瓣电影排行版中电影前10个电影的基本信息 https://movie.douban.com/chart。
    2. 从Python网络爬虫靶场 http://www.spiderbuf.cn/ 选择任意一个无反扒的网站进行表数据获取。

    练习参考:22_exercise.py

    🎉 CONGRATULATIONS ! 🎉

    << Day 21 | Day 23 >>

  • 相关阅读:
    网络编程在线英英词典之查询模块(五)
    mysql表的增删改查(进阶)
    Vue中el-table条件渲染防止样式乱掉
    为AI电脑生态注入强悍动力,安耐美PlatiGemini 1200W高性能电源
    你不知道的大像素全景,在行业应用中竟如此重要
    滑动谜题 -- BFS
    js基础笔记学习55-练习3判断是否是质数2
    java基础运算符 之 赋值运算符
    利用Nacos作为配置中心动态修改线程池
    JAVA工程师面试专题-《消息队列》篇
  • 原文地址:https://blog.csdn.net/zyueqi1987/article/details/136288805