码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 如何使用 Python 循环遍历 HTML 表格和抓取表格数据


    表格数据是网络上最好的数据来源之一。它们可以存储大量有用信息而不会丢失其易于阅读的格式,使其成为数据相关项目的金矿。

    了解 HTML 表格的结构

    从视觉上看,HTML 表格是一组以表格格式显示信息的行和列。对于本教程,我们将抓取上面的表格:

    为了能够抓取该表中包含的数据,我们需要更深入地研究它的编码。

    一般来说,HTML 表格实际上是使用以下 HTML 标签构建的:

    • :它标志着 HTML 表格的开始
    • :将一行定义为表格的标题
    • :表示数据所在的部分
    •  : 表示表格中的一行
    •  或
      :定义表格中的一个单元格

      然而,正如我们将在现实生活场景中看到的那样,并非所有开发人员在构建他们的表时都遵守这些约定,这使得一些项目比其他项目更难。尽管如此,了解它们的工作原理对于找到正确的方法至关重要。

      让我们在浏览器中输入表格的 URL (https://datatables.net/examples/styling/stripe.html) 并检查页面以了解幕后情况。

      这就是为什么这是一个练习使用 Python 抓取表格数据的好页面的原因。有一个明确的

      标签对打开和关闭表格,所有相关数据都在 标签内。它只显示与前端选择的条目数相匹配的十行。

      关于这个表还有一点需要了解的是,它总共有 57 个我们想要抓取的条目,并且似乎有两种解决方案可以访问数据。首先是单击下拉菜单并选择“100”以显示所有条目:

      或单击下一步按钮以在分页中移动。

      那么会是哪一个呢?这些解决方案中的任何一个都会给我们的脚本增加额外的复杂性,因此,让我们先检查一下从哪里提取数据。

      当然,因为这是一个 HTML 表,所以所有数据都应该在 HTML 文件本身上,而不需要 AJAX 注入。要验证这一点,请右键单击>查看页面源代码。接下来,复制几个单元格并在源代码中搜索它们。

      我们对来自不同分页单元格的更多条目做了同样的事情,是的,看起来我们所有的目标数据都在那里,即使前端没有显示它。

      有了这些信息,我们就可以开始编写代码了!

      使用 Python 的 Beautiful Soup 抓取 HTML 表

      因为我们要抓取的所有员工数据都在 HTML 文件中,所以我们可以使用Requests库发送 HTTP 请求并使用Beautiful Soup解析响应。

      注意:如果您不熟悉网络抓取,我们已经为初学者创建了 Python 中的网络抓取教程。尽管您可以在没有经验的情况下跟随,但从基础开始总是一个好主意。

      1. 发送我们的主要请求

      让我们为项目创建一个名为python-html-table的新目录,然后是一个名为bs4-table-scraper的新文件夹,最后,创建一个新的python_table_scraper.py文件.54

      从终端,让我们pip3 install requests beautifulsoup4将它们导入到我们的项目中,如下所示:

      1. import requests
      2. from bs4 import BeautifulSoup

      要使用 Requests 发送 HTTP 请求,我们需要做的就是设置一个 URL 并通过 requests.get() 传递它,将返回的 HTML 存储在响应变量中并打印 response.status_code。

      注意:如果您是 Python 的新手,您可以使用命令 python3 python_table_scraper.py 从终端运行您的代码。

      1. url = 'https://datatables.net/examples/styling/stripe.html'  
      2. response = requests.get(url)  
      3. print(response.status_code)

      如果它正常工作,它将返回 200 状态码。其他任何事情都意味着您的 IP 被网站安装的反抓取系统拒绝。一个潜在的解决方案是向您的脚本添加自定义标题,以使您的脚本看起来更人性化——但这可能还不够。另一种解决方案是使用网络抓取 API 为您处理所有这些复杂性。

      2. 使用 Beautiful Soup 构建解析器

      在提取数据之前,我们需要将原始 HTML 转换为格式化或解析数据。我们将把这个解析后的 H​​TML 存储到一个汤对象中,如下所示:

      soup = BeautifulSoup(response.text, 'html.parser')

      从这里,我们可以使用 HTML 标签及其属性遍历解析树。

      如果我们回到页面上的表格,我们已经看到表格被包含在

      带有 class 的标签之间stripe dataTable,我们可以使用它来选择表格。

      1. table = soup.find('table', class_ = 'stripe')
      2. print(table)

      注意:经过测试,添加第二个类(dataTable)没有返回元素。实际上,在返回元素中,表的类只有stripe。您也可以使用 id = 'example'。

      这是它返回的内容:

      现在我们抓取了表格,我们可以遍历行并抓取我们想要的数据。

      3. 循环遍历 HTML 表

      回想一下表格的结构,每一行都由一个

      元素表示,其中有标签对之间。

      为了提取数据,我们将创建两个用于外观,一个用于获取

      表的部分(所有行所在的位置),另一个用于将所有行存储到我们可以使用的变量中:

      1. for employee_data in table.find_all('tbody'):  
      2. rows = employee_data.find_all('tr')  
      3. print(rows)

      在行中,我们将存储

      在表的主体部分中找到的所有元素。如果您遵循我们的逻辑,下一步是将每个单独的行存储到一个对象中并循环遍历它们以找到所需的数据。

      首先,让我们尝试使用.querySelectorAll()方法在浏览器控制台上选择第一个员工的姓名。这种方法的一个非常有用的特性是,我们可以越来越深入地实现层次结构,实现大于 (>) 符号来定义父元素(左侧)和我们想要抓取的子元素(右侧)。

      从那里,我们可以像这样编写我们的代码:
      1. for row in rows:    
      2. name = row.find_all('td')[0].text    
      3. print(name)

      简单来说,我们逐行获取每一行,并找到里面的所有单元格,一旦我们有了列表,我们只抓取索引中的第一个(位置 0)并使用 .text 方法完成抓取元素的文本,忽略我们不需要的 HTML 数据。

      他们在那里,一个包含所有员工姓名的列表!其余的,我们只需遵循相同的逻辑:

      1. position = row.find_all('td')[1].text
      2. office = row.find_all('td')[2].text
      3. age = row.find_all('td')[3].text
      4. start_date = row.find_all('td')[4].text
      5. salary = row.find_all('td')[5].text

      但是,将所有这些数据打印在我们的控制台上并不是很有帮助。相反,让我们将这些数据存储为一种新的、更有用的格式。

      4. 将表格数据存储到 JSON 文件中

      虽然我们可以轻松地创建一个 CSV 文件并将我们的数据发送到那里,但如果我们可以使用抓取的数据创建新的东西,那将不是最易于管理的格式。

      不过,这是我们几个月前做的一个项目,解释了如何创建一个 CSV 文件来存储抓取的数据。

      好消息是 Python 有自己的 JSON 模块来处理 JSON 对象,所以我们不需要安装任何东西,只需导入它。

      import json

      但是,在我们继续创建 JSON 文件之前,我们需要将所有这些抓取的数据变成一个列表。为此,我们将在循环之外创建一个空数组。

      employee_list = []

      然后将数据附加到它,每个循环都将一个新对象附加到数组中。

      employee_list.append({    'Name': name,    'Position': position,    'Office': office,    'Age': age,    'Start date': start_date,    'salary': salary })

      如果我们print(employee_list),结果如下:

      还是有点乱,但我们有一组准备好转换为 JSON 的对象。

      注意:作为测试,我们打印了 的长度,employee_list它返回 57,这是我们抓取的正确行数(行现在是数组中的对象)。

      将列表导入 JSON 只需要两行代码:

      1. with open('json_data', 'w') as json_file:
      2. json.dump(employee_list, json_file, indent=2)

      • 首先,我们打开一个新文件,传入我们想要的文件名(json_data)和“w”,因为我们想要向它写入数据。
      • 接下来,我们使用该.dump()函数从数组中转储数据(employee_list),indent=2因此每个对象都有自己的行,而不是所有内容都在一个不可读的行中。
    • 相关阅读:
      uniapp H5预览PDF支持手势缩放、分页、添加水印、懒加载、PDF下载
      CentOS7 根目录100%
      计算机专业毕业论文java毕业设计开题报告SSM项目源码实现的在线音乐歌曲网站[包运行成功]
      MySQL主从复制与读写分离
      超简单集成华为 HMS MLKit 机器学习服务:银行卡识别 SDK,一键实现银行卡绑定
      财务福音!用Python+OCR人工智能识别发票自动存入Excel表格保姆级教程
      【Java集合类面试二十九】、说一说HashSet的底层结构
      「解决BUG」WIndows 开机进入桌面后一直闪屏刷新,无法打开资源管理器,菜单等界面
      3.下载Swin-Transformer-Object-Detection
      tensorrt高级2:YoloV5 模型导出、编译到推理(源码讲解)
    • 原文地址:https://blog.csdn.net/wouderw/article/details/127742054
      • 最新文章
      • 攻防演习之三天拿下官网站群
        数据安全治理学习——前期安全规划和安全管理体系建设
        企业安全 | 企业内一次钓鱼演练准备过程
        内网渗透测试 | Kerberos协议及其部分攻击手法
        0day的产生 | 不懂代码的"代码审计"
        安装scrcpy-client模块av模块异常,环境问题解决方案
        leetcode hot100【LeetCode 279. 完全平方数】java实现
        OpenWrt下安装Mosquitto
        AnatoMask论文汇总
        【AI日记】24.11.01 LangChain、openai api和github copilot
      • 热门文章
      • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
        奉劝各位学弟学妹们,该打造你的技术影响力了!
        五年了,我在 CSDN 的两个一百万。
        Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
        面试官都震惊,你这网络基础可以啊!
        你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
        心情不好的时候,用 Python 画棵樱花树送给自己吧
        通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
        13 万字 C 语言从入门到精通保姆级教程2021 年版
        10行代码集2000张美女图,Python爬虫120例,再上征途
      Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
      正则表达式工具 cron表达式工具 密码生成工具

      京公网安备 11010502049817号

      一个包含数据的元素,所有这些都包裹在一个