码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 【GUI开发案例】用python爬百度搜索结果,并开发成exe桌面软件!


    合集 - python爬虫(15)
    1.【Python爬虫案例】用Python爬取李子柒B站视频数据2022-05-042.【python爬虫案例】爬取微博任意搜索关键词的结果,以“唐山打人”为例2022-06-263.【GUI开发】用python爬YouTube博主信息,并开发成exe软件!2022-11-024.【股票爬虫教程】我用100行Python代码,爬了雪球网5000只股票,还发现一个网站bug!2022-09-195.【2023知乎爬虫】我用Python爬虫爬了2386条知乎评论!2022-08-256.【Python爬虫技巧】快速格式化请求头Request Headers2022-07-157.【爬虫数据集】李子柒YouTube频道TOP10热门视频的TOP2000热门评论,共计2W条05-208.【2023微博签到爬虫】用python爬上千条m端微博签到数据02-079.【2023最新B站评论爬虫】用python爬取上千条哔哩哔哩评论2022-12-11
    10.【GUI开发案例】用python爬百度搜索结果,并开发成exe桌面软件!2022-11-24
    11.【Python爬虫案例】用python爬1000条哔哩哔哩搜索结果2022-11-1012.【爬虫数据集】滇西小哥YouTube频道TOP10热门视频的热评数据,共2W条!05-2113.【爬虫数据集】「淄博烧烤」12840条评论数据06-0514.【python爬虫实战】用python爬取爱奇艺电视剧十大榜单的全部数据!06-0815.【python爬虫案例】用python爬取百度的搜索结果!2023.3发布06-08
    收起

    目录
    • 一、背景介绍
      • 1.1 老版本
      • 1.2 爬取目标
      • 1.3 软件运行截图
      • 1.4 爬取数据
      • 1.5 实现思路
    • 二、代码讲解
      • 2.1 爬虫
      • 2.2 软件界面
      • 2.3 日志模块
    • 三、软件运行演示
    • 四、完整源码

    一、背景介绍

    你好,我是 @马哥python说 ,一名10年程序猿。

    1.1 老版本

    之前我开发过一个百度搜索的python爬虫代码,具体如下:
    【python爬虫案例】用python爬取百度的搜索结果!
    这个爬虫代码自发布以来,受到了众多小伙伴的关注:
    ​

    但是,很多不懂python编程的小伙伴无法使用它,非常痛苦!

    于是,我把这个程序封装成了一个桌面软件(exe文件),无需python运行环境也可以使用。

    1.2 爬取目标

    ​

    1.3 软件运行截图

    ​

    1.4 爬取数据

    ​

    1.5 实现思路

    通过python爬虫技术,爬取百度搜索结果数据,包含字段:

    页码、标题、百度链接、真实链接、简介、网站名称。

    并把源码封装成exe文件,方便没有python环境,或者不懂技术的人使用它。

    二、代码讲解

    2.1 爬虫

    首先,导入需要用到的库:

    import requests  # 发送请求
    from bs4 import BeautifulSoup  # 解析页面
    import pandas as pd  # 存入csv数据
    import os  # 判断文件存在
    from time import sleep  # 等待间隔
    import random  # 随机
    import re  # 用正则表达式提取url
    

    定义一个请求头:

    # 伪装浏览器请求头
    headers = {
    	"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36",
    	"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",
    	"Accept-Language": "zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7",
    	"Connection": "keep-alive",
    	"Accept-Encoding": "gzip, deflate, br",
    	"Host": "www.baidu.com",
    	# 需要更换Cookie
    	"Cookie": "换成自己的cookie"
    }
    

    Cookie是个关键,如果不加Cookie,响应码可能不是200,获取不到数据,而且Cookie值是有有效期的,需要定期更换,如果发现返回无数据或响应码非200,尝试替换最新的Cookie。

    怎么获取到Cookie呢?打开Chrome浏览器,访问百度页面,按F12进入开发者模式:
    ​

    按照图示顺序,依次:

    1. 点击Network,进入网络页
    2. 点击All,查看所有网络请求
    3. 选择目标链接,和地址栏里的地址一致
    4. 查看Request Headers请求头
    5. 查看请求头里的Cookie,直接右键,Copy value,粘贴到代码里

    然后,分析页面请求地址:
    ​

    wd=后面是搜索关键字"马哥python说",pn=后面是10(规律:第一页是0,第二页是10,第三页是20,以此类推),其他URL参数可以忽略。

    然后,分析页面元素,以搜索结果标题为例:
    ​

    每一条搜索结果,都是class="result c-container new-pmd",下层结构里有简介、链接等内容,解析内部子元素不再赘述。

    所以根据这个逻辑,开发爬虫代码。

    # 获得每页搜索结果
    for page in range(v_max_page):
    	print('开始爬取第{}页'.format(page + 1))
    	wait_seconds = random.uniform(1, 2)  # 等待时长秒
    	print('开始等待{}秒'.format(wait_seconds))
    	sleep(wait_seconds)  # 随机等待
    	url = 'https://www.baidu.com/s?wd=' + v_keyword + '&pn=' + str(page * 10)
    	r = requests.get(url, headers=headers)
    	html = r.text
    	print('响应码是:{}'.format(r.status_code))
    	soup = BeautifulSoup(html, 'html.parser')
    	result_list = soup.find_all(class_='result c-container new-pmd')
    	print('正在爬取:{},共查询到{}个结果'.format(url, len(result_list)))
    

    其中,获取到的标题链接,一般是这种结构:

    http://www.baidu.com/link?url=7sxpKz_qoESU5b1BHZThKRAnXxPngB5kx1nZdUBCaXh7a4BgUgx9Zz-IqpeqDZTOIjvfY0u6ebnJdVWIfm5Tz_

    这显然是百度的一个跳转前的地址,不是目标地址,怎么获取它背后的真实地址呢?

    向这个跳转前地址,发送一个请求,然后逻辑处理下:

    def get_real_url(v_url):
    	"""
    	获取百度链接真实地址
    	:param v_url: 百度链接地址
    	:return: 真实地址
    	"""
    	r = requests.get(v_url, headers=headers, allow_redirects=False)  # 不允许重定向
    	if r.status_code == 302:  # 如果返回302,就从响应头获取真实地址
    		real_url = r.headers.get('Location')
    	else:  # 否则从返回内容中用正则表达式提取出来真实地址
    		real_url = re.findall("URL='(.*?)'", r.text)[0]
    	print('real_url is:', real_url)
    	return real_url
    

    如果响应码是302,就从响应头中的Location参数获取真实地址。

    如果是其他响应码,就从响应内容中用正则表达式提取出URL真实地址。

    把爬取到的数据,保存到csv文件:

    df = pd.DataFrame(
    			{
    				'关键词': kw_list,
    				'页码': page_list,
    				'标题': title_list,
    				'百度链接': href_list,
    				'真实链接': real_url_list,
    				'简介': desc_list,
    				'网站名称': site_list,
    			}
    		)
    if os.path.exists(v_result_file):
    	header = None
    else:
    	header = ['关键词', '页码', '标题', '百度链接', '真实链接', '简介', '网站名称']  # csv文件标头
    df.to_csv(v_result_file, mode='a+', index=False, header=header, encoding='utf_8_sig')
    print('结果保存成功:{}'.format(v_result_file))
    

    to_csv的时候需加上选项(encoding='utf_8_sig'),否则存入数据会产生乱码,尤其是windows用户!

    2.2 软件界面

    界面部分代码:

    # 创建主窗口
    root = tk.Tk()
    root.title('百度搜索爬虫-定制化开发 | 马哥python说')
    # 设置窗口大小
    root.minsize(width=850, height=650)
    
    show_list_Frame = tk.Frame(width=800, height=450)  # 创建<消息列表分区>
    show_list_Frame.pack_propagate(0)
    show_list_Frame.place(x=30, y=120, anchor='nw')  # 摆放位置
    
    # 滚动条
    scroll = tk.Scrollbar(show_list_Frame)
    # 放到Y轴竖直方向
    scroll.pack(side=tk.RIGHT, fill=tk.Y)
    

    2.3 日志模块

    软件运行过程中,会在同级目录下生成logs文件夹,文件夹内会出现log文件,记录下软件在整个运行过程中的日志,方便长时间运行、无人值守,出现问题后的debug。

    部分核心代码:

    class Log_week():
        def get_logger(self):
            self.logger = logging.getLogger(__name__)
            # 日志格式
            formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
            # 日志级别
            self.logger.setLevel(logging.DEBUG)
            # 控制台日志
            sh = logging.StreamHandler()
            log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
            # info日志文件名
            info_file_name = time.strftime("%Y-%m-%d") + '.log'
            # 将其保存到特定目录,ap方法就是寻找项目根目录,该方法博主前期已经写好。
            case_dir = r'./logs/'
            info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
                                                    when='MIDNIGHT',
                                                    interval=1,
                                                    backupCount=7,
                                                    encoding='utf-8')
            self.logger.addHandler(sh)
            sh.setFormatter(log_formatter)
            self.logger.addHandler(info_handler)
            info_handler.setFormatter(log_formatter)
            return self.logger
    

    三、软件运行演示

    演示视频:
    【爬虫GUI演示】用python爬百度搜索,并开发成exe桌面软件!
    ​


    四、完整源码

    附完整源码:点击此处完整源码

  • 相关阅读:
    NLP相关
    C#程序的启动显示方案(无窗口进程发送消息) - 开源研究系列文章
    upload-Labs靶场“11-15”关通关教程
    java计算机毕业设计ssm气象百事通系统-天气预报系统
    联想M7216NWA一体机连接WiFi及手机添加打印机方法
    Kubernetes 可视化管理工具Kuboard V3
    Vim基本使用操作
    Spark学习(6)-Spark SQL
    java计算机毕业设计共享汽车管理系统MyBatis+系统+LW文档+源码+调试部署
    configs
  • 原文地址:https://www.cnblogs.com/mashukui/p/16921221.html
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号