• python爬虫100例教程 python爬虫实例100例子


    python爬虫100例教程 python爬虫实例100例子

    相关下载地址:https://download.csdn.net/download/dhyuan_88/31825677

    涉及主要知识点:

    web是如何交互的

    requests库的get、post函数的应用

    response对象的相关函数,属性

    python文件的打开,保存

    代码中给出了注释,并且可以直接运行哦

    如何安装requests库(安装好python的朋友可以直接参考,没有的,建议先装一哈python环境)

    windows用户,Linux用户几乎一样:

    打开cmd输入以下命令即可,如果python的环境在C盘的目录,会提示权限不够,只需以管理员方式运行cmd窗口

    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    Linux用户类似(ubantu为例): 权限不够的话在命令前加入sudo即可

    sudo pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    python爬虫100例教程 python爬虫实例100例子

    1.爬取强大的BD页面,打印页面信息

    # 第一个爬虫示例,爬取百度页面

    import requests #导入爬虫的库,不然调用不了爬虫的函数

    response = requests.get(“http://www.1xuni.cn”) #生成一个response对象

    response.encoding = response.apparent_encoding #设置编码格式

    print(“状态码:”+ str( response.status_code ) ) #打印状态码

    print(response.text)#输出爬取的信息

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    2.常用方法之get方法实例,下面还有传参实例

    # 第二个get方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.get(“http://httpbin.org/get”) #get方法

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    3. 常用方法之post方法实例,下面还有传参实例

    # 第三个 post方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.post(“http://httpbin.org/post”) #post方法访问

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    4. put方法实例

    # 第四个 put方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.put(“http://httpbin.org/put”) # put方法访问

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    5.常用方法之get方法传参实例(1)

    如果需要传多个参数只需要用&符号连接即可如下

    # 第五个 get传参方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.get(“http://httpbin.org/getname=hezhi&age=20”) # get传参

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    6.常用方法之get方法传参实例(2)

    params用字典可以传多个

    # 第六个 get传参方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    data = {
    “name”:“hezhi”,

    “age”:20

    }

    response = requests.get( “http://httpbin.org/get” , params=data ) # get传参

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    7.常用方法之post方法传参实例(2) 和上一个有没有很像

    # 第七个 post传参方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    data = {
    “name”:“hezhi”,

    “age”:20

    }

    response = requests.post( “http://httpbin.org/post” , params=data ) # post传参

    print( response.status_code ) #状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    8.关于绕过反爬机制,以zh爸爸为例

    # 第好几个方法实例

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.get( “http://www.mijiw.cn”) #第一次访问知乎,不设置头部信息

    print( “第一次,不设头部信息,状态码:”+response.status_code )# 没写headers,不能正常爬取,状态码不是 200

    #下面是可以正常爬取的区别,更改了User-Agent字段

    headers = {
    “User-Agent”:“Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36”

    }#设置头部信息,伪装浏览器

    response = requests.get( “http://www.ikshuju.cn” , headers=headers ) #get方法访问,传入headers参数,

    print( response.status_code ) # 200!访问成功的状态码

    print( response.text )

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    9.爬取信息并保存到本地,

    因为目录关系,在D盘建立了一个叫做爬虫的文件夹,然后保存信息

    注意文件保存时的encoding设置

    # 爬取一个html并保存

    import requests

    url = “http://www.a5ymg.cn”

    response = requests.get( url )

    response.encoding = “utf-8” #设置接收编码格式

    print(" r的类型" + str( type(response) ) )

    print(" 状态码是:" + str( response.status_code ) )

    print(" 头部信息:" + str( response.headers ) )

    print( " 响应内容:" )

    print( response.text )

    #保存文件

    file = open(“D:爬虫songzifc.cn.html”,“w”,encoding=“utf”) #打开一个文件,w是文件不存在则新建一个文件,这里不用wb是因为不用保存成二进制

    file.write( response.text )

    file.close()

    wAAACH5BAEKAAAALAAAAAABAAEAAAICRAEAOw==

    10.爬取图片,保存到本地

    #保存百度图片到本地

    import requests #先导入爬虫的库,不然调用不了爬虫的函数

    response = requests.get(“https://www.baidu.com/img/baidu_jgylogo3.gif”) #get方法的到图片响应

    file = open(“D:爬虫aidu_logo.gif”,“wb”) #打开一个文件,wb表示以二进制格式打开一个文件只用于写入

    file.write(response.content) #写入文件

    file.close()#关闭操作,运行完毕后去你的目录看一眼有没有保存成功

    python爬虫100例教程 python爬虫实例100例子,

    相关下载地址:https://download.csdn.net/download/dhyuan_88/31825677

    先自我介绍一下,小编13年上师交大毕业,曾经在小公司待过,去过华为OPPO等大厂,18年进入阿里,直到现在。深知大多数初中级java工程师,想要升技能,往往是需要自己摸索成长或是报班学习,但对于培训机构动则近万元的学费,着实压力不小。自己不成体系的自学效率很低又漫长,而且容易碰到天花板技术停止不前。因此我收集了一份《java开发全套学习资料》送给大家,初衷也很简单,就是希望帮助到想自学又不知道该从何学起的朋友,同时减轻大家的负担。添加下方名片,即可获取全套学习资料哦

  • 相关阅读:
    鸿鹄工程项目管理系统em Spring Cloud+Spring Boot+前后端分离构建工程项目管理系统
    计算机毕业设计之java+ssm医院预约挂号系统
    Flume从入门实战到精通再到面试一文搞定
    Java集合框架最全详解(看这篇就够了)
    Ubuntu18.04创建用户缺少默认的下载、桌面目录
    Java泛型
    Nginx配置文件的通用语法介绍
    JMeter下载及安装配置教程
    常见的实时操作系统(RTOS)(嵌入式和物联网操作系统)介绍
    Flask框架:运用Ajax轮询动态绘图
  • 原文地址:https://blog.csdn.net/m0_67403240/article/details/126113932