目录
爬虫是当代最流行的数据抓取方法,使用python语言模拟浏览器爬取网站的数据应用到各个模块中,实现数据的价值和利用,达到某种商业的目的。不过因为被爬取的数据的类型和参数不同,所需要进行数据清洗和编码有所不同。下面介绍学习到的request模块方法中的get、post方法的使用。
我需要爬取的网站是百度翻译的结果,这个百度翻译结果是我任意输入一个英文翻译出来的结果。我想要爬取翻译以后的英文单词,将英文单词的数据统统抓取下来了。

按照F12看网络参数,刷一下页面,在Fetch/XHR中看到名称中最后一条数据显示正常,常规中网站状态是200码属于正常的响应码。

请求的网站:

载荷显示出请求的标识符,大概意思就是用户输入的数据。

预览状态可以看到dog参数翻译出来的结果
响应是我们要抓取的数据,不过数据类型是Json,需要转化。


分析大致思路是:
使用request模块导入,请求参数,请求符,伪造浏览器标识符,进行抓取数据,将数据格式化,抽取有用信息进行编码。
编码结果:

fileNama中有含有love的解释

- # -*- conding:utf-8 -*-
- #导入模块
- import requests
- import json
- if __name__ == '__main__':
- #需要爬取的网站的url(刷新界面最先开始请求的url参数值)
- post_url = 'https://fanyi.baidu.com/sug'
- #请求的浏览器伪装符
- headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}
- word = input('enter a word:')
- #请求参数
- data={
- 'kw':word
- }
- #post方法抓取数据
- response=requests.post(url=post_url,data=data,headers=headers)
- print('post抓取下来的数据相应码:',response)
- #使用json格式进行编码和解码
- dic_obj = response.json()
- print('使用json转换出来的数据:',dic_obj)
- #给查询的阐述加上一个json后缀名
- fileName = word+'.json'
- #写入一个文件
- fp = open('fileName','w',encoding='utf-8')
- #使用json.dump编码和解码json数据
- json.dump(dic_obj,fp=fp,ensure_ascii=False)
- print('over python!!!')
使用GET方法抓取豆瓣电影的数据,获取有用的数据,将数据本地化存储。
打开网站的源代码进行分析,观察到数据,网站的请求参数由网站地址加上请求参数组成。我们可以将URL作为编码中的抓取网站,载荷参数设定为请求值

编码结果:

douban.json文件中包涵了编译结果的记录
- # -*- conding:utf-8 -*-
- import requests
- import json
- if __name__ == '__main__':
- #定义爬虫的url
- post_url = 'https://movie.douban.com/j/chart/top_list'
- #浏览器请求标识符
- headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}
- #请求参数确定
- param ={
- 'type':'24',
- 'interval_id' : '100:90',
- 'action' : '',
- 'start' : '40',
- 'limit' : '20'
- }
- #用get方法进行抓取
- response = requests.get(url=post_url,headers=headers,params=param)
- # print(response)
- #使用json方法进行解码
- list_data = response.json()
- print("获取到网页的json参数:",list_data)
- fp = open('./douban.json','w',encoding='utf-8')
- #使用json.dump进行写入,ascill编码为否。
- json.dump(list_data,fp=fp,ensure_ascii=False)
- print('over python!!!')
什么时候用get方法,什么时候用post方法呢。那就在于我们使用F12刷新网站的时候,出来的标头,请求参数是get方法或者post方法了。针对不同的请求方法,使用不同的取值方式。