• python爬虫——爬取豆瓣top250电影数据(适合初学者)


    前言:

    爬取豆瓣top250其实是初学者用于练习和熟悉爬虫技能知识的简单实战项目,通过这个项目,可以让小白对爬虫有一个初步认识,因此,如果你已经接触过爬虫有些时间了,可以跳过该项目,选择更有挑战性的实战项目来提升技能。当然,如果你是小白,这个项目就再适合不过了。那么就让我们开始吧!

    目录

    一、实战

    1.对豆瓣网网站进行Ajax分析

    2.提取数据

    二、python完整代码(两种方法)

    bs4方法

    正则式方法


    一、实战

    1.对豆瓣网网站进行Ajax分析

    这里我用的是谷歌浏览器,对豆瓣电影top250网站进行检查,可以在网络部分看到该页数据的请求头信息。

    需要注意的是,我们要爬取的页面数据文件是top250这个文件,判断需要从哪个包中提取数据可以在响应里看到:

     我们一开始可以试着给豆瓣发请求:

    1. import requests
    2. # 发请求测试
    3. response = requests.get('https://movie.douban.com/top250')
    4. print(response)

    得到响应结果如下:

    状态码是418,意思是服务器拒绝了我们的请求。这是因为服务器没有识别到我们是用户端,所以为了保证网站数据的安全,将我们拒之门外。那么我们就需要对自己进行一些简单的伪装。

    UA(user-agent)伪装,是我本次采用的伪装策略,也是最简单的伪装策略,有些网站的反爬机制比较复杂,则需要采用更加复杂的反反爬机制来进行伪装,不过,对于豆瓣来说,UA伪装就够用了。

    那么我们现在给我们的请求带一个请求头,并且请求头中带一个User-agent信息,这个信息可以在检查页面的请求头信息(Headers)里找到,如下所示:

    现在我们将它加入到我们的代码中:

    1. import requests
    2. # 发请求测试网站反爬机制
    3. headers = {
    4. 'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'
    5. }
    6. response = requests.get('https://movie.douban.com/top250',headers=headers)
    7. print(response)

    响应结果:

    状态码为200,说明响应成功,这个时候我们已经爬到我们想要的数据了,打印出来看下:

    print(response.text)

    可以看到,我们已经得到了整个页面的html代码,那么下一步我们就需要从中提取我们需要的信息。

    2.提取数据

    这里我使用的方法是python正则式,所以我们需要先分析html代码的结构,这里需要一点前端知识,但是因为爬虫的前导知识是前端开发,因此默认大家都是能看懂的。

    通过观察,我们可以发现电影标题包含在这个类里,所以我们可以使用正则式将它匹配出来:

    <span class="title">(.*?)</span>

    python代码:

    1. import re
    2. title = re.findall('class="title">(.*?)', response.text,re.S)

    提取完之后我们需要对不干净的数据进行筛选,这一步可以省略,详见于完整代码。

    其他信息也按照这个逻辑提取出来,这里我提取了题目、国籍、上映时间这三个数据,大家可以根据自己的需要去提取。

    二、python完整代码(两种方法)

    这里我提供两种方法,一种是用bs4对html代码进行解析(爬虫中用的比较多),另一种是python正则式。大家可以根据需要进行采用。

    bs4方法

    1. import requests
    2. from bs4 import BeautifulSoup
    3. import csv
    4. '''爬取豆瓣电影top20'''
    5. def top250_crawer(url,sum):
    6. headers = {
    7. 'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'
    8. }
    9. response = requests.get(url,headers = headers)
    10. soup = BeautifulSoup(response.text, 'html.parser')
    11. # print(soup)
    12. movie_items = soup.find_all('div', class_='item')
    13. i = sum+1
    14. for item in movie_items:
    15. title = item.select_one('.title').text
    16. # print(title)
    17. rating = item.select_one('.rating_num').text
    18. data = item.select('.bd p')[0].text.split('\n')
    19. time = data[2].replace(' ','').split('/')[0]
    20. country = data[2].replace(' ','').split('/')[1]
    21. print(str(i)+'.'+title+','+country+','+time)
    22. i +=1
    23. url = 'https://movie.douban.com/top250'
    24. sum =0
    25. '遍历10页数据,250条结果'
    26. for a in range(10):
    27. if sum == 0 :
    28. top250_crawer(url,sum)
    29. sum +=25
    30. else:
    31. page = '?start='+str(sum)+'&filter='
    32. new_url = url+page
    33. top250_crawer(new_url,sum)
    34. sum +=25

    正则式方法

    1. import requests
    2. import re
    3. '''爬取豆瓣电影top20'''
    4. def top250_crawer(url, sum):
    5. headers = {
    6. 'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'
    7. }
    8. response = requests.get(url, headers=headers)
    9. print(response.text)
    10. title = re.findall('(.*?)', response.text,re.S)
    11. new_title = []
    12. for t in title:
    13. if ' / ' not in t:
    14. new_title.append(t)
    15. data = re.findall('
      (.*?)

      '
      , response.text, re.S)
    16. time = []
    17. country = []
    18. for str1 in data:
    19. str1 = str1.replace(' ', '')
    20. str1 = str1.replace('\n', '')
    21. time_data = str1.split(' / ')[0]
    22. country_data = str1.split(' / ')[1]
    23. time.append(time_data)
    24. country.append(country_data)
    25. print(len(new_title))
    26. print(len(time))
    27. print(len(country))
    28. for j in range(len(country)):
    29. sum += 1
    30. print(str(sum)+'.' + new_title[j] + ',' + country[j] + ',' + time[j])
    31. url = 'https://movie.douban.com/top250'
    32. sum = 0
    33. '遍历10页数据,250条结果'
    34. for a in range(10):
    35. if sum == 0:
    36. top250_crawer(url, sum)
    37. sum += 25
    38. else:
    39. page = '?start=' + str(sum) + '&filter='
    40. new_url = url + page
    41. top250_crawer(new_url, sum)
    42. sum += 25

    运行结果:

  • 相关阅读:
    原生ip和非原生ip的区别
    span 元素自带间距??
    springboot使用redis
    现代图片性能优化及体验优化指南
    研究铜互连的规模能扩大到什么程度
    代码随想录算法训练营第44天 | ● 完全背包● 518. 零钱兑换 II ● 377. 组合总和 Ⅳ
    LQ0001 方程整数解【枚举】
    Java基础—反射
    linux之mail命令发邮件
    基于Amazon EC2和Amazon Systems Manager Session Manager的堡垒机设计和自动化实现
  • 原文地址:https://blog.csdn.net/weixin_52135595/article/details/132831046