网络爬虫在使用过程中需要注意法律和道德问题。以下是一些常见的问题:
在使用网络爬虫时,应当遵守相关规定并尊重网站的权益和用户的隐私
User-Agent能够通过服务器识别出用户的操作系统及版本、CPU类型、浏览器类型及版本等
一些网站会根据请求头中的Referer和User-Agent信息来判断请求的合法性。部分网站会设置User-Agent白名单,只有在白名单范围内的请求才可以正常访问
因此,在我们爬虫时,需要设置User-Agent伪装成一个浏览器HTTP请求,通过修改User-Agent,可以模拟不同的浏览器或设备发送请求,从而绕过一些简单的反爬虫机制
Referer是HTTP请求头中的一个字段,用于指示请求的来源页面。当Referer为空或不符合预期值时,网站可能会拒绝请求或返回错误的数据
Referer一般指定为爬取网站的主页地址
一些网站通常会根据IP地址来判断请求的合法性,如果同一个IP地址频繁请求,就会被认为是爬虫。使用IP代理可以隐藏真实的IP地址,轮流使用多个IP地址发送请求,可以增加爬虫的隐匿性
代理IP是指通过中间服务器转发网络请求的技术。在爬虫中,使用代理IP可以隐藏真实的访问源,防止被目标网站封禁或限制访问
代理分为正向代理和反向代理。正向代理是由客户端主动使用代理服务器来访问目标网站,反向代理是目标网站使用代理服务器来处理客户端的请求
代理IP的优缺点有:
亮数据代理IP:https://www.bright.cn/locations
频繁的请求会给网站带来较大的负担,并影响网站的正常运行,因此,网站通常会设置请求频率限制。Python中的time库可以用来控制请求的时间间隔,避免过于频繁的请求
一些网站为了防止爬虫,使用了JavaScript来动态生成页面内容,这对于爬虫来说是一个挑战。Python中的Selenium库可以模拟浏览器的行为,执行JavaScript代码,从而获取动态生成的内容
例如在进行数据采集时,很多网站需要进行登录才能获取到目标数据,这时可以使用Selenium库进行模拟登录进行处理
一些网站为了防止爬虫,会在登录或提交表单时添加验证码。随着反爬的不断发展,逐渐出现了更多复杂的验证码,例如:内容验证码、滑动验证码、图片拼接验证码等
Python提供了一些强大的图像处理库,例如Pillow、OpenCV等,可以用来自动识别验证码,从而实现自动化爬取
本案例将使用User-Agent伪装、代理IP、请求频率控制反爬虫技术,动态页面处理和验证码识别将在后续的文章中使用
动态页面处理与验证码识别见文章:反爬虫机制与反爬虫技术(二)
爬取目标: 豆瓣电影Top250排行榜
爬取字段: 排名、电影名、评分、评价人数、制片国家、电影类型、上映时间、主演、影片链接
效果展示:
豆瓣电影:https://movie.douban.com/
豆瓣电影Top250:https://movie.douban.com/top250
import numpy as np
import pandas as pd
import requests
from bs4 import BeautifulSoup
from lxml import etree
import re
import time
相关模块的详细介绍及使用见文章:Python网络爬虫基本库
通过观察浏览器地址栏,发现页面间网址存在如下规律:
第1页:https://movie.douban.com/top250?start=0&filter=
第2页:https://movie.douban.com/top250?start=25&filter=
第3页:https://movie.douban.com/top250?start=50&filter=
… …
# 构造每页的网页链接
urls = [rf'https://movie.douban.com/top250?start={
str(i * 25)}&filter=' for i in range(10)]
def get_html_str(url: str):
# 请求头模拟浏览器
headers = {
'User-Agent': 'Mozilla/5.0', 'Referer': 'https://www.douban.com'}
# 代理IP
proxies = {
"http": "http://183.134.17.12:9181"}
# 发送请求