学习完前面的基础知识后,我们会发现这些爬虫的效率实在是太低了。那么我们需要学习一些新的爬虫方式来进行信息的获取。
使用python3.7后的版本中的异步进行爬取,多线程虽然快,但是异步才是爬虫真爱。
异步是指在程序执行过程中,当遇到耗时的操作时,不会等待这个操作完成才继续执行后面的代码,而是先去执行其他的操作,等到耗时的操作完成后再处理它的结果。这种方式能够提高程序的并发性和响应性。在传统的同步编程中,当程序执行到一个耗时的操作时(比如文件读写、网络请求等),程序会被阻塞,直到这个操作完成才会继续往下执行。这样会导致程序不能充分利用计算资源,同时也会降低程序的响应速度。而在异步编程中,当遇到耗时操作时,程序会先切换到执行其他任务,等到耗时操作完成后再回来处理结果。这样可以让程序在等待耗时操作的同时继续执行其他任务,提高了程序的并发能力和整体性能。
Python中的异步编程通常使用async/await关键字来定义异步事件,配合asyncio模块和一些第三方库(比如aiohttp、aiofiles等)来实现异步IO操作。异步编程在网络编程、Web开发、爬虫等领域有着广泛的应用。
并发性是指在同一时间段内,有多个任务在同时执行。在计算机领域,这通常是指多个线程或进程在同时执行,从而提高了程序的效率和性能。在传统的单线程编程中,程序只能按照顺序执行代码,不能同时执行多个任务,这会导致程序效率低下,特别是当遇到大量IO操作时更为明显。
而在多线程或多进程编程中,多个任务可以同时运行,从而可以充分利用计算机的多核处理器和其他硬件资源,提高了程序的效率和性能。同时,多线程/多进程编程也可以使得程序更加稳定,因为如果某个线程/进程崩溃或阻塞,其他线程/进程仍然可以继续执行。
需要注意的是,并发性不同于并行性。并发性是指多个任务在同一时间段内交替执行,而并行性是指多个任务在同一时刻同时执行。并行性需要硬件支持,例如多核处理器、分布式系统等。
I/O操作的概念
I/O操作是指输入/输出操作,是计算机领域中用来描述数据从外部设备(如磁盘、网络、键盘、显示器等)到内存或相反方向的数据传输过程。在计算机程序中,I/O操作通常涉及到读取或写入文件、网络通信、用户输入输出等操作。
多线程和异步都可以提高程序的并发性和响应性,但在不同的场景下可能会有不同的表现。
多线程适合CPU密集型计算任务,因为它可以充分利用计算机的多核处理器,同时执行多个任务,从而提高程序的效率和性能。但是,在多线程编程中,线程之间需要共享内存,这可能会带来线程安全等问题,需要开发者自己管理线程之间的同步和互斥。
异步适合I/O密集型任务,因为它可以在等待I/O操作的同时,继续执行其他任务,从而充分利用时间片,提高程序的并发性和响应性。异步编程通常使用事件循环机制,在一个线程中执行多个任务,并通过回调函数等方式处理异步事件。但是,在异步编程中,需要使用特定的异步库和语法,如async/await关键字、协程等,对新手来说有一定的学习。
导包,准备好工具
- 异步
- pip install asyncio
- 异步的文件操作
- pip install aiofiles
- 异步的网路请求
- pip install aiohttp
装好之后我们需要学习一些基本的方法。
1.asyncio的使用
await
关键字:
await
用于暂停当前协程的执行,等待一个异步操作的完成,并获取其结果。await
时,必须将其放在一个async
修饰的函数内部,以指示该函数是一个协程函数。await
只能在协程函数内部使用,不能在普通函数或全局作用域中使用。async
关键字:
async
用于修饰一个函数,表示该函数是一个协程函数。await
关键字来暂停执行,并在等待异步操作完成后继续执行。await
语句,用于等待不同的异步操作。asyncio.wait()
函数:
asyncio.wait()
函数用于等待一组协程的完成。asyncio.wait()
函数返回两个集合,分别表示已完成和未完成的任务。loop.run_until_complete()
方法:
loop.run_until_complete()
方法用于执行一个协程,直到它完成。run_until_complete()
方法会阻塞当前线程,直到协程执行完成或发生异常。loop.create_task()
方法:
loop.create_task()
方法用于创建一个协程任务,并将它加入事件循环中等待执行。Task
对象。Task
对象表示一个可调度的协程,可以通过await
语句来等待其执行完成。aiofiles
是一个用于在异步代码中进行文件 I/O 操作的库。它提供了异步版本的文件读取和写入操作,与标准库中的open()
函数不同,aiofiles
中的函数返回awaitable
对象,可以在异步函数中使用await
关键字来等待文件操作完成。
- import asyncio
- import aiofiles
-
- async def read_and_print_file():
- async with aiofiles.open('example.txt', mode='r') as file:
- content = await file.read()
- print(content)
-
- async def write_to_file():
- async with aiofiles.open('example.txt', mode='w') as file:
- await file.write('Hello, aiofiles!')
-
- # 在事件循环中执行异步文件读写操作
- async def main():
- await write_to_file()
- await read_and_print_file()
-
- loop = asyncio.get_event_loop()
- loop.run_until_complete(main())
记得文件操作属于i/o阻塞
aiohttp
是一个用于在异步代码中进行HTTP请求的库。它提供了异步的HTTP客户端和服务器,能够高效地处理大量的并发请求。和request的使用一样
- import aiohttp
- import asyncio
-
- async def fetch_content(url):
- async with aiohttp.ClientSession() as session:
- async with session.get(url) as response:
- return await response.text()
-
- async def main():
- url = 'https://jsonplaceholder.typicode.com/posts/1'
- content = await fetch_content(url)
- print(content)
-
- loop = asyncio.get_event_loop()
- loop.run_until_complete(main())
这次案例,随意教学了,找一个新的网站实现爬取。中间出现错误的情况我也会直接列出来(我也是菜鸡,只是帮助大家入门的)。给大家分享一下我的思路和解决。
本博客只用于教学爬虫,决定爬取一个:
合理使用,这个网站是免费的并且还是免登录(良心网站,请求一两次就行,别一直搞(哭了,现在看我写这句话真是讽刺)),较为容易(容易个der,给我看懵逼了)
兄弟们这个案例当乐子看。
1.准备工作,了解网站结构,查看是否可以直接爬取。
这个主要是看源码中是否和前端调试工具中的结构一样,我们发现,调试工具中有的 是一个a中存在一个链接,但是我们点击打开发现是一个404页面
此时我以为这个是无效链接,然后我直接去看了网络请求,发现网络请求是可以获得图片的,但是在找url的关系时,我发现直接请求a中的地址也是可行的。
我们试一下发送请求,看看能不能获取到这张图片。
直接一顿操作
- import requests
-
-
- url = "https://api.zzzmh.cn/bz/v3/getUrl/c071cdc46f0c4867a1d52d0cb51fc6d629"
-
- headers = {
-
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- response = requests.get(url,headers=headers).content
-
- print(response)
我们发现出现了403界面源码,这就有点不对劲了。
那么我们学过的东西无法解决,表明需要学习新的知识了
在网页请求的头部中,包含了一个名为"Referer"的字段,这个字段通常用来标识当前请求是从哪个页面跳转过来的,即上一个网页的地址。这对于网站分析和统计访问来源非常有用,同时也可以在一定程度上用于防盗链和安全验证。在实际开发中,服务器端可以通过检查"Referer"字段来确定请求的来源,并做出相应的处理,例如允许或拒绝特定来源的请求。同时,网站管理员也可以利用这个字段来分析用户的访问行为和流量来源,为网站运营和优化提供参考依据。
搜嘎,现在我们在headers中加入Referer来测试一下
直接出现,现在把他写入文件中试一下,
- import requests
-
-
- url = "https://api.zzzmh.cn/bz/v3/getUrl/c071cdc46f0c4867a1d52d0cb51fc6d629"
-
- headers = {
- "Referer":"https://bz.zzzmh.cn/",
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- response = requests.get(url,headers=headers).content
-
- with open("壁纸.jpg",'wb') as file:
- file.write(response)
直接成功:网页请求也是可行的,但是在拼接url的时候还得来到这里。
为什么我们点击页面链接发现时进入一个404呢,我感觉是因为点击后的并没有发送请求,无法访问。
如何批量获取这些数据? 我们复制链接进源码看一下,发现并没有这段链接,那么这个需要找js代码,观察是否需要进行解密。寄了,我看蒙蔽了,大哥这是个人站?这么难吗?给我直接看蒙蔽了,js学是学过,但是那都是基础,后悔了早知道选哪个需要登录的了,不行我都干了四千多字了,怎么说也得爬几个。哥几个别爬了,我找半小时了。太难看了,我纯纯弱智,找这个爬。这反爬比爬网易云免费音乐还难,看这个过过眼瘾。看不懂没关系,我也不会。等我后续把js逆向学明白再带大家做这个。(其实后面介绍的selenium完全可以爬取这些链接,但是缺点就是速度太慢了。)
爬虫案例1:js逆向获取极简壁纸的高清壁纸_爬虫爬取极简壁纸_活火石的博客-CSDN博客
补充,使用自动化工具也可以爬取,就是速度太慢了。(其实也不算很慢,这里就打开的时候比较慢 有2秒等待时间,但是获取图片采用的是异步获取和处理,速度还是很快的。)
- import time
- from selenium.webdriver.common.by import By
- from selenium import webdriver
- from selenium.webdriver.common.keys import Keys
- import requests
-
- import asyncio
- import aiofiles
- import aiohttp
-
- headers = {
- 'Referer': 'https://bz.zzzmh.cn/',
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- async def download(href,count):
- print(f"第{count}图片开始缓存")
- try:
- async with aiohttp.ClientSession() as session:
- async with session.get(href,headers=headers) as p:
- data = await p.read()
- async with aiofiles.open(f"D:\桌面\pythoncode\爬虫案例\Selenium入门\极简壁纸\{count}.jpg",'wb') as file:
- await file.write(data)
- print(f"第{count}图片缓存成功")
- except:
- print(f"第{count}图片缓存失败")
-
-
- async def main():
- web = webdriver.Chrome()
- web.get("https://bz.zzzmh.cn/index")
- time.sleep(3)
- img_List = web.find_elements(by="xpath",value='//div[@class="img-box"]')
- count = 1
- task = []
- for i in img_List:
- src = i.find_element(by="xpath",value='./span[@class="down-span"]/a')
- src= src.get_attribute('href')
- print(src)
- t = asyncio.create_task(download(src,count))
- task.append(t)
- count+=1
- return await asyncio.wait(task)
- if __name__=="__main__":
- asyncio.run(main())
-
-
上面那个案例给我整吐了,不行了,换回老朋友笔趣阁。
神秘复苏最新章节_神秘复苏全文在线阅读_佛前献花的小说_笔趣阁
1.查看网页源代码和检查中的链接是否一致
直接爬取每个章节的内容,然后装填进一个数组中,我们爬取这些章节小说可以使用异步来进行。所以现在只需要解析出链接,然后交给异步即可。
注意此时的编码方式
- import requests
- import aiofiles
- import aiohttp
- from lxml import etree
- import asyncio
-
-
-
-
- async def main():
- url = "https://www.bige3.cc/book/66/"
- headers = {
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- response = requests.get(url)
- response.encoding = 'utf-8'
- en = etree.HTML(response.text)
- title_List = en.xpath("//div[@class='listmain']/dl//dd")
- print(title_List)
- if __name__=="__main__":
- asyncio.run(main())
解析链接和上个一样,区别在于此次获取每个章节的内容采用aiohttp 写入文件使用aiofiles 需要再阻塞前加入等待 await
- import requests
- import aiofiles
- import aiohttp
- from lxml import etree
- import asyncio
-
-
-
- async def download(url):
- pass
-
-
- async def main():
- url = "https://www.bige3.cc/book/66/"
- headers = {
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- response = requests.get(url)
- response.encoding = 'utf-8'
- en = etree.HTML(response.text)
- task = []
- title_List = en.xpath("//div[@class='listmain']/dl//dd")
- for i in title_List:
- src = i.xpath("./a/@href")[0]
- src = "https://www.bige3.cc/" + src
- t = asyncio.create_task(download(src))
- task.append(t)
- return await asyncio.wait(task)
- if __name__=="__main__":
- asyncio.run(main())
我们要注意asyncio.wait()这个过程需要等待所以加入了await
直接看界面,源码中存在小说内容,所以直接爬取就行。
直接爬取:注意i/o阻塞的位置加入await即可,就是和之前的相比加入了一个async而已,没啥区别
- import requests
- import aiofiles
- import aiohttp
- from lxml import etree
- import asyncio
-
- async def download(url):
- try:
- print("小说开始下载")
- async with aiohttp.ClientSession() as session:
- async with session.get(url) as r:
- response = await r.text()
- en = etree.HTML(response)
- file_Title = en.xpath('//h1[@class="wap_none"]/text()')[0]
- file_Content = en.xpath('//*[@id="chaptercontent"]/text()')
- file_Content = ("".join(file_Content)).replace("\u3000","\n")
- file_Title = f"D:\桌面\pythoncode\爬虫教学\神秘复苏\{file_Title}.txt"
- async with aiofiles.open(file_Title,'w',encoding='utf-8') as file:
- await file.write(file_Content)
- print("小说下载成功")
- except:
- print("下载失败")
-
- async def main():
- url = "https://www.bige3.cc/book/66/"
- headers = {
- "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36"
- }
- response = requests.get(url)
- response.encoding = 'utf-8'
- en = etree.HTML(response.text)
- task = []
- title_List = en.xpath("//div[@class='listmain']/dl//dd")
- for i in title_List:
- src = i.xpath("./a/@href")[0]
- src = "https://www.bige3.cc/" + src
- t = asyncio.create_task(download(src))
- task.append(t)
- return await asyncio.wait(task)
- if __name__=="__main__":
- asyncio.run(main())
直接轻轻松松爬取一本小说且顺序是有序的。期待下次更新。