哈喽,大家好,今天咱们试试只用20行代码来实现批量获取网抑云文件保存本地,炒鸡简单!
悄悄的告诉你,其实不到20行代码~
本次使用的环境是Python3.8,编辑器是pycharm ,没有安装的小伙伴,看我置顶文章有教程。
模块使用的是requests、re、os 三个,其中requests是第三方模块,需要手动安装一下,re、os都是内置模块,不需要安装。
pip install requests 即可,不会安装的我置顶文章也有详细教程,这里就不过多讲了。
或者直接在文章末尾点名片拿一下软件和安装教程也是可以的。
浏览器开发者工具
对于实现爬虫而言,咱们需要学会如何使用开发者工具。对此很多小伙伴都不会,因为每个浏览器的开发者工具细节上多少有一些差别,我建议都用谷歌浏览器,英文看不懂的话可以调成中文。
打开开发者工具,点击省略号,点击 shortcuts
依次点击 preferences - language ,直接拉到最下方选择中文即可。
本次实现步骤大致分为以下五步:
这里我就不讲怎么分析开发者工具了,下次做一个详细的教程,讲解开发者工具。
模块导入
import requests # 数据请求模块
import re # 正则表达式模块
import os # 文件操作模块
发送请求
url = 'https://music.163.com/discover/toplist?id=3778678'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
获取数据
result = re.findall('- (.*?)
', response.text)
for music, title in result:
music_url = f'http://music.163.com/song/media/outer/url?id={music}.mp3'
music_content = requests.get(url=music_url, headers=headers).content
保存数据
with open(filename + title + '.mp3', mode='wb') as f:
f.write(music_content)
print(title)
当然这只是最简单的爬取榜单音乐,评论、歌词等等都可以爬取,还有制作词云图、通过搜索下载,音乐下载器,等等各种实现下载的方式。
好了,今天的分享就到这里,完整代码下方名片获取哈~