• 【python】学会这八个自动化脚本,摸鱼的借口那不就来啦~


    前言

    嗨喽~大家好呀,这里是魔王呐 !

    锄禾曰当午,上班好辛苦。

    上完一上午,还要上下午。

    不上没钱花,心里更痛苦。

    为了好日子,辛苦就辛苦

    ——来自不知何方神圣改编的诗

    在我们工作的时候~经常会做一些重复的事情

    比如:阅读新闻、发邮件、查看天气、清理文件夹等等

    那有没有办法缩短甚至取消做这些东西的时间呢~

    自然是有的!!那就是使用自动化脚本拉~

    这样就不用我们手动一次又一次地完成这些任务了

    今天就给大家带来8个python自动化脚本提高工作效率~

    One 自动化阅读网页新闻

    这个脚本能够实现从网页中抓取文本,然后自动化语音朗读

    当你想听新闻的时候,这是个不错的选择。

    代码分为两大部分,第一通过爬虫抓取网页文本呢,第二通过阅读工具来朗读文本。

    需要的第三方库:

    • Beautiful Soup

      • 经典的HTML/XML文本解析器,用来提取爬下来的网页信息;
    • requests

      • 好用到逆天的HTTP工具,用来向网页发送请求获取数据;
    • Pyttsx3

      • 将文本转换为语音,并控制速率、频率和语音;

    获取资源链接点击

    具体代码如下:

    import pyttsx3
    import requests
    from bs4 import BeautifulSoup
    voices = engine.getProperty('voices')
    newVoiceRate = 130                       ## Reduce The Speech Rate
    engine.setProperty('rate',newVoiceRate)
    engine.setProperty('voice', voices[1].id)
    def speak(audio):
      engine.say(audio)
      engine.runAndWait()
    text = str(input("Paste article\n"))
    res = requests.get(text)
    
    articles = []
    for i in range(len(soup.select('.p'))):
        article = soup.select('.p')[i].getText().strip()
        articles.append(article)
    text = " ".join(articles)
    speak(text)
    # engine.save_to_file(text, 'test.mp3') ## If you want to save the speech as a audio file
    engine.runAndWait()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21

    Two 自动化数据探索

    数据探索是数据科学项目的第一步,你需要了解数据的基本信息才能进一步分析更深的价值。

    一般我们会用pandasmatplotlib等工具来探索数据

    但需要自己编写大量代码,如果想提高效率,Dtale是个不错的选择。

    Dtale特点是用一行代码生成自动化分析报告,它结合了Flask后端React前端

    为我们提供了一种查看和分析Pandas数据结构的简便方法。

    我们可以在Jupyter上实用Dtale

    需要的第三方库

    • Dtale

      • 自动生成分析报告

    获取资源链接点击

    具体代码如下:

    ### Importing Seaborn Library For Some Datasets
    import seaborn as sns
    
    ### Printing Inbuilt Datasets of Seaborn Library
    print(sns.get_dataset_names())
    
    
    ### Loading Titanic Dataset
    df=sns.load_dataset('titanic')
    
    ### Importing The Library
    import dtale
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12


    Three 自动发送多封邮件

    这个脚本可以帮助我们批量定时发送邮件,邮件内容、附件也可以自定义调整,非常的实用。

    相比较邮件客户端,Python脚本的优点在于可以智能、批量、高定制化地部署邮件服务。

    需要的第三方库:

    • Email

      • 用于管理电子邮件消息;
    • Smtlib

      • SMTP服务器发送电子邮件,它定义了一个 SMTP 客户端会话对象,该对象可将邮件发送到互联网上任何带有 SMTP或ESMTP 监听程序的计算机
    • Pandas

      • 用于数据分析清洗地工具;

    获取资源链接点击

    具体代码如下:

    import smtplib 
    from email.message import EmailMessage
    
    def send_email(remail, rsubject, rcontent):
        email = EmailMessage()                          ## Creating a object for EmailMessage
        email['from'] = 'The Pythoneer Here'            ## Person who is sending
        email['to'] = remail                            ## Whom we are sending
        email['subject'] = rsubject                     ## Subject of email
        email.set_content(rcontent)                     ## content of email
        with smtplib.SMTP(host='smtp.gmail.com',port=587)as smtp:     
            smtp.ehlo()                                 ## server object
            smtp.starttls()                             ## used to send data between server and client
            smtp.login("deltadelta371@gmail.com","delta@371") ## login id and password of gmail
            smtp.send_message(email)                    ## Sending email
            print("email send to ",remail)              ## Printing success message
    
    if __name__ == '__main__':
        df = pd.read_excel('list.xlsx')
        length = len(df)+1
    
        for index, item in df.iterrows():
            email = item[0]
            subject = item[1]
            content = item[2]
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    Four 将 PDF 转换为音频文件

    脚本可以将 pdf 转换为音频文件

    原理也很简单,首先用 PyPDF 提取 pdf 中的文本,然后用 Pyttsx3 将文本转语音。

    具体代码如下:

    import pyttsx3,PyPDF2 
    pdfreader = PyPDF2.PdfFileReader(open('story.pdf','rb')) 
    speaker = pyttsx3.init() 
    for page_num in range(pdfreader.numPages):    
        text = pdfreader.getPage(page_num).extractText()  ## extracting text from the PDF 
        cleaned_text = text.strip().replace('\n',' ')  ## Removes unnecessary spaces and break lines 
        print(cleaned_text)                ## Print the text from PDF 
        #speaker.say(cleaned_text)        ## Let The Speaker Speak The Text 
        speaker.save_to_file(cleaned_text,'story.mp3')  ## Saving Text In a audio file 'story.mp3' 
        speaker.runAndWait() 
    speaker.stop() 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11

    Five 从列表中播放随机音乐

    这个脚本会从歌曲文件夹中随机选择一首歌进行播放,

    需要注意的是 os.startfile

    仅支持 Windows 系统。

    获取资源链接点击

    具体代码如下:

    import random, os 
    music_dir = 'G:\\new english songs' 
    songs = os.listdir(music_dir) 
    song = random.randint(0,len(songs)) 
    print(songs[song])  ## Prints The Song Name 
    os.startfile(os.path.join(music_dir, songs[0]))  
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    Six 智能天气信息

    国家气象局网站提供获取天气预报的 API,直接返回 json 格式的天气数据。

    所以只需要从 json 里取出对应的字段就可以了。

    下面是指定城市(县、区)天气的网址,直接打开网址,就会返回对应城市的天气数据。

    比如:

    http://www.weather.com.cn/data/cityinfo/101021200.html 上海徐汇区对应的天气网址。

    具体代码如下:

    mport requests 
    import json 
    import logging as log 
     
    def get_weather_wind(url): 
        r = requests.get(url) 
        if r.status_code != 200: 
            log.error("Can't get weather data!") 
        info = json.loads(r.content.decode()) 
     
        # get wind data 
        data = info['weatherinfo'] 
        WD = data['WD'] 
        WS = data['WS'] 
        return "{}({})".format(WD, WS) 
     
     
    def get_weather_city(url): 
        # open url and get return data 
        r = requests.get(url) 
        if r.status_code != 200: 
            log.error("Can't get weather data!") 
     
        # convert string to json 
        info = json.loads(r.content.decode()) 
     
        # get useful data 
        data = info['weatherinfo'] 
        city = data['city'] 
        temp1 = data['temp1'] 
        temp2 = data['temp2'] 
        weather = data['weather'] 
        return "{} {} {}~{}".format(city, weather, temp1, temp2) 
     
     
    if __name__ == '__main__': 
        msg = """**天气提醒**:   
     
    {} {}   
    {} {}   
     
    来源: 国家气象局 
    """.format( 
        get_weather_city('http://www.weather.com.cn/data/cityinfo/101021200.html'), 
        get_weather_wind('http://www.weather.com.cn/data/sk/101021200.html'), 
        get_weather_city('http://www.weather.com.cn/data/cityinfo/101020900.html'), 
        get_weather_wind('http://www.weather.com.cn/data/sk/101020900.html') 
    ) 
        print(msg) 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49

    运行结果如下所示:

    Seven 长网址变短网址

    有时,那些大URL变得非常恼火,很难阅读和共享,此脚本可以将长网址变为短网址。

    获取资源链接点击

    具体代码如下:

    import contextlib 
    from urllib.parse import urlencode 
    from urllib.request import urlopen 
    import sys 
     
    def make_tiny(url): 
     request_url = ('http://tinyurl.com/api-create.php?' +  
     urlencode({'url':url})) 
     with contextlib.closing(urlopen(request_url)) as response: 
      return response.read().decode('utf-8') 
     
    def main(): 
     for tinyurl in map(make_tiny, sys.argv[1:]): 
      print(tinyurl) 
     
    if __name__ == '__main__': 
     main() 
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    这个脚本非常实用,比如说有内容平台是屏蔽公众号文章的

    那么就可以把公众号文章的链接变为短链接,然后插入其中,就可以实现绕过。

    Eight 清理下载文件夹

    世界上最混乱的事情之一是开发人员的下载文件夹,

    里面存放了很多杂乱无章的文件,

    此脚本将根据大小限制来清理您的下载文件夹,

    有限清理比较旧的文件。

    具体代码如下:

    import os 
    import threading 
    import time 
      
      
    def get_file_list(file_path): 
    #文件按最后修改时间排序 
        dir_list = os.listdir(file_path) 
        if not dir_list: 
            return 
        else: 
            dir_list = sorted(dir_list, key=lambda x: os.path.getmtime(os.path.join(file_path, x))) 
        return dir_list 
      
    def get_size(file_path): 
        """[summary] 
        Args: 
            file_path ([type]): [目录] 
     
        Returns: 
            [type]: 返回目录大小,MB 
        """ 
        totalsize=0 
        for filename in os.listdir(file_path): 
            totalsize=totalsize+os.path.getsize(os.path.join(file_path, filename)) 
        #print(totalsize / 1024 / 1024) 
        return totalsize / 1024 / 1024 
      
    def detect_file_size(file_path, size_Max, size_Del): 
        """[summary] 
        Args: 
            file_path ([type]): [文件目录] 
            size_Max ([type]): [文件夹最大大小] 
            size_Del ([type]): [超过size_Max时要删除的大小] 
        """ 
        print(get_size(file_path)) 
        if get_size(file_path) > size_Max: 
            fileList = get_file_list(file_path) 
            for i in range(len(fileList)): 
                if get_size(file_path) > (size_Max - size_Del): 
                    print ("del :%d %s" % (i + 1, fileList[i])) 
                    #os.remove(file_path + fileList[i]) 
    
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43

    尾语

    加油吧打工人,只要我们足够努力,人类一定会走向更美好的未来

    努力吧打工人,只要我们足够努力,老板很快就能过上更好的生活

    雄起吧打工人,只要我们足够雄起,明日太阳将不复存在,而东方闪耀着的光芒,是打工人努力的模样

    —— 来自不知道哪里扒拉来的语句

    本文章到这里就结束啦~感兴趣的小伙伴可以复制代码去试试哦 😝

    大量的资料,PDF电子书籍,以及源代码!都在下方名片了

    👇问题解答 · 源码获取 · 技术交流 · 抱团学习请联系👇
  • 相关阅读:
    谁选谁尴尬的IB课程介绍
    酷早报:6月30日Web3元宇宙业界重点消息大汇总
    工程师必备Linux最新命令大全
    【Python】两种方法计算平均值、中值、众数、方差、标准差、百分位数
    笔记:.NET的框架梳理及相关概念了解(“.NET Core“ “.NET“ “.NET Framework“)
    HTML5期末考核大作业 基于HTML+CSS+JavaScript沪上美食(9页)
    装饰模式~
    R语言安装与配置
    王道计网:数据链路层
    Spring Boot(一)
  • 原文地址:https://blog.csdn.net/python56123/article/details/127098539