• Python 采集87个手绘风格PPT模板


     源码下载链接:ppt.rar - 蓝奏云

    PPT下载链接:https://pan.baidu.com/s/1HUAEe_-4IEV6ttOKC_VPuA?pwd=96px 
    提取码:96px

    采集的参数

    1. page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
    2. base_url = "https://sc.chinaz.com/" # 采集的网址 https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    3. save_path = "D:\\Sprider\\ChinaZ\\"
    4. sprider_count = 110 # 采集数量
    5. haved_sprider_count = 0 # 已经采集的数量
    6. word_content_list = []
    7. folder_name = ""
    8. first_column_name = "ppt"
    9. sprider_start_count=800 # 从第几个序号开始 直接改数量即可 会做除法操作正 正在采集第32页的第16个资源 debug
    10. max_pager=20 #每页的数量

    采集主体代码

    1. def sprider(self, second_column_name):
    2. """
    3. 采集Coder代码
    4. :return:
    5. """
    6. if second_column_name == "zhongguofeng":
    7. self.folder_name = "中国风"
    8. self.first_column_name="tag_ppt"
    9. elif second_column_name == "xiaoqingxin":
    10. self.folder_name = "小清新"
    11. self.first_column_name = "tag_ppt"
    12. elif second_column_name == "kejian":
    13. self.folder_name = "课件"
    14. self.first_column_name = "ppt"
    15. merchant = int(self.sprider_start_count) // int(self.max_pager) + 1
    16. second_folder_name = str(self.sprider_count) + "个" + self.folder_name
    17. self.save_path = self.save_path+ os.sep + "PPT" + os.sep + second_folder_name
    18. BaseFrame().debug("开始采集ChinaZPPT...")
    19. sprider_url = (self.base_url + "/" + self.first_column_name + "/" + second_column_name + ".html")
    20. response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
    21. response.encoding = 'UTF-8'
    22. soup = BeautifulSoup(response.text, "html5lib")
    23. #print(soup)
    24. div_list = soup.find('div', attrs={"class": 'ppt-list'})
    25. div_list =div_list.find_all('div', attrs={"class": 'item'})
    26. #print(div_list)
    27. laster_pager_url = soup.find('a', attrs={"class": 'nextpage'})
    28. laster_pager_url = laster_pager_url.previous_sibling
    29. #89
    30. page_end_number = int(laster_pager_url.find('b').string)
    31. #print(page_end_number)
    32. self.page_count = merchant
    33. while self.page_count <= int(page_end_number): # 翻完停止
    34. try:
    35. if self.page_count == 1:
    36. self.sprider_detail(div_list,self.page_count,page_end_number)
    37. else:
    38. if self.haved_sprider_count == self.sprider_count:
    39. BaseFrame().debug("采集到达数量采集停止...")
    40. BaseFrame().debug("开始写文章...")
    41. self.builder_word(self.folder_name, self.save_path, self.word_content_list)
    42. BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
    43. break
    44. #https://www.a5xiazai.com/android/youxi/qipaiyouxi/list_913_1.html
    45. #https://www.a5xiazai.com/android/youxi/qipaiyouxi/list_913_2.html
    46. #next_url = sprider_url + "/list_{0}_{1}.html".format(str(url_index), self.page_count)
    47. # (self.base_url + "/" + first_column_name + "/" + second_column_name + "/"+three_column_name+"")
    48. next_url =(self.base_url + "/" + self.first_column_name + "/" + second_column_name + "_{0}.html").format(self.page_count)
    49. # (self.base_url + "/" + self.first_column_name + "/" + second_column_name + "")+"/list_{0}_{1}.html".format(str(self.url_index), self.page_count)
    50. response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
    51. response.encoding = 'UTF-8'
    52. soup = BeautifulSoup(response.text, "html5lib")
    53. div_list = soup.find('div', attrs={"class": 'ppt-list'})
    54. div_list = div_list.find_all('div', attrs={"class": 'item'})
    55. self.sprider_detail(div_list, self.page_count,page_end_number)
    56. pass
    57. except Exception as e:
    58. print("sprider()执行过程出现错误" + str(e))
    59. pass
    60. self.page_count = self.page_count + 1 # 页码增加1
    61. def sprider_detail(self, element_list, page_count,max_page):
    62. try:
    63. element_length = len(element_list)
    64. self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
    65. index = self.sprider_start_index
    66. while index < element_length:
    67. a=element_list[index]
    68. if self.haved_sprider_count == self.sprider_count:
    69. BaseFrame().debug("采集到达数量采集停止...")
    70. break
    71. index = index + 1
    72. sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源"
    73. BaseFrame().debug(sprider_info)
    74. title_image_obj = a.find('img', attrs={"class": 'lazy'})
    75. url_A_obj=a.find('a', attrs={"class": 'name'})
    76. next_url = self.base_url+url_A_obj.get("href")
    77. coder_title = title_image_obj.get("alt")
    78. response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
    79. response.encoding = 'UTF-8'
    80. soup = BeautifulSoup(response.text, "html5lib")
    81. #print(next_url)
    82. down_load_file_div = soup.find('div', attrs={"class": 'download-url'})
    83. if down_load_file_div is None:
    84. BaseFrame().debug("需要花钱无法下载因此跳过哦....")
    85. continue
    86. down_load_file_url = down_load_file_div.find('a').get("href")
    87. #print(down_load_file_url)
    88. image_obj = soup.find('div', attrs={"class": "one-img-box"}).find('img')
    89. image_src = "https:"+ image_obj.get("data-original")
    90. #print(image_src)
    91. if (DownLoad(self.save_path).__down_load_file__(down_load_file_url, coder_title, self.folder_name)):
    92. DownLoad(self.save_path).down_cover_image__(image_src, coder_title) # 资源的 封面
    93. sprider_content = [coder_title,
    94. self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"] # 采集成功的记录
    95. self.word_content_list.append(sprider_content) # 增加到最终的数组
    96. self.haved_sprider_count = self.haved_sprider_count + 1
    97. BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
    98. if (int(page_count) == int(max_page)):
    99. self.builder_word(self.folder_name, self.save_path, self.word_content_list)
    100. BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
    101. except Exception as e:
    102. print("sprider_detail:" + str(e))
    103. pass

     采集的文件名

    手绘风格乐器素材ppt背景图片


    水粉手绘小清新花卉ppt背景图片
    水彩手绘绿叶素材ppt背景图片
    粉色儿童成长相册ppt背景图片
    彩色手绘蔬菜食材ppt背景图片
    水彩手绘开学季返校ppt背景图片
    新的学期新的起点主题班会ppt模板
    绿色渐变水彩风ppt背景模板
    彩色卡通健康蔬果ppt图片背景
    手绘拼贴画新冠防疫知识ppt背景图
    手绘风介绍立秋节气ppt模板
    儿童手绘致敬医学工作者ppt背景图片
    手绘风幼儿园儿童节PPT课件
    黑板手绘风备战高考PPT模板
    小清新蓝绿植物文艺风ppt模板
    期末家长会PPT模板
    大学生职业规划书PPT模板
    小学生秋游安全教育PPT模板
    活动流程策划案例PPT模板
    绿色手绘风叶子开学家长会PPT模板
    小学教学工作汇报PPT模板
    手绘风学业生涯规划书PPT模板
    手绘策划方案答辩PPT模板
    手绘绿植毕业生答辩PPT模板
    手绘风卡通期中家长会PPT模板
    转正述职报告PPT模板
    大学生调研报告PPT模板
    小清新财务总结报告PPT模板
    美妆销售年初总结PPT模板
    手绘风旅游旅行PPT模板
    销售经理年终总结PPT模板
    卡通手绘风2021庆典PPT模板
    卡通儿童旅行相册PPT模板
    手绘风圣诞节ppt背景
    商务时尚企业PPT模板
    秋天的图画ppt
    小学语文ppt模板
    卡通ppt背景图片
    ppt模板免费下载
    精美ppt模板免费下载
    水彩手绘风感恩教师节ppt
    手绘风快乐61儿童节PPT模板
    文艺趣味手绘风商务总结PPT模板
    手绘风医疗医药数据报告PPT模板
    创意手绘风动态工作汇报PPT模板
    手绘风可爱小班家长会PPT模板
    创意手绘电商节活动策划PPT模板
    手绘感恩节主题班会PPT模板
    手绘清新教学课件PPT模板
    绿色手绘花卉植物个人工作总结PPT模板
    手绘卡通风端午节习俗PPT模板
    手绘风唯美创意三八女神节PPT模板
    日系风手绘美丽38女王节PPT模板
    清新绿色手绘插画风艺术设计PPT模板
    文艺小清新手绘插画风情人节PPT模板
    创意粉笔手绘感恩教师节ppt模板
    素雅文艺手绘插画师ppt模板
    创意可爱手绘风童年回忆ppt模板
    个性涂鸦色彩手绘风ppt模板
    清新水彩手绘ppt模板
    创意卡通铅笔手绘风ppt模板
    卡通铅笔手绘大数据整理ppt模板
    创意手绘卡通论文答辩ppt模板
    创意手绘卡通ppt模板
    灰色可爱卡通背景ppt模板
    趣味简约手绘线稿ppt模板
    创意趣味手绘涂鸦ppt模板下载
    创意低碳环保ppt模板
    创意彩色手绘论文答辩ppt模板
    创意手绘涂鸦褶皱纸张背景ppt模板
    创意趣味手绘ppt模板下载
    精美彩绘ppt模板下载
    水彩手绘说课ppt模板下载
    创意手绘ppt卡通动画模板下载
    个性创意手绘ppt模板下载
    春天气息的ppt模板
    化学说课ppt模板下载
    玫瑰情人节ppt模板免费下载
    手绘涂鸦PPT图表下载
    师范类通用ppt模板下载
    手绘沙滩海洋生物ppt模板
    手绘绿色公园ppt模板下载
    手绘梦幻樱花ppt模板下载
    手绘女孩ppt模板下载
    手绘女孩ppt模板下载
    手绘爱心ppt模板下载
    粉红女孩ppt模板下载
    粉彩美女ppt模板下载

  • 相关阅读:
    云计算基础知识
    Spring源码解析-注册配置信息
    Android:多进程的开启方式、注意点以及如何解决。
    pandas使用pd.DateOffset生成时间偏移量、把dataframe数据中的时间数据列统一相减N天、缩小、向前偏移N天
    2022年接口测试总结【温故知新系列】
    如何进行接口测试测?有哪些注意事项?保姆级解读
    说一下 toRef、toRefs,以及他们的区别
    【PAT甲级 - C++题解】1114 Family Property
    线程优先级
    密码学系列0-总述
  • 原文地址:https://blog.csdn.net/zy0412326/article/details/128190096