码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 爬虫爬取人民网


    1. import scrapy
    2. from scrapy.linkextractors import LinkExtractor
    3. from scrapy.spiders import CrawlSpider, Rule
    4. from scrapy_readbook.items import ScrapyReadbookItem
    5. class ReadSpider(CrawlSpider):
    6. name = "read"
    7. output_file = "output.txt"
    8. # allowed_domains = ["www.dushu.com"]
    9. # start_urls = ["https://www.dushu.com/book/1188_1.html"]
    10. allowed_domains = ["finance.people.com.cn"]
    11. start_urls = ["http://finance.people.com.cn/n1/2023/1024/c1004-40101769.html"]
    12. # rules = (Rule(
    13. # # LinkExtractor(allow=r"/book/1188_\d+.html"),
    14. # LinkExtractor(allow=r".*"),
    15. # callback="parse_item",
    16. # follow=False),)
    17. rules = (
    18. Rule(
    19. LinkExtractor(allow=r"http://finance\.people\.com\.cn/n1/2023/1024/c1004-40101769\.html"),
    20. callback="parse_item",
    21. follow=False
    22. ),
    23. )
    24. def parse_item(self, response):
    25. # img_list = response.xpath('//div[@class="bookslist"]//img')
    26. # img_list = response.xpath('//div[@class="layout rm_txt cf"]')
    27. # print('++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++')
    28. # for img in img_list:
    29. # title = img.xpath('.//h1/text()').extract_first()
    30. # content = img.xpath('.//a/text()').extract_first()
    31. # print(title)
    32. # print(content)
    33. print('++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++')
    34. title = response.xpath('/html/body/div[1]/div[7]/div[1]/h1/text()').extract_first()
    35. # content = response.xpath('/html/body/div[1]/div[7]/div[1]/div[3]//p/text()').extract_first()
    36. content_list = response.xpath('//p/text()').extract()
    37. content = '\n'.join(content_list)
    38. date = response.xpath('/html/body/div[1]/div[7]/div[1]/div[2]/div[1]/text()').extract_first()
    39. source = response.xpath('/html/body/div[1]/div[7]/div[1]/div[2]/div[1]/a/text()').extract()
    40. # book = ScrapyReadbookItem(title=title, content=content)
    41. #
    42. # yield book
    43. print(title)
    44. print(content)
    45. print(date)
    46. print(source)
    47. with open(self.output_file, "a", encoding="utf-8") as file:
    48. file.write(title + "\n")
    49. file.write(content + "\n")
    50. file.write(date + "\n")
    51. file.write(source + "\n")

  • 相关阅读:
    AimBetter洞察您的数据库,DPM 和 APM 解决方案
    CNN发展的主要tag
    彻底讲透redo日志磁盘顺序写机制
    vue3 + vite + windicss 基础使用
    计算机服务器中了faust勒索病毒怎么解密,faust勒索病毒解密工具流程
    RocketMQ之NameServer源码分析
    My Ninety-ninth Page - 两个字符串的删除操作 - By Nicolas
    基于PHP+MySQL毕业设计选题管理系统(含论文)
    RL强化学习总结(三)——Q-Learning算法
    【QT+QGIS跨平台编译】之六十二:【QGIS_CORE跨平台编译】—【错误处理:未定义类型QgsPolymorphicRelation】
  • 原文地址:https://blog.csdn.net/weixin_63403986/article/details/134020519
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号