| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> Python知识库 -> 山东大学软件工程应用与实践——ECommerceCrawlers代码分析(九) -> 正文阅读 |
|
[Python知识库]山东大学软件工程应用与实践——ECommerceCrawlers代码分析(九) |
2021SC@SDUSC目录 一、摘要本篇博客作为“SohuNewCrawler”项目核心代码分析的最后一篇,我将对SohuNewCrawler项目的剩余核心代码进行分析。 二、“run_main.py”文件剩余核心代码分析?“run_main.py”文件主要是针对网站主要部分进行爬取操作。 上一篇博客分析了该文件的前半部分内容,接下来分析该文件的剩余内容。 1.部分一
req = requests.get(url=start_url,headers=self.headers, timeout=30) 对之前获取的start_url对应的网页内容进行获取。
?? ? ? ? ? ? ? ? if req.status_code == 200: 若网站返回的HTTP状态码为200的话,则表示网站返回正常,这时候若之前获取的news_type(新闻类型)为“souhu”的话,则将该内容调用函数parse_souhu_news存到变量article中。若news_type(新闻类型)为“baidu”的话,则调用百度的解析,article设置为空。若两者都没有的话,则表示存在不明确的内容,article设为空。 ? ? ? ? ? ? ? ? self.dbarticle.insert( 将爬取到的对象按类型插入到self.dbarticle,即对应到数据库的article存储。存储格式为“db.py”文件中描述的格式: ? ? #{"articel":"一段内容","flag":是否被导出,"time":"2019-05-03 01:32:00","title":"暂无","type":"新闻来源百度新闻","url":"新闻链接"} ? ? ? ? ? ? else: 若网站返回的HTTP状态码不为200的话,则表示访问出错,这时将该start_url存入dburl(表示该url并没有爬取成功,返回这里继续表示“待爬取”状态)。 若请求超时,则也表示这次爬取失败,将url返回到self.dburl。 三、总结至此,?“SohuNewCrawler”项目的两个核心文件“run_main.py”和“souhu_new.py”的核心代码已分析完毕。 通过本次对搜狐新闻网的爬取项目的代码分析,我收获了很多关于爬虫的新知识和新技巧,包括如何将爬虫过程和数据库存储相结合应用以及灵活存储运用url等。学习到了很多,受益匪浅。 我将在下一篇博客开始分析第三个爬虫项目的代码。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/16 2:53:32- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |