| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> Python知识库 -> python 爬虫(项目实操) -> 正文阅读 |
|
[Python知识库]python 爬虫(项目实操) |
用BeautifulSoup库解析数据和提取数据,解析数据的方法是: ? 提取数据的方法是用find() 与find_all() ? ? 最后,我们把事情串起来,就变成下图中的模样。它所对应的,正是爬虫四步中的前三步。 ? 项目:爬取做饭网站 项目目标:我们要去爬取热门菜谱清单,内含:菜名、原材料、详细烹饪流程的URL。 在这个项目里,我会带你体验 分析过程 在这个项目里,我们选取的网站是“下厨房”。它有一个固定栏目,叫做“本周最受欢迎”,收集了当周最招人喜欢的菜谱。 http://www.xiachufang.com/explore/ 在进行爬取之前,我们先去看看它的 http://www.xiachufang.com/robots.txt 因为这个页面挺长的,所以我不再为你放截图。阅读这个 如果你真要爬 我们计划拿到的信息,就是下图页面上:菜名、所需材料、和菜名所对应的详情页URL。 ? 获取数据是容易的,使用 获取完数据后,我们需要用 ? 刚刚打开 点击开发者工具左上角的小箭头,然后选中一个菜名,如我选的就是“猪肉炖粉条”,那么 ? 如此,我们就定位到了菜名的所在位置, 所以到时候,我们可以去提取 那趁热打铁。我们再去找找食材在哪里。和查找菜名一样的操作,去点击小箭头,去挑选一个食材。 ? 这说找一个,竟是全给找到了。猪肉白菜炖粉条,所需食材是:白菜、五花肉、红薯粉条、干尖椒、花椒、葱、姜、食盐、八角、香叶、料酒、酱油、香油…… 它们有的是 根据菜名的路径、URL的路径、食材的路径,我们可以找到这三者的最小共同父级标签,是: 现在,我们就找到了所有待爬取的数据藏身何处。现在,去校验一下,其它菜名、URL、食材是不是也在同样位置。如下,猪肉白菜炖粉条: ? 菜名是 这说明,我们找的规律没错。那么基于此,我们可以产生两种写爬虫的思路: 思路一:我们先去爬取所有的最小父级标签 思路二:我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来(这并不复杂,第0个菜名,对应第0个URL,对应第0组食材,按顺序走即可)。 这两种思路,理论上来说都能够实现我们的目标。那么,我们应该选哪种? 小孩子才做选择,大人们则是全都要。下面,我们会详细介绍思路一,而把思路二留给你做练习。 在最后,提取到了数据我们要存储。但文件存储我们要到第6关才学习。所以,我们就先把数据存到列表里:每一组菜名、URL、食材是一个小列表,小列表组成一个大列表。如下: [[菜A,URL_A,食材A],[菜B,URL_B,食材B],[菜C,URL_C,食材C]] 到这,我们可以去尝试写代码。 代码实现(一) 我们先使用思路一来写代码,即:先去爬取所有的最小父级标签 获取与解析 我们选取的URL是http://www.xiachufang.com/explore/,我们用 接着,使用BeautifulSoup来解析,这两步都不算是难事。所以我把它交给你当作开胃小菜。下面,请完成获取数据和解析数据两步,并将解析的结果打印出来。 获取数据:选取的URL是:http://www.xiachufang.com/explore/, 接着,使用BeautifulSoup对获取的数据进行解析。 提示:由于网址反爬策略升级的问题,需要添加headers参数并在本地运行。 发起请求前需要先定义headers参数: headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} 然后再向request.get()添加headers参数: res = requests.get(url, headers=headers) # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/', headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 打印解析结果 print(bs_foods) 提取最小父级标签 我们来看这个父级标签: ? 它的标签是 发起请求前需要先定义headers参数: headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} 然后再向request.get()添加headers参数: res = requests.get(url, headers=headers) 答案: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找最小父级标签 list_foods = bs_foods.find_all('div',class_='info pure-u') # 打印最小父级标签 print(list_foods) 非常幸运的是,这里一次就打印出了正确的东西。在实践操作当中,其实常常会因为标签选取不当,或者网页本身的编写没做好板块区分,你可能会多打印出一些奇怪的东西。 当遇到这种糟糕的情况,一般有两种处理方案:数量太多而无规律,我们会换个标签提取;数量不多而有规律,我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 下面,我们可以进行下一步。针对查找结果中的每一个元素,再次查找位于里面的菜名、URL、食材。 一组菜名、URL、食材 我们不先急于提取出所有的菜名、URL和食材。我们先尝试提取一组,等成功了,再去写循环提取所有。我们来看图: ? 如何拿到URL和菜名?答案显而易见:我们可以查找父级标签中的第0个标签,里面就会有我们想要的信息。 只查找第0个标签,应该用什么语句?3、2、1,回答我。 用find()。我们对父级标签,使用find()方法来查找标签就对了,所用的参数就是 当拿到 ? 现在,我们可以去做这样一个练习:续写下方代码,提取出第0个父级标签中的第0个 提示一:记得要提取的是第0个父级标签,而不是整个父级标签列表; 提示二:提取出的菜名的前后会有很多空格和换行,你可以使用字符串的 ?答案: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找最小父级标签 list_foods = bs_foods.find_all('div',class_='info pure-u') # 提取第0个父级标签中的<a>标签 tag_a = list_foods[0].find('a') # 输出菜名,使用strip()去掉了多余的空格 print(tag_a.text.strip()) # 输出URL print('http://www.xiachufang.com'+tag_a['href']) 现在我们来看,如何提取食材。 ? 你可能会想:我们去写一个 紧接着,用同样的手法,拿到所有 这实在是麻烦坏了。 下面我要告诉你一个好消息:你完全不需要这样做,你只需要查找 做法: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找最小父级标签 list_foods = bs_foods.find_all('div',class_='info pure-u') # 提取第0个父级标签中的<a>标签 tag_a = list_foods[0].find('a') # 菜名,使用strip()函数去掉了多余的空格 name = tag_a.text.strip() # 获取URL URL = 'http://www.xiachufang.com'+tag_a['href'] # 提取第0个父级标签中的<p>标签 tag_p = list_foods[0].find('p',class_='ing ellipsis') # 食材,使用strip()函数去掉了多余的空格 ingredients = tag_p.text.strip() # 打印食材 print(ingredients) 写循环,存列表。 要求:写一个循环,提取当前页面的所有菜名、URL、食材,并将它存入列表。其中每一组菜名、URL、食材是一个小列表,小列表组成一个大列表。如下: [[菜A,URL_A,食材A],[菜B,URL_B,食材B],[菜C,URL_C,食材C]] 答案: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找最小父级标签 list_foods = bs_foods.find_all('div',class_='info pure-u') # 创建一个空列表,用于存储信息 list_all = [] for food in list_foods: tag_a = food.find('a') # 菜名,使用strip()函数去掉多余的空格 name = tag_a.text.strip() # 获取URL URL = 'http://www.xiachufang.com'+tag_a['href'] tag_p = food.find('p',class_='ing ellipsis') # 食材,使用strip()函数去掉多余的空格 ingredients = tag_p.text.strip() # 将菜名、URL、食材,封装为列表,添加进list_all list_all.append([name,URL,ingredients]) # 打印 print(list_all) 至此,一个项目就算从头到尾结束。 代码实现(二) 就像我们之前所说,这个项目还存在着另一个解决思路:我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来。 对于这个实操,我不再一步一步为你讲解,而是换一种方式。我会为你简单描述大致思路,由你来自行写代码,结束之后再来和标准答案比照。 首先,获取数据,解析数据,略过。 去查找所有,包含菜名和URL的 为什么不直接选 当遇到这种糟糕的情况,一般有两种处理方案:数量太多而无规律,我们会换个标签提取;数量不多而有规律,我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 这里如果是直接提取 去查找所有,包含食材的 创建一个空列表,启动循环,循环长度等于 在每一次的循环里,去提取一份菜名、URL、食材。拼接为小列表,小列表拼接成大列表。输出打印。 换一种思路写代码:我们分别提取所有的菜名、所有的URL、所有的食材。然后让菜名、URL、食材给一一对应起来。 答案: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找包含菜名和URL的<p>标签 tag_name = bs_foods.find_all('p',class_='name') # 查找包含食材的<p>标签 tag_ingredients = bs_foods.find_all('p',class_='ing ellipsis') # 创建一个空列表,用于存储信息 list_all = [] # 启动一个循环,次数等于菜名的数量 for x in range(len(tag_name)): # 提取信息,封装为列表。 list_food = [tag_name[x].text.strip(),tag_name[x].find('a')['href'],tag_ingredients[x].text.strip()] # 将信息添加进list_all list_all.append(list_food) # 打印 print(list_all) 一个项目,两种解法。 代码总结: # 引用requests库 import requests # 引用BeautifulSoup库 from bs4 import BeautifulSoup # 为躲避反爬机制,伪装成浏览器的请求头 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'} # 获取数据 res_foods = requests.get('http://www.xiachufang.com/explore/',headers=headers) # 解析数据 bs_foods = BeautifulSoup(res_foods.text,'html.parser') # 查找包含菜名和URL的<p>标签 tag_name = bs_foods.find_all('p',class_='name') # 查找包含食材的<p>标签 tag_ingredients = bs_foods.find_all('p',class_='ing ellipsis') # 创建一个空列表,用于存储信息 list_all = [] # 启动一个循环,次数等于菜名的数量 for x in range(len(tag_name)): # 提取信息,封装为列表。 list_food = [tag_name[x].text.strip(),tag_name[x].find('a')['href'],tag_ingredients[x].text.strip()] # 将信息添加进list_all list_all.append(list_food) # 打印 print(list_all) # 以下是另外一种解法 # 查找最小父级标签 list_foods = bs_foods.find_all('div',class_='info pure-u') # 创建一个空列表,用于存储信息 list_all = [] for food in list_foods: tag_a = food.find('a') # 菜名,使用strip()函数去掉了多余的空格 name = tag_a.text.strip() # 获取URL URL = 'http://www.xiachufang.com'+tag_a['href'] tag_p = food.find('p',class_='ing ellipsis') # 食材,使用strip()函数去掉了多余的空格 ingredients = tag_p.text.strip() # 将菜名、URL、食材,封装为列表,添加进list_all list_all.append([name,URL,ingredients]) # 打印 print(list_all) 这个项目里有许多东西,值得我们回过头来看,记录到小本本上,下面是我的总结: 确认目标-分析过程-代码实现,是我们做每一个项目的必经之路。未来在此基础上,还会有许多演化,但基础都是这些。 将想要的数据分别提取,再做组合是一种不错的思路。但是,如果数据的数量对不上,就会让事情比较棘手。比如,在我们的案例里,如果一个菜有多个做法,其数量也没规律,那么菜名和URL的数量就会对不上。 寻找最小共同父级标签是一种很常见的提取数据思路,它能有效规避这个问题。但有时候,可能需要你反复操作,提取数据。 所以在实际项目实操中,需要根据情况,灵活选择,灵活组合。我们本关卡所做的项目,只是刚刚好两种方式都可以爬取。
from bs4 import BeautifulSoup bs = BeautifulSoup('<p><a>惟有痴情难学佛</a>独无媚骨不如人</p>','html.parser') tag = bs.find('p') print(tag.text) 在爬虫实践当中,其实常常会因为标签选取不当,或者网页本身的编写没做好板块区分,你可能会多提取到出一些奇怪的东西。 当遇到这种糟糕的情况,一般有两种处理方案:数量太多而无规律,我们会换个标签提取;数量不多而有规律,我们会对提取的结果进行筛选——只要列表中的若干个元素就好。 以上,就是我要分享的全部信息。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/16 4:46:50- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |