前言 😋
嗨喽,大家好呀~这里是爱看美女的茜茜呐
本次采集网介绍:图书频道-全球最大中文网上书店
专业提供小说传记,青春文学,成功励志,投资理财等各品类图书
畅销榜最新报价、促销、评论信息,引领最新网上购书体验!
环境使用 🎈:
模块使用 🎠:
爬虫基本思路流程 🎊:
一. 数据来源分析
- 确定自己采集数据内容
- 抓包分析,自己想要数据来自哪里 —> 请求那个url地址得到想要的数据
- 开发者工具抓包分析 F12 或者 鼠标右键点击检查 选择 network(网络), 刷新网页
- 通过关键字(我们想要数据比如: 书名) 去搜索数据包是那个 —> 确定请求是那个网址得到数据内容
请求这个网站 就可以得到我们想要数据内容
二. 代码实现步骤:
-
发送请求, 模拟浏览器对于url发送请求 -
获取数据, 获取服务器返回响应数据 —> 开发者工具里面response -
解析数据, 提取我们想要数据内容, 书籍基本信息 -
保存数据, 保存表格里面
数据采集 🎢
网址里的网名被我删啦,你可以看一下它的链接如何的然后自己添加一下
具体爬的什么网站我会在评论区打出~大家注意看哦
如果你实在不会或有点点小懒癌的小可耐也可以私聊我领取完整源码哦~ 🎠
import requests
import parsel
import csv
f = open('书籍data25页.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
'标题',
'评论',
'推荐',
'作者',
'日期',
'出版社',
'售价',
'原价',
'折扣',
'电子书',
'详情页',
])
csv_writer.writeheader()
"""
1. 发送请求, 模拟浏览器对于url发送请求
- 等号左边是定义变量名
- 模拟浏览器 ---> 请求头
headers ---> 在开发者工具里面复制粘贴 字典数据类型
一种简单反反爬手段, 防止被服务器识别出来是爬虫程序
- 使用什么请求方式, 根据开发者工具来的
"""
for page in range(1, 26):
url = f'http://bang..com/books/bestsellers/01.00.00.00.00.00-recent7-0-0-1-{page}'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response)
"""
3. 解析数据, 提取我们想要数据内容, 书籍基本信息
根据得到数据类型以及我们想要数据内容, 选择最适合解析方法:
- re正则表达式
- css选择器
- xpath
xpath ---> 根据标签节点提取数据
css选择器 ---> 根据标签属性提取数据内容
css语法匹配 不会 1 会的 2
复制粘贴会不会 ---> ctrl + C ctrl + v
"""
selector = parsel.Selector(response.text)
lis = selector.css('.bang_list_mode li')
for li in lis:
"""
attr() 属性选择器
a::attr(title) ---> 获取a标签里面title属性
get() 获取一个 第一个
"""
title = li.css('.name a::attr(title)').get()
star = li.css('.star a::text').get().replace('条评论', '')
recommend = li.css('.tuijian::text').get().replace('推荐', '')
author = li.css('.publisher_info a::attr(title)').get()
date = li.css('.publisher_info span::text').get()
press = li.css('div:nth-child(6) a::text').get()
price_n = li.css('.price .price_n::text').get()
price_r = li.css('.price .price_r::text').get()
price_s = li.css('.price .price_s::text').get().replace('折', '')
price_e = li.css('.price .price_e .price_n::text').get()
href = li.css('.name a::attr(href)').get()
dit = {
'标题': title,
'评论': star,
'推荐': recommend,
'作者': author,
'日期': date,
'出版社': press,
'售价': price_n,
'原价': price_r,
'折扣': price_s,
'电子书': price_e,
'详情页': href,
}
csv_writer.writerow(dit)
print(title, star, recommend, author, date, press, price_n, price_r, price_s, price_e, href, sep=' | ')
评论 🎤
源码、解答、教程加Q裙:261823976 点击蓝字加入【python学习裙】
import time
![请添加图片描述](https://img-blog.csdnimg.cn/400a8cd8700846469c023cc458342ca2.gif)
import requests
import re
for page in range(1, 11):
time.sleep(1.5)
url = 'http://product..com/index.php'
data = {
'r': 'comment/list',
'productId': '27898031',
'categoryPath': '01.43.77.07.00.00',
'mainProductId': '27898031',
'mediumId': '0',
'pageIndex': page,
'sortType': '1',
'filterType': '1',
'isSystem': '1',
'tagId': '0',
'tagFilterCount': '0',
'template': 'publish',
'long_or_short': 'short',
}
headers = {
'Cookie': '__permanent_id=20220526142043051185927786403737954; dest_area=country_id%3D9000%26province_id%3D111%26city_id%20%3D0%26district_id%3D0%26town_id%3D0; ddscreen=2; secret_key=f4022441400c500aa79d59edd8918a6e; __visit_id=20220723213635653213297242210260506; __out_refer=; pos_6_start=1658583812022; pos_6_end=1658583812593; __trace_id=20220723214559176959858324136999851; __rpm=p_27898031.comment_body..1658583937494%7Cp_27898031.comment_body..1658583997600',
'Host': 'product.dangdang.com',
'Referer': 'http://product.dangdang.com/27898031.html',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36',
}
response = requests.get(url=url, params=data, headers=headers)
html_data = response.json()['data']['list']['html']
content_list = re.findall("<span><a href='.*?' target='_blank'>(.*?)</a></span>", html_data)
for content in content_list:
with open('评论.txt', mode='a', encoding='utf-8') as f:
f.write(content)
f.write('\n')
print(content)
词云图 🃏
import jieba
import wordcloud
import imageio
py = imageio.imread('python.png')
f = open('评论.txt', encoding='utf-8')
txt = f.read()
txt_list = jieba.lcut(txt)
print(txt_list)
string = ' '.join(txt_list)
wc = wordcloud.WordCloud(
height=300,
width=500,
background_color='white',
font_path='msyh.ttc',
scale=15,
stopwords={'的', '了', '很', '也'},
mask=py
)
wc.generate(string)
wc.to_file('1.png')
尾语 💝
感谢你观看我的文章呐~本次航班到这里就结束啦 🛬
希望本篇文章有对你带来帮助 🎉,有学习到一点知识~
躲起来的星星🍥也在努力发光,你也要努力加油(让我们一起努力叭)。
最后,博主要一下你们的三连呀(点赞、评论、收藏),不要钱的还是可以搞一搞的嘛~
不知道评论啥的,即使扣个6666也是对博主的鼓舞吖 💞 感谢 💐
|