一、实验内容
将重庆交通大学新闻网站中近几年所有的信息通知http://news.cqjtu.edu.cn/xxtz.htm的发布日期和标题全部爬取下来,并写到CSV电子表格中。
二、爬虫定义与分类
网络爬虫,通过一定的规则策略,自动抓取、下载互联网上网页,在按照某些规则算法对这些网页进行数据抽取,形成所需要的数据集。
按照抓取网站对象来分类,可以分为2类爬虫。
通用爬虫:类似百度、谷歌这样的爬虫,抓取对象是整个互联网,对于网页没有固定的抽取规则。 对于所有网页都是一套通用的处理方法。
垂直爬虫:这类爬虫主要针对一些特定对象、网站,有一台指定的爬取路径、数据抽取规则。比如今日头条,它的目标网站就是所有的新闻类网站。 比如Etao比价、网易的慧慧购物助手,他们的目标网站就是 淘宝、京东、天猫等等电商网站。
通用爬虫和垂直爬虫显著的区别:
抓取范围,通用爬虫的抓取范围要比垂直爬虫大得多,一个是整个互联网,一个是指定的网站。
爬取路线,通用爬虫要不按照深度爬取、要不是按广度爬取。 而垂直爬虫则可能是按照指定路线爬取。
数据处理,通用爬虫一般就是分词、索引到数据库。 而垂直爬虫则通过特定的规则来抽取更加精细的数据 。
关于行业内的网络爬虫,经过除部分分析,基本以垂直爬虫需求为主,比如通过垂直电商平台获取国内和国际的商品价格等场景。
三、爬取过程
- 导入需要的包
- 代码:
from bs4 import BeautifulSoup
import csv
from tqdm import tqdm
import urllib.request, urllib.error
Headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 "
"(KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3741.400 "
"QQBrowser/10.5.3863.400"
}
csvHeaders = ['时间','标题']
subjects = []
print('信息爬取中:\n')
for pages in tqdm(range(1, 55 + 1)):
request = urllib.request.Request(f'http://news.cqjtu.edu.cn/xxtz/{pages}.htm', headers=Headers)
html = ""
try:
response = urllib.request.urlopen(request)
html = response.read().decode("utf-8")
except urllib.error.URLError as e:
if hasattr(e, "code"):
print(e.code)
if hasattr(e, "reason"):
print(e.reason)
soup = BeautifulSoup(html, 'html5lib')
div_time = soup.find_all('div', class_="time")
title = soup.find_all('div',class_="right-title")
subject = []
for d in div_time:
for t in title:
for t in t.find_all('a',target="_blank"):
if t.string is not None:
if d.string is not None:
subject.append(d.string)
subject.append(t.string)
subjects.append(subject)
print(subject)
subject = []
with open('./file/CQJTU_news.csv', 'w', newline='') as file:
fileWriter = csv.writer(file)
fileWriter.writerow(csvHeaders)
fileWriter.writerows(subjects)
print('\n题目信息爬取完成!!!')
- 查看网页源代码
发现时间在div中且class="time” 为唯一,可直接通过
div_time = soup.find_all('div', class_="time")
获得,title的内容获取稍微麻烦点,
因为是div标签且class=class_=“right-title"不只是我们需要的标签是这样,而a标签且target=”_blank"也是一样,所以还需要增加条件(即增大范围),再缩小范围
title = soup.find_all('div',class_="right-title")
t.find_all('a',target="_blank")
- 运行获取数据
四、参考
https://www.jianshu.com/p/189eed6a14fd
|