代码核心在于这几个部分:
- 其一:使用元素定位来获取页面上指定需要抓取的关键字;
- 其二:将页面上定位得到的数据永久存储到本地文件中。
具体来梳理一下从访问URL开始到爬取数据整个流程下来的各个节点我们都做了哪些工作。
我们来看看spider() 方法里面具体做了哪些事情:
spider() 方法实现
1、创建浏览器对象
drver = webdriver.Chrome()
通过 webdriver.Chrome() 创建浏览器对象后,会自动启动并打开Chrome浏览器。在 Chrome() 方法中未传入任何参数,即使用默认参数 executable_path="chromedriver" ,executable_path表示的是Chrome浏览器驱动的位置,该参数默认浏览器驱动的位置是在Python安装目录下。如果你的浏览器驱动位置与默认位置不同,则 executable_path 参数需要传入驱动的实际位置。
2、访问URL地址
drver.get(url)
打开浏览器后driver 调用get(url) 方法在地址栏中访问该网址。
3、隐式等待、最大化浏览器窗口
drver.implicitly_wait(3)
drver.maximize_window()
先使用 implicitly_wait() 方法隐式等待浏览器将页面完全加载出来,再使用maximize_window()将浏览器窗口最大化,防止页面元素未加载出来或被遮挡而查找失败。
3、定位搜索框
input_search = drver.find_element_by_id('key')
input_search.send_keys(keyword)
input_search.send_keys(Keys.ENTER)
sleep(3)
driver 先调用 find_element_by_id('key') 通过ID定位到该搜索框,再调用 sent_keys() 传入参数搜索关键字 keyword ,然后在sent_keys() 中传入 Keys.ENTER 模拟键盘回车键,最后再调用 sleep(3) 强制等待搜索内容加载出来。至此, 定位搜索框->搜索框输入关键字->回车搜索 ,整个搜索流程就完成了。
4、调用 get_good() 方法抓取商品数据
get_good(drver)
将抓取商品数据的具体操作步骤封装成 get_good() 方法并传入driver参数调用。
5、退出浏览器
drver.quit()
抓取完商品数据后就可以直接将浏览器关闭,释放资源了。这就是整个爬取的过程,而抓取数据的过程再接着继续分析。
get_good() 方法实现
完整代码
from time import sleep
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from os import path
def spider(url, keyword):
drver = webdriver.Chrome()
drver.get(url)
drver.implicitly_wait(3)
drver.maximize_window()
input_search = drver.find_element_by_id('key')
input_search.send_keys(keyword)
input_search.send_keys(Keys.ENTER)
sleep(3)
get_good(drver)
drver.quit()
def get_good(driver):
goods = driver.find_elements_by_class_name('gl-item')
for good in goods:
link = good.find_element_by_tag_name('a').get_attribute('href')
title = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
price = good.find_element_by_css_selector('.p-price strong').text.replace('\n', '')
commit = good.find_element_by_css_selector('.p-commit a').text
msg = '''
商品:%s
链接:%s
价格:%s
评论:%s
'''%(title, link, price, commit)
saveTXT(msg)
def saveTXT(msg):
paths = path.dirname(__file__)
file = path.join(paths, 'good_data.txt')
with open(file, 'a+', encoding='utf-8') as wf:
wf.write(msg)
if __name__ == '__main__':
url = 'https://www.jd.com/'
keyword = '女士包包'
spider(url, keyword)
2、将数据存储到CSV文件中
from time import sleep
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
from os import path
import csv
def spider(url, keyword):
drver = webdriver.Chrome()
drver.get(url)
drver.implicitly_wait(3)
drver.maximize_window()
input_search = drver.find_element_by_id('key')
input_search.send_keys(keyword)
input_search.send_keys(Keys.ENTER)
sleep(3)
get_good(drver)
drver.quit()
def get_good(driver):
goods = driver.find_elements_by_class_name('gl-item')
data = []
for good in goods:
link = good.find_element_by_tag_name('a').get_attribute('href')
title = good.find_element_by_css_selector('.p-name em').text.replace('\n', '')
price = good.find_element_by_css_selector('.p-price strong').text.replace('\n', '')
commit = good.find_element_by_css_selector('.p-commit a').text
good_data = {
'商品标题':title,
'商品价格':price,
'商品链接':link,
'评论量':commit
}
data.append(good_data)
saveCSV(data)
def saveCSV(data):
header = ['商品标题', '商品价格', '商品链接', '评论量']
paths = path.dirname(__file__)
file = path.join(paths, 'good_data.csv')
with open(file, 'a+', encoding='utf-8', newline='') as wf:
f_csv = csv.DictWriter(wf, header)
f_csv.writeheader()
f_csv.writerows(data)
if __name__ == '__main__':
url = 'https://www.jd.com/'
keyword = '女士包包'
spider(url, keyword)
|