IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 爬虫-从入门到入狱 -> 正文阅读

[大数据]爬虫-从入门到入狱

前言:

  爬虫理论上是被禁止的,这里只讲方法,so,希望大家遵守法律法规,不要去爬敏感网站的数据,不要从事贩卖国家机密相关的相关事宜等。

此次涉及到的知识点如下:

  1. 利用json库截取json指定字符串
  2. 利用argparse库实现参数化调用
  3. 利用pymysql库实现数据库操作
  4. 数据库长连接的使用

pymysql库的使用

pymysql的库作用就是联动mysql数据库,我们这里需要知道的是如何创建数据库连接,如何创建游标对象,如何执行sql语句与事务的提交

首先这里介绍的是连接数据库的长连接的使用,一开始笔者使用连接数据库的方式是短链接。

我们实现与数据库交互的时候,需要先连接数据库,而后关闭连接,这个过程在断开的时候是会产生一个tcp timeout的时间的,如果大家插入数据库、与数据库交互的次数并不多,那当然是不受影响的。

但是大家如果做爬虫,需要批量的操作数据库的时候,若是采用短连接,每次连接数据库关闭数据库就都会产生一个tcp timeout的动作,这样的话可能会造成一个泛洪的效果,意外的造成了拒绝服务攻击。

示例代码如下:

import pymysql
import time
?
def short():
  n=0
  while n <= 20:
    #连接数据库
    db_conn = pymysql.connect(host='192.168.xx?.xx', user='root', passwd='xx', port=3306, db='xx')
    # 创建游标对象
    cur = db_conn.cursor()
    # 执行sql语句
    try:
      # 执行sql语句
      sql='insert into user (user,id) values (111,222);'
      cur.execute(sql)
      # 事物提交
      db_conn.commit()
      # 断开连接?
      ?cur.close()
      db_conn.close()
    except Exception as err:
      print("sql语句执行错误", err)
      db_conn.rollback() # 数据库回滚操作?
    time.sleep(2)
    n=n+1
short()?

此时执行20次重复的插入动作,每次插入前都会先连接数据库然后再断开,观察主机的状态以及数据包

首先就是在请求的时候会出现大量的连接状态 time-wait,这个是在本机看到的,而不是在数据库服务器
在这里插入图片描述
wireshark产生大量的连接记录
在这里插入图片描述

当我们使用长链接的时候,此时的示例代码以及连接状态如下

import pymysql
import time
db_conn = pymysql.connect(host='192.168.xx.xxx', user='root', passwd='xxx', port=3306, db='xxx')
cur = db_conn.cursor()
def test_connection():
  try:
    db_conn.ping()
  except:
    db_conn = pymysql.connect(host='192.168.xx.xxx', user='root', passwd='xxx', port=3306, db='xxx')
  return db_conn
def long():
  n=0
  db_conn = test_connection()
  while n <= 20:
    try:
      # 执行sql语句
      sql='insert into user (user,id) values (111,222);'
      cur.execute(sql)
      # 事物提交
      db_conn.commit()
    except Exception as err:
      print("sql语句执行错误", err)
      db_conn.rollback()
    time.sleep(2)
    n=n+1
long()?

在这里插入图片描述
wireshark数据包流量如下
在这里插入图片描述

argparse? 库的使用

argparse是python用于解析命令行参数和选项的标准模块,用于代替已经过时的optparse模块。argparse模块的作用是用于解析命令行参数

示例代码:

import argparse
parser = argparse.ArgumentParser(description='api help')   #创建解析器对象ArgumentParser
parser.add_argument('-p','--pid', help='请输入1/2/3/4',default=' ')   #用来指定程序需要接受的命令参数
args=parser.parse_args()   #参数实例化,将parser参数传入args
pid=args.pid
?
str=("这是 %s" % pid)
print(str)

运行结果:
在这里插入图片描述
这个时候参数就可选了

json、?requests库的使用

requests库无需多说,用来模拟http请求;

json库在这里则是用来返回json数据中的某个数据时使用

首先我们需要收集id参数,当页面返回的数据为json时,我们如何收集?

如下图,此图?为返回的json数据的树状图
在这里插入图片描述
此时打开[data][page][records][0]

?返回的详细数据如下
在这里插入图片描述

由第一张图我们可以知道,返回0-9条数据,我们需要获取这0-9条数据所有的id参数,那么应该如何快速获取呢?

示例代码如下

# encoding: utf-8    #使用utf-8编码
import requests
import json
?
token="xxx"    #全局变量?
?
def _json():
  url = "https://xxx.cn/xxx?"
  header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36",
    "Content-Type": "application/x-www-form-urlencoded",
    "X-Token": token
  }
  try:
    response = requests.get(url, headers=header, verify=False, timeout=10)
    text = response.text
    s = json.loads(text)
    if 'id' in text:
      n = 0
      while n <= 10:
        id = (s['data']['page']['records'][n]['id'])    #获取所有的id参数
        print(str(id))
        n=n+1
    else:
      print("数据未更新")
  except Exception as e:
    print("[" + url + "]" + "error", format(e))
?
_json()?

执行结果如下:
在这里插入图片描述

提取数据直接入库,并生成后期对比log文件

当我们学会使用以上三个小demo后,我们按需求将id直接入库并生成log文件做后期对比,示例代码如下

# encoding: utf-8    #使用utf-8编码
import requests
import json
import pymysql
import time
import argparse
import urllib3
urllib3.disable_warnings()
parser = argparse.ArgumentParser(description='api help')   #创建解析器对象ArgumentParser
parser.add_argument('-p','--pid', help='请输入1/2/3/4',default=' ')   #用来指定程序需要接受的命令参数
args=parser.parse_args()   #参数实例化,将parser参数传入args
pid=args.pid
?
token="xxxx"    #设置token全局变量
?
#建立数据库长连接
db_conn = pymysql.connect(host="192.168.xx.xxx", user="root", password="xxx", db="xxx",charset="utf8")
?
cursor = db_conn.cursor()
#建立数据库长链接,调用前判断数据库连接状态
dataday=(time.strftime('%Y-%m-%d',time.localtime(time.time())))  #年月日时间节点,用来保存文件名字
?
def test_connection():
  try:
    db_conn.ping()
  except:
    db_conn= pymysql.connect(host="192.168.xx.xxx", user="root", password="xxx", db="xxx",charset="utf8")
?
?
def _json():
  url = "https://xxx/"
  header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36",
    "Content-Type": "application/x-www-form-urlencoded",
    "X-Token": token
  }
  try:
    response = requests.get(url, headers=header, verify=False, timeout=10)
    text = response.text
    s = json.loads(text)
    if 'id' in text:
      n = 0
      test_connection()
      cursor = db_conn.cursor()
      while n <= 10:
        id = (s['data']['page']['records'][n]['id'])    #获取所有的id参数
        print(str(id))
        w = open(dataday + "_id.json", "a+")
        w.write(str(id) + "\n")
        try:
?
          # 执行sql语句
          sql = ("insert into user (id) values ('%s');" % id )
          cursor.execute(sql)
          # 事物提交
          db_conn.commit()
        except Exception as err:
          print("sql语句执行错误", err)
          db_conn.rollback()
        time.sleep(2)
        n=n+1
    else:
      print("数据未更新")
  except Exception as e:
    print("[" + url + "]" + "error", format(e))
?
if __name__ == '__main__' :
    _json()
?

运行结果:
在这里插入图片描述

这里没用上参数化,因为那个使用比较敏感,没有体现出来,但是大家只要知道如何去使用就可以了,比如说获取周更新、月更新都可以使用此方式,观察数据库变化
在这里插入图片描述

当前文件夹生成json格式文件,后续做对比使用

在这里插入图片描述
在这里插入图片描述

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-05-18 17:42:19  更:2022-05-18 17:42:41 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 11:28:45-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码