IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> 【python爬虫】爬取深圳证券业协会公布的营业部数据并对pdf文件进行解析 -> 正文阅读

[Python知识库]【python爬虫】爬取深圳证券业协会公布的营业部数据并对pdf文件进行解析

背景

深圳证券业协会网站公布了辖区内所有证券营业部的股基交易量、净利润、营收数据,免登录就能查看,我们需要获取这部分数据,由于都是pdf文件,所以首先得爬虫获取pdf文件到本地然后对pdf文件进行解析和数据处理。
网页链接

抓包

抓包的实例我之前的文章介绍了很多次了。
这回我直接把找到需要的参数展示一下:

data = {'typeid':18,'pagesize':40,'pageno':1}

导入第三方库

import pandas as pd
import requests  
import json
import time
import os
import pdfplumber as pdf
import re
import numpy as np

爬虫代码

简简单单用个requests.post方法就行了,就是这么朴实无华。

def SZ_spyder(flv):
    lp_url='http://www.cncapital.net/szsa/archives/list/1.0' #api
    headers={        "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",
            "Accept-Encoding":"gzip, deflate",
            "Accept-Language":"zh-CN,zh;q=0.9",
            "Host":"www.cncapital.net",
            "User-Agent":"xxx"
        } ##用自己的User-Agent

    data = {'typeid':18,'pagesize':40,'pageno':1}
    req = requests.post(lp_url,data=data,headers=headers)
    time.sleep(2)
    r = json.loads(req.text)
    clist=r['data']
    tlist=[]
    for i in clist:
        id = i['id']
        title=i['title']
        data2 = {'id':id}
        if title not in flv:
            tlist.append(title+'.pdf')
            req2 = requests.post(lp_url,data=data2,headers=headers)
            time.sleep(1)
            r2 = json.loads(req2.text)
            fff = r2['attachment'][0]['url']
            print(fff)
            pdf_url = 'http:'+fff
            file = requests.get(pdf_url,headers=headers)
            time.sleep(1)
            
            file_path='D:xxx'+title+'.pdf' ##更改路径
            f = open(file_path,'wb')
            f.write(file.content) ##这里是保存文件的方式
            f.close()
        else:
            continue
    return tlist

下回还可以讲讲接口测试,如何通过api上传文件。

pdf解析

这里我们还是用pdfplumber,安装什么的就不讲了。
一个pdf文件由三个表格组成,分别展示净利润、营收和交易量,这个任务很麻烦的点就在于不同时间的文件,三种数据展示前后顺序不一致,这就给数据结构化处理添麻烦,我只能用笨方法解决,就是多加if语句。

##读取pdf    
def read_pdf(p_num,pf,mm):
    df_trd = pd.DataFrame(columns=['dpm_nm','value'])
    df_inc = pd.DataFrame(columns=['dpm_nm','value'])
    df_prf = pd.DataFrame(columns=['dpm_nm','value'])
    pnn=p_num-1
    pn_list=list(range(p_num))
    if int(mm)>=20210601: ##20210601之后,当月值和当月累计值调换了位置
        ll = [0,3,4]
    else :
        ll = [0,1,2]
    for j in pn_list :
        pp = pf.pages[j]
        t = pp.extract_table()
        dp = pd.DataFrame(t[1:],columns=t[0])
        if len(list(dp.columns))>3:
            dpp = dp.iloc[:,ll].set_axis(['dpm_nm','当月排序','value'],axis='columns')
            dpp['dt']=mm
        else:
            dpp = dp.iloc[:,:3].set_axis(['当月排序','dpm_nm','value'],axis='columns')
            dpp['dt']=mm
        fdf = dpp[['dpm_nm','value','dt']]
        df_trd = pd.concat([df_trd,fdf],axis=0)
        pnn=pnn-1
        print('交易额:第'+str(j)+'页')
        if dpp['dpm_nm'].iloc[-1]!='合计' and dpp['dpm_nm'].iloc[-1]!='':
            continue
        else:
            k=j+1
            for k in pn_list[j+1:]:
                pp = pf.pages[k]
                t = pp.extract_table()
                dp = pd.DataFrame(t[1:],columns=t[0])
                if len(list(dp.columns))>3:
                    dpp = dp.iloc[:,:3].set_axis(['dpm_nm','当月排序','value'],axis='columns')
                    dpp['dt']=mm
                else:
                    dpp = dp.iloc[:,:3].set_axis(['当月排序','dpm_nm','value'],axis='columns')
                    dpp['dt']=mm
                fdf = dpp[['dpm_nm','value','dt']]
                df_inc = pd.concat([df_inc,fdf],axis=0)
                pnn=pnn-1
                print('收入:第'+str(k)+'页')
                if dpp['dpm_nm'].iloc[-1]!='合计' and dpp['dpm_nm'].iloc[-1]!='':
                    continue
                else:
                    l=k+1
                    for l in pn_list[k+1:]:
                        pp = pf.pages[l]
                        t = pp.extract_table()
                        dp = pd.DataFrame(t[1:],columns=t[0])
                        if len(list(dp.columns))>3:
                            dpp = dp.iloc[:,:3].set_axis(['dpm_nm','当月排序','value'],axis='columns')
                            dpp['dt']=mm
                            fdf = dpp[['dpm_nm','value','dt']]
                            df_prf = pd.concat([df_prf,fdf],axis=0)
                            pnn=pnn-1
                            print('净利润:第'+str(l)+'页')
                        elif len(list(dp.columns))>1:
                            dpp = dp.iloc[:,:3].set_axis(['当月排序','dpm_nm','value'],axis='columns')
                            dpp['dt']=mm
                            fdf = dpp[['dpm_nm','value','dt']]
                            df_prf = pd.concat([df_prf,fdf],axis=0)
                            pnn=pnn-1
                            print('净利润:第'+str(l)+'页')
                        else:
                            break
                    break
            break    
    return df_trd,df_inc,df_prf  

完整代码

我把代码放在了GitHub上.
但我其实平时懒得上GitHub,作为一名非职业的程序猿,我表示CSDN就够用了。
有问题请私信。

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2022-03-03 16:08:24  更:2022-03-03 16:10:42 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 21:21:23-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码