IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> 爬虫东方财富网(tbody)获取其title和链接 -> 正文阅读

[Python知识库]爬虫东方财富网(tbody)获取其title和链接

import requests
from bs4 import BeautifulSoup
import pprint
import json

?导入爬虫所需要的包

def download_all_htmls():
    htmls=[]
    for idx in range(1):
        url=f"http://data.eastmoney.com/zjlx/00000{idx+1}.html"
        print("craw html:",url)
        r=requests.get(url)
        if r.status_code!=200:
            raise Exception("error")
        htmls.append(r.text)
    return htmls

我们需要访问需要爬虫的页面,因此我们应在jupyter中将所需要的网页下载下来。定义一个函数,在其中通过for循环将我们所需的全部页面都访问,如果r.status_code跟200不等时报错,否则将页面全部下载(r.status_code==200这是一个HTTP状态代码,意思是“OK”(例如:服务器成功地响应了HTTP请求))将其返回,以便后面的调用。

htmls=download_all_htmls()

将页面全部显示

import re
def parse_single_html(html):
    soup=BeautifulSoup(html,'html.parser')
    a1=soup.find_all("body")
    datas1=[]
    datas2=[]
    for body in a1:  
        title_node=(
             body
            .find("div",class_="sinstock-filter-wrap")
        )
        title=title_node.get_text()
        title1=title.replace('\n',',')
        t1=title1[4:]
        t2=t1[:-4]
        t3=t2.split(',')
        del t3[10:12]
        title_lianjie=(
            body
            .find("div",class_="sinstock-filter-wrap")
            .find("tbody")
            .find_all("a")
        )
        a1=[]
        for i in range(20):
            link=title_lianjie[i]["href"]
            i=i+1
            a1.append(link)
        datas1.append(a1)
        datas2.append(t3)
        return (datas1)

这一步的目的是通过函数访问tbody的title和链接(其中会遇到的问题:1.输出的title是字符串,而且有很多“\n”不方便后续的操作,对此我的操作是首先将所有的“\n”替换为‘’,”,此时之前的字符串变成了列表,会发现还是有一些没有用的元素,通过索引操作将其剔除,得到你要的列表),返回时我建议分开返回,否则后续会报错。

all_datas1=[]
for html in htmls:
    all_datas1.extend(parse_single_html(htmls[0]))

打印所有页面返回的内容,并将其装到all_datas1中

import pandas as pd
import numpy as np
data1= pd.DataFrame(data=all_datas1,dtype=np.float64)

导入包并将all_datas1转化为DataFrame并将其存储到data1

from sqlalchemy import create_engine 
import pymysql
import pandas as pd
from sqlalchemy import create_engine

##将数据写入mysql的数据库,但需要先通过sqlalchemy.create_engine建立连接,且字符编码设置为utf8,否则有些latin字符不能处理
yconnect = create_engine('mysql+pymysql://root:root@localhost:3306/test?charset=utf8')
pd.io.sql.to_sql(data1,'test2', yconnect, schema='test', if_exists='append')

将data1输出结果存入mysql。

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2021-10-20 12:27:01  更:2021-10-20 12:27:54 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 20:24:36-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码