IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 爬虫之东方财富网站学习笔记 -> 正文阅读

[人工智能]爬虫之东方财富网站学习笔记

目标:爬取东方财富网站数据

步骤:1.分析网站页面内容 确定爬取的具体目标

? ? ? ? ? ?2.查阅资料进行代码和思路学习

? ? ? ? ? ?3.进行实际操作 尝试爬取网站

通过教程学习可知爬取页面涉及的几个包有

1.requests库是一个http请求库用于对目标网页进行爬取

2.beautifulsoup库主要的功能是从网页抓取数据

3.pprint库主要功能是美化打印结果

4.由于最终结果要存储成为csv文件 导入了csv相关库

import requests
from bs4 import BeautifulSoup
import pprint
import csv
import pandas as pd

?导库结束后进行网页下载

定义一个函数用于下载html

def download_all_htmls():
    htmls=[]
    for i in range(1):
        url = f"http://data.eastmoney.com/zjlx/00000{i+1}.html/"
        print("craw html:",url)
        r = requests.get(url)
        if r.status_code !=200:
             raise Exception("error")
        htmls.append(r.text)
    return htmls

?调用函数 查看下载的html链接

htmls=download_all_htmls()

返回第一页的页面具体内容

htmls[0]

对单个页面进行数据分析

定义一个函数对页面中希望爬取的内容进行处理

def parse_single_html(html):
    soup=BeautifulSoup(html,'html.parser')
    bodys=soup.find_all("body")
    datas=[]
    for body in bodys:
        title_nodes=(
              body
              .find("div",class_="sinstock-filter-wrap")
            
        )
        title=title_nodes.get_text()
        title1=title.replace("\n", " ");
        link_nodes=(
            body
            .find("div",class_="sinstock-filter-wrap")
            .find_all("a")
        )
        a1=[]
        for i in range(20):
            if(i<20):
                link=link_nodes[i]["href"]
                i=i+1
                a1.append(link)
        print("links:",a1)
        datas.append(
            {"title":title1,"link":link})
    return datas

将爬取到的内容用pprint打印

pprint.pprint(parse_single_html(htmls[0]))

定义all_datas列表储存爬取到的内容

all_datas=[]
for html in htmls:
    all_datas.extend(parse_single_html(html))

调用all_datas后可以得到整个页面爬取的结果

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-20 12:29:39  更:2021-10-20 12:31:17 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/2 23:52:45-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码