IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> 爬虫爬取奥特曼url~今日份练习 -> 正文阅读

[Python知识库]爬虫爬取奥特曼url~今日份练习

爬虫爬取奥特曼url~今日份练习

准备

为什么爬取奥特曼,以前不需要我多说了吧~~~~
在这里插入图片描述
首先准备一个网址,我也是拿出自己的资源来,给大家送福利啊 -->> 奥特曼url

代码实现

大致思路~~帮助大家理解代码
一个总网址爬取到所有奥特曼,然后分别爬取每个奥特曼的每一集,requests大家应该都很熟悉,这里介绍一下xpath使用

xpath使用

在这里插入图片描述
在网址找到需要爬取的数据,就可以copy到xpath,这里xpath相当于正则表达式,但是却比正则表达式简单的多。

import requests
from lxml import etree
import time


class Spider:
    def __init__(self):
        self.url = "https://tv.ci/sb/ke7nhZe3c1-.html?wd=%E5%A5%A5%E7%89%B9%E6%9B%BC&submit="
        self.headers = {
            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.61 Safari/537.36"}

    def get_all_html(self):
        count = 1
        while True:
            try:
                print(f"总url第{count}次请求")
                count += 1
                response = requests.get(self.url, headers=self.headers, timeout=5)
            except Exception:
                time.sleep(3)
            else:
                text = response.content.decode()
                return text

    def get_all_url(self, text):
        html = etree.HTML(text)
        href = html.xpath('/html/body/div[1]/div/div/div[1]/div/div/div[2]/ul/li[*]/div[2]/h4/a/@href')
        name = html.xpath('/html/body/div[1]/div/div/div[1]/div/div/div[2]/ul/li[*]/div[2]/h4/a/text()')
        dict_text = dict(zip(name, [f"https://tv.ci/{i}" for i in href]))
        print("所有url已爬取")
        return dict_text

    def get_html(self, name, url):
        count = 1
        while True:
            try:
                print(f"{name}{count}次请求")
                count += 1
                response = requests.get(url, headers=self.headers, timeout=5)
            except Exception:
                time.sleep(3)
            else:
                text = response.content.decode()
                return text

    def get_url(self, url, text):
        html = etree.HTML(text)
        href = html.xpath('/html/body/div[1]/div/div[1]/div[3]/div/div[2]/div[1]/ul/li[*]/a/@href')
        name = html.xpath('/html/body/div[1]/div/div[1]/div[3]/div/div[2]/div[1]/ul/li[*]/a/text()')
        dict_text = dict(zip(name, [f"https://tv.ci/{i}" for i in href]))
        return dict_text

    # def get_data(self, name, url):
    #     count = 1
    #     while True:
    #         try:
    #             print(f"{name}第{count}次请求")
    #             count += 1
    #             response = requests.get(url, headers=self.headers, timeout=5)
    #         except Exception:
    #             time.sleep(3)
    #         else:
    #             text = response.content.decode()
    #             return text

    # def save_data(self, name, url):
    #     text = f"{name}\n"
    #     with open("./00文件夹/url/奥特曼.txt", "w", encoding="utf-8") as f:
    #         f.write(name, url)

    def run(self):
        url_text = ""
        # 获取主页html
        all_html = self.get_all_html()
        # 获取所有奥特曼url
        dict_all_url = self.get_all_url(all_html)
        for name, url in dict_all_url.items():
            html = self.get_html(name, url)
            dict_url = self.get_url(url, html)
            url_text += name + "\n" + str(dict_url) + "\n"
            # for name_other, url_other in dict_url:
            #     # self.get_data()
            #     self.save_data(name_other, url_other)
            print(f"{name}已爬取")
        with open("./00文件夹/url/奥特曼.txt", "w", encoding="utf-8") as f:
            f.write(url_text)


if __name__ == '__main__':
    spider = Spider()
    spider.run()

说明

目前爬取到全部的奥特曼uml,就差最后一步抓包,也可以直接点击观看,找不到视频的包,等我找到及时更新。
在这里插入图片描述

  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2021-09-27 14:02:00  更:2021-09-27 14:02:08 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 15:39:36-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码