IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Python知识库 -> python爬虫基础使用urllib -> 正文阅读

[Python知识库]python爬虫基础使用urllib

# urllib基础操作
# 爬虫基础-Urllib发送请求

import urllib.request
import urllib.parse

# 目标网址(一个竞赛网址)
url = 'https://www.datafountain.cn/competitions'


# 通过request配置请求参数
'''
urllib. request. Request ( url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)
data 字节流格式,若是字典格式,先用urllib.parse.urlencode()转换
headers 请求头
origin_req_host 请求放的host名称或ip地址
method 请求方法
'''
headers = {
    'User-Agent':'xxxxx'
}
req = urllib.request.Request(url,headers=headers)


# 发送请求,返回整个网页源码
'''
urllib . request . urlopen(url, data=None, [timeout]*, cafile=None, capath=None, cadefault=False, context=None )
data 以表单的形式提交,需要将data参数转为bytes格式
timeout 设置响应时间
response = urllib.request.urlopen(url,data=data)
'''
response = urllib.request.urlopen(req,timeout=1)


# 获取响应
# 获取响应状态码
if response.status == 200:
    # 读取整个网页
    print(response.read().decode('utf-8'))
    # 获取响应头信息
    print(response.getheaders())

高级操作
需要用到处理器的集合工具Handler,request中的BaseHandler是其它Handler的父类。Handler常用处理器类有:

  • HTTPDefaultErrorHandler :用于处理响应错误,错误都会抛出HTTPError 类型的异常
  • HTTPRedirectHandler :用于处理重定向
  • HTTPCookieProcessor: 用于处理cookies
  • ProxyHandler :用于设置代理默认为空
  • HTTPPasswordMgr :用于管理密码,它维护了用户名和密码的表
  • HTTPBasicAuthHandler: 用于管理认证,如果一个链接打开时需要认证,那么可以用它来解决认证问题

简单身份验证

from urllib.request import HTTPPasswordMgrWithDefaultRealm,build_opener,HTTPBasicAuthHandler
from urllib.error import URLError
# 如果打开一个界面需要身份验证,则可以用此方法解决,但不同于模拟登陆

# 目标网址
url = 'change'

# 身份信息
username = 'xxxxxx'
password = 'xxxxxx'

# 构造管理器
p = HTTPPasswordMgrWithDefaultRealm()
p.add_password(None,url,username,password)
auth_handler = HTTPBasicAuthHandler(p)
opener = build_opener(auth_handler)

try:
    # 发送请求,接受响应
    result = opener.open(url)
    html = result.read().decode('utf-8')
    print(html)
except URLError as e:
    print(e.reason)

简单代理

from urllib.error import URLError
from urllib.request import ProxyHandler,build_opener

# 目标网址
url = 'https://www.baidu.com'

# 构建代理池
proxy_Handler = ProxyHandler({
    'http' : 'http://127.0.0.1:9743 ',
    'https' : 'https://127.0.0.1:9743 '
})

# 构建opener
opener = build_opener(proxy_Handler)

try:
    response = opener.open(url)
    if response.status == 200:
        print(response.read().decode('utf-8'))
    else:
        print('ByeBye')
except URLError as e:
    print(e.reason)

# [WinError 10061] 由于目标计算机积极拒绝,无法连接。

简单保存cookies

from urllib.request import HTTPCookieProcessor,build_opener
from http import cookiejar

'''
cookiejar是cookie类的的一个管理类,可以获取,添加,存储等等操作
'''

# 目标网址
url = 'https://www.baidu.com'

# 构建cookiejar类作为HTTPCookieProcessor的参数
cookies = cookiejar.CookieJar()
handler = HTTPCookieProcessor(cookies)
opener = build_opener(handler)

# 响应
opener.open(url)
for item in cookies:
    print(item.name + ":" + item.value)

# 保存到txt文件
cookies_save = cookiejar.MozillaCookieJar("cookies.txt")
handler_save = HTTPCookieProcessor(cookies_save)
opener_save = build_opener(handler_save)
opener_save.open(url)
cookies_save.save(ignore_discard=True , ignore_expires=True)
'''
ignore_discard:是否保存需要被抛弃的cookie
ignore_expires:是否保存过期的cookie
'''

解析链接:urllib.parse

# 简单解析url
from urllib.parse import urlparse

'''
urllib.parse.urlparse(urlstring, scheme=”", allow_fragments=True)
所有url都符合同一规则’scheme://netloc/path ;params?query#fragment‘
scheme : 如果url没有指明scheme则使用默认协议
allow_fragments : 是否忽略fragment
'''

# urlparse
url = 'http://www.baidu.com/index.html;user?id=5#comment'
result = urlparse(url)
print(result)

# urlunparse(长度必须是6位)
from urllib.parse import urlunparse
data = ['http','www.baidu.com','/index.html','user','id=5','comment']
print(urlunparse(data))

# urlsplit(会将path与params合并)
from urllib.parse import urlsplit
res = urlsplit(url)
print(res)

# urlunsplit(长度是5位)
from urllib.parse import urlunsplit
mark = ['http','www.baidu.com','/index.html;user','id=5','comment']
print(urlunsplit(mark))

# 另一种解析大方式:urljoin
'''
urljoin(base_url,new_url)
urljoin会分析base_url的scheme,netloc,path。如果base的前三项在new中不存在则new作为base的补充
如果存在,就用new代替base
'''

#urlencode()
'''
将字典化为字符串,例:
params = { 
    ’name':'germey', 
    age : 22
}
urlencode(params) = 'name=germey&age=22'
'''

# parse_qs()
'''
反序列化
将字符串转为字典
'''

# quote()
'''
避免中文出现乱码现象
将中文字转化为url编码
'''

# unquote()
'''
将url编码转为中文
'''

Robots 协议
机器人协议,规定哪些页面可以爬,哪些不行。

# 简单的判断页面能否爬
from urllib.robotparser import RobotFileParser

#构建机器人解析对象
rp = RobotFileParser()
print(rp.can_fetch(url + '/robot.txt'))
  Python知识库 最新文章
Python中String模块
【Python】 14-CVS文件操作
python的panda库读写文件
使用Nordic的nrf52840实现蓝牙DFU过程
【Python学习记录】numpy数组用法整理
Python学习笔记
python字符串和列表
python如何从txt文件中解析出有效的数据
Python编程从入门到实践自学/3.1-3.2
python变量
上一篇文章      下一篇文章      查看所有文章
加:2021-12-28 22:52:51  更:2021-12-28 22:54:55 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/16 3:38:45-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码