IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 系统运维 -> Linux shell实现多进程(进程池) -> 正文阅读

[系统运维]Linux shell实现多进程(进程池)

Linux shell实现多进程(进程池)

最近有个需求是要根据一个给定的 img.txt 文本批量下载一批文件,文本中每一行都是一个文件下载链接,样式如下:
img.txt

http://www.test.com/download/a.zip
http://www.test.com/download/b.zip
http://www.test.com/download/c.zip
...

根据需求最开始我打算写个脚本直接for循环+wget下载,脚本如下:
版本 1 (串行执行)

#!/bin/bash

for url in $(cat img.txt); do
	echo "download: ${url}"
    wget ${url}
done
echo "you have download all files"

实际下载时我发现这样做效率太低,因为for循环是单进程串行执行的,同一时间只能下载一个文件,如果这些下载地址中出现一个特别大的文件,那么后面所有的文件都要等待这个特别大的文件下载完成之后才能下载,耗时太久,怎么使用多进程同时下载这些文件呢

主要参考了这位博主:

https://blog.csdn.net/helimin12345/article/details/107592084

如果将一堆语句用{}括起来,在末尾加一个 &,那么shell就会启动一个子进程去执行{}里面的内容,而 wait 命令可以阻塞当前线程,等待这些子进程全部执行完之后再执行剩下的语句,于是改进脚本如下:
版本 2 (并行执行)

#!/bin/bash

for url in $(cat img.txt); do
	# 这里的 & 会开启一个子进程执行
	{
		echo "download: ${url}"
	    wget ${url}
    } &
done
# 使用 wait 命令阻塞当前进程,直到所有子进程全部执行完
wait
echo "you have download all files"

改进后的脚本其实有问题,for循环每一次都会开启一个子进程,如果下载链接特别多的话,会同时启动大量的进程,消耗服务器大量资源。并且服务器CPU数量是有限的,进程太多,CPU在进程间的切换也会非常耗费时间,效率反而降低。一般来说,进程数量和逻辑CPU数量相等时效率较高,要怎么准确控制进程的数量呢

实现多进程一个比较好的方式是使用队列,可以使用rabbitmq,kafka,redis等消息队列中间件,不过为了写个脚本还要部署一套中间件特别麻烦。linux中自带就有一个mkfifo 命令可以创建出一个管道,如果往管道中写入数据,进程会被阻塞,直到有另一个进程从管道中读取数据,同样的如果从管道中读取数据而管道中没有数据时,进程也会被阻塞,直到有另一个进程向管道中写入数据。根据这个特点可以用来实现生产者消费者模型,但是实测会丢失数据,具体原因未知:
在这里插入图片描述
另起一个窗口从管道中读取数据
在这里插入图片描述
直接使用mkfifo创建的管道出现数据丢失,但如果使用 exec 命令给管道绑定文件描述符,再使用管道就不会出现数据丢失了
这里要注意0,1,2,255这四个文件描述符已经被操作系统用了,我这里用了4
在这里插入图片描述
实测另起一个窗口从管道中读取数据不会丢失,可以看出管道是先进先出的队列
在这里插入图片描述
补充一下:可以通过命令 ls -lh /proc/$$/fd 查看系统文件描述符
在这里插入图片描述
新建一个管道,添加文件描述符,向管道中事先写入几条数据,然后每开启一个子进程就读取1条数据,子进程结束前再向管道中补充1条数据,通过这种方式可以做到控制进程数量,脚本改进如下:
版本 3 (控制进程数量)

#!/bin/bash

# 创建一个管道
mkfifo mylist
# 给管道绑定文件描述符4
exec 4<>mylist
# 事先往管道中写入5条数据(我这里是5个回车符),要开启几个子进程就写入多少条数据
for ((i=0; i < 5; i++)); do
    echo >mylist
done

for url in $(cat img.txt); do
    # 创建子进程前先从管道中读取一条数据,当循环5次读取了5条数据后管道空了,主进程就会被阻塞
    # 一直等到管道中又有新数据了主进程才被唤醒继续执行
    read <mylist

    # 这里的 & 会开启一个子进程执行
    {
        echo "download: ${url}"
        wget ${url}
        # 子进程结束前往管道中补充1条数据(我这里是补充1个回车符)
        # 被阻塞的主进程才能读取到数据继续执行,这样就保持子进程数量始终最多5个
        echo >mylist
    } &
done
# 使用 wait 命令阻塞当前进程,直到所有子进程全部执行完
wait
echo "you have download all files"

# 全部结束后解绑文件描述符并删除管道
exec 4<&-
exec 4>&-
rm -f mylist

脚本写到这里功能就已经达到了,子进程数量被控制了。但仔细分析一下以上的代码其实已经可以实现生产者消费者模型了,为什么不直接使用管道在进程间传递数据呢?我的想法是把所有下载链接全部写入到管道,然后开启指定个数的子进程,每个子进程内部都不断从管道中读取数据,直到管道为空读取不到数据了再关闭子进程,原理如下:

在这里插入图片描述

根据以上原理我将脚本改进如下:

版本 4 (生产者消费者模型)

#!/bin/bash

# 创建一个管道
mkfifo mylist
# 给管道绑定文件描述符4
exec 4<>mylist

# 开启5个子进程
for ((i=0; i < 5; i++)); do
    # 这里的 & 会开启一个子进程执行
    {
        # 子进程内部不断从管道中读取数据,每读取到一行就开始下载
        # read -t 1 指定超时时间,如果1s后还没有获取到数据则非0退出
        while read -t 1 url <mylist; do
            echo "download: ${url}"
            wget ${url}
        done
    } &
done
# 将img.txt中的链接全部插入到管道中
for url in $(cat img.txt); do
    echo ${url} >mylist
done
# 使用 wait 命令阻塞当前进程,直到所有子进程全部执行完
wait
echo "you have download all files"

# 全部结束后解绑文件描述符并删除管道
exec 4<&-
exec 4>&-
rm -f mylist

这里要注意的是必须先开启子进程,然后再将数据写入到管道。因为管道是有长度的,如果先将数据写入到管道,再开启子进程,如果数据量很大超过了管道长度,那么主进程会被一直阻塞,根本执行不到后面开启子进程。如果先开启子进程,再向管道文件中写入数据,数据一写入管道马上就被子进程读取消费,不会出现主进程被阻塞执行不了的问题。通过这样改进后子进程一直都是固定的,理论上效率会提高一点。但是实际测试发现有线程安全问题,多个子进程从同一个管道中读取数据时,可能会读取到同一份数据。解决该问题必须在子进程读取管道时加锁。可以通过再引入一个管道实现加锁解锁,最终脚本如下:

版本5 (解决线程安全问题)

#!/bin/bash

# 创建一个管道
mkfifo mylist
# 给管道绑定文件描述符4
exec 4<>mylist
# 再创建一个管道(锁文件),用于解决线程安全问题
mkfifo mylock
# 绑定文件描述符5
exec 5<>mylock

# 事先向锁文件中插入1条数据(解锁)
echo >mylock

# 开启5个子进程
for ((i=0; i < 5; i++)); do
    # 这里的 & 会开启一个子进程执行
    {
        # 先读取锁文件(加锁),由于锁文件中只有1条数据,读取完之后锁文件空了其他子进程再读取时只能等待
        while read -t 1 < mylock && read -t 1 url <mylist; do
            # 读取到业务数据后立即向写入1条数据到锁文件(解锁),让其他子进程继续读取数据
            echo >mylock

            echo "download: ${url}"
            wget ${url}
        done
    } &
done
# 将img.txt中的链接全部插入到管道中
for url in $(cat img.txt); do
    echo ${url} >mylist
done
# 使用 wait 命令阻塞当前进程,直到所有子进程全部执行完
wait
echo "you have download all files"

# 全部结束后解绑文件描述符并删除管道
exec 4<&-
exec 4>&-
rm -f mylist
exec 5<&-
exec 5>&-
rm -f mylock

完结,如果有更好的想法欢迎留言讨论

  系统运维 最新文章
配置小型公司网络WLAN基本业务(AC通过三层
如何在交付运维过程中建立风险底线意识,提
快速传输大文件,怎么通过网络传大文件给对
从游戏服务端角度分析移动同步(状态同步)
MySQL使用MyCat实现分库分表
如何用DWDM射频光纤技术实现200公里外的站点
国内顺畅下载k8s.gcr.io的镜像
自动化测试appium
ctfshow ssrf
Linux操作系统学习之实用指令(Centos7/8均
上一篇文章      下一篇文章      查看所有文章
加:2021-11-12 19:59:45  更:2021-11-12 19:59:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/15 23:49:40-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码