分析解决 Shell 脚本重复执行的问题
在开发过程中,经常会使用shell脚本去完成定时备份的任务,普遍的做法是通过系统的定时任务定时执行备份脚本 设想这样一种场景,本次备份时间到了,自动执行备份脚本,如果备份比较耗时的话,会一直持续到下一次备份时间到了还未结束,下次备份又会自动调用备份脚本,相当于同一时间有两个进程在执行备份脚本,这可能会导致备份数据错乱或其他不可预知的问题 更进一步,假如执行备份脚本消耗的时间远大于设置的备份间隔的话,系统会出现多个同时在执行脚本的Bash实例,会占用大量的系统资源,进而影响正常业务程序的运行 那如何解决上述shell脚本重复执行的问题呢,本文将要介绍的 flock 命令可以解决这个问题 简介 flock 是文件锁命令,它可以保证Linux系统上进程之间安全的访问临界资源,在shell脚本中,可以用来控制逻辑的互斥性 实例1 现有脚本 a.sh, 内容如下
在终端(记为终端1)中执行 flock -xn ./f.lock -c ./a.sh 命令,结果如下
在上述命令执行期间,打开另一个终端(记为终端2),执行同样的命令,结果如下
上面的命令 flock -xn ./f.lock -c ./a.sh 中 -x 选项是排他锁,有时候也称为写锁,这是默认选项 -n 选项是非阻塞,如果无法获取锁,立即返回失败,而不是一直等待锁的释放 -c 选项后面是待执行的命令 终端1 中执行 flock -xn ./f.lock -c ./a.sh 命令,对 f.lock 文件加锁,同时执行 ./a.sh 命令,执行过程会持续10秒左右( sleep 10 语句 ) 由于终端2 中 flock -xn ./f.lock -c ./a.sh 命令是在 终端1 命令执行期间执行的,此时终端1 还未释放 f.lock文件锁,再加上 -n选项是非阻塞的,所以终端2 不会阻塞等待 f.lock 文件锁,而是立即返回
终端2 如果执行 flock -x ./f.lock -c ./a.sh 命令,会一直阻塞等待,直到 终端1 释放 f.lock 文件锁,它才会获取到 f.lock 文件锁并开始执 ./a.sh 命令 (编辑:云计算网_泰州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |