什么是分布式锁
通过互斥性质,来保证线程对分布式系统中共享资源的有序访问 说人话:一把锁,挨个进
分布式锁的特性
-
互斥(线程独享):即同一时刻只有一个线程能够获取锁 -
避免死锁:获得锁的线程崩溃后,不会影响后续线程获取锁,操作共享资源 -
隔离性:A获取的锁,不能让B去解锁(解铃还须系铃人) -
原子性:加锁和解锁必须保证为原子操作
文章相关视频
C++后台开发架构师学习视频
Redis实现分布式锁以及数据库锁
必备技能—锁;原子操作 CAS
分布式锁的实现方式
-
基于Redis 演变过程:
V-1.0:
-
SETNX:Redis提供了SETNE(SET if Not eXists)命令,表示当Key不存在时,才能设置Value,否则设置失败(获取锁失败) -
DEL KEY:第一步获取锁成功,对共享资源操作完后,释放锁
?问题:如果业务代码出现异常,阻塞或者报错了,那么该线程就一直持有锁,不释放,其他线程也永远获取不到————我王霸天得不到的谁也别想得到!
V-2.0:
问题:仍旧会死锁!SETNX和EXPIRE是两条命令,Redis单命令是原子操作,但多条命令为非原子操作!SETNX执行成功,EXPIRE失败时就会发生死锁 v-3.0:
如此,可以说是彻底解决了死锁问题!
那么还问存在其他问题吗?
分析分布式锁的特征:互斥、死锁、原子等特性,我们都算是解决了!
但还未考虑隔离性的问题!
场景
-
线程A加锁成功后,去操作共享资源 -
但是因为发生了意外,线程A操作的时间超过了锁过期时间,锁被释放了 -
线程B进来了,枷锁成功,去操作共享资源了 -
此时,线程A操作完成了,回来释放锁,线程B的锁被A释放(动了别人的老婆!)
隔离性带来的问题:
-
锁的过期时间设置不合理,导致线程A锁过期,被释放 -
线程A释放了线程B的锁
分析:
-
线程A的过期时间设置不合理,那就换一个合理的时间————对应到现实工作中,就是根据程序员的工作经验,对改值进行较为合理的设置,实在不行,杀了祭天!(不是很可靠) -
其实很简单,锁过期就像去麦当劳喝咖啡喝完了呗,还想喝怎么办?续杯!————获取锁时,先设置一个过期时间,同时,开启一个守护线程,定时去查看锁的剩余存活时间,假如锁的存活时间快过期了,但业务代码还没执行完,赶紧去给大爷续杯,即重新设置过期时间(看门狗) -
至于第二个问题,还是那句老话————解铃还须系铃人,加一个业务唯一标识,每个线程只能根据业务唯一去释放自己的锁,同时,需要注意:判断是否为自己的锁和删除锁应为原子操作!不然仍旧会删错锁!
实现
private long lockWatchdogTimeout = 30 * 1000;
public RedissonLock(CommandAsyncExecutor commandExecutor, String name) {
super(commandExecutor, name);
this.commandExecutor = commandExecutor;
//会获取看门狗设置的时间,默认为10s检查一次,锁过快过期,且业务代码还没执行完,就会给锁续上这个时间,默认30s
this.internalLockLeaseTime = commandExecutor.getConnectionManager().getCfg().getLockWatchdogTimeout();
this.pubSub = commandExecutor.getConnectionManager().getSubscribeService().getLockPubSub();
}
private RFuture<Boolean> tryAcquireOnceAsync(long waitTime, long leaseTime, TimeUnit unit, long threadId) {
//如果锁是永不过期,那么就按常规方式索取锁
if (leaseTime != -1) {
return tryLockInnerAsync(waitTime, leaseTime, unit, threadId, RedisCommands.EVAL_NULL_BOOLEAN);
}
//否则,会在获取锁之后,加一个定时任务,在锁执行完业务代码自行释放之前,不断的给所续上过期时间(默认10s检查一次,每次给锁续期30s)
RFuture<Boolean> ttlRemainingFuture = tryLockInnerAsync(waitTime, internalLockLeaseTime,TimeUnit.MILLISECONDS, threadId, RedisCommands.EVAL_NULL_BOOLEAN);
ttlRemainingFuture.onComplete((ttlRemaining, e) -> {
if (e != null) {
return;
}
// lock acquired
if (ttlRemaining) {
scheduleExpirationRenewal(threadId);
}
});
return ttlRemainingFuture;
}
实现具体细节,参见Redission源码
考虑到获取锁判断后,再删除锁,这两个操作必须是原子性的,那么就需要查看一下Redis的API有没有提供这两个操作的原子性操作了 结果发现,没有!那么叫考虑第二种方案,在Redis中除了单条命令是原子性的,还有执行Lua脚本也是原子性操作!
//如果是自己的锁,则进行删除,否则返回
if redis.call("GET",KEY[1]) == ARGV[1] then
return redis.call("DEL",KEY[1])
else
return 0
end
总览
?现在C++程序员面临的竞争压力越来越大。那么,作为一名C++程序员,怎样努力才能快速成长为一名高级的程序员或者架构师,或者说一名优秀的高级工程师或架构师应该有怎样的技术知识体系,这不仅是一个刚刚踏入职场的初级程序员,也是工作三五年之后开始迷茫的老程序员,都必须要面对和想明白的问题。为了帮助大家少走弯路,技术要做到知其然还要知其所以然。以下视频获取点击:C++架构师学习资料
如果想学习C++工程化、高性能及分布式、深入浅出。性能调优、TCP,协程,Nginx源码分析Nginx,ZeroMQ,MySQL,Redis,MongoDB,ZK,Linux内核,P2P,K8S,Docker,TCP/IP,协程,DPDK的朋友可以看一下这个学习地址:C/C++Linux服务器开发高级架构师/Linux后台架构师https://ke.qq.com/course/417774?flowToken=1013189
小总结
经过了这几波优化之后,基于Redis的分布式锁(Redis单实例),可算是安全放心大胆的使用了!悄悄的告诉你,其实我们这些优化过程Redis作者早就想到了,同时,他也提供了较为完善的解决方案,在工作中Redission可以实现以上所有!
作为技术宅男,要有极客精神(其实就是闲了无聊),有心的人,可能会发现,以上粉色标粗的Redis单实例字样,确实!以上分析的分布式锁适合单节点的Redis实例,如果遇到主从+哨兵的模式基本凉凉!
凉凉场景:
-
线程A在遇到主从架构时,先在Master上加锁成功 -
此时,还未等加锁命令SET同步到Slave上,Master就出现问题,宕机了! -
通过哨兵过半原则,重新选出新的主节点,那么此时这把锁在新的主库上是找不到的!出现新问题了!
为之奈何?
遇到这种情况是不是就完了!芭比Q了!准备提桶跑路了!
亲妈解法!
?如果一遇到这种问题,就要程序员提桶跑路,那么Redis的作者恐怕在大佬圈是混不下去了!于是,他苦心钻研,誓死捍卫Redis尊严!于是乎它就出世了!————RedLock
要求:
1. 主节点至少5个实例多主部署 2. 不再需要从节点和哨兵
原理:
1. 加锁线程带着Expire时间进入,在加锁前记录一个开始加锁时间T1 2. 轮流用相同的key和value在不同的节点上进行加锁操作,并且必须保证大多数(N/2+1)节点加锁成功,才算成功 3. 最少(N/2+1)个节点加锁成功后,记录当前时间T2 4. 如果T2-T1 < Expire,则加锁成功,反之失败 5. 释放锁时,要向所有节点(不管是否在该节点加锁成功)发送解锁请求! 6. 此时,锁的Key真正有效时间为:Expire - (T2-T1) 7. 部署的节点数最好是奇数,以更好的满足过半原则
疑问:
-
为什么是N/2+1个节点加锁? -
加锁成功后,计算加锁耗时的意义? -
为什么释放锁时,要给所有节点(包括没有加锁成功的节点)发送解锁请求?
分析:
-
N/2+1公式为过半原则,这里的本质时为了容错,CAP中的P说到,当分布式系统中,如果存在部分故障节点,但大多数节点仍旧正常时,可以认为整个系统仍旧可用 -
假如T2-T1 > Expire 就意味着一定会存在,最早加锁的节点过期自动解锁的情况,那么此时的加锁节点计数就不再正确!那么此次加锁就毫无意义了!(T2-T1为加锁时间,Expire为过期时间) -
假设某节点加锁成功了,但是后续因为其他原因(网络)导致无法从该节点上获取响应结果,而被判断为未成功加锁,如果只给加锁成功的节点发起解锁请求,那么此时该节点是收不到解锁请求的,就会一直持有,影响后续无法使用
理性看待
其实,Redis作者研究出来的RedLock,在一些极端的情况下是存在风险的,比如:
-
N节点的时钟存在较大偏差时,T2-T1 < Expire的讨论就是毫无意义的,依然存在琐失效的问题,想要解决这个问题,就得需要人工的去维护N节点之间的时钟趋于一致 -
RedLock仍旧解决不了获得锁的线程客户端发生长时间GC,导致锁过期,如果再出现第二个线程仍旧可以获取锁,此时,就会出现同一时刻两个线程对共享资源同时获得锁的矛盾情况,严重违反分布式锁特性中的互斥性 -
因为RedLock无法提供类似fencing token的设计方案,从而推导出RedLock无法保证分布式的正确性
-
基于Zookeeper
-
加锁时,所有线程均在相同的目录下创建一个文件,谁先创建成功,就代表获得锁,否则就代表失败,只能等待下次 -
当获取得锁的线程操作完业务代码后,会将该文件删除,同时通知其余客户端再次进入竞争 -
在一个路径下只能创建一个唯一的文件(文件名唯一),但容易引起“惊群”效应
-
所有线程刚开始都会在ZK中创建自己的临时节点,由ZK去保证这些节点的顺序 -
加锁时,线程会判断ZK下的第一个节点是不是自己创建的,如果是,则加锁成功,如果不是,加锁失败,同时,给自己的上一个节点加一个****节点监听器 -
当节点监听器被通知上一个节点被删除时,当前节点会重新判断ZK下第一个节点是否是自己创建的,循环2的判断操作 -
用完锁后,每个线程只能删除自己创建的临时节点
-
二者对比
|