线程安全—可见性有序性
volatile
public class VolatileExample {
public static volatile boolean stop = false;
public static void main(String[] args) throws InterruptedException {
Thread t1 = new Thread(() ->{
int i = 0;
while (!stop){
i++;
System.out.println(i);
}
});
t1.start();
System.out.println("begin start thread");
Thread.sleep(1000);
stop=true;
}
}
-
了解可见性本质 CPU资源利用问题
- CPU增加高速缓存
- 操作系统中,增加进程、线程。->通过CPU的时间片的切换,提升CPU利用率。
- 编译器(JVM的深度优化)
-
从cpu层面了解可见性有序性问题 -
JVM模型 -
Happens-Before模型
CPU的高速缓存
缓存行
伪共享问题
多个线程访问缓存行,某一个线程获得锁访问此缓存行时会将其他置为失效;影响性能。(空间换时间概念,每次线程访问都会加载缓存行)
对齐填充(@Contended注解)
解决不断让缓存失效,不断从内存中加载的问题
填充在基础上填充空的,就不会有其他的线程来竞争
缓存一致性问题
CPU层面的指令重排序
CPU层面、JVM层面,优化执行的执行顺序
CPU层面如何导致指令重排序
CPU把数据存入store buffer中,(异步)在同时通知其他CPU此缓存行失效,不影响后续的指令操作,最后操作数据再存入主线程中。不需要等待,直接往下走(内存屏障)
单线程的重排序不影响结果。
将数据加载到storebuffer中,再通过指令将其他cpu中的缓存行失效,但不影响下面的指令操作(直接读取缓存行的数据),指令完成后其他CPU返回的值更新,同步到缓存以及内存中(保持一致);最后再读取缓存行的数据(此时已经同步)
store forwarding/store buffer
内存屏障
CPU层面不知道什么时候不允许优化,什么时候允许优化
解决可见性问题(全屏障,读屏障、写屏障)
- 读屏障(lfence)load
- 写屏障(sfence)save
- 全屏障(mfence)mix
linux:
smp_rmb-写屏障方法
smp_wmb-读屏障方法
smp_mb-读写屏障
Lock
在不同的CPU框架中,实现内存屏障的指令不同
- Lock
- StroeBuffrer
- LoadBuffer
volatile:解决多线程下的可见性问题,用到了内存屏障,用到了缓存锁
|