一、存储对象信息
RedisTemplate封装操作Redis缓存的基本API,大部分Redis操作都是通过RedisTemplate完成的。
代码
POM文件依赖
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<!--通用spring boot mapper-->
<dependency>
<groupId>tk.mybatis</groupId>
<artifactId>mapper-spring-boot-starter</artifactId>
<version>2.0.3</version>
</dependency>
<!--mysql驱动-->
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
</dependency>
<!--swagger-->
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger2</artifactId>
<version>2.9.2</version>
</dependency>
<!--swagger-ui-->
<dependency>
<groupId>io.springfox</groupId>
<artifactId>springfox-swagger-ui</artifactId>
<version>2.9.2</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-redis</artifactId>
<version>1.4.7.RELEASE</version>
</dependency>
</dependencies>
配置文件
mybatis.mapper-locations=classpath*:com/agan/redis/mapper/xml/*.xml
spring.datasource.driverClassName=com.mysql.jdbc.Driver
spring.datasource.url=jdbc:mysql://127.0.0.1:3306/boot_user?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
spring.datasource.username=root
spring.datasource.password=agan
logging.level.com.agan=debug
spring.swagger2.enabled=true
spring.redis.database=0
spring.redis.host=127.0.0.1
spring.redis.port=6379
spring.redis.password=
Controller层:
@Api(description = "用户接口")
@RestController
@RequestMapping("/user")
public class UserController {
@Autowired
private UserService userService;
@ApiOperation("数据库初始化100条数据")
@RequestMapping(value = "/init", method = RequestMethod.GET)
public void init() {
for (int i = 0; i < 100; i++) {
Random rand = new Random();
User user = new User();
String temp = "un" + i;
user.setUsername(temp);
user.setPassword(temp);
int n = rand.nextInt(2);
user.setSex((byte) n);
userService.createUser(user);
}
}
@ApiOperation("单个用户查询,按userid查用户信息")
@RequestMapping(value = "/findById/{id}", method = RequestMethod.GET)
public UserVO findById(@PathVariable int id) {
User user = this.userService.findUserById(id);
UserVO userVO = new UserVO();
BeanUtils.copyProperties(user, userVO);
return userVO;
}
@ApiOperation("修改某条数据")
@PostMapping(value = "/updateUser")
public void updateUser(@RequestBody UserVO obj) {
User user = new User();
BeanUtils.copyProperties(obj, user);
userService.updateUser(user);
}
}
Service层
@Service
public class UserService {
private static final Logger LOGGER = LoggerFactory.getLogger(UserService.class);
public static final String CACHE_KEY_USER = "user:";
@Autowired
private UserMapper userMapper;
@Autowired
private RedisTemplate redisTemplate;
public void createUser(User obj){
this.userMapper.insertSelective(obj);
String key=CACHE_KEY_USER+obj.getId();
obj=this.userMapper.selectByPrimaryKey(obj.getId());
redisTemplate.opsForValue().set(key,obj);
}
public void updateUser(User obj){
this.userMapper.updateByPrimaryKeySelective(obj);
String key=CACHE_KEY_USER+obj.getId();
obj=this.userMapper.selectByPrimaryKey(obj.getId());
redisTemplate.opsForValue().set(key,obj);
}
public User findUserById(Integer userid){
ValueOperations<String, User> operations = redisTemplate.opsForValue();
String key=CACHE_KEY_USER+userid;
User user=operations.get(key);
if(user==null){
user=this.userMapper.selectByPrimaryKey(userid);
operations.set(key,user);
}
return user;
}
}
步骤体验效果: 用http://127.0.0.1:9090/swagger-ui.html# 体验 问题1:进redis的数据必须序列化Serializable
问题2:如果连接不了redis
vi redis.conf
bind 0.0.0.0
重写Redis序列
默认情况下,Redis序列化使用的JDK序列化方式JdkSerializationRedisSerializer,这就会导致产生两个问题:
- 被序列化的对象必须实现Serializable接口;
@Table(name = "users")
public class User implements Serializable {...}
- 被序列化会出现乱码,导致value值可读性差
127.0.0.1:6379> keys *
1) "\xac\xed\x00\x05t\x00\auser:62"
2) "\xac\xed\x00\x05t\x00\auser:65"
3) "\xac\xed\x00\x05t\x00\auser:50"
4) "\xac\xed\x00\x05t\x00\auser:36"
5) "\xac\xed\x00\x05t\x00\x06user:6"
6) "\xac\xed\x00\x05t\x00\auser:17"
7) "\xac\xed\x00\x05t\x00\auser:28"
127.0.0.1:6379> get "\xac\xed\x00\x05t\x00\auser:62"
"\xac\xed\x00\x05sr\x00\x1acom.agan.redis.entity.User?\xebU\xa1\xe2\xa6\xfe\xe3\x02\x00\aL\x00\ncreateTimet
\x00\x10Ljava/util/Date;L\x00\adeletedt\x00\x10Ljava/lang/Byte;L\x00\x02idt\x00\x13Ljava/lang/Integer;L\x00
\bpasswordt\x00\x12Ljava/lang/String;L\x00\x03sexq\x00~\x00\x02L\x00\nupdateTimeq\x00~\x00\x01L\x00\buser
nameq\x00~\x00\x04xpsr\x00\x0ejava.util.Datehj\x81\x01KYt\x19\x03\x00\x00xpw\b\x00\x00\x01o+5\x1d\xf8xsr
\x00\x0ejava.lang.Byte\x9cN`\x84\xeeP\xf5\x1c\x02\x00\x01B\x00\x05valuexr\x00\x10java.lang.Number\x86\xac
\x95\x1d\x0b\x94\xe0\x8b\x02\x00\x00xp\x00sr\x00\x11java.lang.Integer\x12\xe2\xa0\xa4\xf7\x81\x878\x02\x00
\x01I\x00\x05valuexq\x00~\x00\t\x00\x00\x00>t\x00\x04un59q\x00~\x00\nsq\x00~\x00\x06w\b\x00\x00\x01o+5\x1d
\xf8xt\x00\x04un59"
获取的值都是乱码。
解决方式
@Configuration
public class RedisConfiguration {
@Bean
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory redisConnectionFactory) {
RedisTemplate<String, Object> redisTemplate = new RedisTemplate<>();
redisTemplate.setConnectionFactory(redisConnectionFactory);
GenericJackson2JsonRedisSerializer jackson2JsonRedisSerializer = new GenericJackson2JsonRedisSerializer();
redisTemplate.setValueSerializer(jackson2JsonRedisSerializer);
redisTemplate.setKeySerializer(new StringRedisSerializer());
redisTemplate.setHashKeySerializer(new StringRedisSerializer());
redisTemplate.setHashValueSerializer(jackson2JsonRedisSerializer);
redisTemplate.afterPropertiesSet();
return redisTemplate;
}
}
测试:
1. 先把user的序列化删除
2. 创建类RedisConfiguration
3. flushdb 清空redis的旧数据,因为改了序列化,老数据以及不能兼容了,必须清空旧数据
4. 往redis 初始化100条数据
5. 用 keys * 命令查看所有key
127.0.0.1:6379> keys *
- “user:187”
- “user:117”
- “user:170”
- “user:139”
- “user:157”
127.0.0.1:6379> get user:187 “{”@class":“com.agan.redis.entity.User”,“id”:187,“username”:“un84”,“password”:“un84”, “sex”:0,“deleted”:0,“updateTime”:[“java.util.Date”,1576983528000], “createTime”:[“java.util.Date”,1576983528000]}"
### 总结
1. 对于Redis的存储对象信息,其实就是 redisTemplate.opsForValue().set(key,value)就可以解决
2. 对于Redis,DB操作顺序问题,一般都是先操作DB,再操作Redis,尽可能避免产生脏数据。
3. 如果先更新Redis,再更新DB,如果更新DB失败,那么Redis数据就是脏数据。
4. 由于Redis使用了JDK序列化方式,对象需要实现序列化接口,Redis存储的值有乱码问题,可读性差,所以需要设置Redis key,value的序列化方式。
# SpringCache
- SpringCache 他是对使用缓存进行封装和抽象,通过在方法上使用annotation注解就能拿到缓存结果;
- 用了Annotation解决了业务代码和缓存代码的耦合度问题,即在不侵入业务代码的基础上让现有代码支持缓存;
- 开发人员无感知使用了缓存
- 特别注意:(注意:对于redis的缓存,springcache只支持String,其他的Hash 、List、set、ZSet都不支持,要特别注意)
## 代码
POM依赖
```java
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<!--spring cache-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-cache</artifactId>
</dependency>
<!--spring cache连接池依赖包-->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
<version>2.6.2</version>
</dependency>
配置文件
## Redis 配置
# Redis数据库索引(默认为0)
spring.redis.database=0
# Redis服务器地址
spring.redis.host=127.0.0.1
# Redis服务器连接端口
spring.redis.port=6379
# Redis服务器连接密码(默认为空)
spring.redis.password=
# 连接池最大连接数(使用负值表示没有限制)
spring.redis.lettuce.pool.max-active=8
# 连接池最大阻塞等待时间
spring.redis.lettuce.pool.max-wait=-1ms
# 连接池中的最大空闲连接
spring.redis.lettuce.pool.max-idle=8
# 连接池中的最小空闲连接
spring.redis.lettuce.pool.min-idle=0
# 连接超时时间(毫秒)
spring.redis.timeout=5000ms
开启缓存配置,设置序列化
@Configuration
@EnableCaching
public class RedisConfig {
@Primary
@Bean
public CacheManager cacheManager(RedisConnectionFactory redisConnectionFactory){
RedisCacheConfiguration redisCacheConfiguration = RedisCacheConfiguration.defaultCacheConfig();
redisCacheConfiguration = redisCacheConfiguration
.entryTtl(Duration.ofMinutes(30L))
.disableCachingNullValues()
.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(keySerializer()))
.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(valueSerializer()));
return RedisCacheManager
.builder(RedisCacheWriter.nonLockingRedisCacheWriter(redisConnectionFactory))
.cacheDefaults(redisCacheConfiguration)
.build();
}
private RedisSerializer<String> keySerializer() {
return new StringRedisSerializer();
}
private RedisSerializer<Object> valueSerializer() {
return new GenericJackson2JsonRedisSerializer();
}
}
逻辑代码:
@Api(description = "用户接口")
@RestController
@RequestMapping("/user")
public class UserController {
@Autowired
private UserService userService;
@ApiOperation("单个用户查询,按userid查用户信息")
@RequestMapping(value = "/findById/{id}", method = RequestMethod.GET)
public UserVO findById(@PathVariable int id) {
User user = this.userService.findUserById(id);
UserVO userVO = new UserVO();
BeanUtils.copyProperties(user, userVO);
return userVO;
}
@ApiOperation("修改某条数据")
@PostMapping(value = "/updateUser")
public void updateUser(@RequestBody UserVO obj) {
User user = new User();
BeanUtils.copyProperties(obj, user);
userService.updateUser(user);
}
@ApiOperation("按id删除用户")
@RequestMapping(value = "/del/{id}", method = RequestMethod.GET)
public void deleteUser(@PathVariable int id) {
this.userService.deleteUser(id);
}
}
Service
@Service
@CacheConfig(cacheNames = { "user" })
public class UserService {
private static final Logger LOGGER = LoggerFactory.getLogger(UserService.class);
@Autowired
private UserMapper userMapper;
@Cacheable(key="#id")
public User findUserById(Integer id){
return this.userMapper.selectByPrimaryKey(id);
}
@CachePut(key = "#obj.id")
public User updateUser(User obj){
this.userMapper.updateByPrimaryKeySelective(obj);
return this.userMapper.selectByPrimaryKey(obj.getId());
}
@CacheEvict(key = "#id")
public void deleteUser(Integer id){
User user=new User();
user.setId(id);
user.setDeleted((byte)1);
this.userMapper.updateByPrimaryKeySelective(user);
}
}
剖析SpringCache常用注解
@CacheConfig
- @CacheConfig是类级别的注解,同意该类的所有缓存都可以作为前缀;
- @CacheConfig(cacheNames={"product}) 代表该类的所有缓存都是 product:: 为前缀;
@Cacheable
- @Cacheable是方法级别的注解,拥有将方法的结果缓存起来;
方法被调用时,先从缓存中读取数据,如果缓存中不存在,再执行方法体,查询到值后,把值放入缓存中;
@Cacheable(key="#id")
public User findUserById(Integer id){
return this.userMapper.selectByPrimaryKey(id);
}
- 一般情况下,@CacheConfig和@Cacheable是搭配使用的。
- 如果传入的值为1000,则key为user::1000;
@CachePut
- @CachePut是方法级别的注解,用于更新缓存;
- 当方法被调用时,先执行方法体,然后springcache通过返回值更新缓存;
@CachePut(key = "#obj.id")
public User updateUser(User obj){
this.userMapper.updateByPrimaryKeySelective(obj);
return this.userMapper.selectByPrimaryKey(obj.getId());
}
@CacheEvict(key = “#id”)
- 是方法级别的注解,用于删除缓存;
- 一般删除缓存涉及到两种操作:一种是更新DB数据后,删除Redis数据,另一种是删除DB数据后,删除Redis数据;
- 当方法被调用时,先执行方法体,通过方法参数删除缓存;
@CacheEvict(key = "#id")
public void deleteUser(Integer id){
User user=new User();
user.setId(id);
user.setDeleted((byte)1);
this.userMapper.updateByPrimaryKeySelective(user);
}
springcache坑
- 对于Redis缓存,只支持String类型,其他类型不支持;
- 对于多表查询数据,SpringCache不支持,只支持单表简单缓存;多表用RedisTemplate;
阅读量操作
像日常操作中,热点新闻阅读量、贴吧帖子阅读量、文章阅读量,只要用户查看了这些东西,其阅读量对应+1,大的并发量,一般不可能采用数据库来做计数器,通常都是用redis的incr命令来实现。
redis incr
用途就是计数器,如果key不存在,那就将key的value值初始化为0,如果存在,则自动加1;
127.0.0.1:6379> incr article:100
(integer) 1
127.0.0.1:6379> incr article:100
(integer) 2
127.0.0.1:6379> incr article:100
(integer) 3
127.0.0.1:6379> incr article:100
(integer) 4
127.0.0.1:6379> get article:100
"4"
技术方案的缺陷: 需要频繁的修改redis,耗费CPU,高并发修改redis会导致 redisCPU 100%
代码实现
@RestController
@Slf4j
public class ViewController {
@Autowired
private StringRedisTemplate stringRedisTemplate;
@GetMapping(value = "/view")
public void view(Integer id) {
String key="article:"+id;
long n=this.stringRedisTemplate.opsForValue().increment(key);
log.info("key={},阅读量为{}",key, n);
}
}
分布式唯一ID
- 对于传统的单库单表,是不需要的,因为只需要自增就行;
- 而架构升级为分布式系统后,集群中一般是存在分库分表操作,存在像Product1、Product2…ProductN张表,每张表都从1自增,显然不合理,在这么多张表中,不能存在ID相同的数据,因此传统的自增ID失去意义。
- 故需要全局唯一的ID来标识每一条数据
分布式唯一ID特点
- 全局唯一性;不能出现重复的ID;
- 趋势递增;防止数据库索引底层数据结构B+树产生高频率的分裂、旋转操作、耗费服务器性能;
- 信息安全;防止恶意用户窥见表数据;
大型分布式系统架构中,全局唯一ID生成器的机器需要实现高可用高QPS,不然整个系统就挂了;
分布式唯一ID的方案
- 分布式雪花算法
- UUID
- 美团Leaf算法
- Redis生成ID算法
- 基于Redis INCR 命令生成 分布式全局唯一id
- Redis 的INCR命令具备了"INCR AND GET"原子操作,即增加并返回结果的原子操作;
- redis的单进程单线程架构,INCR命令不会出现ID重复
代码与思路
技术思路:
- 采用redis的INCR的命令,从1自增生成ID。
- 由于淘宝的商品面向全世界的海量商品,故 必须对其进行分库分表,每张表的id不能用自增,由redis的incr命令来自动生成。
- 淘宝的海量数据,分库分表分为1024张表,例如商品表product_0,product_1,product_2…product_1023
代码: ID生成器代码类:
@Service
public class IdGenerator {
@Autowired
private StringRedisTemplate stringRedisTemplate;
private static final String ID_KEY = "id:generator:product";
public Long incrementId() {
long n=this.stringRedisTemplate.opsForValue().increment(ID_KEY);
return n;
}
}
controller
@RestController
@Slf4j
@RequestMapping(value = "/pruduct")
public class ProductController {
@Autowired
private IdGenerator idGenerator;
@PostMapping(value = "/create")
public void create(Product obj) {
//步骤1:生成分布式id
long id=this.idGenerator.incrementId();
//全局id,代替数据库的自增id
obj.setId(id);
//步骤2:取模,计算表名
//类似于海量的数据,例如淘宝一般是分为1024张表,这里为了演示方便,只分为8张表。
int table=(int)id % 8;
String tablename="product_"+table;
log.info("插入表名{},插入内容{}",tablename,obj);
}
}
Lua脚本
Lua 是一个简洁、轻量、可扩展的脚本语言,它的特性有:
- 轻量:源码包只有核心库,编译后体积很小。
- 高效:由C 编写的,启动快、运行快。
- 内嵌:可内嵌到各种编程语言或系统中运行,提升静态语言的灵活性。
而且完全不需要担心语法问题,Lua 的语法很简单,分分钟使用不成问题。
Redis 为什么要使用LUA
- 原子性:将redis的多个操作合成一个脚本,然后整体执行,在脚本的执行中,不会出现资源竞争的情况。
- 减少网络通信:把多个命令合成一个lua脚本,redis统一执行脚本。
- 复用性:client发送的脚本会永久存储在redis中,这意味着其他客户端可以复用这一脚本来完成同样的逻辑。
lua的语法入门
EVAL script numkeys key [key ...] arg [arg ...]
- script: 参数是一段 Lua脚本程序。脚本不必(也不应该)定义为一个Lua函数。
- numkeys: 用于指定key参数的个数。
- key [key …]: 代表redis的key,从 EVAL 的第三个参数开始算起,表示在脚本中所用到的Redis键(key)。
在Lua中,这些键名参数可以通过全局变量 KEYS 数组,用1为基址的形式访问( KEYS[1] ,KEYS[2],依次类推)。 - arg [arg …]: 代表lua的入参,在Lua中通过全局变量ARGV数组访问,访问的形式和KEYS变量类似( ARGV[1] 、 ARGV[2] ,诸如此类)。
- 特别注意:lua的数组坐标不是从0开始,是从1开始。从1开始!从1开始!从1开始!
127.0.0.1:6379> EVAL "return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}" 2 key1 key2 agan1 agna2
1) "key1"
2) "key2"
3) "agan1"
4) "agna2"
- eval为redis的关键字
- 双引号的内容代表lua脚本
- 2代表numkeys参数的个数,即有多少个key
- key1 和 key2代表 KEYS[1],KEYS[2]的入参
- agan1 agna2 是ARGV[1],ARGV[2]的入参
被优化的代码
@GetMapping(value = "/updateuser")
public void updateUser(Integer uid,String uname) {
String key="user:"+uid;
//优化点:第一次发送redis请求
String old=this.stringRedisTemplate.opsForValue().get(key);
if(StringUtils.isEmpty(old)){
//优化点:第二次发送redis请求
this.stringRedisTemplate.opsForValue().set(key,uname);
return;
}
if(old.equals(uname)){
log.info("{}不用修改", key);
}else{
log.info("{}从{}修改为{}", key,old,uname);
//优化点:第二次发送redis请求
this.stringRedisTemplate.opsForValue().set(key,uname);
}
}
以上代码,看似简单,但是在高并发的情况下,还是有一点性能瓶颈,在性能方面主要是发送了2次redis请求。 那如何优化呢?我们可以采用lua技术,把2次redis请求合成一次。
优化
编写lua文件,并存储于resources/lua/compareAndSet.lua里;
-- 成功设置返回1 没设置返回0
-- 如果redis没找到,就直接写进去
if redis.call('get', KEYS[1]) == nil then
redis.call('set', KEYS[1], ARGV[1]);
return 1
end
-- 如果旧值不等于新值,就把新值设置进去
if redis.call('get', KEYS[1]) ~= ARGV[1] then
redis.call('set', KEYS[1], ARGV[1]);
return 1
else
return 0
end
创建lua脚本对象
@Configuration
public class LuaConfiguration {
@Bean
public DefaultRedisScript<Long> compareAndSetScript() {
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
redisScript.setScriptSource(new ResourceScriptSource(new ClassPathResource("lua/compareAndSet.lua")));
redisScript.setResultType(Long.class);
return redisScript;
}
}
SpringBoot执行lua脚本
@GetMapping(value = "/updateuserlua")
public void updateUserLua(Integer uid,String uname) {
String key="user:"+uid;
List<String> keys = Arrays.asList(key);
Long n = this.stringRedisTemplate.execute(this.compareAndSetScript, keys, uname);
if (n == 0) {
log.info("{}不用修改", key);
} else {
log.info("{}修改为{}", key,uname);
}
}
Redis+lua实现黑客防刷攻击
网站黑客攻击通常就是通过并发死循环来请求接口,通常会请求两类接口;
- 插入数据库接口;后端会产生大量重复数据、撑爆数据库;
- 针对慢查询接口,并发请求导致服务器阻塞,最后造成服务不可用,导致服务雪崩;
防刷攻击技术原理
针对某个接口,采用访问频率控制,当某个ip在短时间内频繁访问接口时,需要记录并识别出来,这种高并发请求,通常都是采用redis+lua来实现。
- 用户调用某个接口时,记录用户的ip地址,并向redis发送一个incr计数器命令;
- 设置计数器的过期时间expire ,30秒;
- 如果30秒内,某个IP请求次数大于指定的值,就认定为异常IP ;
实现
- 编写lua的防刷脚本,并存储于resources/lua
-- 为某个接口的请求ip设置计数器,例如 当ip 127.0.0.1请求商品接口时,key=product:127.0.0.1
local times = redis.call('incr',KEYS[1])
-- 当某个ip第一次请求时,为该ip的key设置超时时间。
if times == 1 then
redis.call('expire',KEYS[1], ARGV[1])
end
-- tonumber就是把某个字符串转换为数字
-- 例如 某个ip 30秒内,请求次数大于10,就返回0,反则 返回1
if times > tonumber(ARGV[2]) then
return 0
end
return 1
Redis-cli执行:
[root@node2 src]# ./redis-cli --eval limit.lua producapi:127.0.0.1 , 30 10
(integer) 0
创建lua脚本对象
@Bean
public DefaultRedisScript<Long> limitScript() {
DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
redisScript.setScriptSource(new ResourceScriptSource(new ClassPathResource("lua/limit.lua")));
redisScript.setResultType(Long.class);
return redisScript;
}
SpringBoot执行lua脚本
@GetMapping(value = "/productlist")
public String productList(HttpServletRequest request) {
String ip = IpUtils.getIpAddr(request);
List<String> keys = Arrays.asList("pruductAPI:" + ip);
Long n = this.stringRedisTemplate.execute(this.limitScript, keys, "30", "10");
String result="";
if (n == 0) {
result= "非法请求";
} else {
result= "返回商品列表";
}
log.info("ip={}请求结果:{}", ip,result);
return result;
}
解决properties中文乱码问题
打开settings->File Encoding->勾选Transparent native-to-ascii conversion
|