第1章 NoSQL
1.1 NoSQL数据库
1.1.1 NoSQL是什么
- NoSQL(Not Only SQL ),意即“不仅仅是SQL”,泛指非关系型的数据库。
- NoSQL不拘泥于关系型数据库的设计范式,放弃了通用的技术标准,为某一领域特定场景而设计,从而使性能、容量、扩展性都达到了一定程度的突破。
解决CPU及内存压力
解决IO压力
1.1.2 NoSQL的特点
NoSQL 不依赖业务逻辑方式存储,而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。
- 不遵循SQL标准
- 不支持ACID[原子性(atomicity,或称不可分割性)、一致性(consistency)、隔离性(isolation,又称独立性)、持久性(durability)]
- 远超于SQL的性能。(高并发)
1.1.3 NoSQL的适用场景
- 对数据高并发的读写
- 海量数据的读写
- 对数据高可扩展性的
1.1.4 NoSQL的不适用场景
- 需要事务支持
- 基于sql的结构化查询存储,处理复杂的关系,需要即席查询。
- 用不着sql的和用了sql也不行的情况,请考虑用NoSql
1.2 NoSQL家族
- Memcached(很少用)
- 很早出现的NoSQL数据库
- 数据都在内存中,一般不持久化
- 支持简单的key-value模式,数据类型支持单一
- 一般是作为缓存数据库辅助持久化的数据库
- Redis
- 几乎覆盖了Memcached的绝大部分功能
- 数据都在内存中,支持持久化,主要用作备份恢复
- 支持丰富的数据类型,例如 string 、 list 、 set、zset、hash等
- 一般是作为缓存数据库辅助持久化的数据库
- mongoDB
- 高性能、开源、模式自由的文档型数据库
- 数据都在内存中,如果内存不足,把不常用的数据保存到硬盘
- 虽然是key-value模式,但是对value(尤其是json)提供了丰富的查询功能
- 支持二进制数据及大型对象
- 可以根据数据的特点替代RDBMS(关系数据库管理系统),成为独立的数据库。或者配合RDBMS,存储特定的数据
- HBase
- Hbase是Hadoop项目的数据库,主要用于对大量数据进行随机、实时的读写操作.
- Hbase能支持到数十亿行 × 百万列的数据表
- Cassandra
- Cassandra用于管理由大量商用服务器构建起来的庞大集群上的海量数据集(PB级)
- Neo4j
- Neo4j是基于图结构的数据库,一般用于构建社交网络、交通网络、地图等
第2章 Redis简介
2.1 Redis官网
- Redis官方网站 http://Redis.io
- Redis中文官方网站 http://www.Redis.net.cn
2.2 Redis是什么
- Redis是一个开源的key-value存储系统。
- 它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set)和hash(哈希类型)。
- Redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件
- 支持高可用和集群模式。
2.3 Redis的应用场景
2.3.1 配合关系型数据库做高速缓存
- 高频次,热门访问的数据,降低数据库IO
- 经典的Cache Aside Pattern(旁路缓存模式)
2.3.2 大数据场景
- 缓存数据
- 临时数据
- 计算结果
- 高频次写入
- 高频次查询
- 总数据量不大
2.3.3 利用其多样的数据结构存储特定的数据
(1)最新N个数据 ->通过List实现按自然事件排序的数据 (2)排行榜,TopN->利用zset(有序集合) (3)时效性的数据,比如手机验证码->Expire过期 (4)计数器,秒杀->原子性,自增方法INCR、DECR (5)去除大量数据中的重复数据->利用set集合 (6)构建队列->利用list集合 (7)发布订阅消息系统->pub/sub模式
2.4 Redis相关知识介绍
端口6379从何而来 Alessia Merz
- 默认16个数据库,类似数组下标从0开始,初始默认使用0号库
- 使用命令 select 来切换数据库。如: select 1
- 统一密码管理,所有库同样密码。
- dbsize查看当前数据库的key的数量
- flushdb清空当前库
- flushall通杀全部库
- Redis是单线程+多路IO复用技术
- 多路复用是指使用一个线程来检查多个文件描述符(Socket)的就绪状态,比如调用select和poll函数,传入多个文件描述符,如果有一个文件描述符就绪,则返回,否则阻塞直到超时。得到就绪状态后进行真正的操作可以在同一个线程里执行,也可以启动线程执行(比如使用线程池)
串行 vs 多线程+锁(memcached) vs 单线程+多路IO复用(Redis) (与Memcache三点不同: 支持多数据类型,支持持久化,单线程+多路IO复用)
第3章 Redis安装
3.1 关于Redis版本
不用考虑在Windows环境下对Redis的支持,Redis官方没有提供对Windows环境的支持,是微软的开源小组开发了对Redis对Windows的支持
3.2 安装
1)安装新版gcc编译器
[chenyunde@hadoop102 ~]$ sudo yum -y install gcc-c++
2)上传redis-6.2.1.tar.gz安装包到/opt/software目录下 3)解压redis-6.2.1.tar.gz到/opt/module目录下
[chenyunde@hadoop102 software]# tar -zxvf redis-6.2.1.tar.gz -C /opt/module/
4)之后进入安装包的src目录,编辑Makefile文件,修改软件安装路径如下:
[chenyunde@hadoop102 src]$ vim Makefile
#修改如下
PREFIX?=/home/chenyunde
[chenyunde@hadoop102 src]$ make && make install
当/home/chenyunde/bin目录下出现如下,redis安装成功
3.3 查看安装目录 /home/chenyunde/bin
(1)Redis-benchmark:性能测试工具,可以在自己本子运行,看看自己本子性能如何(服务启动起来后执行) (2)Redis-check-aof:修复有问题的AOF文件 (3)Redis-check-dump:修复有问题的RDB文件 (4)Redis-sentinel:启动Redis哨兵服务 (5)redis-server:Redis服务器启动命令 (6)redis-cli:客户端,操作入口
3.4 Redis的启动
1)拷贝一份redis.conf配置文件到工作目录
[chenyunde@hadoop102 ~]$ mkdir myredis [chenyunde@hadoop102 ~]$ cd myredis [chenyunde@hadoop102 myredis]$ cp /opt/module/redis-6.2.1/redis.conf .
2)绑定主机IP,修改bind属性
[chenyunde@hadoop102 myredis]$ vim redis.conf
bind 0.0.0.0
3)指定配置文件进行启动
[chenyunde@hadoop102 myredis]$ redis-server redis.conf
3.5 客户端访问
1)使用redis-cli 命令访问启动好的Redis,默认端口为6379
[chenyunde@hadoop102 myredis]$ redis-cli
127.0.0.1:6379>
2)如果有多个Redis同时启动,或者端口做了修改,则需指定端口号访问
[chenyunde@hadoop102 myredis]$ redis-cli -p 6379
127.0.0.1:6379>
3)如果访问非本机redis,需要指定host来访问
[chenyunde@hadoop102 myredis]$ redis-cli -h 127.0.0.1 -p 6379
127.0.0.1:6379>
4)通过 ping 命令测试验证
127.0.0.1:6379> ping
PONG
3.6 关闭Redis服务
如果还未通过客户端访问,可直接 redis-cli shutdown
127.0.0.1:6379> shutdown
如果已经进入客户端,直接 shutdown即可.
[chenyunde@hadoop102 myredis]$ redis-cli shutdown
3.7 Redis 默认16个库
1)Redis默认创建16个库,每个库对应一个下标,从0开始. 通过客户端连接后默认进入到0 号库,推荐只使用0号库.
127.0.0.1:6379>
2)使用命令 select 库的下标来切换数据库
127.0.0.1:6379> select 1
OK
127.0.0.1:6379[1]>
第4章 Redis的五大数据类型
4.1 帮助手册
http://redisdoc.com/
4.2 redis键(key)
1)查看当前库的所有键
127.0.0.1:6379> keys *
2)判断某个键是否存在
127.0.0.1:6379> exists
3)查看键对应的value的类型
127.0.0.1:6379> type
4)删除某个键
127.0.0.1:6379> del
5)设置过期时间
127.0.0.1:6379> expire
6)查看过期时间,-1表示永不过期,-2表示已过期
127.0.0.1:6379> ttl
7)查看当前库中key的数量
127.0.0.1:6379> dbsize
8)清空当前库
127.0.0.1:6379> flushdb
9)清空所有库
127.0.0.1:6379> flushall
4.3 String
4.3.1特点
(1)String是Redis最基本的类型,适合保存单值类型,即一个key对应一个value (2)String类型是二进制安全的。意味着Redis的string可以包含任何数据。比如jpg图片或者序列化的对象 。(二进制安全:不必担心由于服务器的编码问题,导致数据乱码) (3)一个Redis中字符串value最多可以是512M
4.3.2 常用操作
1)添加键值对
127.0.0.1:6379> set
2)获取键的值
127.0.0.1:6379> get
3)将给定的追加到原值的末尾
127.0.0.1:6379> append
4)获取值的长度
127.0.0.1:6379> strlen
5)当key不存在时设置key的值
127.0.0.1:6379> setnx
6)将key中存储的数字值增1
127.0.0.1:6379> incr
原子性 所谓原子操作是指不会被线程调度机制打断的操作; 这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。 (1)在单线程中, 能够在单条指令中完成的操作都可以认为是"原子操作",因为中断只能发生于指令之间。 (2)在多线程中,不能被其它进程(线程)打断的操作就叫原子操作。 Redis单命令的原子性主要得益于Redis的单线程。 思考案例: java中的i++是否是原子操作?不是 i=0;两个线程分别对i进行++100次,值是多少? 2-200
7)将key中存储的数字值减1
127.0.0.1:6379> decr
8)将key中存储的数字值按照指定步长增
127.0.0.1:6379> incrby <步长>
9)将key中存储的数字值按照指定步长减
127.0.0.1:6379> decrby <步长>
10)同时添加一个或者多个key
127.0.0.1:6379> mset
11)同时获取一个或者多个key的值
127.0.0.1:6379> mget
12)同时添加一个或者多个key,当且仅当所有给定的key都不存在
127.0.0.1:6379> msetnx 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。 原子性,有一个失败则都失败
13)获取值的子串
127.0.0.1:6379> getrange 前包,后包
14)从指定的开始位置覆盖旧值
127.0.0.1:6379> setrange 用 覆写所储存的字符串值,从<起始位置>开始(索引从0开始)。
15)同时设置值和过期时间
127.0.0.1:6379> setex
16)设置新值的同时获取旧值
127.0.0.1:6379> getset
4.3.3 String数据结构
String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配. 如图中所示,内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。
4.4 List
4.4.1 特点
(1)单键多值 (2)Redis List是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。 (3)它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差
4.4.2 常用操作
1)从左边插入一个或多个值
127.0.0.1:6379> lpush <element…>
2)从右边插入一个或多个值
127.0.0.1:6379> rpush <element…>
3)从左边删除一个值(值在键在,值光键亡)
127.0.0.1:6379> lpop
4)从右边删除一个值(值在键在,值光键亡)
127.0.0.1:6379> rpop
5)从key1列表右边删除一个值,插入到key2列表左边
127.0.0.1:6379> rpoplpush
6)按照索引下标范围获取元素(从左到右)
127.0.0.1:6379> lrange
7)按照索引下标获取元素(从左到右)
127.0.0.1:6379> lindex
8)获取列表长度
127.0.0.1:6379> llen
9)在指定的前面或者后面插入
127.0.0.1:6379> linsert before|after
10) 从左边删除count个指定的value
127.0.0.1:6379> lrem
4.4.3 List数据结构
- List的数据结构为快速链表quickList。
- 首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表。
- 它将所有的元素紧挨着一起存储,分配的是一块连续的内存。
- 当数据量比较多的时候才会改成quicklist。
- 因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next。
Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。
4.5 Set
4.5.1 特点
(1)set中的元素是无序不重复的,当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口, (2)Redis的Set是string类型的无序集合。它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)。
4.5.2 常用操作
1)将一个或者多个member元素加入到集合中,已经存在的member将被忽略
127.0.0.1:6379> sadd <member…>
2)取出集合的所有值
127.0.0.1:6379> smemebers
3)判断集合是否包含指定的member,包含返回1,不包含返回0
127.0.0.1:6379> sismember
4)返回集合的元素个数
127.0.0.1:6379> scard
5)从集合中删除指定的元素
127.0.0.1:6379> srem <member…>
6)随机从集合中删除一个值,会从集合中删除删除的值
127.0.0.1:6379> spop
7)随机从集合中取出n个值,不会从集合中删除
127.0.0.1:6379> srandmember
8)返回多个集合的交集元素
127.0.0.1:6379> sinter <key…>
9)返回多个集合的并集元素
127.0.0.1:6379> sunion <key…>
10)返回多个集合的差集元素
127.0.0.1:6379> sdiff <key…>
4.5.3 Set数据结构
- Set数据结构是dict字典,字典是用哈希表实现的。
- Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。Redis的set结构也是一样,它的内部也使用hash结构,所有的value都指向同一个内部值。
4.6 Hash
4.6.1特点
(1)Redis hash是一个键值对集合 (2)Redis hash的值是由多个field和value组成的映射表 (3)类似Java里面的Map<String,Object>
4.6.2分析一个问题: 现有一个User 对象,在Redis中如何存?
1)第一种方案: 用户ID为key ,VALUE为JavaBean序列化后的字符串 2)第二种方案: 用户ID+属性名作为key, 属性值作为Value.
3)第三种方案: 通过 key(用户ID) + field(属性标签) 就可以操作对应属性数据了,既不需要重复存储数据,也不会带来序列化和并发修改控制的问题
4.6.3 Hash数据结构
Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable。
4.7 zset
4.7.1特点
(1)Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。不同之处是有序集合的每个成员都关联了一个评分(score) ,这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。 (2)因为元素是有序的, 所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。
4.7.2 常用操作
1)往集合中添加指定的 member 及score
127.0.0.1:6379> zadd [ … ]
2)从集合中取出指定下标范围的数据,正序取
127.0.0.1:6379> zrange
[WITHSCORES]
3)从集合中取出指定下标范围的数据,倒序取
127.0.0.1:6379> zrevrange
[WITHSCORES]
4)从集合中取出指定score范围的数据,默认从小到大
127.0.0.1:6379> zrangebyscore [WITHSCORES]
5)从集合中取出指定score范围的数据,从大到小
127.0.0.1:6379> zrevrangebyscore [WITHSCORES]
6)给集合中指定member的score增加increment
127.0.0.1:6379> zincrby
7)删除集合中指定的member
127.0.0.1:6379> zrem <member…>
8)统计指定score范围的元素个数
127.0.0.1:6379> zcount
9)返回集合中指定member的排名,排名从0开始
127.0.0.1:6379> zrank
4.7.3 思考: 实现一个文章访问量的排行榜
(1)使用哪种类型存储? (2)key怎么设计? (3)value怎么设计? (4)写入使用什么命令? (5)查询使用什么命令?
4.7.4 zset数据结构
SortedSet(zset)是Redis提供的一个非常特别的数据结构,一方面它等价于Java的数据结构Map<String, Double>,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。 zset底层使用了两个数据结构 (1)hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值。 (2)跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表。
4.7.5 跳跃表(跳表)
1、简介 有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历所有效率低。Redis采用的是跳跃表。跳跃表效率堪比红黑树,实现远比红黑树简单。 2、实例 对比有序链表和跳跃表,从链表中查询出51 (1)有序链表 要查找值为51的元素,需要从第一个元素开始依次查找、比较才能找到。共需要6次比较。 (2)跳跃表 从第2层开始,1节点比51节点小,向后比较。 21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1层 在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下 在第0层,51节点为要查找的节点,节点被找到,共查找4次。
从此可以看出跳跃表比有序链表效率要高
第5章 Redis的相关配置
自定义目录:/home/chenyunde/myredis/redis.conf
1)配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit 大小写不敏感
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes
#
# units are case insensitive so 1GB 1Gb 1gB are all the same.
2)bind 默认情况bind=127.0.0.1只能接受本机的访问请求 不写的情况下,无限制接受任何ip地址的访问,生产环境肯定要写你应用服务器的地址;服务器是需要远程访问的,所以需要将其注释掉 如果开启了protected-mode,那么在没有设定bind ip且没有设密码的情况下,Redis只允许接受本机的请求
# bind 127.0.0.1
bind 0.0.0.0
# 将本机访问保护模式设置成no
protected-mode no
3)port 服务端口号
port 6379
4)tcp-backlog 设置tcp的backlog,backlog其实是一个连接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。 在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。
注意:Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128),所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog(128)两个值来达到想要的效果
5)timeout 一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。 6)tcp-keepalive 对访问客户端的一种心跳检测,每个n秒检测一次。 单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60
7)daemonize 是否为后台进程,设置为yes 守护进程,后台启动
daemonize yes
8)pidfile 存放pid文件的位置,每个实例会产生一个不同的pid文件
pidfile /var/run/redis_6379.pid
9)log file 日志文件存储位置
logfile ""
10)loglevel 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice
11)database 设定库的数量 默认16
databases 16
12)requirepass 设置密码
requirepass 123456
127.0.0.1:6379> set k1 v1
(error) NOAUTH Authentication required.
127.0.0.1:6379> auth “123456”
OK
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> get k1
"v1"
13)maxclients 设置redis同时可以与多少个客户端进行连接。 默认情况下为10000个客户端。 如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应。
14)maxmemory 设置Redis可以使用的内存量。一 旦到达内存使用上限,Redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。如果Redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”。 那么Redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
# maxmemory <bytes>
15)maxmemory-policy 移除策略
# maxmemory-policy noeviction
#volatile-lru:使用LRU算法移除key,只对设置了过期时间的键
#allkeys-lru:使用LRU算法移除key
#volatile-lfu :使用LFU策略移除key,只对设置了过期时间的键.
#allkeys-lfu :使用LFU策略移除key
#volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键
#allkeys-random:移除随机的key
#volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key
#noeviction:不进行移除。针对写操作,只是返回错误信息
16)Maxmemory-samples 设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小。一般设置3到7的数字,数值越小样本越不准确,但是性能消耗也越小。
# maxmemory-samples 5
第6章 Redis的发布和订阅
6.1 什么是发布和订阅
Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。 Redis 客户端可以订阅任意数量的频道。
6.2 Redis的发布和订阅
-
客户端可以订阅频道如下图 -
当给这个频道发布消息后,消息就会发送给订阅的客户端
6.3 发布订阅命令行实现
- 打开一个客户端订阅channel1
127.0.0.1:6379> SUBSCRIBE channel1
- 打开另一个客户端,给channel1发布消息hello
127.0.0.1:6379> publish channel1 hello
- 打开第一个客户端可以看到发送的消息
注:发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息
第7章 Redis新数据类型
7.1 Bitmaps
7.1.1 简介
现代计算机用二进制(位) 作为信息的基础单位, 1个字节等于8位, 例如“abc”字符串是由3个字节组成, 但实际在计算机存储时将其用二进制表示, “abc”分别对应的ASCII码分别是97、 98、 99, 对应的二进制分别是01100001、 01100010和01100011,如下图 合理地使用操作位能够有效地提高内存使用率和开发效率。 Redis提供了Bitmaps这个“数据类型”可以实现对位的操作: (1)Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。 (2)Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量。
7.1.2 命令
- setbit
(1)格式 setbit设置Bitmaps中某个偏移量的值(0或1)
*offset:偏移量从0开始
(2)实例 每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id。 设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图 unique:users:20210101代表2021-01-01这天的独立访问用户的Bitmaps
注: 很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。 在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。
- getbit
(1)格式 getbit获取Bitmaps中某个偏移量的值 (2)实例 获取id=8的用户是否在2021-01-01这天访问过, 返回0说明没有访问过:
注:因为100根本不存在,所以也是返回0
- bitcount
统计字符串被设置为1的bit数。一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start 或 end 参数,可以让计数只在特定的位上进行。start 和 end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,start、end 是指bit组的字节的下标数,二者皆包含。
(1)格式 bitcount[start end] 统计字符串从start字节到end字节比特值为1的数量 (2)实例 计算2021-01-01这天的独立访问用户数量 start和end代表起始和结束字节数, 下面操作计算用户id在第1个字节到第3个字节之间的独立访问用户数, 对应的用户id是11, 15, 19。
举例: K1 【01000001 01000000 00000000 00100001】,对应【0,1,2,3】 bitcount K1 1 2 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000 –》bitcount K1 1 2 --》1
bitcount K1 1 3 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000 00100001 –》bitcount K1 1 3 --》3
bitcount K1 0 -2 : 统计下标0到下标倒数第2,字节组中bit=1的个数,即01000001 01000000 00000000 –》bitcount K1 0 -2 --》3
注意:redis的setbit设置或清除的是bit位置,而bitcount计算的是byte位置。
- bitop
(1)格式 bitop and(or/not/xor) [key…]
bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。
(2)实例 2020-11-04 日访问网站的userid=1,2,5,9。 setbit unique:users:20201104 1 1 setbit unique:users:20201104 2 1 setbit unique:users:20201104 5 1 setbit unique:users:20201104 9 1
2020-11-03 日访问网站的userid=0,1,4,9。 setbit unique:users:20201103 0 1 setbit unique:users:20201103 1 1 setbit unique:users:20201103 4 1 setbit unique:users:20201103 9 1
计算出两天都访问过网站的用户数量 bitop and unique:users:and:20201104_03 unique:users:20201103 unique:users:20201104
计算出任意一天都访问过网站的用户数量(例如月活跃就是类似这种) , 可以使用or求并集
7.1.3 Bitmaps与set对比
假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表
set和Bitmaps存储一天活跃用户对比 | 数据类型 | 每个用户id占用空间 | 需要存储的用户量 | 全部内存量 | 集合类型 | 64位 | 50000000 | 64位*50000000 = 400MB | Bitmaps | 1位 | 100000000 | 1位*100000000 = 12.5MB | 很明显, 这种情况下使用Bitmaps能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的
set和Bitmaps存储独立用户空间对比 | 数据类型 | 一天 | 一个月 | 一年 | 集合类型 | 400MB | 12GB | 144GB | Bitmaps | 12.5MB | 375MB | 4.5GB |
但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0。
set和Bitmaps存储一天活跃用户对比(独立用户比较少) | 数据类型 | 每个userid占用空间 | 需要存储的用户量 | 全部内存量 | 集合类型 | 64位 | 100000 | 64位*100000 = 800KB | Bitmaps | 1位 | 100000000 | 1位*100000000 = 12.5MB |
7.2 HyperLogLog
7.2.1 简介
在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。 但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。 解决基数问题有很多种方案: (1)数据存储在MySQL表中,使用distinct count计算不重复个数 (2)使用Redis提供的hash、set、bitmaps等数据结构来处理 以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。 能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。 在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。 但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。
什么是基数? 比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。
7.2.2 命令
- pfadd
(1)格式 pfadd < element> [element …] 添加指定元素到 HyperLogLog 中
(2)实例
将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0。
- pfcount
(1)格式 pfcount [key …] 计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可
(2)实例
- pfmerge
(1)格式 pfmerge [sourcekey …] 将一个或多个HLL合并后的结果存储在另一个HLL中,比如每月活跃用户可以使用每天的活跃用户来合并计算可得
(2)实例
7.3 Geospatial
7.3.1 简介
Redis 3.2 中增加了对GEO类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。
7.3.2 命令
- geoadd
(1)格式 geoadd< longitude> [longitude latitude member…] 添加地理位置(经度,纬度,名称)
(2)实例 geoadd china:city 121.47 31.23 shanghai geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing
两极无法直接添加,一般会下载城市数据,直接通过 Java 程序一次性导入。 有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。 当坐标位置超出指定范围时,该命令将会返回一个错误。 已经添加的数据,是无法再次往里面添加的。 2. geopos
(1)格式 geopos [member…] 获得指定地区的坐标值
(2)实例 3. geodist
(1)格式 geodist [m|km|ft|mi ] 获取两个位置之间的直线距离
(2)实例 获取两个位置之间的直线距离
单位: m 表示单位为米[默认值]。 km 表示单位为千米。 mi 表示单位为英里。 ft 表示单位为英尺。 如果用户没有显式地指定单位参数, 那么 GEODIST 默认使用米作为单位
- georadius
(1)格式 georadius< longitude>radius m|km|ft|mi 以给定的经纬度为中心,找出某一半径内的元素 (2)实例
第8章 Redis_Jedis_测试
Jedis是Redis的Java客户端,可以通过Java代码的方式操作Redis
8.1 环境准备
1)添加依赖
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.3.0</version>
</dependency>
8.2 连接Redis注意事项
禁用Linux的防火墙:Linux(CentOS7)里执行命令 systemctl stop/disable firewalld.service redis.conf中注释掉bind 127.0.0.1 ,然后 protected-mode no
8.3 Jedis常用操作
8.3.1 创建动态的工程
8.3.2 创建测试程序
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
String value = jedis.ping();
System.out.println(value);
jedis.close();
}
}
8.4 测试相关数据类型
8.4.1 Jedis-API:Key
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
jedis.set("k1", "v1");
jedis.set("k2", "v2");
jedis.set("k3", "v3");
Set<String> keys = jedis.keys("*");
System.out.println(keys.size());
for (String key : keys) {
System.out.println(key);
}
System.out.println(jedis.exists("k1"));
System.out.println(jedis.ttl("k1"));
System.out.println(jedis.get("k1"));
jedis.close();
}
}
8.4.2 Jedis-API: String
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
jedis.mset("str1","v1","str2","v2","str3","v3");
System.out.println(jedis.mget("str1","str2","str3"));
jedis.close();
}
}
8.4.3 Jedis-API: List
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.List;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
List<String> list = jedis.lrange("mylist",0,-1);
for (String element : list) {
System.out.println(element);
}
jedis.close();
}
}
8.4.4 Jedis-API: set
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.List;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
jedis.sadd("orders", "order01");
jedis.sadd("orders", "order02");
jedis.sadd("orders", "order03");
jedis.sadd("orders", "order04");
Set<String> smembers = jedis.smembers("orders");
for (String order : smembers) {
System.out.println(order);
}
jedis.srem("orders", "order02");
jedis.close();
}
}
8.4.5 Jedis-API: hash
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
jedis.hset("hash1","userName","lisi");
System.out.println(jedis.hget("hash1","userName"));
Map<String,String> map = new HashMap<String,String>();
map.put("telphone","13810169999");
map.put("address","atguigu");
map.put("email","abc@163.com");
jedis.hmset("hash2",map);
List<String> result = jedis.hmget("hash2", "telphone","email");
for (String element : result) {
System.out.println(element);
}
jedis.close();
}
}
8.4.6 Jedis-API: zset
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Set;
public class JedisDemo1 {
public static void main(String[] args) {
Jedis jedis = new Jedis("192.168.121.130",6379);
jedis.zadd("zset01", 100d, "z3");
jedis.zadd("zset01", 90d, "l4");
jedis.zadd("zset01", 80d, "w5");
jedis.zadd("zset01", 70d, "z6");
Set<String> zrange = jedis.zrange("zset01", 0, -1);
for (String e : zrange) {
System.out.println(e);
}
jedis.close();
}
}
第9章 Redis_Jedis_实例
9.1 完成一个手机验证码功能
要求: 1、输入手机号,点击发送后随机生成6位数字码,2分钟有效 2、输入验证码,点击验证,返回成功或失败 3、每个手机号每天只能输入3次
package online.shuihua.jedis;
import redis.clients.jedis.Jedis;
import java.util.Random;
public class PhoneCode {
public static void main(String[] args) {
verifyCode("13512341234");
}
public static void getRedisCode(String phone, String code) {
Jedis jedis = new Jedis("192.168.121.130", 6379);
String codeKey = "VerifyCode" + phone + ":code";
String redisCode = jedis.get(codeKey);
if (redisCode.equals(code)) {
System.out.println("成功");
} else {
System.out.println("失败");
}
jedis.close();
}
public static void verifyCode(String phone) {
Jedis jedis = new Jedis("192.168.121.130", 6379);
String countKey = "VerifyCode" + phone + ":count";
String codeKey = "VerifyCode" + phone + ":code";
String count = jedis.get(countKey);
if (count == null) {
jedis.setex(countKey, 24 * 60 * 60, "1");
} else if (Integer.parseInt(count) <= 2) {
jedis.incr(countKey);
} else if (Integer.parseInt(count) > 2) {
System.out.println("今天发送次数已经超过三次");
jedis.close();
return;
}
String vCode = getCode();
jedis.setex(codeKey, 120,vCode);
jedis.close();
}
public static String getCode() {
Random random = new Random();
String code = "";
for (int i = 0; i < 6; i++) {
int rand = random.nextInt(10);
code += rand;
}
return code;
}
}
第10章 Redis与Spring Boot整合
Spring Boot整合Redis非常简单,只需要按如下步骤整合即可
10.1.整合步骤
- 在pom.xml文件中引入redis相关依赖
<!-- redis -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<!-- spring2.X集成redis所需common-pool2-->
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
<version>2.6.0</version>
</dependency>
- application.properties配置redis配置
#Redis服务器地址
spring.redis.host=192.168.140.136
#Redis服务器连接端口
spring.redis.port=6379
#Redis数据库索引(默认为0)
spring.redis.database= 0
#连接超时时间(毫秒)
spring.redis.timeout=1800000
#连接池最大连接数(使用负值表示没有限制)
spring.redis.lettuce.pool.max-active=20
#最大阻塞等待时间(负数表示没限制)
spring.redis.lettuce.pool.max-wait=-1
#连接池中的最大空闲连接
spring.redis.lettuce.pool.max-idle=5
#连接池中的最小空闲连接
spring.redis.lettuce.pool.min-idle=0
- 添加redis配置类
@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurerSupport {
@Bean
public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
RedisTemplate<String, Object> template = new RedisTemplate<>();
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
template.setConnectionFactory(factory);
template.setKeySerializer(redisSerializer);
template.setValueSerializer(jackson2JsonRedisSerializer);
template.setHashValueSerializer(jackson2JsonRedisSerializer);
return template;
}
@Bean
public CacheManager cacheManager(RedisConnectionFactory factory) {
RedisSerializer<String> redisSerializer = new StringRedisSerializer();
Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
ObjectMapper om = new ObjectMapper();
om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
jackson2JsonRedisSerializer.setObjectMapper(om);
RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
.entryTtl(Duration.ofSeconds(600))
.serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
.serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
.disableCachingNullValues();
RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
.cacheDefaults(config)
.build();
return cacheManager;
}
}
- 测试一下
RedisTestController中添加测试方法
@RestController
@RequestMapping("/redisTest")
public class RedisTestController {
@Autowired
private RedisTemplate redisTemplate;
@GetMapping
public String testRedis() {
redisTemplate.opsForValue().set("name","lucy");
String name = (String)redisTemplate.opsForValue().get("name");
return name;
}
}
第11章 Redis_事务_锁机制_秒杀
11.1 Redis的事务定义
Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。 Redis事务的主要作用就是串联多个命令防止别的命令插队。
11.2 Multi、Exec、discard
从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。 组队的过程中可以通过discard来放弃组队。 案例: 组队成功,提交成功 组队阶段报错,提交失败 组队成功,提交有成功有失败的情况
11.3 事务的错误处理
组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。
如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。
11.4 为什么要做成事务
场景:有很多人有你的账户,同时去参加双十一抢购
11.5 事务冲突的问题
11.5.1 例子
一个请求想给金额减8000 一个请求想给金额减5000 一个请求想给金额减1000
11.5.2 悲观锁
悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。(效率低,不能多进程同时进行)
11.5.3 乐观锁
乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号(version)等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。(抢票就是典型乐观锁的现实场景)
11.5.4 WATCH key [key …]
在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。(乐观锁造成的版本号不一致,在另外一个终端修改了balance的值导致版本号改变)
11.5.5 unwatch
取消 WATCH 命令对所有 key 的监视。 如果在执行 WATCH 命令之后,EXEC 命令或DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH 了。 http://doc.redisfans.com/transaction/exec.html
11.6 Redis事务三特性
- 单独的隔离操作
事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。 - 没有隔离级别的概念
队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行 - 不保证原子性
事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚
第12章 Redis持久化之RDB
12.1 总体介绍
官网介绍:http://www.redis.io
Redis 提供了2个不同形式的持久化方式。
- RDB(Redis DataBase)
- AOF(Append Of File)
12.2 RDB(Redis DataBase)
12.2.1 官网介绍
12.2.2 是什么
在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里
12.2.3 备份是如何执行的
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能 如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。
12.2.4 Fork
- Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程
- 在Linux程序中,fork()会产生一个和父进程完全相同的子进程,但子进程在此后多会exec系统调用,出于效率考虑,Linux中引入了“写时复制技术”
- 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。
12.2.5 RDB持久化流程
12.2.6 dump.rdb文件
在redis.conf中配置文件名称,默认为dump.rdb
12.2.7 配置位置
rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下 dir “/myredis/” 这里进行的自定义修改
12.2.8 如何触发RDB快照,保持策略
12.2.8.1 配置文件中默认的快照配置
15分钟以内至少有一个key发生改变 5分钟以内至少有十个key发生改变 1分钟以内至少有10000个key发生改变
12.2.8.2 命令save VS bgsave
save :save时只管保存,其它不管,全部阻塞。手动保存。不建议。 bgsave:Redis会在后台异步进行快照操作, 快照同时还可以响应客户端请求。 可以通过lastsave 命令获取最后一次成功执行快照的时间
12.2.8.3 flushall命令
执行flushall命令,也会产生dump.rdb文件,但里面是空的,无意义
12.2.8.4 SNAPSHOTTING快照
12.2.8.5 Save
格式:save 秒钟 写操作次数 RDB是整个内存的压缩过的Snapshot,RDB的数据结构,可以配置复合的快照触发条件, 默认是1分钟内改了1万次,或5分钟内改了10次,或15分钟内改了1次。 禁用 不设置save指令,或者给save传入空字符串
12.2.8.6 stop-writes-on-bgsave-error
当Redis无法写入磁盘的话,直接关掉Redis的写操作。推荐yes
12.2.8.7 rdbcompression压缩文件
对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。 如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能。推荐yes.
12.2.8.8 rdbchecksum 检查完整性
在存储快照后,还可以让redis使用CRC64算法来进行数据校验, 但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能 推荐yes.
12.2.8.9 备份
先通过config get dir 查询rdb文件的目录 将*.rdb的文件拷贝到别的地方 rdb的恢复
- 关闭Redis
- 先把备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb
- 启动Redis, 备份数据会直接加载
12.2.9 RDB优势
- 适合大规模的数据恢复
- 对数据完整性和一致性要求不高更适合使用
- 节省磁盘空间
- 恢复速度快
12.2.10 RDB劣势
- Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑
- 虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。
- 在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改。
12.2.11 如何停止
动态停止RDB:redis-cli config set save “”#save后给空值,表示禁用保存策略
12.2.12 RDB总结
第13章 Redis持久化之AOF
13.1 AOF(Append Only File)
13.1.1 AOF是什么
以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录),只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。
13.1.2 AOF持久化流程
(1)客户端的请求写命令会被append追加到AOF缓冲区内; (2)AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中; (3)AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量; (4)Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的;
13.1.3 AOF默认不开启
可以在redis.conf中配置文件名称,默认为 appendonly.aof AOF文件的保存路径,同RDB的路径一致。
重启redis(redis-server /home/chenyunde/myredis/redis.conf)后,在rdb生成的dump.rdb同一个目录下会生成appendonly.aof
13.1.4 AOF和RDB同时开启,redis听谁的?
AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)
13.1.5 AOF启动/修复/恢复
- AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。
- 正常恢复
- 修改默认的appendonly no,改为yes
- 将有数据的aof文件复制一份保存到对应目录(查看目录:config get dir)
- 恢复:重启redis然后重新加载
- 修改默认的appendonly no,改为yes
- 如遇到AOF文件损坏,通过/usr/local/bin/redis-check-aof–fix appendonly.aof进行恢复
- 备份被写坏的AOF文件
- 恢复:重启redis,然后重新加载
13.1.6 AOF同步频率设置
appendfsync always
始终同步,每次Redis的写入都会立刻记入日志;性能较差但数据完整性比较好
appendfsync everysec
每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。
appendfsync no
redis不主动进行同步,把同步时机交给操作系统。
13.1.7 Rewrite压缩
- 是什么:
AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof - 重写原理,如何实现重写:
AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),redis4.0版本后的重写,是指上就是把rdb 的快照,以二级制的形式附在新的aof头部,作为已有的历史数据,替换掉原来的流水账操作。
-
no-appendfsync-on-rewrite: 如果 no-appendfsync-on-rewrite=yes ,不写入aof文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据。(降低数据安全性,提高性能) 如果 no-appendfsync-on-rewrite=no, 还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞。(数据安全,但是性能降低) -
触发机制,何时重写: Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发 重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写。 -
auto-aof-rewrite-percentage: 设置重写的基准值,文件达到100%时开始重写(文件是原来重写后文件的2倍时触发) -
auto-aof-rewrite-min-size: 设置重写的基准值,最小文件64MB。达到这个值开始重写。 例如:文件达到70MB开始重写,降到50MB,下次什么时候开始重写?100MB 系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size, 如果Redis的AOF当前大小>= base_size +base_size*100% (默认)且当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写。
- 重写流程
(1)bgrewriteaof触发重写,判断是否当前有bgsave或bgrewriteaof在运行,如果有,则等待该命令结束后再继续执行。 (2)主进程fork出子进程执行重写操作,保证主进程不会阻塞。 (3)子进程遍历redis内存中数据到临时文件,客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失。 (4)1).子进程写完新的AOF文件后,向主进程发信号,父进程更新统计信息。2).主进程把aof_rewrite_buf中的数据写入到新的AOF文件。 (5)使用新的AOF文件覆盖旧的AOF文件,完成AOF重写。
13.1.8 AOF优势
13.1.9 AOF劣势
- 比起RDB占用更多的磁盘空间。
- 恢复备份速度要慢。
- 每次读写都同步的话,有一定的性能压力。
- 存在个别Bug,造成恢复不能。
13.1.10 AOF总结
13.2 总结(RDB和AOF选哪个)
官方推荐两个都启用。 如果对数据不敏感,可以选单独用RDB。 不建议单独用 AOF,因为可能会出现Bug。 如果只是做纯内存缓存,可以都不用。
13.3 官网建议
- RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储
- AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾.
- Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大
- 只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式.
- 同时开启两种持久化方式
- 在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整.
- RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢?
- 建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份), 快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。
- 性能建议
因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。 如果使用AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。 代价,一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。 只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。 默认超过原大小100%大小时重写可以改到适当的数值。
第14章 Redis_主从复制
14.1是什么
主机数据更新后根据配置和策略, 自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主
14.2.能干嘛
- 读写分离,性能扩展
- 容灾快速恢复
14.3 怎么玩:主从复制
拷贝多个redis.conf文件include(写绝对路径) 开启daemonize yes Pid文件名字pidfile 指定端口port Log文件名字 dump.rdb名字dbfilename Appendonly 关掉或者换名字
include /myredis/redis.conf
pidfile /var/run/redis_6379.pid
port 6379
dbfilename dump6379.rdb
include /myredis/redis.conf
pidfile /var/run/redis_6380.pid
port 6380
dbfilename dump6380.rdb
include /myredis/redis.conf
pidfile /var/run/redis_6381.pid
port 6381
dbfilename dump6381.rdb
slave-priority 10
设置从机的优先级,值越小,优先级越高,用于选举主机时使用。默认100
redis-server redis6379.conf redis-server redis6380.conf redis-server redis6381.conf
ps -ef | grep redis
info replication 打印主从复制的相关信息
slaveof
成为某个实例的从服务器 1、在6380和6381上执行: slaveof 127.0.0.1 6379 2、在主机上写,在从机上可以读取数据(在从机上写数据会报错) 3、主机挂掉,重启就行,一切如初 4、从机重启需重设:slaveof 127.0.0.1 6379 可以将配置增加到文件中。永久生效。
14.4 常用3招
14.4.1 一主二仆
切入点问题?slave1、slave2是从头开始复制还是从切入点开始复制?比如从k4进来,那之前的k1,k2,k3是否也可以复制? 从机是否可以写?set可否? 主机shutdown后情况如何?从机是上位还是原地待命? 主机又回来了后,主机新增记录,从机还能否顺利复制? 其中一台从机down后情况如何?依照原有它能跟上大部队吗?
|