IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Redis详细教程入门 -> 正文阅读

[大数据]Redis详细教程入门

Redis

1 互联网架构演变

1.1 单一数据库

? 在90年代,由于互联网没有普及。一个网站访问量并不大,单一数据库完全能够满足访问的需求。因为在哪个年下几乎都是静态的页面,动态交互型的功能不多。

在这里插入图片描述

1.2 Memcached + 数据库 + 垂直拆分

? 当数据量达到一定级别,一个机器总有存放不下的时候、数据索引的时候单台机器的内存可能也不够。架构就发生了改变。

? 最快速的提升查询性能的方式就是使用缓存技术、第二也需要去优化数据库:表结构建立索引、优化表的机构(垂直拆分:将一个表拆分为多个表)。

在这里插入图片描述

1.3 主从复制 + 读写分离

? 再向后面发展,进入到互联网时代的初期,互联网的产品对于读的压力特别大,我们传统的架构都是读写放在一起的,我们就将写集中在主上,释放素有的从机的来处理读压力。所以大部分的网站还是使用主从复制,读写分离。

在这里插入图片描述

1.4 分表分库 + 水平拆分 + mysql的集群模式

? 随着互联网时代从初期过渡完毕,我们数据量开始产生激增。上面的架构已经无法胜任海量数据的存储和查询。架构进一步采取了演变。水平拆分:(将表的行拆分),因为一张表的数据达到超过200w行的时候,性能势必直线下降。

在这里插入图片描述

1.5 慢慢发展到了移动互联——大数据年代了

在这里插入图片描述

2 Nosql

2.1 为什么Nosql

? 因为随着互联网行业的发展,数据量激增,传统的RDBMS由于自身性能的瓶颈,不适合作为大数据领域的存储工具。比如,一般的用户行为操作等等的这些日志,又多又没有规则,如mysql这样的数据库更适合存放结构化数据,所以传统数据不适合大数据领域。

? Nosql:Not only sql。他非常符合海量数据下的快速查询的要求。

2.2 Nosql种类

种类非常多,但是有一个共同的特点就是一定是去除了RDBMS中的关系表达。不适用SQL。

  • Memcached
  • Redis
  • HBase
  • MongoDB
  • ClickHouse

  • 大数据时代3V+3高
- Volume : 海量
- Variety : 多样
- velocity :实时

----------------------

- 高并发
- 高可扩
- 高性能

3 阿里架构演变

1999 第一代架构: Perl,CGI,Oracle

2000 第二代架构:Java, Servlet

2001-2004第三代架构:EJB时代,Dao、Service

2005-2007第四代架构:去EJB重构:Spring+iBatis+Webx。底层架构:iSearch,MQ+ESB,数据挖掘

2008-2009第五代架构:Memcached集群 + mysql + 数据切分, 分布式存储,Hadoop,KV, CDN

2010安全,镜像:安全、镜像、应用服务器升级、秒杀、Nosql、SSD

敏捷开发、开放式开发、用户体验

4 Redis

4.1 介绍

? Remote Dictionary Server。开源,基于C语言开发,基于BSD协议(只要基于这个协议的都可以修改源码)的KV的Nosql的分布式数据库。

? Redis 是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。
? 它支持多种类型的数据结构,如
?
? 字符串(strings)
? 散列(hashes)
? 列表(lists)
? 集合(sets)
? 有序集合(sorted sets) 与范围查询,
? bitmaps
? hyperloglogs
? 地理空间(geospatial) 索引半径查询。
? Redis 内置了
? 复制(replication)LUA脚本(Lua scripting)
? LRU驱动事件(LRU eviction)事务(transactions)
? 和不同级别的
? 磁盘持久化(persistence)
? 并通过
? Redis哨兵(Sentinel)和自动
? 分区(Cluster)提供高可用性(high availability)。

4.2 redis的特点

  • redis支持数据的持久化:AOF和RDB
  • redis本身不仅仅只是KV的数据,还支持多种数据结构:List、Set、Hash…
  • redis支持数据的备份。主从

4.3 做什么

  • 内存存储和持久化
  • 取最新的数据
  • 单点登陆——模拟HttpSession
  • 计数器/定时器
  • 保持offset

4.4 网址

http://www.redis.cn/
https://www.redis.net.cn/

4.5 安装

##1. 安装
[root@hadoop ~]# yum -y install gcc-c++
[root@hadoop software]# tar -zxvf redis-3.2.8.tar.gz -C /opt/apps/
[root@hadoop redis-3.2.8]# make
[root@hadoop redis-3.2.8]# make PREFIX=/opt/apps/redis-3.2.8/bin install
##2. 配置环境变量

4.6 启动

4.6.1 默认的连接

##1. 启动前台服务
[root@hadoop bin]# ./redis-server

##2. 启动客户端
[root@hadoop ~]# redis-cli

4.6.2 后台启动,使用配置连接

##1. 配置后端启动
[root@hadoop redis-3.2.8]# cp redis.conf redis.conf.bak
[root@hadoop redis-3.2.8]# vi redis.conf

bind 0.0.0.0
port 6379
daemonize yes

##2. 启动redis的服务
[root@hadoop redis-3.2.8]# redis-server redis.conf
[root@hadoop redis-3.2.8]# ps -ef | grep redis
root      4196     1  0 16:52 ?        00:00:00 redis-server 0.0.0.0:6379
root      4325 30685  0 16:53 pts/0    00:00:00 grep --color=auto redis

##3. 客户端连接redis服务
[root@hadoop redis-3.2.8]# ./redis-cli -h 127.0.0.1 -p 6379
# 如果有密码,则需要通过auth 指定密码
[root@hadoop redis-3.2.8]# auth password

4.7 redis.conf

详细的参考:Redis的配置文件解读(redis.conf)

4.7.1 INCLUDES

# Redis configuration file example.
#
# 启动redis服务的时候必须按照一下的方式启动
# ./redis-server /path/to/redis.conf


################################## INCLUDES ###################################

# 通过一个注册配置文件去include你自定义的其他的配置文件,参考我们openresty的用法
#
# include /path/to/local.conf
# include /path/to/other.conf

4.7.2 NETWORK

################################## NETWORK #####################################

# 绑定你的redis-server的可访问的ip地址
# bind 127.0.0.1
bind 0.0.0.0

# 开启保护模式,目的是为了其他的客户端不能够非法的访问我的redis服务
# yes/no
protected-mode yes

# 配置redis-server的端口号 
port 6379

# TCP listen() backlog.
#
# 当redis-server面临高并发的时候,它将一部分的连接请求存入backlog的日志中,从而避免高积压。
tcp-backlog 511

# Unix socket.
#
# 配置显示的显示出redis服务的socket的配置文件,如果没有配置,就没有这个文件
#
# unixsocket /tmp/redis.sock
# unixsocketperm 700

# 服务端和客户端断开连接的最大的超时时间
timeout 0

# 配置每隔5分钟汇报一次当前服务端的情况
tcp-keepalive 300

4.7.3 通用

################################# GENERAL #####################################
# 开启后台启动
daemonize yes

# 如果你使用了外部组件(supervisord)来控制你的redis的启动,你就要选择这个下面的选项来控制
# supervision tree. Options:
#   supervised no      - no supervision interaction
#   supervised upstart - signal upstart by putting Redis into SIGSTOP mode
#   supervised systemd - signal systemd by writing READY=1 to $NOTIFY_SOCKET
#   supervised auto    - detect upstart or systemd method based on
#                        UPSTART_JOB or NOTIFY_SOCKET environment variables
# Note: these supervision methods only signal "process is ready."
#       They do not enable continuous liveness pings back to your supervisor.
supervised no

# redis-server的进程文件的生成路径
pidfile /var/run/redis_6379.pid

# 指定你的日志级别:从以下4种模式种选择
# debug 最多日志的提示,一般在开发环境下使用
# verbose 在测试环境下可以使用这个模式
# notice 日志提示相对较少,一般只提示一些启动关闭等等关键的信息,一般在生产环境中使用
# warning 只有非常重要的日志才会被记录
loglevel notice

# 指定redis-server的日志的路径
logfile ""

# 设置你的数据库的数量
databases 16

4.7.4 SECURITY

################################## SECURITY ###################################

# Require clients to issue AUTH <PASSWORD> before processing any other
# commands.  This might be useful in environments in which you do not trust
# others with access to the host running redis-server.
#
# This should stay commented out for backward compatibility and because most
# people do not need auth (e.g. they run their own servers).
#
# Warning: since Redis is pretty fast an outside user can try up to
# 150k passwords per second against a good box. This means that you should
# use a very strong password otherwise it will be very easy to break.
# 通过requirepass 指定密码
requirepass redis6379

# Command renaming.
#
# It is possible to change the name of dangerous commands in a shared
# environment. For instance the CONFIG command may be renamed into something
# hard to guess so that it will still be available for internal-use tools
# but not available for general clients.
#

4.7.5 Redis的第一种持久化方式-快照 -RDB

################################ SNAPSHOTTING  ################################
#
# 将数据库保存在磁盘的策略:RDB
# 以下配置含义:
# 900秒(15分钟)完成了至少一次写操作,就将数据保存在磁盘
# 300秒(5分钟)完成了至少10此写操作
# 1分钟之内至少完成10000此写操作

save 900 1
save 300 10
save 60 10000

# 配置的作用是,当你的后台RDB进行日志持久化的时候,如果持久化快照失败了,你的redis的服务将不再允许继续进# 行数据保存。因为普通状态下我们的开发者很难观察到日志快照失败,它通过停止写操作来强制使开发者注意到日志# # 保存失效的。
# 如果你的日志又可以保存成功的情况下,自动允许写入。如果你有第三方监控工具监控redis的日志情况,你也可以关# 闭此选项。
stop-writes-on-bgsave-error yes

# 设置使用LZF算法对持久化数据进行压缩,但是压缩会非常消耗CPU性能,但是文件的体积可以得到缩减
rdbcompression yes

# 在压缩完成之后,redis还恶意使用CRC64算法校验你保存的文件完整性。但是这个做法会让你多牺牲10%性能。
rdbchecksum yes

# 持久化的文件的名称
dbfilename dump.rdb

# 持久化文件的路径
dir /opt/apps/redis-3.2.8

4.7.5 主从复制读写分离

  • 配置文件
################################# REPLICATION #################################
 250
 251 # 这个命令使用于连接redis服务中的主节点的命令
 265 # slaveof <masterip> <masterport>
 266
 267 # 使用主机授权
 272 # masterauth <master-password>
 273
 274 # 当你的从机连接主机做主从复制的时候,如果失败。yes的策略将会使slave重新向master请求;no的策略发送      # 要给错误信息给主
slave-serve-stale-data yes
 286
 287 # 配置主从复制,读写分离。从机只读
 301 slave-read-only yes
 302
 303 # 同步策略:本地磁盘同步,无盘同步:Socket
 309 # yes:表示使用无盘同步,no表示有磁盘同步
 332 repl-diskless-sync no
 333
 334 # 当开启无盘同步配置的最大的延迟时间(秒)
 344 repl-diskless-sync-delay 5
 345
 363
 364 # Disable TCP_NODELAY on the slave socket after SYNC?
 365 #
 366 # 配置从机延迟带宽。yes的时候,会减少带宽这将增加从机的数据延迟度。no的话就会降低从机的数据延迟。但是选择yes的好处是我们将主从复制的带宽减少,这些带宽更多的是用于写操作。所以当你的集群面对海量的数据写入的时候,选择yes是一个good idea
 377 repl-disable-tcp-nodelay no
 378
 379 # 
 389 # 配置的是当你的从机断开了与主机连接,从机一旦断开连接,这个从机重启之后就没有主机的数据了。这个时候从机需要重新同步,但是由于我们之前同步过,如果每次都要从头再来,成本太大了。backlog,我们可以通过这个backlog进行同步恢复,通过它,我只需要同步我宕机之后的那一部分新的数据。
 390 # repl-backlog-size 1mb
 391
 392 # After a master has no longer connected slaves for some time, the backlog
 393 # will be freed. The following option configures the amount of seconds that
# will be freed. The following option configures the amount of seconds that
 394 # need to elapse, starting from the time the last slave disconnected, for
 395 # the backlog buffer to be freed.
 396 #
 397 # A value of 0 means to never release the backlog.
 398 #
 399 # repl-backlog-ttl 3600
 400
 416 # It is possible for a master to stop accepting writes if there are less than
 417 # N slaves connected, having a lag less or equal than M seconds.
 418 #
 419 # The N slaves need to be in "online" state.
 420 #
 421 # The lag in seconds, that must be <= the specified value, is calculated from
 422 # the last ping received from the slave, that is usually sent every second.
 423 #
 424 # This option does not GUARANTEE that N replicas will accept the write, but
 425 # will limit the window of exposure for lost writes in case not enough slaves
 426 # are available, to the specified number of seconds.
 427 #
 428 # For example to require at least 3 slaves with a lag <= 10 seconds use:
 429 #
430 # min-slaves-to-write 3
 431 # min-slaves-max-lag 10
 432 #
 433 # Setting one or the other to 0 disables the feature.
 434 #
 435 # By default min-slaves-to-write is set to 0 (feature disabled) and
 436 # min-slaves-max-lag is set to 10.
 437
 438 # A Redis master is able to list the address and port of the attached
 439 # slaves in different ways. For example the "INFO replication" section
 440 # offers this information, which is used, among other tools, by
 441 # Redis Sentinel in order to discover slave instances.
 442 # Another place where this info is available is in the output of the
 443 # "ROLE" command of a masteer.
 444 #
 445 # The listed IP and address normally reported by a slave is obtained
 446 # in the following way:
 447 #
 448 #   IP: The address is auto detected by checking the peer address
 449 #   of the socket used by the slave to connect with the master.
 450 #
 451 #   Port: The port is communicated by the slave during the replication
 452 #   handshake, and is normally the port that the slave is using to
 453 #   list for connections.
 454 #
 455 # However when port forwarding or Network Address Translation (NAT) is
 456 # used, the slave may be actually reachable via different IP and port
 457 # pairs. The following two options can be used by a slave in order to
 458 # report to its master a specific set of IP and port, so that both INFO
 459 # and ROLE will report those values.
 460 #
 461 # There is no need to use both the options if you need to override just
 462 # the port or the IP address.
 463 #
 464 # slave-announce-ip 5.5.5.5
 465 # slave-announce-port 1234
  • 操作演示
##1. 在一台机器上创建3个redis.conf的配置文件,分别修改他们的端口、日志、pid文件
##2. 分别启动他们
[root@hadoop redis-3.2.8]# redis-server redis6379.conf
[root@hadoop redis-3.2.8]# redis-server redis6380.conf
[root@hadoop redis-3.2.8]# redis-server redis6381.conf

##3. 使用3个客户端分别连接到3个不同的服务端
[root@hadoop redis-3.2.8]# redis-cli -p 6379
[root@hadoop redis-3.2.8]# redis-cli -p 6380
[root@hadoop redis-3.2.8]# redis-cli -p 6381

##4. 查看各个客户端连接到服务端,服务端的状态
127.0.0.1:6379> INFO REPLICATION
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

127.0.0.1:6380> INFO REPLICATION
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0


127.0.0.1:6381> INFO REPLICATION
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

##5. 设置主从:一主二仆
127.0.0.1:6380> SLAVEOF hadoop 6379
OK
127.0.0.1:6381> SLAVEOF hadoop 6379
OK

# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6381,state=online,offset=43,lag=0
slave1:ip=127.0.0.1,port=6380,state=online,offset=43,lag=0
master_repl_offset:43
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:2
repl_backlog_histlen:42

127.0.0.1:6380> INFO REPLICATION
# Replication
role:slave
master_host:hadoop
master_port:6379
master_link_status:up
master_last_io_seconds_ago:4
master_sync_in_progress:0
slave_repl_offset:85
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0


127.0.0.1:6381> INFO REPLICATION
# Replication
role:slave
master_host:hadoop
master_port:6379
master_link_status:up
master_last_io_seconds_ago:2
master_sync_in_progress:0
slave_repl_offset:141
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

##6. 演示主从复制,读写分离
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> get k1
"v1"
127.0.0.1:6381> get k1
"v1"
127.0.0.1:6381> set k2 v2
(error) READONLY You can't write against a read only slave.

  • slave --》 master

当我们master挂掉的时候,从机会一直尝试连接master。但是如果master一直没有回来,群龙无首,关键写操作只有master才能够操作,所以如果一直保持这个样子,你的集群将不能写入数据。所以我们需要将从机转换位为主机。

  • 演示
##1. 切换6381成为新的master
127.0.0.1:6381> SLAVEOF no one ## 将当前从机重新定义为新的master
OK
127.0.0.1:6381> info replication
# Replication
role:master
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
127.0.0.1:6381>

##2. 6380重新以6381为master
127.0.0.1:6380> info replication
# Replication
role:slave
master_host:hadoop
master_port:6381
master_link_status:up
master_last_io_seconds_ago:6
master_sync_in_progress:0
slave_repl_offset:1
slave_priority:100
slave_read_only:1
connected_slaves:0
master_repl_offset:0
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0
  • 自动故障转移——哨兵模式

    ? 作用就是监控master,一旦主机宕机,就会从已有的从机中投票选举一个作为新的master。整个过程自动完成。

  • 操作

##1. 配置
[root@hadoop redis-3.2.8]# mkdir conf
[root@hadoop redis-3.2.8]# vi conf/sentinel.conf

sentinel monitor mymaster hadoop 6381 1

##2. 启动哨兵
[root@hadoop redis-3.2.8]# redis-sentinel conf/sentinel.conf

4.7.6 Redis的第二种持久化方式-AOF

############################## APPEND ONLY MODE ###############################

# AOF的持久化方式是它通过将所有的向redis的写操作记录到日志中的形式来帮助我们进行数据的恢复。我可以每1秒种记录一次,也可以每一次写操作都记录。但是这个模式默认是关闭的,所以我们需要手动的开启。在生产环境中我们一般都是RDB和AOF一起配合使用。
appendonly yes

# 指定AOF的日志文件名称
appendfilename "appendonly.aof"


# 配置AOF同步日志的策略
# appendfsync always ## 每一次写操作都记录日志
appendfsync everysec ## 每一秒中记录日志
# appendfsync no ## 不记录

4.8 Redis的五大类型

4.8.1 类型

  • string:redis的string的单个值最大只能存储512M
  • hash:类似于java中的map
  • list:列表,按照插入顺序进行排序。列表有两头,两头都可以查。
  • set:集合,他其实hashtable实现。无序不重复
  • zset:有序集合。有序(不是插入顺序)不重复

4.8.2 string

  • API

在这里插入图片描述

  • 测试
##1. set
127.0.0.1:6379> set k1 v1
OK

##2. get
127.0.0.1:6379> get k1
"v1"

##3. GETRANGE 获取指定的key的value的子串
127.0.0.1:6379> GETRANGE k2 0 1
"wu"

##4. KEYS : 将库中的所有的key查询罗列
127.0.0.1:6379> KEYS *
1) "k1"
2) "k2"

##5. GETSET : 先获取旧值,然后将新值覆盖旧值
127.0.0.1:6379> GETSET k2 v2
"wuliji"
127.0.0.1:6379> GET k2
"v2"

##6. GETBIT : 根据key获取指定的value的bit位的偏移量上的值(0,1)
127.0.0.1:6379> GETBIT k2 7
(integer) 0

##7. MGET key1 [key2..] : 获取多个key的值
127.0.0.1:6379> MGET k1 k2
1) "v1"
2) "v2"

##8. SETBIT key offset value : 修改指定key上的value的bit位的值
##9. SETEX key seconds value : 设置key的值并指定过期时间
127.0.0.1:6379> SETEX k3 5 v3
OK
127.0.0.1:6379> get k3
"v3"
127.0.0.1:6379> get k3
(nil)

##10. SETNX key value  : 如果值不存在就设置
127.0.0.1:6379> SETNX k4 v4
(integer) 1
127.0.0.1:6379> get k4
"v4"
127.0.0.1:6379> SETNX k4 v5
(integer) 0
127.0.0.1:6379> get k4
"v4"

##11. SETRANGE key offset value
127.0.0.1:6379> set k5 vvv555
OK
127.0.0.1:6379> get k5
"vvv555"
127.0.0.1:6379> SETRANGE k5 3 666
(integer) 6
127.0.0.1:6379> get k5
"vvv666"

##12. STRLEN key : 查看key对应的value的长度
127.0.0.1:6379> STRLEN k5
(integer) 6

##13. MSET key value [key value ...] 
127.0.0.1:6379> MSET k6 v6 k7 v7
OK
127.0.0.1:6379> MGET k6 k7
1) "v6"
2) "v7"

##14. MSETNX key value [key value ...]
127.0.0.1:6379> MSETNX k6 v888 k9 v9
(integer) 0
127.0.0.1:6379> MGET k6 k9
1) "v666"
2) (nil)

##15. PSETEX key milliseconds value
127.0.0.1:6379> PSETEX k10 5000 v10
OK
127.0.0.1:6379> get k10
"v10"
127.0.0.1:6379> get k10
(nil)

##16. INCR key 自增值
127.0.0.1:6379> INCR k1
(integer) 1
127.0.0.1:6379> INCR k1
(integer) 2
127.0.0.1:6379> INCR k1
(integer) 3

127.0.0.1:6379> SET k2 v2
OK
127.0.0.1:6379> INCR k2
(error) ERR value is not an integer or out of range

##17. INCRBY key increment
127.0.0.1:6379> INCRBY k3 10
(integer) 10
127.0.0.1:6379> INCRBY k3 10
(integer) 20
127.0.0.1:6379> INCRBY k3 10
(integer) 30

##18. INCRBYFLOAT key increment 
127.0.0.1:6379> INCRBYFLOAT k4 1.1
"1.1"
127.0.0.1:6379> INCRBYFLOAT k4 1.1
"2.2"
127.0.0.1:6379> INCRBYFLOAT k4 1.1
"3.3"

##19. DECR key 
127.0.0.1:6379> DECR k1
(integer) 2
127.0.0.1:6379> DECR k1
(integer) 1

##20. APPEND key value
127.0.0.1:6379> APPEND k1 lixi
(integer) 5
127.0.0.1:6379> get k1
"1lixi"

4.8.3 key

  • API

在这里插入图片描述

  • 测试
##1. DEL :删除key
127.0.0.1:6379> DEL k4
(integer) 1
127.0.0.1:6379> KEYS *
1) "k1"
2) "k3"
3) "k2"

##2. DUMP : 将key值序列化展示
127.0.0.1:6379> DUMP k1
"\x00\x051lixi\a\x00\x80j\xfa\xaa}\xb3\xda\x89"

##3. MOVE key db 将当前库的key移动到指定的库中
127.0.0.1:6379> KEYS *
1) "k1"
2) "k3"
3) "k2"
127.0.0.1:6379> select 1
OK
127.0.0.1:6379[1]> KEYS *
(empty list or set)
127.0.0.1:6379[1]> select 0
OK
127.0.0.1:6379> MOVE k1 1
(integer) 1
127.0.0.1:6379> SELECT 1
OK
127.0.0.1:6379[1]> KEYS *
1) "k1"

##4. PTTL/TTL : 设置key的过期时间
127.0.0.1:6379[1]> EXPIRE k1 120
(integer) 1
127.0.0.1:6379[1]> TTL k1
(integer) 95
127.0.0.1:6379[1]> TTL k1
(integer) 94
127.0.0.1:6379[1]> TTL k1
(integer) 93
127.0.0.1:6379[1]> PTTL k1
(integer) 90554
127.0.0.1:6379[1]>

4.8.4 list

  • API

在这里插入图片描述

  • 测试
##1. LPOP/RPOP : 从列表的左/右弹数据出来
127.0.0.1:6379> LPOP list1
"5"
127.0.0.1:6379> RPOP list1
"1"

##2. LPUSH/RPUSH :左/右推数据到列表,没有右推
127.0.0.1:6379> LPUSH list1 1 2 3 4 5
(integer) 5
127.0.0.1:6379> KEYS *
1) "list1"

##3. LRANGE : 从左边获取到数据
127.0.0.1:6379> LRANGE list1 0 2
1) "4"
2) "3"
3) "2"


##4. LINDEX : 获取到指定索引的单个元素
127.0.0.1:6379> LINDEX list1 0
"4"
127.0.0.1:6379> LINDEX list1 2
"2"

127.0.0.1:6379> LINDEX list1 -1
"2"
127.0.0.1:6379> LINDEX list1 -2
"3"

##5. BLPOP/BRPOP : 从左/右弹出第一个列表的元素,如果第一个列表没有,就弹出第二个列表的元素
127.0.0.1:6379> BLPOP list2 list1 1
1) "list2"
2) "5"
127.0.0.1:6379> BLPOP list1 list2 1
1) "list1"
2) "2"
127.0.0.1:6379> BLPOP list1 list2 1
1) "list2"
2) "4"
127.0.0.1:6379> BLPOP list1 list2 1
1) "list2"
2) "3"
127.0.0.1:6379> BLPOP list1 list2 1
1) "list2"
2) "2"

##6. BRPOPLPUSH
127.0.0.1:6379> BRPOPLPUSH list2 list3 1000
"1"
127.0.0.1:6379> LRANGE list2 0 -1
(empty list or set)
127.0.0.1:6379> LRANGE list3 0 -1
1) "1"

##7. LREM : 删除列表中的指定的元素
127.0.0.1:6379> LPUSH list3 1 1 1 1 1 2 2 2 2 1 1 1 3 1 3 1 3
(integer) 30
127.0.0.1:6379>
127.0.0.1:6379> LRANGE list3 0 -1
 1) "3"
 2) "1"
 3) "3"
 4) "1"
 5) "3"
 6) "1"
 7) "1"
 8) "1"
 9) "2"
10) "2"
11) "2"
12) "2"
13) "1"
14) "1"
15) "1"
16) "1"
17) "1"
18) "3"
19) "3"
20) "3"
21) "2"
22) "2"
23) "2"
24) "2"
25) "1"
26) "1"
27) "1"
28) "1"
29) "1"
30) "1"
127.0.0.1:6379> LREM list3 5 1
(integer) 5
127.0.0.1:6379> LRANGE list3 0 -1
 1) "3"
 2) "3"
 3) "3"
 4) "2"
 5) "2"
 6) "2"
 7) "2"
 8) "1"
 9) "1"
10) "1"
11) "1"
12) "1"
13) "3"
14) "3"
15) "3"
16) "2"
17) "2"
18) "2"
19) "2"
20) "1"
21) "1"
22) "1"
23) "1"
24) "1"
25) "1"

##8. LSET 向指定索引处替换值
127.0.0.1:6379> LSET list3 1 666
OK
127.0.0.1:6379> LRANGE list3 0 -1
 1) "3"
 2) "666"
 3) "3"
 4) "2"
 5) "2"
 6) "2"
 7) "2"
 8) "1"
 9) "1"
10) "1"
11) "1"
12) "1"
13) "3"
14) "3"
15) "3"
16) "2"
17) "2"
18) "2"
19) "2"
20) "1"
21) "1"
22) "1"
23) "1"
24) "1"
25) "1"

##9. LTRIM 保留指定区间的元素
127.0.0.1:6379> LTRIM list3 3 6
OK
127.0.0.1:6379> LRANGE list3 0 -1
1) "2"
2) "2"
3) "2"
4) "2"

4.8.5 set

  • API

在这里插入图片描述

  • 测试
##1. SADD key member1 [member2] 向集合添加一个或多个成员
127.0.0.1:6379> SADD set1  1 2 3 4 5 1 2 6
(integer) 6

##2. SCARD key 获取集合的成员数
127.0.0.1:6379> SCARD set1
(integer) 6

##3. SMEMBERS key 返回集合中的所有成员
127.0.0.1:6379> SMEMBERS set1
1) "1"
2) "2"
3) "3"
4) "4"
5) "5"
6) "6"

##4. SISMEMBER key member 判断 member 元素是否是集合 key 的成员
127.0.0.1:6379> SISMEMBER set2 6
(integer) 1
127.0.0.1:6379> SISMEMBER set2 0
(integer) 0

##5. SMOVE source destination member 将 member 元素从 source 集合移动到 destination 集合
127.0.0.1:6379> SMOVE set2 set3 2
(integer) 1
127.0.0.1:6379> SMEMBERS set3
1) "2"

##6. 交集
127.0.0.1:6379> SINTER set1 set3
1) "2"

##7. 并集

127.0.0.1:6379> SUNION set1 set4
1) "1"
2) "2"
3) "3"
4) "4"
5) "5"
6) "6"
7) "7"
8) "9"

##8. 差集
127.0.0.1:6379> SDIFF set2 set3
1) "1"
2) "3"
3) "4"
4) "5"
5) "6"
127.0.0.1:6379> SDIFF set3 set2
(empty list or set)

4.8.6 Hash

  • API

在这里插入图片描述

  • 测试
##1. HSET key field value 将哈希表 key 中的字段 field 的值设为 value 。
127.0.0.1:6379> HSET p1 name wuliji
(integer) 1
127.0.0.1:6379> HSET p1 sex man
(integer) 1
127.0.0.1:6379> HSET p1 age 18
(integer) 1

##2. HGET key field 获取存储在哈希表中指定字段的值
127.0.0.1:6379> HGET p1 name
"wuliji"
127.0.0.1:6379> HGET p1 sex
"man"

##3. HGETALL key 获取在哈希表中指定 key 的所有字段和值
127.0.0.1:6379> HGETALL p1
1) "name"
2) "wuliji"
3) "sex"
4) "man"
5) "age"
6) "18"

##4. HDEL key field2 [field2] 删除一个或多个哈希表字段
127.0.0.1:6379> HDEL p1 sex age
(integer) 2
127.0.0.1:6379> HGET p1 sex
(nil)

##5.  	HINCRBY key field increment 为哈希表 key 中的指定字段的整数值加上增量 increment 。
127.0.0.1:6379> HINCRBY p1 age 2
(integer) 2
127.0.0.1:6379> HINCRBY p1 age 2
(integer) 4
127.0.0.1:6379> HINCRBY p1 age 2
(integer) 6
127.0.0.1:6379> HINCRBY p1 age 2
(integer) 8

##6. HVALS key 获取哈希表中所有值
127.0.0.1:6379> HVALS p1
1) "wuliji"
2) "8"

4.8.6 Sorted Set(ZSet)

  • API

在这里插入图片描述

  • 测试
##1. ZADD key score1 member1 [score2 member2] 向有序集合添加一个或多个成员,或者更新已存在成员的分数
127.0.0.1:6379> ZADD zset1 100 v1 99 v2 101 v3
(integer) 3

##2. ZRANGE key start stop [WITHSCORES] 通过索引区间返回有序集合成指定区间内的成员
127.0.0.1:6379> ZRANGE zset1 0 -1
1) "v2"
2) "v1"
3) "v3"
127.0.0.1:6379> ZRANGE zset1 0 -1 WITHSCORES
1) "v2"
2) "99"
3) "v1"
4) "100"
5) "v3"
6) "101"

##3. ZRANK key member 返回有序集合中指定成员的索引
127.0.0.1:6379> ZRANK zset1 v1
(integer) 1

##4. ZREMRANGEBYSCORE key min max 移除有序集合中给定的分数区间的所有成员
127.0.0.1:6379> ZRANGE zset1 0 -1
1) "v5"
2) "v4"
3) "v2"
4) "v1"
5) "v3"
6) "v6"
127.0.0.1:6379> ZREMRANGEBYSCORE zset1 77 99
(integer) 3
127.0.0.1:6379> ZRANGE zset1 0 -1
1) "v1"
2) "v3"
3) "v6"

##5. ZREVRANK key member 返回有序集合中指定成员的排名,有序集成员按分数值递减(从大到小)排序
127.0.0.1:6379> ZRANGE zset1 0 -1
1) "v1"
2) "v3"
3) "v6"
127.0.0.1:6379> ZREVRANK zset1 v6
(integer) 0
127.0.0.1:6379> ZREVRANK zset1 v3
(integer) 1
127.0.0.1:6379> ZREVRANK zset1 v1
(integer) 2

4.9 Redis事务

4.9.1 API

在这里插入图片描述

4.9.2 事务

MULTIEXECDISCARDWATCH 是 Redis 事务相关的命令。事务可以一次执行多个命令, 并且带有以下两个重要的保证:

  • 事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。
  • 事务是一个原子操作:事务中的命令要么全部被执行,要么全部都不执行。

EXEC 命令负责触发并执行事务中的所有命令:

  • 如果客户端在使用 MULTI 开启了一个事务之后,却因为断线而没有成功执行 EXEC ,那么事务中的所有命令都不会被执行。
  • 另一方面,如果客户端成功在开启事务之后执行 EXEC ,那么事务中的所有命令都会被执行。

4.9.3 测试

##1. 测试1 —— 事务提交
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> EXEC
1) OK
2) OK
3) OK

127.0.0.1:6379> KEYS *  ## 在事务未提交之前,我们是在另外的客户端中不能查看到这些数据
(empty list or set)
127.0.0.1:6379> KEYS *
1) "k1"
2) "k3"
3) "k2"
127.0.0.1:6379>

##2. 事务回滚
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k4 v4
QUEUED
127.0.0.1:6379> DISCARD
OK

##3. 原子性测试1——株连九族
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> GETSET k4
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> EXEC
(error) EXECABORT Transaction discarded because of previous errors.
127.0.0.1:6379> get k1
(nil)

##4. 原子性测试2——冤有头债有主
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> INCR k1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> INCR k3
QUEUED
127.0.0.1:6379> EXEC
1) (integer) 1
2) OK
3) OK
4) (error) ERR value is not an integer or out of range
127.0.0.1:6379> get k1
"1"
127.0.0.1:6379> get k2
"v2"
127.0.0.1:6379> get k3
"v3"

4.9.4 Watch

乐观锁的方式进行数据安全保证。

在这里插入图片描述

  • 演示
##1. 模拟信心卡记录
##1.1 客户端A
127.0.0.1:6379> watch balance
OK
127.0.0.1:6379> set balance 100
OK
127.0.0.1:6379> set debt 0
OK
127.0.0.1:6379> watch balance
OK
127.0.0.1:6379> MULTI
OK
127.0.0.1:6379> DECRBY balance 20
QUEUED
127.0.0.1:6379> INCRBY debt 20
QUEUED
127.0.0.1:6379> EXEC
(nil)
127.0.0.1:6379> get balance
"200"
127.0.0.1:6379>

##1.2 客户端B : 保证客户端A提交事务之前执行命令
127.0.0.1:6379> get balance
"100"
127.0.0.1:6379> set balance 200
OK

4.10 发布/订阅

在这里插入图片描述

  • API

在这里插入图片描述

  • 演示
##1. 客户端订阅了频道
127.0.0.1:6379> SUBSCRIBE nba cba aba mba
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "nba"
3) (integer) 1
1) "subscribe"
2) "cba"
3) (integer) 2
1) "subscribe"
2) "aba"
3) (integer) 3
1) "subscribe"
2) "mba"
3) (integer) 4

##2. 发布者发布消息
127.0.0.1:6379> PUBLISH nba wulijiIsMvp
(integer) 1
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-06-16 21:45:45  更:2022-06-16 21:46:55 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 16:45:52-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码