Redis学习笔记

一、Redis简介
1.什么是Redis

Redis(Remote Dictionary Server)是一个开源的使用ANSIC语言编写的,支持网络,基于内存的以Key-Value形式存储的非关系型数据库。

2.Redis的优点
  • 支持多种数据结构,如string(字符串)、list(链表)、dict(hash表)、set(集合)、zset(排序set)、hyperloglog(基数估算)。
  • 支持持久化操作,可以进行aof及rdb数据持久化到磁盘,从而进行数据备份及数据恢复等操作,可以防止数据丢失。
  • 支持通过Replication进行数据复制,通过master-slave机制,可以实时的进行数据的同步复制,支持多级复制和增量复制,master-slave 机制是 Redis 进行高可用的重要手段。
  • 单进程请求,所有命令串行执行,并发情况不需要考虑数据一致性问题。
二、安装Redis单机版
  • 在Linux系统中安装gcc
yum install -y gcc-c++
  • 解压压缩包
tar -zxf redis...
  • 编译redis
    进入 redis 的解压完毕的根目录下 执行
make
  • 安装redis
    进入Redis解压完成的根目录下,执行
make install PREFIX=/usr/local/redis
  • 启动redis
前置启动

bin目录下执行:

./redis-server

(ctrl+c)退出redis

后置启动

先将 redis 解压目录下的 redis.conf 文件拷贝到 安装好的 redis 的 bin 目录下

cp redis.conf /usr/local/redis/bin

修改拷贝过来的 redis.conf 配置文件

vim redis.conf

将 daemonize no 改为 yes

启动redis
在 bin 目录下执行

./redis-server redis.conf

查看 redis 启动是否成功

ps aux|grep redis

关闭redis

./redis-cli shutdown
  • 测试redis
    在 bin 目录下启动 redis 自带的客户端
./redis-cli

常见命令:

ping--->pong
三、Redis数据类型
1.String类型

Redis字符串是字符序列,Redis 字符串是二进制安全的,这意味着他们有一个已知的长度没有任何特殊字符终止,所以你可以存储任何东西,512 兆为上限

示例:
127.0.0.1:6379> set name tom
OK
127.0.0.1:6379> get name
"tom"

incr:让当前键值以 1 的数量递增,并返回递增后的值
incrby:可以指定参数一次增加的数值,并返回递增后的值
decr:让当前键值以 1 的数量递减 并返回递减后的值
decrby:可以指定参数一次递减的数值,并返回递减后的值
incrbyfloat:可以递增一个双精度浮点数
append:作用是向键值的末尾追加 value。如果键不存在则将该键的值设置为 value。返回值是追加后字符串的总长度。
mget/mset:作用与 get/set 相似,不过 mget/mset 可以同时获得/设置多个键的键值
del:根据 key 来删除 value
flushdb:清除当前库的所有数据

2.Hash类型
image.png

Redis 的哈希是键值对的集合。 Redis 的哈希值是字符串字段和字符串值之间的映射。

示例:
127.0.0.1:6379> hset user name alice 
(integer) 1
127.0.0.1:6379> hget user name
"alice"

hset 存储一个哈希键值对的集合
hset key field value

hget 获取一个哈希键的值
hget key field

hmset 存储一个或多个哈希是键值对的集合
hmset key field1 value1 ......fieldN keyN

hmget 获取多个指定的键的值
hmget key field1 ... fieldN

hexists 判断哈希表中的字段名是否存在 如果存在返回 1 否则返回 0
hexists key field

hdel 删除一个或多个字段
hdel key field

hgetall 获取一个哈希的键值对的集合
hgetall key

hvals 只返回字段值
hvals key

hkeys 只返回字段名
hkeys key

hlen 返回 key 的 hash 的元素个数
hlen key

3.List
image.png

Redis 的链表是简单的字符串列表,排序插入顺序。您可以添加元素到Redis 的列表的头部或尾部

示例:

入队

127.0.0.1:6379> lpush database redis
(integer) 1
127.0.0.1:6379> lpush database mongodb
(integer) 2
127.0.0.1:6379> rpush database mysql
(integer) 3

出队

127.0.0.1:6379> lpop database
"mongodb"
127.0.0.1:6379> rpop database
"mysql"

lpush key value:向链表左侧添加
rpush key value:向链表右侧添加
lpop key:从左边移出一个元素
rpop key:从右边移出一个元素
llen key:返回链表中元素的个数 相当于关系型数据库中 select count(*)

lrange key start end:lrange命令将返回索引从 start 到 stop 之间的所有元素。Redis 的列表起始索引为 0。

lrange 也支持负索引:lrange key -2 -1 如 -1 表示最右边第一个元素 -2 表示最右边第二个元素,依次类推。

lindex key indexnumber:如果要将列表类型当做数组来用,lindex 命令是必不可少的。lindex 命令用来返回指定索引的元素,索引从 0 开始。如果是负数表示从右边开始计算的索引,最右边元素的索引是-1。

lset key indexnumber value 是另一个通过索引操作列表的命令,它会将索引为 index的元素赋值为 value。

4.Set
image.png

Redis 的集合是字符串的无序集合。

示例:
127.0.0.1:6379> sadd family father mather child
(integer) 3

127.0.0.1:6379> sadd family father
(integer) 0

127.0.0.1:6379> smembers family
1) "father"
2) "mather"
3) "child"

sadd key value:添加一个 string元素到key对应的set集合中,成功返回 1,如果元素已经在集合中返回0

scard key:返回set的元素个数,如果set是空或者key不存在返回0

smembers key:返回key对应set的所有元素,结果是无序的

sismember key value:判断 value 是否在set中,存在返回1,0表示不存在或者key不存在

srem key value:从key对应set中移除给定元素,成功返回1,如果 value在集合中不存在或者 key 不存在返回 0

5.SortedSet(有序集合)zset

Redis 的有序集合类似于 Redis 的集合,字符串不重复的集合

示例:
127.0.0.1:6379> zadd user 0 tom
(integer) 1
127.0.0.1:6379> zadd user 0 jack
(integer) 1
127.0.0.1:6379> zadd user 0 jack
(integer) 0

zadd key score value:将一个或多个value及其socre加入到 set 中

zrange key start end:0 和-1 表示从索引为 0 的元素到最后一个元素(同 LRANGE 命令相似)

zrange key 0 -1:withscores 也可以连同 score 一块输出,使用 WITHSCORES 参数

zremrangebyscore key start end 可用于范围删除操作

6.Redis的其他命令

ping:测试 redis 是否链接 如果已链接返回 PONG
echo value:测试 redis 是否链接 如果已链接返回 echo 命令后给定的值
keys :返回所有的 key 可以加通配
exists key:判断 string 类型一个 key 是否存在 如果存在返回 1 否则返回 0
expire key time(s):设置一个 key 的过期时间 单位秒。时间到达后会删除 key 及 value
ttl key:查询已设置过期时间的 key 的剩余时间 如果返回-2 表示该键值对已经被删除
persist:移除给定 key 的过期时间
select dbindex:选择数据库(0-15)
move key dbIndex:将当前数据库中的 key 转移到其他数据库中
dbsize:返回当前数据库中的 key 的数目
info:获取服务器的信息和统计
flushdb:删除当前选择的数据库中的 key
flushall:删除所有数据库中的所有 key
quit:退出连接

四、Redis配置文件及持久化方案
1.redis.conf文件
#redis.conf
# Redis configuration file example.
# ./redis-server /path/to/redis.conf
################################## INCLUDES
###################################
#这在你有标准配置模板但是每个 redis 服务器又需要个性设置的时候很有用。
# include /path/to/local.conf
# include /path/to/other.conf
################################ GENERAL #####################################
#是否在后台执行,yes:后台运行;no:不是后台运行(老版本默认)
daemonize yes
#3.2 里的参数,是否开启保护模式,默认开启。要是配置里没有指定 bind 和密码。开启该参数后,redis
#只会本地进行访问,拒绝外部访问。要是开启了密码 和 bind,可以开启。否 则最好关闭,设置为no。
protected-mode yes
#redis 的进程文件
pidfile /var/run/redis/redis-server.pid
#redis 监听的端口号。
port 6379
#此参数确定了 TCP 连接中已完成队列(完成三次握手之后)的长度, 当然此值必须不大于 Linux 系统定
#义的/proc/sys/net/core/somaxconn 值,默认是 511,而 Linux 的默认参数值是 128。当系统并
#发量大并且客户端速度缓慢的时候,可以将这二个参数一起参考设定。该内核参数默认值一般是 128,对
#于负载很大的服务程序来说大大的不够。一般会将它修改为 2048 或者更大。在/etc/sysctl.conf 中
#添加:net.core.somaxconn = 2048,然后在终端中执行 sysctl -p。
tcp-backlog 511
#指定 redis 只接收来自于该 IP 地址的请求,如果不进行设置,那么将处理所有请求
#bind 127.0.0.1
#配置 unix socket 来让 redis 支持监听本地连接。
# unixsocket /var/run/redis/redis.sock
#配置 unix socket 使用文件的权限
# unixsocketperm 700
# 此参数为设置客户端空闲超过 timeout,服务端会断开连接,为 0 则服务端不会主动断开连接,不能小于 0。
timeout 0
#tcp keepalive 参数。如果设置不为 0,就使用配置 tcp 的SO_KEEPALIVE 值,使用 keepalive 有两个好处:检测挂掉的对端。降低中间设备出问题而导致网络看似连接却已经与对端端口的问题。在 Linux
#内核中,设置了 keepalive,redis 会定时给对端发送 ack。检测到对端关闭需要两倍的设置值。
tcp-keepalive 0
#指定了服务端日志的级别。级别包括:debug(很多信息,方便开发、测试),verbose(许多有用的信息,但是没有 debug 级别信息多),notice(适当的日志级别,适合生产环境),warn(只有非常重要的信息)
loglevel notice
#指定了记录日志的文件。空字符串的话,日志会打印到标准输出设备。后台运行的 redis 标准输出是
/dev/null。
logfile /var/log/redis/redis-server.log
#是否打开记录 syslog 功能
# syslog-enabled no
#syslog 的标识符。
# syslog-ident redis
#日志的来源、设备
# syslog-facility local0
#数据库的数量,默认使用的数据库是 DB 0。可以通过”SELECT “命令选择一个 db
databases 16
################################ SNAPSHOTTING ################################
# 快照配置
# 注释掉“save”这一行配置项就可以让保存数据库功能失效
# 设置 sedis 进行数据库镜像的频率。
# 900 秒(15 分钟)内至少 1 个 key 值改变(则进行数据库保存--持久化)
# 300 秒(5 分钟)内至少 10 个 key 值改变(则进行数据库保存--持久化)
# 60 秒(1 分钟)内至少 10000 个 key 值改变(则进行数据库保存--持久化)
save 900 1
save 300 10
save 60 10000
#当 RDB 持久化出现错误后,是否依然进行继续进行工作,yes:不能进行工作,no:可以继续进行工作,
#可以通过 info 中的 rdb_last_bgsave_status 了解 RDB 持久化是否有错误
stop-writes-on-bgsave-error yes
#使用压缩 rdb 文件,rdb 文件压缩使用 LZF 压缩算法,yes:压缩,但是需要一些 cpu 的消耗。no:不
#压缩,需要更多的磁盘空间
rdbcompression yes
#是否校验 rdb 文件。从 rdb 格式的第五个版本开始,在 rdb 文件的末尾会带上 CRC64 的校验和。这跟
#有利于文件的容错性,但是在保存 rdb 文件的时候,会有大概 10%的性能损耗,所以如果你追求高性能,可以关闭该配置。
rdbchecksum yes
#rdb 文件的名称
dbfilename dump.rdb
#数据目录,数据库的写入会在这个目录。rdb、aof 文件也会写在这个目录
dir /root/temp
################################# REPLICATION
#################################
#复制选项,slave 复制对应的 master。
# slaveof <masterip> <masterport>
#如果 master 设置了 requirepass,那么 slave 要连上 master,需要有 master 的密码才行。
#masterauth 就是用来配置 master 的密码,这样可以在连上 master 后进行认证。
# masterauth <master-password>
#当从库同主机失去连接或者复制正在进行,从机库有两种运行方式:1) 如果
#slave-serve-stale-data 设置为 yes(默认设置),从库会继续响应客户端的请求。2) 如果
#slave-serve-stale-data 设置为 no,除去 INFO 和 SLAVOF 命令之外的任何请求都会返回一个错误”SYNC with master in progress”。
slave-serve-stale-data yes
#作为从服务器,默认情况下是只读的(yes),可以修改成 NO,用于写(不建议)。
slave-read-only yes
#是否使用 socket 方式复制数据。目前 redis 复制提供两种方式,disk 和 socket。如果新的 slave连上来或者重连的 slave 无法部分同步,就会执行全量同步,master 会生成 rdb 文件。有 2 种方式:
#disk 方式是 master 创建一个新的进程把 rdb 文件保存到磁盘,再把磁盘上的 rdb 文件传递给 slave。
#socket 是 master 创建一个新的进程,直接把 rdb 文件以 socket 的方式发给 slave。disk 方式的时候,当一个 rdb 保存的过程中,多个 slave 都能共享这个 rdb 文件。socket 的方式就的一个个 slave顺序复制。在磁盘速度缓慢,网速快的情况下推荐用 socket 方式。
repl-diskless-sync no
#diskless 复制的延迟时间,防止设置为 0。一旦复制开始,节点不会再接收新 slave 的复制请求直到下一个 rdb 传输。所以最好等待一段时间,等更多的 slave 连上来。
repl-diskless-sync-delay 5
#slave 根据指定的时间间隔向服务器发送 ping 请求。时间间隔可以通过 repl_ping_slave_period来设置,默认 10 秒。
# repl-ping-slave-period 10
#复制连接超时时间。master 和 slave 都有超时时间的设置。master 检测到 slave 上次发送的时间超过 repl-timeout,即认为 slave 离线,清除该 slave 信息。slave 检测到上次和 master 交互的时间超过 repl-timeout,则认为 master 离线。需要注意的是 repl-timeout 需要设置一个比repl-ping-slave-period 更大的值,不然会经常检测到超时。
# repl-timeout 60
#是否禁止复制 tcp 链接的 tcp nodelay 参数,可传递 yes 或者 no。默认是 no,即使用 tcp nodelay。
#如果 master 设置了 yes 来禁止 tcp nodelay 设置,在把数据复制给 slave 的时候,会减少包的数量和更小的网络带宽。但是这也可能带来数据的延迟。默认我们推荐更小的延迟,但是在数据量传输很大的场景下,建议选择 yes。
repl-disable-tcp-nodelay no
#复制缓冲区大小,这是一个环形复制缓冲区,用来保存最新复制的命令。这样在 slave 离线的时候,不需要完全复制 master 的数据,如果可以执行部分同步,只需要把缓冲区的部分数据复制给 slave,就能恢复正常复制状态。缓冲区的大小越大,slave 离线的时间可以更长,复制缓冲区只有在有 slave 连接的时候才分配内存。没有 slave 的一段时间,内存会被释放出来,默认 1m。
# repl-backlog-size 5mb
#master 没有 slave 一段时间会释放复制缓冲区的内存,repl-backlog-ttl 用来设置该时间长度。单位为秒。
# repl-backlog-ttl 3600
#当 master 不可用,Sentinel 会根据 slave 的优先级选举一个 master。最低的优先级的 slave,当选 master。而配置成 0,永远不会被选举。
slave-priority 100
#redis 提供了可以让 master 停止写入的方式,如果配置了 min-slaves-to-write,健康的 slave的个数小于 N,mater 就禁止写入。master 最少得有多少个健康的 slave 存活才能执行写命令。这个配置虽然不能保证 N 个 slave 都一定能接收到 master 的写操作,但是能避免没有足够健康的slave 的时候,master 不能写入来避免数据丢失。设置为 0 是关闭该功能。
# min-slaves-to-write 3
#延迟小于 min-slaves-max-lag 秒的 slave 才认为是健康的 slave。
# min-slaves-max-lag 10
# 设置 1 或另一个设置为 0 禁用这个特性。
# Setting one or the other to 0 disables the feature.
# By default min-slaves-to-write is set to 0 (feature disabled) and
# min-slaves-max-lag is set to 10.
################################## SECURITY
###################################
#requirepass 配置可以让用户使用 AUTH 命令来认证密码,才能使用其他命令。这让 redis 可以使用在不受信任的网络中。为了保持向后的兼容性,可以注释该命令,因为大部分用户也不需要认证。使用requirepass 的时候需要注意,因为 redis 太快了,每秒可以认证 15w 次密码,简单的密码很容易被攻破,所以最好使用一个更复杂的密码。
# requirepass foobared
#把危险的命令给修改成其他名称。比如 CONFIG 命令可以重命名为一个很难被猜到的命令,这样用户不能使用,而内部工具还能接着使用。
# rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
#设置成一个空的值,可以禁止一个命令
# rename-command CONFIG ""
################################### LIMITS
####################################
# 设置能连上 redis 的最大客户端连接数量。默认是 10000 个客户端连接。由于 redis 不区分连接是客户端连接还是内部打开文件或者和 slave 连接等,所以 maxclients 最小建议设置到 32。如果超过了maxclients,redis 会给新的连接发送’max number of clients reached’,并关闭连接。
# maxclients 10000
#redis 配置的最大内存容量。当内存满了,需要配合 maxmemory-policy 策略进行处理。注意 slave的输出缓冲区是不计算在 maxmemory 内的。所以为了防止主机内存使用完,建议设置的 maxmemory 需要更小一些。
# maxmemory <bytes>
#内存容量超过 maxmemory 后的处理策略。
#volatile-lru:利用 LRU 算法移除设置过过期时间的 key。
#volatile-random:随机移除设置过过期时间的 key。
#volatile-ttl:移除即将过期的 key,根据最近过期时间来删除(辅以 TTL)
#allkeys-lru:利用 LRU 算法移除任何 key。
#allkeys-random:随机移除任何 key。
#noeviction:不移除任何 key,只是返回一个写错误。
#上面的这些驱逐策略,如果 redis 没有合适的 key 驱逐,对于写命令,还是会返回错误。redis 将不再接收写请求,只接收 get 请求。写命令包括:set setnx setex append incr decr rpush lpushrpushx lpushx linsert lset rpoplpush sadd sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby zunionstore zinterstore hset hsetnx hmset hincrbyincrby decrby getset mset msetnx exec sort。
# maxmemory-policy noeviction
#lru 检测的样本数。使用 lru 或者 ttl 淘汰算法,从需要淘汰的列表中随机选择 sample 个 key,选出闲置时间最长的 key 移除。
# maxmemory-samples 5
############################## APPEND ONLY MODE ###############################
#默认 redis 使用的是 rdb 方式持久化,这种方式在许多应用中已经足够用了。但是 redis 如果中途宕机,会导致可能有几分钟的数据丢失,根据 save 来策略进行持久化,Append Only File 是另一种持久化方式,可以提供更好的持久化特性。Redis 会把每次写入的数据在接收后都写入appendonly.aof文件,每次启动时 Redis 都会先把这个文件的数据读入内存里,先忽略 RDB 文件。
appendonly no
#aof 文件名
appendfilename "appendonly.aof"
#aof 持久化策略的配置
#no 表示不执行 fsync,由操作系统保证数据同步到磁盘,速度最快。
#always 表示每次写入都执行 fsync,以保证数据同步到磁盘。
#everysec 表示每秒执行一次 fsync,可能会导致丢失这 1s 数据。
appendfsync everysec
# 在 aof 重写或者写入 rdb 文件的时候,会执行大量 IO,此时对于 everysec 和 always 的 aof 模式来说,执行 fsync 会造成阻塞过长时间,no-appendfsync-on-rewrite 字段设置为默认设置为 no。如果对延迟要求很高的应用,这个字段可以设置为 yes,否则还是设置为 no,这样对持久化特性来说这是更安全的选择。设置为 yes 表示 rewrite 期间对新写操作不 fsync,暂时存在内存中,等 rewrite 完成后再写入,默认为 no,建议 yes。Linux 的默认 fsync 策略是 30 秒。可能丢失 30 秒数据。
no-appendfsync-on-rewrite no
#aof 自动重写配置。当目前 aof 文件大小超过上一次重写的 aof 文件大小的百分之多少进行重写,即当aof 文件增长到一定大小的时候 Redis 能够调用 bgrewriteaof 对日志文件进行重写。当前 AOF 文件大小是上次日志重写得到 AOF 文件大小的二倍(设置为 100)时,自动启动新的日志重写过程。
auto-aof-rewrite-percentage 100
#设置允许重写的最小 aof 文件大小,避免了达到约定百分比但尺寸仍然很小的情况还要重写
auto-aof-rewrite-min-size 64mb
#aof 文件可能在尾部是不完整的,当 redis 启动的时候,aof 文件的数据被载入内存。重启可能发生在redis 所在的主机操作系统宕机后,尤其在 ext4 文件系统没有加上 data=ordered 选项(redis 宕机或者异常终止不会造成尾部不完整现象。)出现这种现象,可以选择让 redis 退出,或者导入尽可能多的数据。如果选择的是 yes,当截断的 aof 文件被导入的时候,会自动发布一个 log 给客户端然后 load。如果是 no,用户必须手动 redis-check-aof 修复 AOF 文件才可以。
aof-load-truncated yes
################################ LUA SCRIPTING ###############################
# 如果达到最大时间限制(毫秒),redis 会记个 log,然后返回 error。当一个脚本超过了最大时限。只有 SCRIPT KILL 和 SHUTDOWN NOSAVE 可以用。第一个可以杀没有调 write 命令的东西。要是已经调用了 write,只能用第二个命令杀。
lua-time-limit 5000
################################ REDIS CLUSTER ###############################
#集群开关,默认是不开启集群模式。
# cluster-enabled yes
#集群配置文件的名称,每个节点都有一个集群相关的配置文件,持久化保存集群的信息。这个文件并不需要手动配置,这个配置文件有 Redis 生成并更新,每个 Redis 集群节点需要一个单独的配置文件,请确保与实例运行的系统中配置文件名称不冲突
# cluster-config-file nodes-6379.conf
#节点互连超时的阀值。集群节点超时毫秒数
# cluster-node-timeout 15000
#在进行故障转移的时候,全部 slave 都会请求申请为 master,但是有些 slave 可能与 master 断开连接一段时间了,导致数据过于陈旧,这样的 slave 不应该被提升为 master。该参数就是用来判断 slave节点与 master 断线的时间是否过长。判断方法是:
#比较 slave 断开连接的时间和(node-timeout * slave-validity-factor) +
repl-ping-slave-period
#如果节点超时时间为三十秒, 并且 slave-validity-factor 为 10,假设默认的repl-ping-slave-period 是 10 秒,即如果超过 310 秒 slave 将不会尝试进行故障转移
# cluster-slave-validity-factor 10
#master 的 slave 数量大于该值,slave 才能迁移到其他孤立 master 上,如这个参数若被设为 2,那么只有当一个主节点拥有 2 个可工作的从节点时,它的一个从节点会尝试迁移。
# cluster-migration-barrier 1
#默认情况下,集群全部的 slot 有节点负责,集群状态才为 ok,才能提供服务。设置为 no,可以在 slot没有全部分配的时候提供服务。不建议打开该配置,这样会造成分区的时候,小分区的 master 一直在接受写请求,而造成很长时间数据不一致。
# cluster-require-full-coverage yes
################################## SLOW LOG
###################################
###slog log 是用来记录 redis 运行中执行比较慢的命令耗时。当命令的执行超过了指定时间,就记录在 slow log 中,slog log 保存在内存中,所以没有 IO 操作。
#执行时间比 slowlog-log-slower-than 大的请求记录到 slowlog 里面,单位是微秒,所以 1000000就是 1 秒。注意,负数时间会禁用慢查询日志,而 0 则会强制记录所有命令。
slowlog-log-slower-than 10000
#慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。这个长度没有限制。只要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。
slowlog-max-len 128
################################ LATENCY MONITOR
##############################
#延迟监控功能是用来监控 redis 中执行比较缓慢的一些操作,用 LATENCY 打印 redis 实例在跑命令时的耗时图表。只记录大于等于下边设置的值的操作。0 的话,就是关闭监视。默认延迟监控功能是关闭的,如果你需要打开,也可以通过 CONFIG SET 命令动态设置。
latency-monitor-threshold 0
############################# EVENT NOTIFICATION
##############################
#键空间通知使得客户端可以通过订阅频道或模式,来接收那些以某种方式改动了 Redis 数据集的事件。因为开启键空间通知功能需要消耗一些 CPU ,所以在默认配置下,该功能处于关闭状态。
#notify-keyspace-events 的参数可以是以下字符的任意组合,它指定了服务器该发送哪些类型的通知:
##K 键空间通知,所有通知以 __keyspace@__ 为前缀
##E 键事件通知,所有通知以 __keyevent@__ 为前缀
##g DEL 、 EXPIRE 、 RENAME 等类型无关的通用命令的通知
##$ 字符串命令的通知
##l 列表命令的通知
##s 集合命令的通知
##h 哈希命令的通知
##z 有序集合命令的通知
##x 过期事件:每当有过期键被删除时发送
##e 驱逐(evict)事件:每当有键因为 maxmemory 政策而被删除时发送
##A 参数 g$lshzxe 的别名
#输入的参数中至少要有一个 K 或者 E,否则的话,不管其余的参数是什么,都不会有任何 通知被分发。详细使用可以参考 http://redis.io/topics/notifications
notify-keyspace-events ""
############################### ADVANCED CONFIG
###############################
#数据量小于等于 hash-max-ziplist-entries 的用 ziplist,大于 hash-max-ziplist-entries用 hashhash-max-ziplist-entries 512#value 大小小于等于 hash-max-ziplist-value 的用ziplist,大于 hash-max-ziplist-value 用 hash。
hash-max-ziplist-value 64
#数据量小于等于 list-max-ziplist-entries 用 ziplist,大于 list-max-ziplist-entries用 list。
list-max-ziplist-entries 512#value 大小小于等于 list-max-ziplist-value 的用ziplist,大于 list-max-ziplist-value 用 list。
list-max-ziplist-value 64
#数据量小于等于 set-max-intset-entries 用 iniset,大于 set-max-intset-entries 用 set。
set-max-intset-entries 512
#数据量小于等于 zset-max-ziplist-entries 用 ziplist,大于 zset-max-ziplist-entries用 zset。
zset-max-ziplist-entries 128#value 大小小于等于 zset-max-ziplist-value 用 ziplist,大于 zset-max-ziplist-value 用 zset。
zset-max-ziplist-value 64
#value 大小小于等于 hll-sparse-max-bytes 使用稀疏数据结构(sparse),大于hll-sparse-max-bytes 使用稠密的数据结构(dense)。一个比 16000 大的 value 是几乎没用的,建议的 value 大概为 3000。如果对 CPU 要求不高,对空间要求较高的,建议设置到 10000 左右。
hll-sparse-max-bytes 3000
#Redis 将在每 100 毫秒时使用 1 毫秒的 CPU 时间来对 redis 的 hash 表进行重新 hash,可以降低内存的使用。当你的使用场景中,有非常严格的实时性需要,不能够接受 Redis 时不时的对请求有 2 毫秒的延迟的话,把这项配置为 no。如果没有这么严格的实时性要求,可以设置为 yes,以便能够尽可能快的释放内存。activerehashing yes
##对客户端输出缓冲进行限制可以强迫那些不从服务器读取数据的客户端断开连接,用来强制关闭传输缓慢的客户端。
#对于 normal client,第一个 0 表示取消 hard limit,第二个 0 和第三个 0 表示取消 soft limit,normal client 默认取消限制,因为如果没有寻问,他们是不会接收数据的。client-output-buffer-limit normal 0 0 0#对于 slave client 和 MONITER client,如果client-output-buffer 一旦超过 256mb,又或者超过 64mb 持续 60 秒,那么服务器就会立即断开客户端连接。client-output-buffer-limit slave 256mb 64mb 60#对于 pubsub client,如果client-output-buffer 一旦超过 32mb,又或者超过 8mb 持续 60 秒,那么服务器就会立即断开客户
#端连接。
client-output-buffer-limit pubsub 32mb 8mb 60
#redis 执行任务的频率为 1s 除以 hz。
hz 10
#在 aof 重写的时候,如果打开了 aof-rewrite-incremental-fsync 开关,系统会每 32MB 执行一
#次 fsync。这对于把文件写入磁盘是有帮助的,可以避免过大的延迟峰值。
aof-rewrite-incremental-fsync yes
2.Redis 的数据持久化

对内存中数据库状态进行快照
2.1 RDB方式
RDB 文件是一个经过压缩的二进制文件,通过该文件可以还原生成 RDB 文件时的数据库状态,将 Redis 在内存中的数据库状态保存到磁盘里面(默认情况下,持久化到dump.rdb 文件,并且在 redis 重启后,自动读取其中文件)

RDB 的生成方式
  • 执行命令手动生成
    有两个 Redis 命令可以用于生成 RDB 文件,一个是 SAVE,另一个是 BGSAVE SAVE命令会阻塞 Redis 服务器进程,直到 RDB 文件创建完毕为止
注意:在服务器进程阻塞期间,服务器不能处理任何命令请求
  • 通过配置自动生成
    可以设置服务器配置的 save 选项,让服务器每隔一段时间自动执行一次BGSAVE 命令,可以通过 save 选项设置多个保存条件,但只要其中任意一个条件被满足,服务器就会执行 BGSAVE 命令。
save 900 1
save 300 10
save 60 10000

只要满足以下三个条件中的任意一个,BGSAVE 命令就会被执行
服务器在 900 秒之内,对数据库进行了至少 1 次修改
服务器在 300 秒之内,对数据库进行了至少 10 次修改
服务器在 60 秒之内,对数据库进行了至少 10000 次修改

2.2 AOF 方式

AOF 持久化方式在 redis 中默认是关闭的,需要修改配置文件开启该方式。
AOF:把每条命令都写入文件,类似 mysql 的 binlog 日志
AOF方式:是通过保存 Redis 服务器所执行的写命令来记录数据库状态的文件

AOF 文件刷新的方式,有三种:

  • appendfsync always - 每提交一个修改命令都调用 fsync 刷新到 AOF 文件,非常非常慢,但也非常安全
  • appendfsync everysec - 每秒钟都调用 fsync 刷新到 AOF 文件,很快,但可能会丢失一秒以内的数据
  • appendfsync no - 依靠 OS 进行刷新,redis 不主动刷新 AOF,这样最快,但安全性就差
注意:默认并推荐每秒刷新,这样在速度和安全上都做到了兼顾

AOF 数据恢复方式
服务器在启动时,通过载入和执行 AOF 文件中保存的命令来还原服务器关闭之前的数据库状态

步骤:
  • 载入AOF文件
  • 创建模拟客户端
  • 从AOP文件中读取一条命令
  • 使用模拟客户端执行命令、
  • 循环读取并执行命令,直到全部完成
  • 如果同时启用了 RDB 和 AOF 方式,AOF 优先,启动时只加载 AOF 文件恢复数据
五、安装 Redis 集群
1. Redis 集群介绍

Redis3.0 版本之后支持 Cluster。集群要求集群节点中必须要支持主备模式,也就说集中的主节点(Master)至少要有一个从节点(Slave)

1.1 Redis-Cluster架构图
image.png

每一个蓝色的圈都代表着一个 redis 集群中的主节点。它们任何两个节点之间都是相互连通的。客户端可以与任何一个节点相连接,然后就可以访问集群中的任何一个节点。对其进行存取和其他操作。

1.2 Redis-Cluster 选举:容错

Redis 之间通过互相的 ping-pong 判断是否节点可以连接上。如果有一半以上的节点去ping 一个节点的时候没有回应,集群就认为这个节点宕机了,然后去连接它的从节点。如果某个节点和所有从节点全部挂掉,我们集群就进入 fail 状态。还有就是如果有一半以上的主节点宕机,那么我们集群同样进入 fail 了状态。这就是我们的 redis 的投票机制,具体原理如下图所示:


image.png

投票过程是集群中所有 master 参与,如果半数以上 master 节点与 master 节点通信超时(cluster-node-timeout),认为当前 master 节点挂掉.

什么时候整个集群不可用(cluster_state:fail)?
  • 如果集群任意 master 挂掉,且当前 master 没有 slave。此时集群进入 fail 状态
  • 如果集群超过半数以上 master 挂掉,无论是否有 slave,集群进入 fail 状态
1.3 Redis-Cluster 数据存储

当我们的存取的 key 到达的时候,redis 会根据 crc16 的算法得出一个结果,然后把结果对 16384 求余数,这样每个 key 都会对应一个编号在 0-16383 之间的哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作。


image.png

在Node1执行 set name tom

  • 使用 CRC16 算法对 key 进行计算,得到一个数字,然后对数字进行取余。
    CRC16 : name = 26384
    26384%16384 = 10000
  • 查找到包含 10000 插槽的节点,比如是 node2,自动跳转到 node2
  • 在 node2 上执行 set name kevin 命令完成数据的插入
  • 如果在 node1 上执行 get name,先使用 CRC16 算法对 key 进行计算,在使用
    16384 取余,得到插槽的下标,然后跳到拥有该插槽的 node2 中执行 get name 命令,并返回结果。
2 安装集群
需求

搭建一个 Redis 的最小集群,使用伪集群方式。
Redis 中最小的集群三对主从。
在192.168.254.128中安装 6 个 redis 实例。
如果使用已经使用过的单机版创建集群时,需要删除 dump.rdb 与 apeendonly.aof 文件。
6 个 redis 实例的端口分配:8001、8002、8003、8004、8005、8006

步骤

redis 集群时需要使用一个 ruby 的脚本来完成集群

  • 安装 ruby 环境
yum install ruby
  • 安装 ruby 的包管理器
yum install rubygems
  • 进入到 redis 的安装目录下的 src 目录下找到 redis-trib.rb 这个文件 这是集群时需要的脚本
  • 这个脚本的执行需要依赖于一些其他的 ruby 包 所以我们还要下载一个
    redis-3.0.0.gem,并将这个文件上传到 linux 服务器中
  • 安装这个 ruby 包
gem install redis-3.0.0.gem
  • 先启动 redis 的 6 个实例
    先在 local 目录下创建一个目录名称为:redis-cluster
mkdir redis-cluster
  • 将安装好的 redis 下的 bin 目录拷贝到 redis-cluster 目录下 并起名为 redis01

到 redis 目录下执行

cp -r bin ../redis-cluster/redis01
  • 修改 redis.conf 配置文件
vim redis.conf 
  1. 修改端口:默认的为 6379 将六个 redis 实例的端口改成从 8001-8006 在配置文件的 port 属性中。
  2. 修改开启集群 在配置文件中搜索 cluster 找到后 将默认为注释的cluster-enabled yes 去掉注释
  • 将这个 redis01 拷贝 6 份到当前这个目录下
cp -r redis01/ redis02
cp -r redis01/ redis03
cp -r redis01/ redis04
cp -r redis01/ redis05
cp -r redis01/ redis06
  • 修改拷贝的这些 redis 的端口
vim redis0x redis.conf
  • 把创建集群的 ruby 脚本复制到 redis-cluster 中
  • 创建一个能够批量启动的脚本程序
vim startall.sh
  • 在脚本文件中添加命令
cd redis01
./redis-server redis.conf
cd ..
cd redis02
./redis-server redis.conf
cd ..
cd redis03
./redis-server redis.conf
cd ..
cd redis04
./redis-server redis.conf
cd ..
cd redis05
./redis-server redis.conf
cd ..
cd redis06
./redis-server redis.conf
cd ..
  • 将批量启动脚本设置为可执行权限
chmod +x startall.sh
  • 执行这个批量启动的脚本
./startall.sh 
  • 查看 redis 是否启动成功
ps aux|grep redis
  • 创建集群
./redis-trib.rb create --replicas 1 192.168.254.128:8001 192.168.254.128:8002
192.168.254.128:8003 192.168.254.128:8004 192.168.254.128:8005 192.168.254.128:8006

控制台会显示如下信息 输入 yes
Creating cluster
Connecting to node 192.168.254.128:8001: OK
Connecting to node 192.168.254.128:8002: OK
Connecting to node 192.168.254.128:8003: OK
Connecting to node 192.168.254.128:8004: OK
Connecting to node 192.168.254.128:8005: OK
Connecting to node 192.168.254.128:8006: OK

测试 Redis 集群

可以连接集群中的任意一个节点进行测试 注意一定要有-c 参数,否则能连上,但是无法操作 redis 集群

./redis01/redis-cli -h 192.168.10.128 -p 7001 -c`
编写一个批量关闭的脚本
vim shutdownall.sh
redis01/redis-cli -h 192.168.254.128 -p 8001 shutdown
redis01/redis-cli -h 192.168.254.128 -p 8002 shutdown
redis01/redis-cli -h 192.168.254.128 -p 8003 shutdown
redis01/redis-cli -h 192.168.254.128 -p 8004 shutdown
redis01/redis-cli -h 192.168.254.128 -p 8005 shutdown
redis01/redis-cli -h 192.168.254.128 -p 8006 shutdown
六、使用Jedis操作Redis

Jedis 集成了 redis 的一些命令操作,封装了对 redis 命令的 Java 客户端。

1.使用 Jedis 操作 Redis 单机版
1.1 创建工程

JedisDemo

1.2 添加坐标
    <dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>2.9.0</version>
    </dependency>
1.3 测试
1.3.1 测试Jedis单机版
    /**
     * Jedis单机版
     */
    @Test
    public void testJedisSingle(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.254.128",6379);
        //调用Jedis的API完成对Redis的操作。在Jedis中方法的命名与操作Redis的命令相同
        System.out.println("--------------String---------------");
        String result = jedis.set("key1", "Hello");
        System.out.println(result);
        String value = jedis.get("key1");
        System.out.println(value);

        System.out.println("--------------Hash---------------");
        Long hset = jedis.hset("user", "username", "kevin");
        System.out.println(hset);
        String hget = jedis.hget("user", "username");
        System.out.println(hget);


        System.out.println("--------------List---------------");
        Long lpush1 = jedis.lpush("list", "zhangsan");
        System.out.println(lpush1);
        Long lpush2 = jedis.lpush("list", "lisi");
        System.out.println(lpush2);
        Long lpush3 = jedis.lpush("list", "wangwu");
        System.out.println(lpush3);
        System.out.println(jedis.lrange("list",0,-1));

        String lpop = jedis.lpop("list");
        System.out.println(lpop);
        jedis.close();
    }
1.3.2 使用连接池操作Jedis单机版
    /**
     * 使用连接池
     */
    @Test
    public void testJedisPool(){
        //创建连接池
        JedisPool pool = new JedisPool("192.168.254.128",6379);
        Jedis jedis = pool.getResource();
        String value = jedis.get("key1");
        System.out.println(value);
        jedis.close();
    }
1.3.3 操作集群
    /**
     * 集群测试
     */
    @Test
    public void testJedisCluster() throws IOException {
        //创建HostAndPort对象:集群中的一个节点
        Set<HostAndPort> nodes = new HashSet<>();
        nodes.add(new HostAndPort("192.168.254.128",8001));
        nodes.add(new HostAndPort("192.168.254.128",8002));
        nodes.add(new HostAndPort("192.168.254.128",8003));
        nodes.add(new HostAndPort("192.168.254.128",8004));
        nodes.add(new HostAndPort("192.168.254.128",8005));
        nodes.add(new HostAndPort("192.168.254.128",8006));
        //创建操作集群的jedis对象
        JedisCluster jedisCluster = new JedisCluster(nodes);
        jedisCluster.set("jedis","HelloJedis");
        System.out.println(jedisCluster.get("jedis"));
        jedisCluster.close();
    }
七、Spring整合Jedis
1.整合单机版
1.1 创建工程

springJedisDemo

1.2 添加坐标
    <dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>2.9.0</version>
    </dependency>

    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-context</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>

    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-beans</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
1.3 创建 JedisDao 接口与接口实现类
  • JedisDao.java
public interface JedisDao {

    String set(String key,String value);
    String get(String key);
    Long hSet(String hkey,String key,String value);
    String hGet(String hkey,String key);
}
  • JedisDaoImpl.java
public class JedisDaoSingleImpl implements JedisDao {

    @Autowired
    private JedisPool jedisPool;

    @Override
    public String set(String key, String value) {
        Jedis jedis = this.jedisPool.getResource();
        return jedis.set(key,value);
    }

    @Override
    public String get(String key) {
        Jedis jedis = this.jedisPool.getResource();
        return jedis.get(key);
    }

    @Override
    public Long hSet(String hkey, String key, String value) {
        Jedis jedis = this.jedisPool.getResource();
        return jedis.hset(hkey,key,value);
    }

    @Override
    public String hGet(String hkey, String key) {
        Jedis jedis = this.jedisPool.getResource();
        return jedis.hget(hkey,key);
    }
}
  • applicationContext-jedis.xml
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
       xmlns:context="http://www.springframework.org/schema/context"
       xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd">

    <!--开启组件扫描-->
    <context:component-scan base-package="com.hxx.jedisdao"/>

    <!-- jedisPool的配置 -->
    <bean id="poolConfig" class="redis.clients.jedis.JedisPoolConfig">
        <!-- 最大连接数 -->
        <property name="maxTotal" value="30" />
        <!-- 最大空闲连接数 -->
        <property name="maxIdle" value="10" />
        <!-- 每次释放连接的最大数目 -->
        <property name="numTestsPerEvictionRun" value="1024" />
        <!-- 释放连接的扫描间隔(毫秒) -->
        <property name="timeBetweenEvictionRunsMillis" value="30000" />
        <!-- 连接最小空闲时间 -->
        <property name="minEvictableIdleTimeMillis" value="1800000" />
        <!-- 连接空闲多久后释放, 当空闲时间>该值 且 空闲连接>最大空闲连接数 时直接释放 -->
        <property name="softMinEvictableIdleTimeMillis" value="10000" />
        <!-- 获取连接时的最大等待毫秒数,小于零:阻塞不确定的时间,默认-1 -->
        <property name="maxWaitMillis" value="1500" />
        <!-- 在获取连接的时候检查有效性, 默认false -->
        <property name="testOnBorrow" value="true" />
        <!-- 在空闲时检查有效性, 默认false -->
        <property name="testWhileIdle" value="true" />
        <!-- 连接耗尽时是否阻塞, false报异常,ture阻塞直到超时, 默认true -->
        <property name="blockWhenExhausted" value="false" />
    </bean>

    <!--配置jedisPool-->
    <bean id="jedisPool" class="redis.clients.jedis.JedisPool">
        <constructor-arg name="poolConfig" ref="poolConfig"/>
        <constructor-arg name="host" value="192.168.254.128"/>
        <constructor-arg name="port" value="6379"/>
    </bean>
    <!--配置JedisDaoImplSingle-->
    <bean id="jedisDaoSingleImpl" class="com.hxx.jedisdao.impl.JedisDaoSingleImpl"/>
</beans>
1.4 测试单机版
    /**
     * 测试单机版
     */
    @Test
    public void testSingle(){
        ApplicationContext ac = new ClassPathXmlApplicationContext("applicationContext-Jedis.xml");
        JedisDao jedisDaoSingleImpl = (JedisDao) ac.getBean("jedisDaoSingleImpl");
        //String
        String set = jedisDaoSingleImpl.set("username", "kevin");
        System.out.println(set);
        String username = jedisDaoSingleImpl.get("username");
        System.out.println(username);

        //Hash
        Long aLong = jedisDaoSingleImpl.hSet("user", "username", "alice");
        System.out.println(aLong);
        String hGet = jedisDaoSingleImpl.hGet("user", "username");
        System.out.println(hGet);
    }
2.整合集群版
添加JedisDao实现类
public class JedisDaoClusterImpl implements JedisDao {

    @Autowired
    private JedisCluster jedisCluster;

    @Override
    public String set(String key, String value) {
        return jedisCluster.set(key,value);
    }

    @Override
    public String get(String key) {
        return jedisCluster.get(key);
    }

    @Override
    public Long hSet(String hkey, String key, String value) {
        return jedisCluster.hset(hkey,key,value);
    }

    @Override
    public String hGet(String hkey, String key) {
        return jedisCluster.hget(hkey,key);
    }
}
配置文件
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
       xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
       xmlns:context="http://www.springframework.org/schema/context"
       xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd">

    <!--开启组件扫描-->
    <context:component-scan base-package="com.hxx.jedisdao"/>

    <!-- jedisPool的配置 -->
    <bean id="poolConfig" class="redis.clients.jedis.JedisPoolConfig">
        <!-- 最大连接数 -->
        <property name="maxTotal" value="30" />
        <!-- 最大空闲连接数 -->
        <property name="maxIdle" value="10" />
        <!-- 每次释放连接的最大数目 -->
        <property name="numTestsPerEvictionRun" value="1024" />
        <!-- 释放连接的扫描间隔(毫秒) -->
        <property name="timeBetweenEvictionRunsMillis" value="30000" />
        <!-- 连接最小空闲时间 -->
        <property name="minEvictableIdleTimeMillis" value="1800000" />
        <!-- 连接空闲多久后释放, 当空闲时间>该值 且 空闲连接>最大空闲连接数 时直接释放 -->
        <property name="softMinEvictableIdleTimeMillis" value="10000" />
        <!-- 获取连接时的最大等待毫秒数,小于零:阻塞不确定的时间,默认-1 -->
        <property name="maxWaitMillis" value="1500" />
        <!-- 在获取连接的时候检查有效性, 默认false -->
        <property name="testOnBorrow" value="true" />
        <!-- 在空闲时检查有效性, 默认false -->
        <property name="testWhileIdle" value="true" />
        <!-- 连接耗尽时是否阻塞, false报异常,ture阻塞直到超时, 默认true -->
        <property name="blockWhenExhausted" value="false" />
    </bean>

    <!--配置jedisPool-->
    <bean id="jedisPool" class="redis.clients.jedis.JedisPool">
        <constructor-arg name="poolConfig" ref="poolConfig"/>
        <constructor-arg name="host" value="192.168.254.128"/>
        <constructor-arg name="port" value="6379"/>
    </bean>
    <!--配置JedisDaoImplSingle-->
    <!--<bean id="jedisDaoSingleImpl" class="com.hxx.jedisdao.impl.JedisDaoSingleImpl"/>-->

    <bean id="jedisCluster" class="redis.clients.jedis.JedisCluster">
        <constructor-arg name="nodes">
            <set>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8001"/>
                </bean>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8002"/>
                </bean>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8003"/>
                </bean>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8004"/>
                </bean>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8005"/>
                </bean>
                <bean class="redis.clients.jedis.HostAndPort">
                    <constructor-arg name="host" value="192.168.254.128"/>
                    <constructor-arg name="port" value="8006"/>
                </bean>
            </set>
        </constructor-arg>
        <constructor-arg name="poolConfig" ref="poolConfig"/>
    </bean>

    <!--配置JedisDaoClusterImpl-->
    <bean id="jedisDaoClusterImpl" class="com.hxx.jedisdao.impl.JedisDaoClusterImpl"/>
</beans>
2.1 测试集群版
    /**
     * 测试集群
     */
    @Test
    public void testCluster(){
        ApplicationContext ac = new ClassPathXmlApplicationContext("applicationContext-Jedis.xml");
        JedisDao jedisDaoSingleImpl = (JedisDao) ac.getBean("jedisDaoClusterImpl");
        //String
        String set = jedisDaoSingleImpl.set("hxx", "luyi");
        System.out.println(set);
        String username = jedisDaoSingleImpl.get("hxx");
        System.out.println(username);

        //Hash
        Long aLong = jedisDaoSingleImpl.hSet("user", "username", "alice");
        System.out.println(aLong);
        String hGet = jedisDaoSingleImpl.hGet("user", "username");
        System.out.println(hGet);
    }
八、实战案例
1.需求
  • 实现用户添加功能
  • 实现用户查询功能,并使用Redis缓存
  • 实现用户更新功能,同步缓存
2.创建表
CREATE TABLE `users` (
 `userid` int(11) NOT NULL AUTO_INCREMENT,
 `username` varchar(30) DEFAULT NULL,
 `userage` int(11) DEFAULT NULL,
 PRIMARY KEY (`userid`)
) ENGINE=InnoDB AUTO_INCREMENT=6 DEFAULT CHARSET=utf8;
3.创建项目

userManager

4.添加坐标
<?xml version="1.0" encoding="UTF-8"?>

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>

  <groupId>com.hxx</groupId>
  <artifactId>userManager</artifactId>
  <version>1.0-SNAPSHOT</version>
  <packaging>war</packaging>

  <name>userManager Maven Webapp</name>
  <!-- FIXME change it to the project's website -->
  <url>http://www.example.com</url>

  <properties>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <maven.compiler.source>1.7</maven.compiler.source>
    <maven.compiler.target>1.7</maven.compiler.target>
  </properties>

  <dependencies>

    <dependency>
      <groupId>redis.clients</groupId>
      <artifactId>jedis</artifactId>
      <version>2.9.0</version>
    </dependency>

    <dependency>
      <groupId>junit</groupId>
      <artifactId>junit</artifactId>
      <version>4.12</version>
      <scope>test</scope>
    </dependency>

    <!-- 日志处理 -->
    <dependency>
      <groupId>org.slf4j</groupId>
      <artifactId>slf4j-log4j12</artifactId>
      <version>RELEASE</version>
    </dependency>
    <!-- Mybatis -->
    <dependency>
      <groupId>org.mybatis</groupId>
      <artifactId>mybatis</artifactId>
      <version>3.4.6</version>
    </dependency>
    <dependency>
      <groupId>org.mybatis</groupId>
      <artifactId>mybatis-spring</artifactId>
      <version>1.3.2</version>
    </dependency>
    <!-- MySql -->
    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
      <version>5.1.38</version>
    </dependency>
    <!-- 连接池 -->
    <dependency>
      <groupId>com.alibaba</groupId>
      <artifactId>druid</artifactId>
      <version>1.1.16</version>
    </dependency>
    <!-- Spring -->
    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-context</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-beans</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-webmvc</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-jdbc</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
    <dependency>
      <groupId>org.springframework</groupId>
      <artifactId>spring-aspects</artifactId>
      <version>5.1.5.RELEASE</version>
    </dependency>
    <!-- JSP相关 -->
    <dependency>
      <groupId>jstl</groupId>
      <artifactId>jstl</artifactId>
      <version>1.2</version>
    </dependency>
    <dependency>
      <groupId>javax.servlet</groupId>
      <artifactId>servlet-api</artifactId>
      <version>2.5</version>
      <scope>provided</scope>
    </dependency>
    <dependency>
      <groupId>javax.servlet</groupId>
      <artifactId>jsp-api</artifactId>
      <version>RELEASE</version>
      <scope>provided</scope>
    </dependency>
    <!-- Jackson Json处理工具包 -->
    <dependency>
      <groupId>com.fasterxml.jackson.core</groupId>
      <artifactId>jackson-databind</artifactId>
      <version>2.9.8</version>
    </dependency>
  </dependencies>


  <build>
    <finalName>userManager</finalName>

    <resources>
      <resource>
        <directory>src/main/java</directory>
        <includes>
          <include>**/*.xml</include>
        </includes>
      </resource>
      <resource>
        <directory>src/main/resources</directory>
        <includes>
          <include>**/*.xml</include>
          <include>**/*.properties</include>
        </includes>
      </resource>
    </resources>

    <plugins>
      <!-- tomcat插件,由于子项目不一定每个都是web项目,所以该插件只是声明,并未开启 -->
      <!-- 配置Tomcat插件 -->
      <plugin>
        <groupId>org.apache.tomcat.maven</groupId>
        <artifactId>tomcat7-maven-plugin</artifactId>
        <configuration>
          <path>/</path>
          <port>8080</port>
        </configuration>
      </plugin>
    </plugins>
  </build>
</project>
5.框架整合
image.png
6.业务实现
  • UserController
@Controller
@RequestMapping("/user")
public class UserController {

    @Autowired
    private UserService userService;

    /**
     * 添加用户
     *
     * @param users
     * @return
     */
    @RequestMapping("/addUser")
    public String addUser(Users users) {
        userService.addUser(users);
        return "ok";
    }

    @RequestMapping("/findUserById")
    public String showUser(Model model,int userId){
        Users user = userService.selectUserById(userId);
        model.addAttribute("user",user);
        return "showUser";
    }

    @RequestMapping("/updateUser")
    public String updateUser(Users users){
        userService.updateUser(users);
        return "ok";
    }

    @RequestMapping("/deleteUser")
    public String deleteUser(Integer userId){
        userService.deleteUser(userId);
        return "ok";
    }
}
  • UserService
public interface UserService {

    void addUser(Users user);

    Users selectUserById(int userId);

    void updateUser(Users user);

    void deleteUser(Integer userId);
}
  • UserServiceImpl
@Service
public class UserServiceImpl implements UserService {

    @Autowired
    private UsersMapper usersMapper;

    @Autowired
    private JedisDao jedisDao;

    @Value("${REDIS_USERS_PRIFX}")
    private String REDIS_USERS_PRIFX;

    @Override
    public void addUser(Users user) {
        usersMapper.insertUser(user);
    }

    @Override
    public Users selectUserById(int userId) {
        Users user;
        try {
            //查询缓存
            String json = jedisDao.get(REDIS_USERS_PRIFX + ":" + userId);
            //查看是否命中
            if (json != null && json.length() > 0) {
                //将json转换成对象
                user = JsonUtils.jsonToPojo(json, Users.class);
                System.out.println("从缓存中取出");
                return user;
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
        //从数据库中查询
        user = usersMapper.findUserById(userId);
        try {
            //将数据添加进缓存
            jedisDao.set(REDIS_USERS_PRIFX + ":" + userId,JsonUtils.objectToJson(user));
            jedisDao.expire(REDIS_USERS_PRIFX + ":" + userId,60);
            System.out.println("后加入缓存");
        } catch (Exception e) {
            e.printStackTrace();
        }
        return user;
    }

    @Override
    public void updateUser(Users user) {
        usersMapper.updateUser(user);
        try {
            //同步redis
            jedisDao.del(REDIS_USERS_PRIFX + ":" + user.getUserid());
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    @Override
    public void deleteUser(Integer userId) {
        usersMapper.deleteUser(userId);
        try {
            jedisDao.del(REDIS_USERS_PRIFX + ":" + userId);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}
  • UserMapper
public interface UsersMapper {

    void insertUser(Users user);

    List<Users> selectUserAll();

    Users findUserById(int userId);

    void updateUser(Users user);

    void deleteUser(Integer userId);
}
  • UserMapper.xml
<?xml version="1.0" encoding="UTF-8" ?>
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN"
        "http://mybatis.org/dtd/mybatis-3-mapper.dtd" >
<mapper namespace="com.hxx.mapper.UsersMapper">

    <insert id="insertUser" parameterType="com.hxx.pojo.Users">
        insert into users(username,userage)
        values(#{username},#{userage})
    </insert>

    <select id="selectUserAll" resultType="com.hxx.pojo.Users">
        select userid,username,userage
        from users
    </select>

    <select id="findUserById" parameterType="int" resultType="com.hxx.pojo.Users">
        select username,userage
        from users
        where userid = #{userid}
    </select>

    <update id="updateUser" parameterType="com.hxx.pojo.Users">
        update users
        set username=#{username},userage=#{userage}
        where userid=#{userid}
    </update>

    <delete id="deleteUser" parameterType="int">
        delete from users
        where userid=#{userid};
    </delete>
</mapper>
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容

  • 聊聊redis持久化 – 两种方式 redis提供了两种持久化的方式,分别是RDB(Redis DataBase)...
    lijun_m阅读 229评论 0 1
  • 每周一主题,每周一进步~ 大家好,本周的主题是Redis,小E对一周来的学习做个笔记和总结,希望能对从零开始学Re...
    小E的私房菜阅读 1,772评论 0 1
  • 一、Redis高可用概述 在介绍Redis高可用之前,先说明一下在Redis的语境中高可用的含义。 我们知道,在w...
    空语阅读 1,591评论 0 2
  • 关于Redis的一些分享NoSQL 3v+3高 3v: volume海量 variety多样 velocity实...
    Mason啊阅读 319评论 0 2
  • NOSQL类型简介键值对:会使用到一个哈希表,表中有一个特定的键和一个指针指向特定的数据,如redis,volde...
    MicoCube阅读 3,936评论 2 27