Redis 介绍
Talent、茂ღ茂 人气:0Redis 的特点
- Redis本质上是一个Key-Value类型的内存数据库,很像memcached,整个数据库统统加载在内存当中进行操作,定期通过异步操作把数据库数据flush到硬盘上进行保存。 因为是纯内存操作,Redis的性能非常出色,每秒可以处理超过 10万次读写操作,是已知性能最快的Key-Value DB。
- Redis的出色之处不仅仅是性能,Redis最大的魅力是支持保存多种数据结构,此外单个value的最大限制是1GB,不像 memcached只能保存1MB的数据,因此Redis可 以用来实现很多有用的功能。
- 比方说用他的List来做FIFO双向链表,实现一个轻量级的高性 能消息队列服务,用他的Set可以做高性能的tag系统等等。另外Redis也可以对存入的Key-Value设置exp ire时间,因此也可以被当作一 个功能加强版的memcached来用。
- Redis的主要缺点是数据库容量受到物理内存的限制,不能用作海量数据的高性能读写,因此Redis适合的场景主要局限在较小数据量的高性能操作和运算上。
Redis 的好处
- 速度快,因为数据存在内存中,类似于HashMap,HashMap的优势就是查找和操作的时间复杂度都是O(1)
- 支持丰富数据类型,支持string,list,set,sorted set,hash
- 支持事务,操作都是原子性,所谓的原子性就是对数据的更改要么全部执行,要么全部不执行
- 丰富的特性:可用于缓存,消息,按key设置过期时间,过期后将会自动删除
Redis 持久化的几种方式
快照(snapshots)
- 缺省情况情况下,Redis把数据快照存放在磁盘上的二进制文件中,文件名为dump.rdb。你可以配置Redis的持久化策略,例如数据集中每N秒钟有超过M次更新 就将数据写入磁盘;或者你可以手工调用命令SAVE或BGSAVE。
- 工作原理
- Redis forks.
- 子进程开始将数据写到临时RDB文件中。
- 当子进程完成写RDB文件,用新文件替换老文件。
- 这种方式可以使Redis使用copy-on-write技术。
AOF
- 快照模式并不十分健壮,当系统停止,或者无意中Redis被kill掉,最后写入Redis的数据就会丢失。这对某些应用也许不是大问题,但对于要求高可靠性的应用来说,Redis就不是一个合适的选择。Append-only文件模式是另一种选择。你可以在配置文件中打开AOF模式
虚拟内存方式
- 当你的key很小而value很大时,使用VM的效果会比较好.因为这样节约的内存比较大.
- 当你的key不小时,可以考虑使用一些非常方法将很大的key变成很大的value,比如你可以考虑将key,value组合成一个新的value.
- vm-max-threads这个参数,可以设置访问swap文件的线程数,设置最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的.可能会造成比较长时 间的延迟,但是对数据完整性有很好的保证.
- 自己测试的时候发现用虚拟内存性能也不错。如果数据量很大,可以考虑分布式或者其他数据库。
Redis 事物
redis事物介绍
- redis事物是可以一次执行多个命令,本质是一组命令的集合。
- 一个事务中的所有命令都会序列化,按顺序串行化的执行而不会被其他命令插入
- 作用:一个队列中,一次性、顺序性、排他性的执行一系列命令
multi 指令基本使用
- 下面指令演示了一个完整的事物过程,所有指令在exec前不执行,而是缓存在服务器的一个事物队列中
- 服务器一旦收到exec指令才开始执行事物队列,执行完毕后一次性返回所有结果
- 因为redis是单线程的,所以不必担心自己在执行队列是被打断,可以保证这样的“原子性”
注:redis事物在遇到指令失败后,后面的指令会继续执行
# Multi 命令用于标记一个事务块的开始事务块内的多条命令会按照先后顺序被放进一个队列当中,最后由 EXEC 命令原子性( atomic )地执行 > multi (开始一个redis事物) incr books incr books > exec (执行事物) > discard (丢弃事物)
在命令行测试redis 事务
[root@redis ~]# redis-cli 127.0.0.1:6379> multi OK 127.0.0.1:6379> set test 123 QUEUED 127.0.0.1:6379> exec 1) OK 127.0.0.1:6379> get test "123" 127.0.0.1:6379> multi OK 127.0.0.1:6379> set test 456 QUEUED 127.0.0.1:6379> discard OK 127.0.0.1:6379> get test "123" 127.0.0.1:6379>
python测试 redis 事务
#! /usr/bin/env python
# -*- coding: utf-8 -*-
import redis
r = redis.Redis(host='127.0.0.1')
pipe = r.pipeline()
pipe.multi() #开启事务
pipe.set('key2', 4) #存储子命令
pipe.execute() #执行事务
print(r.get('key2'))
注:mysql的rollback与redis的discard的区别
- mysql回滚为sql全部成功才执行,一条sql失败则全部失败,执行rollback后所有语句造成的影响消失
- redis的discard只是结束本次事务,正确命令造成的影响仍然还在.
- 如果在一个事务中的命令出现错误,那么所有的命令都不会执行;
- 如果在一个事务中出现运行错误,那么正确的命令会被执行。
watch 指令作用
实质:WATCH 只会在数据被其他客户端抢先修改了的情况下通知执行命令的这个客户端(通过 WatchError 异常)但不会阻止其他客户端对数据的修改
- watch其实就是redis提供的一种乐观锁,可以解决并发修改问题
- watch会在事物开始前盯住一个或多个关键变量,当服务器收到exec指令要顺序执行缓存中的事物队列时,redis会检查关键变量自watch后是否被修改
- WATCH 只会在数据被其他客户端抢先修改了的情况下通知执行命令的这个客户端(通过 WatchError 异常)但不会阻止其他客户端对数据的修改
setnx(redis分布式锁)
分布式锁
- 分布式锁本质是占一个坑,当别的进程也要来占坑时发现已经被占,就会放弃或者稍后重试
- 占坑一般使用 setnx(set if not exists)指令,只允许一个客户端占坑
- 先来先占,用完了在调用del指令释放坑
> setnx lock:codehole true .... do something critical .... > del lock:codehole
- 但是这样有一个问题,如果逻辑执行到中间出现异常,可能导致del指令没有被调用,这样就会陷入死锁,锁永远无法释放
- 为了解决死锁问题,我们拿到锁时可以加上一个expire过期时间,这样即使出现异常,当到达过期时间也会自动释放锁
> setnx lock:codehole true > expire lock:codehole 5 .... do something critical .... > del lock:codehole
- 这样又有一个问题,setnx和expire是两条指令而不是原子指令,如果两条指令之间进程挂掉依然会出现死锁
- 为了治理上面乱象,在redis 2.8中加入了set指令的扩展参数,使setnx和expire指令可以一起执行
> set lock:codehole true ex 5 nx ''' do something ''' > del lock:codehole
redis解决超卖问题
使用reids的 watch + multi 指令实现
watch+multi解决超卖问题: #! /usr/bin/env python # -*- coding: utf-8 -*- import redis def sale(rs): while True: with rs.pipeline() as p: try: p.watch('apple') # 监听key值为apple的数据数量改变 count = int(rs.get('apple')) print('拿取到了苹果的数量: %d' % count) p.multi() # 事务开始 if count> 0 : # 如果此时还有库存 p.set('apple', count - 1) p.execute() # 执行事务 p.unwatch() break # 当库存成功减一或没有库存时跳出执行循环 except Exception as e: # 当出现watch监听值出现修改时,WatchError异常抛出 print('[Error]: %s' % e) continue # 继续尝试执行 rs = redis.Redis(host='127.0.0.1', port=6379) # 连接redis rs.set('apple',1000) # # 首先在redis中设置某商品apple 对应数量value值为1000 sale(rs)
原理:
- 当用户购买时,通过 WATCH 监听用户库存,如果库存在watch监听后发生改变,就会捕获异常而放弃对库存减一操作
- 如果库存没有监听到变化并且数量大于1,则库存数量减一,并执行任务
弊端:
- Redis 在尝试完成一个事务的时候,可能会因为事务的失败而重复尝试重新执行
- 保证商品的库存量正确是一件很重要的事情,但是单纯的使用 WATCH 这样的机制对服务器压力过大
使用reids的 watch + multi + setnx 指令实现
为什么要自己构建锁:
- 虽然有类似的 SETNX 命令可以实现 Redis 中的锁的功能,但他锁提供的机制并不完整
- 并且setnx也不具备分布式锁的一些高级特性,还是得通过我们手动构建
创建一个redis锁:
- 在 Redis 中,可以通过使用 SETNX 命令来构建锁:rs.setnx(lock_name, uuid值)
- 而锁要做的事情就是将一个随机生成的 128 位 UUID 设置位键的值,防止该锁被其他进程获取
释放锁:
- 锁的删除操作很简单,只需要将对应锁的 key 值获取到的 uuid 结果进行判断验证
- 符合条件(判断uuid值)通过 delete 在 redis 中删除即可,pipe.delete(lockname)
- 此外当其他用户持有同名锁时,由于 uuid 的不同,经过验证后不会错误释放掉别人的锁
解决锁无法释放问题:
- 在之前的锁中,还出现这样的问题,比如某个进程持有锁之后突然程序崩溃,那么会导致锁无法释放
- 而其他进程无法持有锁继续工作,为了解决这样的问题,可以在获取锁的时候加上锁的超时功能
setnx+watch+multi解决超卖问题 #! /usr/bin/env python # -*- coding: utf-8 -*- import redis import uuid import time # 1.初始化连接函数 def get_conn(host,port=6379): rs = redis.Redis(host=host, port=port) return rs # 2. 构建redis锁 def acquire_lock(rs, lock_name, expire_time=10): ''' rs: 连接对象 lock_name: 锁标识 acquire_time: 过期超时时间 return -> False 获锁失败 or True 获锁成功 ''' identifier = str(uuid.uuid4()) end = time.time() + expire_time while time.time() < end: # 当获取锁的行为超过有效时间,则退出循环,本次取锁失败,返回False if rs.setnx(lock_name, identifier): # 尝试取得锁 return identifier time.sleep(.001) return False # 3. 释放锁 def release_lock(rs, lockname, identifier): ''' rs: 连接对象 lockname: 锁标识 identifier: 锁的value值,用来校验 ''' pipe = rs.pipeline(True) try: pipe.watch(lockname) if rs.get(lockname).decode() == identifier: # 防止其他进程同名锁被误删 pipe.multi() # 开启事务 pipe.delete(lockname) pipe.execute() return True # 删除锁 pipe.unwatch() # 取消事务 except Exception as e: pass return False # 删除失败 '''在业务函数中使用上面的锁''' def sale(rs): start = time.time() # 程序启动时间 with rs.pipeline() as p: ''' 通过管道方式进行连接 多条命令执行结束,一次性获取结果 ''' while True: lock = acquire_lock(rs, 'lock') if not lock: # 持锁失败 continue try: count = int(rs.get('apple')) # 取量 p.set('apple', count-1) # 减量 p.execute() print('当前库存量: %s' % count) break finally: release_lock(rs, 'lock', lock) print('[time]: %.2f' % (time.time() - start)) rs = redis.Redis(host='127.0.0.1', port=6379) # 连接redis rs.set('apple',1000) # # 首先在redis中设置某商品apple 对应数量value值为1000 sale(rs)
上面两个方案 demo 都会出现死锁得问题
解决死锁
优化:给分布式锁加超时时间防止死锁 def acquire_expire_lock(rs, lock_name, expire_time=10, locked_time=10): ''' rs: 连接对象 lock_name: 锁标识 acquire_time: 过期超时时间 locked_time: 锁的有效时间 return -> False 获锁失败 or True 获锁成功 ''' identifier = str(uuid.uuid4()) end = time.time() + expire_time while time.time() < end: # 当获取锁的行为超过有效时间,则退出循环,本次取锁失败,返回False if rs.setnx(lock_name, identifier): # 尝试取得锁 # print('锁已设置: %s' % identifier) rs.expire(lock_name, locked_time) return identifier time.sleep(.001) return False
Redis 命令
操作模式
import redis r = redis.Redis(host='1.1.1.3', port=6379) r.set('foo', 'Bar') print(r.get('foo'))
连接池
- redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销
- 默认,每个Redis实例都会维护一个自己的连接池
- 可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例共享一个连接池
import redis pool = redis.ConnectionPool(host='1.1.1.3', port=6379) r = redis.Redis(connection_pool=pool) r.set('foo', 'Bar') print(r.get('foo'))
数据类型操作
Redis 对String操作:
- String操作,redis中的String在在内存中按照一个name对应一个value字典形式来存储
- 字符串是Redis最基本的数据类型,不仅所有key都是字符串类型,其它几种数据类型构成的元素也是字符串。
- 编码:int 编码是用来保存整数值,raw编码是用来保存长字符串,而embstr是用来保存短字符串。
- 注:字符串的长度不能超过512M。
- set(name, value, ex=None, px=None, nx=False, xx=False)
- ex,过期时间(秒)
- px,过期时间(毫秒)
- nx,如果设置为True,则只有name不存在时,当前set操作才执行
- xx,如果设置为True,则只有name存在时,当前set操作才执行
Redis对string操作 import redis r = redis.Redis(host='1.1.1.3', port=6379) #1、打印这个Redis缓存所有key以列表形式返回:[b'name222', b'foo'] print( r.keys() ) # keys * #2、清空redis r.flushall() #3、设置存在时间: ex=1指这个变量只会存在1秒,1秒后就不存在了 r.set('name', 'Alex') # ssetex name Alex r.set('name', 'Alex',ex=1) # ssetex name 1 Alex #4、获取对应key的value print(r.get('name')) # get name #5、删除指定的key r.delete('name') # del 'name' #6、避免覆盖已有的值: nx=True指只有当字典中没有name这个key才会执行 r.set('name', 'Tom',nx=True) # setnx name alex #7、重新赋值: xx=True只有当字典中已经有key值name才会执行 r.set('name', 'Fly',xx=True) # set name alex xx #8、psetex(name, time_ms, value) time_ms,过期时间(数字毫秒 或 timedelta对象) r.psetex('name',10,'Tom') # psetex name 10000 alex #10、mset 批量设置值; mget 批量获取 r.mset(key1='value1', key2='value2') # mset k1 v1 k2 v2 k3 v3 print(r.mget({'key1', 'key2'})) # mget k1 k2 k3 #11、getset(name, value) 设置新值并获取原来的值 print(r.getset('age','100')) # getset name tom #12、getrange(key, start, end) 下面例子就是获取name值abcdef切片的0-2间的字符(b'abc') r.set('name','abcdef') print(r.getrange('name',0,2)) #13、setbit(name, offset, value) #对name对应值的二进制表示的位进行操作 r.set('name','abcdef') r.setbit('name',6,1) #将a(1100001)的第二位值改成1,就变成了c(1100011) print(r.get('name')) #最后打印结果:b'cbcdef' #14、bitcount(key, start=None, end=None) 获取name对应的值的二进制表示中 1 的个数 #15、incr(self,name,amount=1) 自增 name对应的值,当name不存在时,则创建name=amount,否则自增 #16、derc 自动减1:利用incr和derc可以简单统计用户在线数量 #如果以前有count就在以前基础加1,没有就第一次就是1,以后每运行一次就自动加1 num = r.incr('count') #17、num = r.decr('count') #每运行一次就自动减1 #每运行一次incr('count')num值加1每运行一次decr后num值减1 print(num) #18、append(key, value) 在redis name对应的值后面追加内容 r.set('name','aaaa') r.append('name','bbbb') print(r.get('name')) #运行结果: b'aaaabbbb'
Redis 对Hash操作,字典格式:
- hash在内存中存储可以不像string中那样必须是字典,可以一个键对应一个字典
- 哈希对象的键是一个字符串类型,值是一个键值对集合。
- 编码:哈希对象的编码可以是 ziplist 或者 hashtable。
Redis对Hash字典操作 import redis pool = redis.ConnectionPool(host='1.1.1.3', port=6379) r = redis.Redis(connection_pool=pool) #1 hset(name, key, value) name=字典名字,key=字典key,value=对应key的值 r.hset('info','name','tom') # hset info name tom r.hset('info','age','100') print(r.hgetall('info')) # hgetall info {b'name': b'tom', b'age': b'100'} print(r.hget('info','name')) # hget info name b'tom' print(r.hkeys('info')) #打印出”info”对应的字典中的所有key [b'name', b'age'] print(r.hvals('info')) #打印出”info”对应的字典中的所有value [b'tom', b'100'] #2 hmset(name, mapping) 在name对应的hash中批量设置键值对 r.hmset('info2', {'k1':'v1', 'k2': 'v2','k3':'v3'}) #一次性设置多个值 print(r.hgetall('info2')) #hgetall() 一次性打印出字典中所有内容 print(r.hget('info2','k1')) #打印出‘info2’对应字典中k1对应的value print(r.hlen('info2')) # 获取name对应的hash中键值对的个数 print(r.hexists('info2','k1')) # 检查name对应的hash是否存在当前传入的key r.hdel('info2','k1') # 将name对应的hash中指定key的键值对删除 print(r.hgetall('info2')) #3 hincrby(name, key, amount=1)自增name对应的hash中的指定key的值,不存在则创建key=amount r.hincrby('info2','k1',amount=10) #第一次赋值k1=10以后每执行一次值都会自动增加10 print(r.hget('info2','k1')) #4 hscan(name, cursor=0, match=None, count=None)对于数据大的数据非常有用,hscan可以实现分片的获取数据 # name,redis的name # cursor,游标(基于游标分批取获取数据) # match,匹配指定key,默认None 表示所有的key # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 print(r.hscan('info2',cursor=0,match='k*')) #打印出所有key中以k开头的 print(r.hscan('info2',cursor=0,match='*2*')) #打印出所有key中包含2的 #5 hscan_iter(name, match=None, count=None) # match,匹配指定key,默认None 表示所有的key # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 for item in r.hscan_iter('info2'): print(item)
Redis 对List操作:
- redis中的List在在内存中按照一个name对应一个List来存储
- list 列表,它是简单的字符串列表,按照插入顺序排序,你可以添加一个元素到列表的头部(左边)或者尾部(右边),它的底层实际上是个链表结构。
- 编码: 可以是 ziplist(压缩列表) 和 linkedlist(双端链表)。
redis 对列表操作举例 import redis pool = redis.ConnectionPool(host='10.1.0.51', port=6379) r = redis.Redis(connection_pool=pool) #1 lpush:反向存放 rpush正向存放数据 r.lpush('names','alex','tom','jack') # 从右向左放数据比如:3,2,1(反着放) print(r.lrange('names',0,-1)) # 结果:[b'jack', b'tom'] r.rpush('names','zhangsan','lisi') #从左向右放数据如:1,2,3(正着放) print(r.lrange('names',0,-1)) #结果:b'zhangsan', b'lisi'] #2.1 lpushx(name,value) 在name对应的list中添加元素,只有name已经存在时,值添加到列表最左边 #2.2 rpushx(name, value) 表示从右向左操作 #3 llen(name) name对应的list元素的个数 print(r.llen('names')) #4 linsert(name, where, refvalue, value)) 在name对应的列表的某一个值前或后插入一个新值 # name,redis的name # where,BEFORE或AFTER # refvalue,标杆值,即:在它前后插入数据 # value,要插入的数据 r.rpush('name2','zhangsan','lisi') #先创建列表[zhangsan,lisi] print(r.lrange('name2',0,-1)) r.linsert('name2','before','zhangsan','wangwu') #在张三前插入值wangwu r.linsert('name2','after','zhangsan','zhaoliu') #在张三前插入值zhaoliu print(r.lrange('name2',0,-1)) #5 r.lset(name, index, value) 对name对应的list中的某一个索引位置重新赋值 r.rpush('name3','zhangsan','lisi') #先创建列表[zhangsan,lisi] r.lset('name3',0,'ZHANGSAN') #将索引为0的位置值改成'ZHANGSAN' print(r.lrange('name3',0,-1)) #最后结果:[b'ZHANGSAN', b'lisi'] #6 r.lrem(name, value, num) 在name对应的list中删除指定的值 # name,redis的name # value,要删除的值 # num, num=0,删除列表中所有的指定值; # num=2,从前到后,删除2个; # num=-2,从后向前,删除2个 r.rpush('name4','zhangsan','zhangsan','zhangsan','lisi') r.lrem('name4','zhangsan',1) print(r.lrange('name4',0,-1)) #7 lpop(name) 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素 r.rpush('name5','zhangsan','lisi') r.rpop('name5') print(r.lrange('name5',0,-1)) #8 lindex(name, index) 在name对应的列表中根据索引获取列表元素 r.rpush('name6','zhangsan','lisi') print(r.lindex('name6',1)) #9 lrange(name, start, end) 在name对应的列表分片获取数据 r.rpush('num',0,1,2,3,4,5,6) print(r.lrange('num',1,3)) #10 ltrim(name, start, end) 在name对应的列表中移除没有在start-end索引之间的值 r.rpush('num1',0,1,2,3,4,5,6) r.ltrim('num1',1,2) print(r.lrange('num1',0,-1)) #11 rpoplpush(src, dst) 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边 r.rpush('num2',0,1,2,3) r.rpush('num3',100) r.rpoplpush('num2','num3') print(r.lrange('num3',0,-1)) #运行结果:[b'3', b'100'] #12 blpop(keys, timeout) 将多个列表排列,按照从左到右去pop对应列表的元素 #timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞 r.rpush('num4',0,1,2,3) r.blpop('num4',10) print(r.lrange('num4',0,-1))
Redis 对Set集合操作:
- Set集合就是不允许重复的列表,集合对象 set 是 string 类型(整数也会转换成string类型进行存储)的无序集合。
import redis r = redis.Redis(host='10.1.0.51', port=6379) #1 sadd(name,values) name对应的集合中添加元素 #2 scard(name) 获取name对应的集合中元素个数 r.sadd('name0','alex','tom','jack') print(r.scard('name0')) #3 sdiff(keys, *args) 在第一个name对应的集合中且不在其他name对应的集合的元素集合 r.sadd('num6',1,2,3,4) r.sadd('num7',3,4,5,6) #在num6中有且在num7中没有的元素 print(r.sdiff('num6','num7')) #运行结果:{b'1', b'2'} #4 sdiffstore(dest, keys, *args) #获取第一个name对应的集合中且不在其他name对应的集合,再将其新加入到dest对应的集合中 # 将在num7中不在num8中的元素添加到num9 r.sadd('num7',1,2,3,4) r.sadd('num8',3,4,5,6) r.sdiffstore('num9','num7','num8') print(r.smembers('num9')) #运行结果: {b'1', b'2'} #5 sinter(keys, *args) 获取多一个name对应集合的交集 r.sadd('num10',4,5,6,7,8) r.sadd('num11',1,2,3,4,5,6) print(r.sinter('num10','num11')) #运行结果: {b'4', b'6', b'5'} #6 sinterstore(dest, keys, *args) 获取多一个name对应集合的并集,再讲其加入到dest对应的集合中 r.sadd('num12',1,2,3,4) r.sadd('num13',3,4,5,6) r.sdiffstore('num14','num12','num13') print(r.smembers('num14')) #运行结果: {b'1', b'2'} #7 sismember(name, value) 检查value是否是name对应的集合的成员 r.sadd('name22','tom','jack') print(r.sismember('name22','tom')) #8 smove(src, dst, value) 将某个成员从一个集合中移动到另外一个集合 r.sadd('num15',1,2,3,4) r.sadd('num16',5,6) r.smove('num15','num16',1) print(r.smembers('num16')) #运行结果: {b'1', b'5', b'6'} #9 spop(name) 从集合的右侧(尾部)移除一个成员,并将其返回 r.sadd('num17',4,5,6) print(r.spop('num17')) #10 srandmember(name, numbers) 从name对应的集合中随机获取 numbers 个元素 r.sadd('num18',4,5,6) print(r.srandmember('num18',2)) #11 srem(name, values) 在name对应的集合中删除某些值 r.sadd('num19',4,5,6) r.srem('num19',4) print(r.smembers('num19')) #运行结果: {b'5', b'6'} #12 sunion(keys, *args) 获取多一个name对应的集合的并集 r.sadd('num20',3,4,5,6) r.sadd('num21',5,6,7,8) print(r.sunion('num20','num21')) #运行结果: {b'4', b'5', b'7', b'6', b'8', b'3'} #13 sunionstore(dest,keys, *args) # 获取多个name对应的集合的并集,并将结果保存到dest对应的集合中 r.sunionstore('num22','num20','num21') print(r.smembers('num22')) #运行结果: {b'5', b'7', b'3', b'8', b'6', b'4'} #14 sscan(name, cursor=0, match=None, count=None) # sscan_iter(name, match=None, count=None) #同字符串的操作,用于增量迭代分批获取元素,避免内存消耗太大
Redis 对有序集合操作:
对有序集合使用介绍
- 有序集合,在集合的基础上,为每元素排序
- 元素的排序需要根据另外一个值来进行比较,所以,对于有序集合,每一个元素有两个值,即:值和分数,分数专门用来做排序
- 与列表使用索引下标作为排序依据不同,有序集合为每个元素设置一个分数(score)作为排序依据。
- 编码:有序集合的编码可以是 ziplist 或者 skiplist。
import redis pool = redis.ConnectionPool(host='10.1.0.51', port=6379) r = redis.Redis(connection_pool=pool) #1 zadd(name, *args, **kwargs) 在name对应的有序集合中添加元素 r.zadd('zz', n1=11, n2=22,n3=15) print(r.zrange('zz',0,-1)) #[b'n1', b'n3', b'n2'] print(r.zrange('zz',0,-1,withscores=True)) #[(b'n1', 11.0), (b'n3', 15.0), (b'n2', 22.0)] #2 zcard(name) 获取name对应的有序集合元素的数量 #3 zcount(name, min, max) 获取name对应的有序集合中分数 在 [min,max] 之间的个数 r.zadd('name01', tom=11,jack=22,fly=15) print(r.zcount('name01',1,20)) #4 zincrby(name, value, amount) 自增name对应的有序集合的 name 对应的分数 #5 zrank(name, value) 获取某个值在 name对应的有序集合中的排行(从 0 开始) r.zadd('name02', tom=11,jack=22,fly=15) print(r.zrank('name02','fly')) #6 zrem(name, values) 删除name对应的有序集合中值是values的成员 r.zadd('name03', tom=11,jack=22,fly=15) r.zrem('name03','fly') print(r.zrange('name03',0,-1)) # [b'tom', b'jack'] #7 zremrangebyrank(name, min, max)根据排行范围删除 r.zadd('name04', tom=11,jack=22,fly=15) r.zremrangebyrank('name04',1,2) print(r.zrange('name04',0,-1)) # [b'tom'] #8 zremrangebyscore(name, min, max) 根据分数范围删除 r.zadd('name05', tom=11,jack=22,fly=15) r.zremrangebyscore('name05',1,20) print(r.zrange('name05',0,-1)) #9 zremrangebylex(name, min, max) 根据值返回删除 #10 zscore(name, value) 获取name对应有序集合中 value 对应的分数 #11 zinterstore(dest, keys, aggregate=None) #11测试过代码报错,未解决 #获取两个有序集合的交集,如果遇到相同值不同分数,则按照aggregate进行操作 # aggregate的值为: SUM MIN MAX r.zadd('name09', tom=11,jack=22,fly=15) r.zadd('name10', tom=12,jack=23,fly=15) r.zinterstore('name11',2,'name09','name10') print(r.zrange('name11',0,-1))
Redis 在命令行操作有序序列:
# 127.0.0.1:6379> zadd name222 11 zhangsan 12 lisi (integer) 2 # 127.0.0.1:6379> zrange name222 0 -1 1) "zhangsan" 2) "lisi" # 127.0.0.1:6379> zadd name333 11 zhangsan 12 lisi (integer) 2 # 127.0.0.1:6379> zrange name333 0 -1 1) "zhangsan" 2) "lisi" # 127.0.0.1:6379> zinterstore name444 2 name222 name333 (integer) 2 # 127.0.0.1:6379> zrange name444 0 -1 withscores 1) "zhangsan" 2) "22" 3) "lisi" 4) "24"
Redis 其他命令
import redis pool = redis.ConnectionPool(host='1.1.1.3', port=6379) r = redis.Redis(connection_pool=pool) #1 查看当前Redis所有key print(r.keys('*')) #2 delete(*names) 删除Redis对应的key的值 r.delete('num16') #3 exists(name) 检测redis的name是否存在 print(r.exists('name09')) #4 keys(pattern='*') 根据模型获取redis的name # KEYS * 匹配数据库中所有 key 。 # KEYS h?llo 匹配 hello , hallo 和 hxllo 等。 # KEYS h*llo 匹配 hllo 和 heeeeello 等。 # KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo print(r.keys(pattern='name*')) #打印出Redis中所有以name开通的key #5 expire(name ,time) 为某个redis的某个name设置超时时间 r.expire('name09',1) # 1秒后就会删除这个key值name09 #6 rename(src, dst) 对redis的name重命名为 r.rename('num13','num13new')
Redis 切换数据库
# redis 127.0.0.1:6379> SET db_number 0 # 默认使用 0 号数据库 # redis 127.0.0.1:6379> SELECT 1 # 使用 1 号数据库 # redis 127.0.0.1:6379[1]> GET db_number # 已经切换到 1 号数据库,注意 Redis 现在的命令提符多了个 [1] # redis 127.0.0.1:6379[1]> SET db_number 1 # 设置默认使用 1 号数据库 # redis 127.0.0.1:6379[1]> GET db_number # 获取当前默认使用的数据库号 #1 move(name, db)) 将redis的某个值移动到指定的db下(对方库中有就不移动) 127.0.0.1:6379> move name0 4
#2 type(name) 获取name对应值的类型 127.0.0.1:6379[4]> type name0
Redis 主从复制
主从复制的一些特点:
- 采用异步复制
- 一个主redis可以含有多个从redis
- 每个从redis可以接收来自其他从redis服务器的连接
- 主从复制对于主redis服务器来说是非阻塞的,这意味着当从服务器在进行主从复制同步过程中,主redis仍然可以处理外界的访问请求
- 主从复制对于从redis服务器来说也是非阻塞的,这意味着,即使从redis在进行主从复制过程中也可以接受外界的查询请求,只不过这时候从redis返回的是以前老的数据,如果你不想这样,那么在启动redis时,可以在配置文件中进行设置,那么从redis在复制同步过程中来自外界的查询请求都会返回错误给客户端;(虽然说主从复制过程中对于从redis是非阻塞的,但是当从redis从主redis同步过来最新的数据后还需要将新数据加载到内存中,在加载到内存的过程中是阻塞的,在这段时间内的请求将会被阻,但是即使对于大数据集,加载到内存的时间也是比较多的)
- 主从复制提高了redis服务的扩展性,避免单个redis服务器的读写访问压力过大的问题,同时也可以给为数据备份及冗余提供一种解决方案
- 为了编码主redis服务器写磁盘压力带来的开销,可以配置让主redis不在将数据持久化到磁盘,而是通过连接让一个配置的从redis服务器及时的将相关数据持久化到磁盘,不过这样会存在一个问题,就是主redis服务器一旦重启,因为主redis服务器数据为空,这时候通过主从同步可能导致从redis服务器上的数据也被清空
介绍:
- 和MySQL主从复制的原因一样,Redis虽然读取写入的速度都特别快,但是也会产生读压力特别大的情况。
- 为了分担读压力,Redis支持主从复制,Redis的主从结构可以采用一主多从或者级联结构。
- Redis主从复制可以根据是否是全量分为全量同步和增量同步。
下图为级联结构:
全量同步:
注:Redis全量复制一般发生在Slave初始化阶段,这时Slave需要将Master上的所有数据都复制一份。具体步骤如下:
- 从服务器连接主服务器,发送SYNC命令
- 主服务器接收到SYNC命名后,开始执行BGSAVE命令生成RDB文件并使用缓冲区记录此后执行的所有写命令
- 主服务器BGSAVE执行完后,向所有从服务器发送快照文件,并在发送期间继续记录被执行的写命令
- 从服务器收到快照文件后丢弃所有旧数据,载入收到的快照
- 主服务器快照发送完毕后开始向从服务器发送缓冲区中的写命令
- 从服务器完成对快照的载入,开始接收命令请求,并执行来自主服务器缓冲区的写命令
- 完成上面几个步骤后就完成了从服务器数据初始化的所有操作,从服务器此时可以接收来自用户的读请求
增量同步:
- Redis增量复制是指Slave初始化后开始正常工作时主服务器发生的写操作同步到从服务器的过程。
- 增量复制的过程主要是主服务器每执行一个写命令就会向从服务器发送相同的写命令,从服务器接收并执行收到的写命令。
Redis主从同步策略:
- 主从刚刚连接的时候,进行全量同步;全同步结束后,进行增量同步。
- 当然,如果有需要,slave 在任何时候都可以发起全量同步。
- redis 策略是,无论如何,首先会尝试进行增量同步,如不成功,要求从机进行全量同步。
注意点:
- 如果多个Slave断线了,需要重启的时候,因为只要Slave启动,就会发送sync请求和主机全量同步,当多个同时出现的时候,可能会导致Master IO剧增宕机。
Redis 和 memcached 的区别
- Redis和Memcache都是将数据存放在内存中,都是内存数据库。不过memcache还可用于缓存其他东西,例如图片、视频等等
- Redis不仅仅支持简单的k/v类型的数据,同时还提供list,set,hash等数据结构的存储
- 虚拟内存--Redis当物理内存用完时,可以将一些很久没用到的value 交换到磁盘
- 过期策略--memcache在set时就指定,例如set key1 0 0 8,即永不过期。Redis可以通过例如expire 设定,例如expire name 10
- 分布式--设定memcache集群,利用magent做一主多从;redis可以做一主多从。都可以一主一从
- 存储数据安全--memcache挂掉后,数据没了;redis可以定期保存到磁盘(持久化)
- 灾难恢复--memcache挂掉后,数据不可恢复; redis数据丢失后可以通过aof恢复
- Redis支持数据的备份,即master-slave模式的数据备份
应用场景
- Redis:数据量较小的更性能操作和运算上
- memcache:用于在动态系统中减少数据库负载,提升性能;做缓存,提高性能(适合读多写少,对于数据量比较大,可以采用sharding)
- MongoDB:主要解决海量数据的访问效率问题
加载全部内容