Redis安装配置及在Python上的应用
最近在使用Kazoo(开源电话系统) API时,一次请求的处理需要调用几次API,只为了得到一个name和id的对应关系,耗时非常大,开始想使用一种简单的实现,直接将对应关系保存到静态类的静态变量中,但经过测试发现,这种方法还是会造成对应关系经常丢失的情况,后来简单了解了下Redis,发现比较适用于这种情况,具体操作过程如下所示:
Redis安装与简单配置
开发环境为Ubuntu 12.04,在Ubuntu下Redis安装很简单,直接通过apt-get即可实现,具体如下所示:
#安装Redis服务器端 ~ sudo apt-get install redis-server
通过这种方式,安装完成后,Redis服务器会自动启动,检查Redis服务器程序:
root@mcc-ka-api01:~# ps -ef | grep redis redis 29481 1 0 15:54 ? 00:00:00 /usr/local/bin/redis-server *:6379 root 30117 25288 0 16:19 pts/0 00:00:00 grep --color=auto redis
还可以通过编译安装的方式,具体如下所示:
Redis下载地址:http://redis.io/download
$ wget http://download.redis.io/releases/redis-2.8.19.tar.gz $ tar xzf redis-2.8.19.tar.gz $ cd redis-2.8.19 $ make $ make install
具体可参考:http://rubyer.me/blog/638/
Redis的配置文件存储在redis.conf文件中,具体配置如下:
daemonize yes #---默认值no,该参数用于定制redis服务是否以守护模式运行。--- pidfile /usr/local/webserver/redis/run/redis.pid #默认值/var/run/redis.pid,指定redis服务的进程号文件路径,以守护模式运行时需要配置本参数; port 6379 #默认值6379,指定redis服务的端口 # bind 127.0.0.1 #绑定ip,默认是本机所有网络设备; timeout 0 #客户端空闲n秒后断开连接;默认是 0 表示不断开。 loglevel notice ###设置服务端的日志级别,有下列几种选择: debug:记录详细信息,用于开发或调试; verbose:提供很多有用的信息,但是又不像debug那么详尽,默认就是这一选项; notice:适度提醒,多用于产品环境; warning:仅显示重要的警告信息; logfile stdout ##指定日志的输出路径,默认值stdout,表示输出到屏幕,守护模式时则输出到/dev/null; 如果要输出日志到syslog中,可以启动syslog-enabled yes,默认该选项值为no。 # syslog-enabled no databases 16 ###指定数据库的数量,默认为16个,默认使用的数据库是DB 0。 ----以下为快照相关的设置:------ # save <seconds> <changes> ##指定多长时间刷新快照至磁盘,这个选项有两个属性值,只有当两个属性值均满足时才会触发;可以设置多种级别,例如默认的参数文件中就设置了: save 900 1:每900秒(15分钟)至少一次键值变更时被触发; save 300 10:每300秒(5分钟)至少10次键值变更时被触发; save 60 10000:每60秒至少10000次键值变更时被触发; save 900 1 save 300 10 save 60 10000 rdbcompression yes ##默认值yes,当dump数据库时使用LZF压缩字符串对象,如果CPU资源比较紧张,可以设置为no,选择不压缩; rdbchecksum yes # The filename where to dump the DB 数据库文件名 dbfilename dump.rdb ##默认值dump.rdb,dump到文件系统中的文件名 dir /usr/local/webserver/redis/db ##默认值./,即当前目录,dump出的数据文件的存储路径; ----以下为复制相关的设置,复制默认是不启用的,因此在默认的参数文件下列表参数均被注释---- # slaveof <masterip> <masterport> ##指定主端ip和端口,用于创建一个镜像服务 # masterauth <master-password> ##如果master配置了密码的话,此处也需做设置; slave-serve-stale-data yes ##默认值yes。当slave丢失与master端的连接,或者复制仍在处理,那么slave会有下列两种表现: 当本参数值为yes时,slave为继续响应客户端请求,尽管数据已不同步甚至没有数据(出现在初次同步的情况下); 当本参数值为no时,slave会返回"SYNC with master in progreee"的错误信息; slave-read-only yes ##默认从Redis是只读模式 # repl-ping-slave-period 10 ###默认值10,指定slave定期ping master的周期; # repl-timeout 60 ##默认值60,指定超时时间。注意本参数包括批量传输数据和ping响应的时间。 ------以下为安全相关的设置------ # requirepass foobared ###指定一个密码,客户端连接时也需要通过密码才能成功连接; # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52 ###重定义命令,例如将CONFIG命令更名为一个很复杂的名字: # rename-command CONFIG "" 取消这个命令; -----以下为资源限制方面的设置------ # maxclients 10000 ##指定客户端的最大并发连接数,默认是没有限制,直到redis无法创建新的进程为止,设置该参数值为0也表示不限制,如果该参数指定了值,当并发连接达到指定值时,redis会关闭所有新连接,并返回'max number of clients reached'的错误信息; # maxmemory <bytes> ###设置redis最大可使用内存。当达到最大内存后,redis会尝试按照设置的回收策略删除键值。如果无法删除键值,或者保留策略设置为不清除,那么redis就会向发出内存的请求返回错误信息。当把redis做为一级LRU的缓存时本参数较为有用。 # maxmemory-policy volatile-lru ###默认值volatile-lru,指定清除策略,有下列几种方法: volatile-lru -> remove the key with an expire set using an LRU algorithm allkeys-lru -> remove any key accordingly to the LRU algorithm volatile-random -> remove a random key with an expire set allkeys->random -> remove a random key, any key volatile-ttl -> remove the key with the nearest expire time (minor TTL) noeviction -> don't expire at all, just return an error on write operations # maxmemory-samples 3 ###默认值3,LRU和最小TTL策略并非严谨的策略,而是大约估算的方式,因此可以选择取样值以便检查。 -----以下为APPEND的配置---- ONLY模式的设置,默认情况下redis采用异步方式dump数据到磁盘上,极端情况下这可能会导致丢失部分数据(比如服务器突然宕机),如果数据比较重要,不希望丢失,可以启用直写的模式,这种模式下redis会将所有接收到的写操作同步到appendonly.aof文件中,该文件会在redis服务启动时在内存中重建所有数据。注意这种模式对性能影响非常之大。 appendonly no ##默认值no,指定是否启用直写模式; # appendfilename appendonly.aof ###直写模式的默认文件名appendonly.aof appendfsync:调用fsync()方式让操作系统写数据到磁盘上,数据同步方式,有下列几种模式: always:每次都调用,比如安全,但速度最慢; everysec:每秒同步,这也是默认方式; no:不调用fsync,由操作系统决定何时同步,比如快的模式; no-appendfsync-on-rewrite:默认值no。当AOF fsync策略设置为always或everysec,后台保存进程会执行大量的I/O操作。某些linux配置下redis可能会阻塞过多的fsync()调用。 auto-aof-rewrite-percentage:默认值100 auto-aof-rewrite-min-size:默认值64mb # appendfsync always appendfsync everysec # appendfsync no -----以下为高级配置相关的设置---- hash-max-zipmap-entries:默认值512,当某个map的元素个数达到最大值,但是其中最大元素的长度没有达到设定阀值时,其HASH的编码采用一种特殊的方式(更有效利用内存)。本参数与下面的参数组合使用来设置这两项阀值。设置元素个数; hash-max-zipmap-value:默认值64,设置map中元素的值的最大长度;这两个 list-max-ziplist-entries:默认值512,与hash类似,满足条件的list数组也会采用特殊的方式以节省空间。 list-max-ziplist-value:默认值64 set-max-intset-entries:默认值512,当set类型中的数据都是数值类型,并且set中整型元素的数量不超过指定值时,使用特殊的编码方式。 zset-max-ziplist-entries:默认值128,与hash和list类似。 zset-max-ziplist-value:默认值64 activerehashing:默认值yes,用来控制是否自动重建hash。Active rehashing每100微秒使用1微秒cpu时间排序,以重组Redis的hash表。重建是通过一种lazy方式,写入hash表的操作越多,需要执行rehashing的步骤也越多,如果服务器当前空闲,那么rehashing操作会一直执行。如果对实时性要求较高,难以接受redis时不时出现的2微秒的延迟,则可以设置activerehashing为no,否则建议设置为yes,以节省内存空间。
Redis在Python中的应用
Redis在Python中的应用也非常简单,不多说,见代码:
#!/usr/bin/env python # -*- coding: utf-8 -*- import redis import random from kazoo_api_config import REDIS_HOST, REDIS_PORT, REDIS_DB class MyRedis(object): __redis_conn = [None, None, None, None, None] __host = REDIS_HOST __port = REDIS_PORT __db = REDIS_DB @staticmethod def get_conn(): for i in xrange(len(MyRedis.__redis_conn)): if MyRedis.__redis_conn[i] is None: MyRedis.__redis_conn[i] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) count = random.randint(0, 4) return count, MyRedis.__redis_conn[count] @staticmethod def get_val(key, retries=5): count, conn = MyRedis.get_conn() flag = False try: if conn.exists(key): return conn.get(key) else: return False except Exception as e: flag = True finally: if flag and retries > 0: MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) return MyRedis.get_val(key, retries - 1) @staticmethod def set_val(key, value, retries = 5): count, conn = MyRedis.get_conn() flag = False try: return conn.set(key, value) except Exception as e: flag = True finally: if flag and retries > 0: MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) return MyRedis.set_val(key, value, retries - 1) @staticmethod def get_all_keys(retries=5): count, conn = MyRedis.get_conn() flag = False try: return conn.keys() except Exception as e: flag = True finally: if flag and retries > 0: MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) return MyRedis.get_all_keys(retries - 1) @staticmethod def batch_set(val_dict, retries=5): count, conn = MyRedis.get_conn() flag = False try: return conn.mset(val_dict) except Exception as e: flag = True finally: if flag and retries > 0: MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) return MyRedis.batch_set(val_dict, retries - 1) @staticmethod def delete_keys(key, retries=5): count, conn = MyRedis.get_conn() flag = False try: return conn.delete(key) except Exception as e: flag = True finally: if flag and retries > 0: MyRedis.__redis_conn[count] = redis.Redis(host=MyRedis.__host, port=MyRedis.__port, db=MyRedis.__db) return MyRedis.delete_keys(key, retries - 1)