RabbitMQ的几种应用场景

 RabbitMQ的几种应用场景

 
 

之前的几篇文章介绍了一下的RabbitMQ的概念以及环境的搭建和配置,有了RabbitMQ的环境就可以基于其实现一些特殊的任务场景了.RabbitMQ官方有个很好的教程基本覆盖了的RabbitMQ的各中常见应用场景,现以代码加注的方式以其Python客户端pika为例简单介绍如下。更详细的信息可参阅:http ://www.rabbitmq.com/getstarted.html  。

之前的几篇文章:
RabbitMQ的概念及环境搭建(一)单节点安装与配置
的RabbitMQ概念及环境搭建(二)的RabbitMQ经纪人管理
的RabbitMQ概念及环境搭建(三)的RabbitMQ簇
的RabbitMQ概念及环境搭建(四)的RabbitMQ高可用性
RabbitMQ概念及环境搭建(五)与网络的整合

的RabbitMQ是一个消息代理,从“生产者”接收消息并传递消息至“消费者”,期间可根据规则路由,缓存,持久化消息。“生产者”也即消息发送者以下简称P,相对应的“消费者”乃消息接收者以下简称C,消息通过队列由P到C,队列存在于RabbitMQ的,可存储尽可能多的信息,多个P可向同一队列发送消息,多个ç可从同一个队列接收消息。

应用场景1-“Hello Word”

一个P向队列发送一个消息,一个Ç从该队列接收消息并打印。

send.py  
生产者,连接至RabbitMQ服务器,声明队列,发送消息,关闭连接,退出。

 

[python] 查看纯文本 
 
  1. #!的/ usr / bin中/ python27  
  2. #encoding:UTF8  
  3. 进口 皮卡  
  4.   
  5. #与RabbitMQ Server建立连接  
  6. #连接到的券商在本机-localhost上  
  7. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  8.         host = 'localhost' ))  
  9. channel = connection.channel()  
  10.   
  11. #声明队列以向其发送消息消息  
  12. #向不存在的位置发送消息时的RabbitMQ将消息丢弃  
  13. #队列= '你好' 指定队列名字  
  14. channel.queue_declare(queue = 'hello' ,durable = True )  
  15.   
  16. #message不能直接发送给队列,需经交换到达队列,此处使用以空字符串标识的默认的交换  
  17. #使用默认交换时允许通过routing_key明确指定消息将被发送给哪个队列  
  18. #body参数指定了要发送的消息内容  
  19. channel.basic_publish(exchange = '' ,  
  20.                       routing_key = 'hello' ,  
  21.                       body = 'Hello World!' )  
  22.   
  23. 打印“[x]发送”Hello World!“”   
  24.   
  25. #关闭与RabbitMq Server间的连接  
  26. connection.close()时  
receive.py  
consumer,连接至RabbitMQ Server,声明队列,接收消息并进行处理这里为打印出消息,退出。

 

[python] 查看纯文本 
 
  1. #!/ usr / bin / env python  
  2. #encoding:UTF8  
  3. 进口 皮卡  
  4.   
  5. #建立到达RabbitMQ Server的连接  
  6. #此处RabbitMQ Server位于本机-localhost  
  7. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  8.         host = 'localhost' ))  
  9. channel = connection.channel()  
  10.   
  11. #声明队列,确认要从中接收消息的队列  
  12. #queue_declare函数是幂等的,可运行多次,但只会创建一次  
  13. #若可以确信队列是已存在的,则此处可省略该声明,如生产商已经生成了该队列  
  14. #但在生产和消费中重复声明队列是一个好的习惯  
  15. channel.queue_declare(queue = 'hello' )  
  16.   
  17. 打印'[*]等待消息。退出按CTRL + C'   
  18.   
  19. #定义回调函数  
  20. #一旦从队列中接收到一个消息回调函数将被调用  
  21. #ch:信道  
  22. #方法:  
  23. #properties:  
  24. #body:消息  
  25. def  callback(ch,method,properties,body):  
  26.     打印“[x]收到%r”  %(正文)   
  27.   
  28. #从队列接收消息的参数设置  
  29. #包括从哪个队列接收消息时,用于处理消息的回调,是否要确认消息  
  30. #默认情况下是要对消息进行确认的,以防止消息丢失。  
  31. #此处将NO_ACK明确指明为真,不对消息进行确认。  
  32. channel.basic_consume(回调,  
  33.                       queue = 'hello' ,  
  34.                       no_ack = True )  
  35.   
  36. #开始循环从队列中接收消息并使用回调进行处理  
  37. channel.start_consuming()  
测试

 

[普通] 查看普通副本 
 
  1. python send.py  
  2. python receive.py  

应用场景2工作队列

将耗时的处理通过队列分配给多个消费者来处理,我们称此处的消费者为工作者,我们将此处的队列称为任务队列,其目的是为了避免资源密集型的任务的同步处理,也即立即处理任务并等待完成。相反,调度任务使其稍后被处理。也即把任务封装进消息并发送到任务队列,工人进程在后台运行,从任务队列取出任务并执行工作,若运行了多个工人,则任务可在多个工人间分配。


new_task.py 
建立连接,声明队列,发送可以模拟耗时任务的消息,断开连接,退出。

[python] 查看纯文本 
 
  1. #!/ usr / bin / env python  
  2. #encoding:UTF8  
  3. 进口 皮卡  
  4. 导入 系统  
  5.   
  6. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  7.         host = 'localhost' ))  
  8. channel = connection.channel()  
  9.   
  10. #仅仅对消息进行确认不能保证消息不丢失,比如RabbitMQ的崩溃了队列就会丢失  
  11. #因此还需使用耐用=真声明队列是持久化的,这样即便拉布崩溃了重启后队列仍然存在  
  12. channel.queue_declare(queue = 'task_queue' ,durable = True )  
  13.   
  14. #从命令行构造将要发送的消息  
  15. message =  ''. join(sys.argv [ 1 :])  “Hello World!”   
  16.   
  17. #除了要声明队列是持久化的外,还需声明消息是持久化的  
  18. #basic_publish的性能参数指定信息的属性  
  19. #此处pika.BasicProperties中的delivery_mode = 2指明消息为持久的  
  20. #这样一来的RabbitMQ崩溃重启后队列仍然存在其中的消息也仍然存在  
  21. #需注意的是将消息标记为持久的并不能完全保证消息不丢失,因为  
  22. #从RabbitMQ的接收到的消息到将其存储到磁盘仍需一段时间,若此时的RabbitMQ崩溃则消息会丢失  
  23. #况且的RabbitMQ不会对每条消息做FSYNC动作  
  24. #可通过发布者确认实现更强壮的持久性保证  
  25. channel.basic_publish(exchange = '' ,  
  26.                       routing_key = 'task_queue' ,  
  27.                       体=消息  
  28.                       属性= pika.BasicProperties(  
  29.                          delivery_mode =  2 ,  #make message persistent  
  30.                       ))  
  31. 打印“[x]发送%r”  %(消息,)   
  32. connection.close()时  
worker.py 
建立连接,声明队列,不断的接收消息,处理任务,进行确认。
[python] 查看纯文本 
 
  1. #!/ usr / bin / env python  
  2. #encoding:UTF8  
  3. 进口 皮卡  
  4. 进口 时间  
  5.   
  6. #默认情况RabbirMQ将消息以循环方式发送给下一个客户  
  7. #每个消费者接收到的平均消息量是一样的  
  8. #可以同时运行两个或三个该程序进行测试  
  9.   
  10. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  11.         host = 'localhost' ))  
  12. channel = connection.channel()  
  13.   
  14. #仅仅对消息进行确认不能保证消息不丢失,比如RabbitMQ的崩溃了  
  15. #还需使用耐用=真声明队列是持久化的,这样即便拉布崩溃了重启后队列仍然存在其中的信息不会丢失  
  16. #RabbitMQ中不允许使用不同的参数定义同名队列  
  17. channel.queue_declare(queue = 'task_queue' ,durable = True )  
  18.   
  19. 打印'[*]等待消息。退出按CTRL + C'   
  20.   
  21. #回调函数,函数体模拟耗时的任务处理: '' 以消息中的数量表示睡眠的秒数  
  22. def  callback(ch,method,properties,body):  
  23.     打印“[x]收到%r”  %(正文)   
  24.     time.sleep(body.count('。' ))  
  25.     打印“[x]完成”   
  26.     #对消息进行确认  
  27.     ch.basic_ack(delivery_tag = method.delivery_tag)  
  28.   
  29. #若存在多个消费者每个消费者的负载可能不同,有些处理的快有些处理的慢  
  30. #RabbitMQ并不管这些,只是简单的以循环的方式分配消息  
  31. #这可能造成某些消费者积压很多任务处理不完而一些消费者长期处于饥饿状态  
  32. #可以使用prefetch_count = 1的basic_qos方法可告知的RabbitMQ只有在消费者处理并确认了上一个消息后才分配新的消息给他  
  33. #否则分给另一个空闲的消费者  
  34. channel.basic_qos(prefetch_count = 1 )  
  35.   
  36. #这里移除了NO_ACK =真这个参数,也即需要对消息进行确认(默认行为)  
  37. #否则消费者在偶然下来后其正在处理和分配到该消费者还未处理的消息可能发生丢失  
  38. #因为此时的RabbitMQ在发送完信息后立即从内存删除该消息  
  39. #假如没有设置NO_ACK =真则消费者在偶然向下掉后其正在处理和分配至该消费者但还未来得及处理的消息会重新分配到其他消费者  
  40. #没有设置NO_ACK =真则消费者在收到消息后会向RabbitMQ的反馈已收到并处理了消息告诉的RabbitMQ可以删除该消息  
  41. #RabbitMQ中没有超时的概念,只有在消费者掉掉后重新分发消息  
  42. channel.basic_consume(回调,  
  43.                       queue = 'task_queue' )  
  44.   
  45. channel.start_consuming()  

测试

[普通] 查看普通副本 
 
  1. python new_task.py“一个非常艰巨的任务需要两秒钟..”  
  2. python worker.py  

应用场景3-发布/订阅

在应用场景2中一个消息(任务)仅被传递给了一个comsumer(工人)。现在我们设法将一个消息传递给多个消费者。这种模式被称为发布/订阅。此处以一个简单的日志系统为例进行说明。该系统包含一个日志发送程序和一个登录接收并打印的程序。由日志发送者发送到队列的消息可以被所有运行的登录接收者接收。因此,我们可以运行一个登录接收者直接在屏幕上显示日志,同时运行另一个日志接收者将日志写入磁盘文件。

 


receive_logs.py 
日志消息接收者:建立连接,声明交换,将交换与队列进行绑定,开始不停的接收日志并打印。

[python] 查看纯文本 
 
  1. #!/ usr / bin / env python  
  2. #encoding:UTF8  
  3. 进口 皮卡  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host = 'localhost' ))  
  7. channel = connection.channel()  
  8.   
  9. #作为好的习惯,在生产和消费中分别声明一次以保证所要使用的交换存在  
  10. channel.exchange_declare(exchange = 'logs' ,  
  11.                          type = 'fanout' )  
  12.   
  13. #在不同的生产者和消费者间共享队列时指明队列的名称是重要的  
  14. #但某些时候,比如日志系统,需要接收所有的日志消息而非一个子集  
  15. #而且对对当前的消息流感兴趣,对于过时的消息不感兴趣,那么  
  16. #可以申请一个临时队列这样,每次连接到RabbitMQ的时会以一个随机的名字生成  
  17. #一个新的空的队列中,将独家置为真,这样在消费者从RabbitMQ的断开后会删除该队列  
  18. result = channel.queue_declare(exclusive=True)  
  19.   
  20. #用于获取临时queue的name  
  21. queue_name = result.method.queue  
  22.   
  23. #exchange与queue之间的关系成为binding  
  24. #binding告诉exchange将message发送该哪些queue  
  25. channel.queue_bind(exchange='logs',  
  26.                    queue=queue_name)  
  27.   
  28. print ' [*] Waiting for logs. To exit press CTRL+C'  
  29.   
  30. def callback(ch, method, properties, body):  
  31.     print " [x] %r" % (body,)  
  32.   
  33. #从指定地queue中consume message且不确认  
  34. channel.basic_consume(callback,  
  35.                       queue=queue_name,  
  36.                       no_ack=True)  
  37.   
  38. channel.start_consuming()  
emit_log.py
日志消息发送者:建立连接,声明fanout类型的exchange,通过exchage向queue发送日志消息,消息被广播给所有接收者,关闭连接,退出。

 

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. #encoding:utf8  
  3.   
  4. import pika  
  5. import sys  
  6.   
  7. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  8.         host='localhost'))  
  9. channel = connection.channel()  
  10.   
  11. #producer只能通过exchange将message发给queue  
  12. #exchange的类型决定将message路由至哪些queue  
  13. #可用的exchange类型:direct\topic\headers\fanout  
  14. #此处定义一个名称为'logs'的'fanout'类型的exchange,'fanout'类型的exchange简单的将message广播到它所知道的所有queue  
  15. channel.exchange_declare(exchange='logs',  
  16.                          type='fanout')  
  17.   
  18. message = ' '.join(sys.argv[1:]) or "info: Hello World!"  
  19.   
  20. #将消息发布到名为日志的交换中  
  21. #因为是扇出类型的交换,这里无需指定routing_key  
  22. channel.basic_publish(exchange = 'logs' ,  
  23.                       routing_key = '' ,  
  24.                       体=消息)  
  25.   
  26. 打印“[x]发送%r”  %(消息,)   
  27.   
  28. connection.close()时  
测试

 

 

[普通] 查看普通副本 
 
  1. python receive_logs.py  
  2. python emit_log.py“info:这是日志消息”  

 

应用场景4的路由

应用场景3中构建了简单的日志系统,可以将日志消息广播至多个接收者。现在我们将考虑只把指定的消息类型发送给其订阅者,比如,只把错误消息写到日志文件,而将所有的日志消息显示在控制台。


receive_logs_direct.py 
log message接收者:建立连接,声明直接类型的交换,声明队列,使用提供的参数作为routing_key将队列绑定到交换,开始循环接收日志消息并打印。

 

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. #声明一个名为direct_logs类型为direct的exchange  
  10. #同时在producer和consumer中声明exchage或queue是个好习惯,以保证其存在  
  11. channel.exchange_declare(exchange='direct_logs',  
  12.                          type='direct')  
  13.   
  14. result = channel.queue_declare(exclusive=True)  
  15. queue_name = result.method.queue  
  16.   
  17. #从命令行获取参数:routing_key  
  18. severities = sys.argv[1:]  
  19. if not severities:  
  20.     print >> sys.stderr, "Usage: %s [info] [warning] [error]" % (sys.argv[0],)  
  21.     sys.exit(1)  
  22.   
  23. for severity in severities:  
  24.     #exchange和queue之间的binding可接受routing_key参数  
  25.     #该参数的意义依赖于exchange的类型  
  26.     #fanout类型的exchange直接忽略该参数  
  27.     #direct类型的exchange精确匹配该关键字进行message路由  
  28.     #对多个queue使用相同的binding_key是合法的  
  29.     channel.queue_bind(exchange='direct_logs',  
  30.                        queue=queue_name,  
  31.                        routing_key=severity)  
  32.   
  33. print ' [*] Waiting for logs. To exit press CTRL+C'  
  34.   
  35. def callback(ch, method, properties, body):  
  36.     print " [x] %r:%r" % (method.routing_key, body,)  
  37.   
  38. channel.basic_consume(callback,  
  39.                       queue=queue_name,  
  40.                       no_ack=True)  
  41.   
  42. channel.start_consuming()  

emit_log_direct.py
log message发送者:建立连接,声明direct类型的exchange,生成并发送log message到exchange,关闭连接,退出。

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. #encoding:utf8  
  3.   
  4. import pika  
  5. import sys  
  6.   
  7. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  8.         host='localhost'))  
  9. channel = connection.channel()  
  10.   
  11. #声明一个名为direct_logs的direct类型的exchange  
  12. #direct类型的exchange  
  13. channel.exchange_declare(exchange='direct_logs',  
  14.                          type='direct')  
  15.   
  16. #从命令行获取basic_publish的配置参数  
  17. severity = sys.argv[1] if len(sys.argv) > else 'info'  
  18. message = ' '.join(sys.argv[2:]) or 'Hello World!'  
  19.   
  20. #向名为direct_logs的exchage按照设置的routing_key发送message  
  21. channel.basic_publish(exchange='direct_logs',  
  22.                       routing_key=severity,  
  23.                       body=message)  
  24.   
  25. print " [x] Sent %r:%r" % (severity, message)  
  26. connection.close()  

测试:

python receive_logs_direct.py info
python emit_log_direct.py info "The message"

应用场景5-topic

应用场景4中改进的log系统中用direct类型的exchange替换应用场景3中的fanout类型exchange实现将不同的log message发送给不同的subscriber(也即分别通过不同的routing_key将queue绑定到exchange,这样exchange便可将不同的message根据message内容路由至不同的queue)。但仍然存在限制,不能根据多个规则路由消息,比如接收者要么只能收error类型的log message要么只能收info类型的message。如果我们不仅想根据log的重要级别如info、warning、error等来进行log message路由还想同时根据log message的来源如auth、cron、kern来进行路由。为了达到此目的,需要topic类型的exchange。topic类型的exchange中routing_key中可以包含两个特殊字符:“*”用于替代一个词,“#”用于0个或多个词。

receive_logs_topic.py
log message接收者:建立连接,声明topic类型的exchange,声明queue,根据程序参数构造routing_key,根据routing_key将queue绑定到exchange,循环接收并处理message。

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. import pika  
  3. import sys  
  4.   
  5. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  6.         host='localhost'))  
  7. channel = connection.channel()  
  8.   
  9. #声明一个名为direct_logs类型为direct的exchange  
  10. #同时在producer和consumer中声明exchage或queue是个好习惯,以保证其存在  
  11. channel.exchange_declare(exchange='direct_logs',  
  12.                          type='direct')  
  13.   
  14. result = channel.queue_declare(exclusive=True)  
  15. queue_name = result.method.queue  
  16.   
  17. #从命令行获取参数:routing_key  
  18. severities = sys.argv[1:]  
  19. if not severities:  
  20.     print >> sys.stderr, "Usage: %s [info] [warning] [error]" % (sys.argv[0],)  
  21.     sys.exit(1)  
  22.   
  23. for severity in severities:  
  24.     #exchange和queue之间的binding可接受routing_key参数  
  25.     #该参数的意义依赖于exchange的类型  
  26.     #fanout类型的exchange直接忽略该参数  
  27.     #direct类型的exchange精确匹配该关键字进行message路由  
  28.     #对多个queue使用相同的binding_key是合法的  
  29.     channel.queue_bind(exchange='direct_logs',  
  30.                        queue=queue_name,  
  31.                        routing_key=severity)  
  32.   
  33. print ' [*] Waiting for logs. To exit press CTRL+C'  
  34.   
  35. def callback(ch, method, properties, body):  
  36.     print " [x] %r:%r" % (method.routing_key, body,)  
  37.   
  38. channel.basic_consume(callback,  
  39.                       queue=queue_name,  
  40.                       no_ack=True)  
  41.   
  42. channel.start_consuming()  

emit_log_topic.py
log message发送者:建立连接、声明topic类型的exchange、根据程序参数构建routing_key和要发送的message,以构建的routing_key将message发送给topic类型的exchange,关闭连接,退出。

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. #encoding:utf8  
  3. import pika  
  4. import sys  
  5.   
  6. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  7.         host='localhost'))  
  8. channel = connection.channel()  
  9.   
  10. #声明一个名为topic_logs的topic类型的exchange  
  11. #topic类型的exchange可通过通配符对message进行匹配从而路由至不同queue  
  12. channel.exchange_declare(exchange='topic_logs',  
  13.                          type='topic')  
  14.   
  15. routing_key = sys.argv[1] if len(sys.argv) > else 'anonymous.info'  
  16. message = ' '.join(sys.argv[2:]) or 'Hello World!'  
  17.   
  18. channel.basic_publish(exchange='topic_logs',  
  19.                       routing_key=routing_key,  
  20.                       body=message)  
  21.   
  22. print " [x] Sent %r:%r" % (routing_key, message)  
  23. connection.close()  

 

测试:

 

[plain] view plain copy
 
  1. python receive_logs_topic.py "*.rabbit"  
  2. python emit_log_topic.py red.rabbit Hello  

 

应用场景6-PRC

在应用场景2中描述了如何使用work queue将耗时的task分配到不同的worker中。但是,如果我们task是想在远程的计算机上运行一个函数并等待返回结果呢。这根场景2中的描述是一个完全不同的故事。这一模式被称为远程过程调用。现在,我们将构建一个RPC系统,包含一个client和可扩展的RPC server,通过返回斐波那契数来模拟RPC service。

rpc_server.py
RPC server:建立连接,声明queue,定义了一个返回指定数字的斐波那契数的函数,定义了一个回调函数在接收到包含参数的调用请求后调用自己的返回斐波那契数的函数并将结果发送到与接收到message的queue相关联的queue,并进行确认。开始接收调用请求并用回调函数进行请求处理。

 

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. #encoding:utf8  
  3. import pika  
  4.   
  5. #建立到达RabbitMQ Server的connection  
  6. connection = pika.BlockingConnection(pika.ConnectionParameters(  
  7.         host='localhost'))  
  8. channel = connection.channel()  
  9.   
  10. #声明一个名为rpc_queue的queue  
  11. channel.queue_declare(queue='rpc_queue')  
  12.   
  13. #计算指定数字的斐波那契数  
  14. def fib(n):  
  15.     if n == 0:  
  16.         return 0  
  17.     elif n == 1:  
  18.         return 1  
  19.     else:  
  20.         return fib(n-1) + fib(n-2)  
  21.   
  22. #回调函数,从queue接收到message后调用该函数进行处理  
  23. def on_request(ch, method, props, body):  
  24.     #由message获取要计算斐波那契数的数字  
  25.     n = int(body)  
  26.   
  27.     print " [.] fib(%s)"  % (n,)  
  28.     #调用fib函数获得计算结果  
  29.     response = fib(n)  
  30.       
  31.     #exchage为空字符串则将message发送个到routing_key指定的queue  
  32.     #这里queue为回调函数参数props中reply_ro指定的queue  
  33.     #要发送的message为计算所得的斐波那契数  
  34.     #properties中correlation_id指定为回调函数参数props中co的rrelation_id  
  35.     #最后对消息进行确认  
  36.     ch.basic_publish(exchange='',  
  37.                      routing_key=props.reply_to,  
  38.                      properties=pika.BasicProperties(correlation_id = \  
  39.                                                          props.correlation_id),  
  40.                      body=str(response))  
  41.     ch.basic_ack(delivery_tag = method.delivery_tag)  
  42.   
  43. #只有consumer已经处理并确认了上一条message时queue才分派新的message给它  
  44. channel.basic_qos(prefetch_count=1)  
  45.   
  46. #设置consumeer参数,即从哪个queue获取消息使用哪个函数进行处理,是否对消息进行确认  
  47. channel.basic_consume(on_request, queue='rpc_queue')  
  48.   
  49. print " [x] Awaiting RPC requests"  
  50.   
  51. #开始接收并处理消息  
  52. channel.start_consuming()  
rpc_client.py
RPC client:远程过程调用发起者:定义了一个类,类中初始化到RabbitMQ Server的连接、声明回调queue、开始在回调queue上等待接收响应、定义了在回调queue上接收到响应后的处理函数on_response根据响应关联的correlation_id属性作出响应、定义了调用函数并在其中向调用queue发送包含correlation_id等属性的调用请求、初始化一个client实例,以30为参数发起远程过程调用。

 

[python] view plain copy
 
  1. #!/usr/bin/env python  
  2. #encoding:utf8  
  3. import pika  
  4. import uuid  
  5.   
  6. #在一个类中封装了connection建立、queue声明、consumer配置、回调函数等  
  7. class FibonacciRpcClient(object):  
  8.     def __init__(self):  
  9.         #建立到RabbitMQ Server的connection  
  10.         self.connection = pika.BlockingConnection(pika.ConnectionParameters(  
  11.                 host='localhost'))  
  12.   
  13.         self.channel = self.connection.channel()  
  14.           
  15.         #声明一个临时的回调队列  
  16.         result = self.channel.queue_declare(exclusive=True)  
  17.         self.callback_queue = result.method.queue  
  18.   
  19.         #此处client既是producer又是consumer,因此要配置consume参数  
  20.         #这里的指明从client自己创建的临时队列中接收消息  
  21.         #并使用on_response函数处理消息  
  22.         #不对消息进行确认  
  23.         self.channel.basic_consume(self.on_response, no_ack=True,  
  24.                                    queue=self.callback_queue)  
  25.       
  26.     #定义回调函数  
  27.     #比较类的corr_id属性与props中corr_id属性的值  
  28.     #若相同则response属性为接收到的message  
  29.     def on_response(self, ch, method, props, body):  
  30.         if self.corr_id == props.correlation_id:  
  31.             self.response = body  
  32.    
  33.     def call(self, n):  
  34.         #初始化response和corr_id属性  
  35.         self.response = None  
  36.         self.corr_id = str(uuid.uuid4())  
  37.          
  38.         #使用默认exchange向server中定义的rpc_queue发送消息  
  39.         #在properties中指定replay_to属性和correlation_id属性用于告知远程server  
  40.         #correlation_id属性用于匹配request和response  
  41.         self.channel.basic_publish(exchange='',  
  42.                                    routing_key='rpc_queue',  
  43.                                    properties=pika.BasicProperties(  
  44.                                          reply_to = self.callback_queue,  
  45.                                          correlation_id = self.corr_id,  
  46.                                          ),  
  47.                                    #message需为字符串  
  48.                                    body=str(n))  
  49.   
  50.         while self.response is None:  
  51.             self.connection.process_data_events()  
  52.           
  53.         return int(self.response)  
  54.   
  55. #生成类的实例  
  56. fibonacci_rpc = FibonacciRpcClient()  
  57.   
  58. print " [x] Requesting fib(30)"  
  59. #调用实例的call方法  
  60. response = fibonacci_rpc.call(30)  
  61. print " [.] Got %r" % (response,)  

测试:

[python] view plain copy
 
  1. python rpc_server.py  
  2. python rpc_client.py  
 
posted @ 2017-08-09 19:35  『心向阳﹡无所惧』  阅读(248)  评论(0编辑  收藏  举报