Java NIO框架Netty教程(十二) 并发访问测试(中)

写在前面:对Netty并发问题的测试和解决完全超出了我的预期,想说的东西越来越多。所以才出现这个中篇,也就是说,一定会有下篇。至于问题点的发现,OneCoder也在努力验证中。

继续并发的问题。在Java NIO框架Netty教程(十一) 并发访问测试(上)中,我们测试的其实是一种伪并发的情景。底层实际只有一个Channel在运作,不会出现什么无响应的问题。而实际的并发不是这个意思的,独立的客户端,自然就会有独立的channel。也就是一个服务端很可能和很多的客户端建立关系,就有很多的Channel,进行了多次的绑定。下面我们来模拟一下这种场景。

 

01./**
02.* Netty并发,多connection,socket并发测试
03.*
04.* @author lihzh(OneCoder)
05.* @alia OneCoder
07.* @date 2012-8-13 下午10:47:28
08.*/
09.public class ConcurrencyNettyMultiConnection {
10. 
11.public static void main(String args[]) {
12.final ClientBootstrap bootstrap = new ClientBootstrap(
13.new NioClientSocketChannelFactory(
14.Executors.newCachedThreadPool(),
15.Executors.newCachedThreadPool()));
16.// 设置一个处理服务端消息和各种消息事件的类(Handler)
17.bootstrap.setPipelineFactory(new ChannelPipelineFactory() {
18.@Override
19.public ChannelPipeline getPipeline() throws Exception {
20.return Channels.pipeline(new ObjectEncoder(),
21.new ObjectClientHandler()
22.);
23.}
24.});
25.for (int i = 0; i < 3; i++) {
26.bootstrap.connect(new InetSocketAddress("127.0.0.1"8000));
27.}
28.}
29.}

 

看到这段代码,你可能会疑问,这是在做什么。他是基于Java Selector直接进行的验证,Netty是在此之上封装了一层。其实OneCoder也做了Selector层的验证。

 

01./**
02.* Selector打开端口数量测试
03.*
04.* @author lihzh
05.* @alia OneCoder
07.*/
08.public class ConcurrencySelectorOpen {
09. 
10./**
11.* @author lihzh
12.* @alia OneCoder
13.* @throws IOException
14.* @throws InterruptedException
15.* @date 2012-8-15 下午1:57:56
16.*/
17.public static void main(String[] args) throws IOException, InterruptedException {
18.for (int i = 0; i < 3; i++) {
19.Selector selector = Selector.open();
20.SocketChannel channel = SocketChannel.open();
21.channel.configureBlocking(false);
22.channel.connect(new InetSocketAddress("127.0.0.1"8000));
23.channel.register(selector, SelectionKey.OP_READ);
24.}
25.Thread.sleep(300000);
26.}
27.}

 

同样,通过Process Explorer去观察端口占用情况,开始跟酷壳大哥的观察到的效果一样。当不启动Server端,也就是不实际跟Server端建立链接的时候,3次selector open,占用了6个端口。

 

\
 

当启动Server端,进行绑定的时候,占用了9个端口

 

\
 

其实,多的三个,就是实际绑定的8000端口。其余就是酷壳大哥说的内部Loop链接。也就是说,对于我们实际场景,一次链接需要的端口数是3个。操作系统的端口数和资源当然有有限的,也就是说当我们增大这个链接的时候,错误必然会发生了。OneCoder尝试一下3000次的场景,并没有出现错误,不过这么下去出错肯定是必然的。

再看看服务端的情况,

 

\
 

这个还是直接通过Selector连接的时候的服务端的情况,除了两个内部回环端口以外,都是通过监听的8000的端口与外界通信,所以,服务端不会有端口限制的问题。不过,也可以看到,如果对链接不控制,服务端也维持大量的连接耗费系统资源!所以,良好的编码是多么的重要。

回到我们的主题,Netty的场景。先使用跟Selector测试一样的场景,单线程,一个bootstrap,连续多次connect看看错误和端口占用的情况。代码也就是开头提供的那段代码。

看看测试结果,

 

\
 

同样连接后还是占用9个端口。如果手动调用了channle.close()方法,则会释放与8000链接的端口,也就是变成6个端口占用。

增大连续连接数到10000。www.it165.net

首先没有报错,在每次close channel情况下,客户端端口占用情况如图(服务端情况类似)。

 

\
 

可见,并没有像selector那样无限的增加下去。这正是Netty中worker的巨大作用,帮我们管理这些琐碎的链接。具体分析,我们留待下章,您也可以自己研究一下。(OneCoder注:如果没关闭channel,会发现对8000端口的占用,会迅速增加。系统会很卡。)

调整测试代码,用一个线程来模拟一个客户端的请求。

 

01./**
02.* Netty并发,多connection,socket并发测试
03.*
04.* @author lihzh(OneCoder)
05.* @alia OneCoder
07.* @date 2012-8-13 下午10:47:28
08.*/
09.public class ConcurrencyNettyMultiConnection {
10. 
11.public static void main(String args[]) {
12.final ClientBootstrap bootstrap = new ClientBootstrap(
13.new NioClientSocketChannelFactory(
14.Executors.newCachedThreadPool(),
15.Executors.newCachedThreadPool()));
16.// 设置一个处理服务端消息和各种消息事件的类(Handler)
17.bootstrap.setPipelineFactory(new ChannelPipelineFactory() {
18.@Override
19.public ChannelPipeline getPipeline() throws Exception {
20.return Channels.pipeline(new ObjectEncoder(),
21.new ObjectClientHandler()
22.);
23.}
24.});
25.for (int i = 0; i < 1000; i++) {
26.// 连接到本地的8000端口的服务端
27.Thread t = new Thread(new Runnable() {
28.@Override
29.public void run() {
30.bootstrap.connect(new InetSocketAddress("127.0.0.1"8000));
31.try {
32.Thread.sleep(300000);
33.catch (InterruptedException e) {
34.e.printStackTrace();
35.}
36.}
37.});
38.t.start();
39.}
40.}
41.}

 

不出所料,跟微博上问我问题的朋友出现的问题应该是一样的:

Write: 973
Write: 974
八月 17, 2012 9:57:28 下午 org.jboss.netty.channel.SimpleChannelHandler
警告: EXCEPTION, please implement one.coder.netty.chapter.eight.ObjectClientHandler.exceptionCaught() for proper handling.
java.net.ConnectException: Connection refused: no further information

这个问题,笔者确实尚未分析出原因,仅从端口占用情况来看,跟前面的测试用例跑出的效果基本类似。应该说明不是端口不足导致的,不过OneCoder尚不敢妄下结论。待研究后,我们下回分解吧:)您有任何想法,也可以提供给我,我来进行验证。

posted @ 2017-10-10 23:25  hashcoder  阅读(378)  评论(0编辑  收藏  举报