Netty源码死磕二(Netty的启动流程)
引言
上一篇文章介绍了Netty
的线程模型及EventLoop
机制,相信大家对Netty
已经有一个基本的认识。那么本篇文章我会根据Netty提供的Demo
来分析一下Netty
启动流程。
启动流程概览
开始之前,我们先来分析下Netty
服务端的启动流程,下面是一个简单的流程图
启动流程大致分为五步
- 创建
ServerBootstrap
实例,ServerBootstrap
是Netty服务端的启动辅助类,其存在意义在于其整合了Netty可以提供的所有能力,并且尽可能的进行了封装,以方便我们使用 - 设置并绑定
EventLoopGroup
,EventLoopGroup
其实是一个包含了多个EventLoop
的NIO线程池,在上一篇文章我们也有比较详细的介绍过EventLoop
事件循环机制,不过值得一提的是,Netty 中的EventLoop
不仅仅只处理IO读写事件,还会处理用户自定义或系统的Task任务 - 创建服务端Channel
NioServerSocketChannel
,并绑定至一个EventLoop
上。在初始化NioServerSocketChannel
的同时,会创建ChannelPipeline
,ChannelPipeline
其实是一个绑定了多个ChannelHandler
的执行链,后面我们会详细介绍 - 为服务端
Channel
添加并绑定ChannelHandler
,ChannelHandler
是Netty开放给我们的一个非常重要的接口,在触发网络读写事件后,Netty都会调用对应的ChannelHandler
来处理,后面我们会详细介绍 - 为服务端
Channel
绑定监听端口,完成绑定之后,Reactor线程(也就是第三步绑定的EventLoop线程)就开始执行Selector
轮询网络IO事件了,如果Selector
轮询到网络IO事件了,则会调用Channel
对应的ChannelPipeline
来依次执行对应的ChannelHandler
启动流程源码分析
下面我们就从启动源码来进一步分析 Netty 服务端的启动流程
入口
首先来看下常见的启动代码
// 配置bossEventLoopGroup 配置大小为1
EventLoopGroup bossGroup = new NioEventLoopGroup(1);
// 配置workEventLoopGroup 配置大小默认为cpu数*2
EventLoopGroup workerGroup = new NioEventLoopGroup();
// 自定义handler
final EchoServerHandler serverHandler = new EchoServerHandler();
try {
// 启动辅助类 配置各种参数(服务端Channel类,EventLoopGroup,childHandler等)
ServerBootstrap b = new ServerBootstrap();
b.group(bossGroup, workerGroup)
// 配置 channel通道,会反射实例化
.channel(NioServerSocketChannel.class)
.option(ChannelOption.SO_BACKLOG, 100)
.handler(new LoggingHandler(LogLevel.INFO))
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) throws Exception {
ChannelPipeline p = ch.pipeline();
//p.addLast(new LoggingHandler(LogLevel.INFO));
p.addLast(serverHandler);
}
});
// 绑定监听端口 启动服务器
ChannelFuture f = b.bind(PORT).sync();
// 等待服务器关闭
f.channel().closeFuture().sync();
} finally {
bossGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
- 可以看到上面的代码首先创建了两个
EventLoopGroup
,在上一篇文章我们有介绍过Netty
的线程模型有三种,而不同的EventLoopGroup
配置对应了三种不同的线程模型。这里创建的两个EventLoopGroup
则是用了多线程Reactor模型
,其中bossEventLoopGroup
对应的就是处理Accept
事件的线程组,而workEventLoopGroup
则负责处理IO读写事件。 - 然后就是创建了一个启动辅助类
ServerBootstrap
,并且配置了如下几个重要参数- group 两个Reactor线程组(bossEventLoopGroup, workEventLoopGroup)
- channel 服务端Channel
- option 服务端socket参数配置 例如
SO_BACKLOG
指定内核未连接的Socket连接排队个数 - handler 服务端Channel对应的Handler
- childHandler 客户端请求Channel对应的Handler
- 绑定服务端监听端口,启动服务 ->
ChannelFuture f = b.bind(PORT).sync();
这篇文章主要是分析Netty的启动流程。so我们直接看b.bind(PORT).sync()
的源码
bind
发现该方法内部实际调用的是doBind(final SocketAddress localAddress)
方法
doBind
private ChannelFuture doBind(final SocketAddress localAddress) {
// 初始化服务端Channel
final ChannelFuture regFuture = initAndRegister();
final Channel channel = regFuture.channel();
if (regFuture.cause() != null) {
return regFuture;
}
if (regFuture.isDone()) {
// 初始化一个 promise(异步回调)
ChannelPromise promise = channel.newPromise();
// 绑定监听端口
doBind0(regFuture, channel, localAddress, promise);
return promise;
}
.... // 省略其他代码
}
doBind
主要做了两个事情
initAndRegister()
初始化ChanneldoBind0
绑定监听端口
initAndRegister()
final ChannelFuture initAndRegister() {
Channel channel = null;
try {
// new一个新的服务端Channel
channel = channelFactory.newChannel();
// 初始化Channel
init(channel);
} catch (Throwable t) {
...
}
// 将Channel注册到EventLoopGroup中一个EventLoop上
ChannelFuture regFuture = config().group().register(channel);
if (regFuture.cause() != null) {
if (channel.isRegistered()) {
channel.close();
} else {
channel.unsafe().closeForcibly();
}
}
return regFuture;
}
-
channelFactory.newChannel()
其实就是通过反射创建配置的服务端Channel类,在这里是NioServerSocketChannel
-
创建完成的
NioServerSocketChannel
进行一些初始化操作,例如将我们配置的Handler
加到服务端Channel
的pipeline
中 -
将
Channel
注册到EventLoopGroup
中一个EventLoop上
下面我们来看下NioServerSocketChannel
类的构造方法,看看它到底初始化了哪些东西,先看下其继承结构
NioServerSocketChannel初始化
下面是它的构造方法的调用顺序,依次分为了四步
// 1
public NioServerSocketChannel() {
// 通过 SelectProvider来初始化一个Java NioServerChannel
this(newSocket(DEFAULT_SELECTOR_PROVIDER));
}
// 2.
public NioServerSocketChannel(ServerSocketChannel channel) {
super(null, channel, SelectionKey.OP_ACCEPT);
// 创建一个配置类,持有Java Channel
config = new NioServerSocketChannelConfig(this, javaChannel().socket());
}
// 3.
protected AbstractNioChannel(Channel parent, SelectableChannel ch, int readInterestOp) {
super(parent);
this.ch = ch;
this.readInterestOp = readInterestOp;
try {
// 设置Channel为非阻塞
ch.configureBlocking(false);
} catch (IOException e) {
try {
ch.close();
} catch (IOException e2) {
logger.warn(
"Failed to close a partially initialized socket.", e2);
}
throw new ChannelException("Failed to enter non-blocking mode.", e);
}
}
// 4
protected AbstractChannel(Channel parent) {
this.parent = parent;
// 生成一个channel Id
id = newId();
// 创建一个 unSafe 类,unsafe封装了Netty底层的IO读写操作
unsafe = newUnsafe();
// 创建一个 pipeline类
pipeline = newChannelPipeline();
}
可以看到NioServerSocketChannel
的构造函数主要是初始化并绑定了以下3类
- 绑定一个Java
ServerSocketChannel
类 - 绑定一个
unsafe
类,unsafe封装了Netty底层的IO读写操作 - 绑定一个
pipeline
,每个Channel都会唯一绑定一个pipeline
init(Channel channel)
void init(Channel channel) {
// 设置Socket参数
setChannelOptions(channel, newOptionsArray(), logger);
setAttributes(channel, attrs0().entrySet().toArray(EMPTY_ATTRIBUTE_ARRAY));
ChannelPipeline p = channel.pipeline();
// 子EventLoopGroup用于完成Nio读写操作
final EventLoopGroup currentChildGroup = childGroup;
// 为workEventLoop配置的自定义Handler
final ChannelHandler currentChildHandler = childHandler;
final Entry<ChannelOption<?>, Object>[] currentChildOptions;
synchronized (childOptions) {
currentChildOptions = childOptions.entrySet().toArray(EMPTY_OPTION_ARRAY);
}
// 设置附加参数
final Entry<AttributeKey<?>, Object>[] currentChildAttrs = childAttrs.entrySet().toArray(EMPTY_ATTRIBUTE_ARRAY);
// 为服务端Channel pipeline 配置 对应的Handler
p.addLast(new ChannelInitializer<Channel>() {
@Override
public void initChannel(final Channel ch) {
final ChannelPipeline pipeline = ch.pipeline();
ChannelHandler handler = config.handler();
if (handler != null) {
pipeline.addLast(handler);
}
ch.eventLoop().execute(new Runnable() {
@Override
public void run() {
pipeline.addLast(new ServerBootstrapAcceptor(
ch, currentChildGroup, currentChildHandler, currentChildOptions, currentChildAttrs));
}
});
}
});
}
这里主要是为服务端Channel配置一些参数,以及对应的处理器ChannelHandler
,注意这里不仅仅会把我们自定义配置的ChannelHandler
加上去,同时还会自动帮我们加入一个系统Handler
(ServerBootstrapAcceptor
),这就是Netty用来接收客户端请求的Handler
,在ServerBootstrapAcceptor
内部会完成SocketChannel
的连接,EventLoop
的绑定等操作,之后我们会着重分析这个类
Channel的注册
// MultithreadEventLoopGroup
public ChannelFuture register(Channel channel) {
// next()会选择一个EventLoop来完成Channel的注册
return next().register(channel);
}
// SingleThreadEventLoop
public ChannelFuture register(Channel channel) {
return register(new DefaultChannelPromise(channel, this));
}
// AbstractChannel
public final void register(EventLoop eventLoop, final ChannelPromise promise) {
ObjectUtil.checkNotNull(eventLoop, "eventLoop");
if (isRegistered()) {
promise.setFailure(new IllegalStateException("registered to an event loop already"));
return;
}
if (!isCompatible(eventLoop)) {
promise.setFailure(
new IllegalStateException("incompatible event loop type: " + eventLoop.getClass().getName()));
return;
}
AbstractChannel.this.eventLoop = eventLoop;
if (eventLoop.inEventLoop()) {
// 注册逻辑
register0(promise);
}
....
}
完成注册流程
- 完成实际的Java
ServerSocketChannel
与Select
选择器的绑定 - 并触发
channelRegistered
以及channelActive
事件
到这里为止,其实Netty服务端已经基本启动完成了,就差绑定一个监听端口了。可能读者会很诧异,怎么没有看到Nio线程轮询 IO事件的循环呢,讲道理肯定应该有一个死循环才对?那我们下面就把这段代码找出来
在之前的代码中,我们经常会看到这样一段代码
// 往EventLoop中丢了一个异步任务(其实是同步的,因为只有一个Nio线程,不过因为是事件循环机制(丢到一个任务队列中),看起来像是异步的)
eventLoop.execute(new Runnable() {
@Override
public void run() {
...
}
});
eventLoop.execute
到底做了什么事情?
private void execute(Runnable task, boolean immediate) {
boolean inEventLoop = inEventLoop();
// 把当前任务添加到任务队列中
addTask(task);
// 不是Nio线程自己调用的话,则表明是初次启动
if (!inEventLoop) {
// 启动EventLoop的Nio线程
startThread();
...
}
...
}
/**
* 启动EventLoop的Nio线程
*/
private void doStartThread() {
assert thread == null;
// 启动Nio线程
executor.execute(new Runnable() {
@Override
public void run() {
thread = Thread.currentThread();
if (interrupted) {
thread.interrupt();
}
boolean success = false;
updateLastExecutionTime();
try {
SingleThreadEventExecutor.this.run();
success = true;
} catch (Throwable t) {
logger.warn("Unexpected exception from an event executor: ", t);
} finally {
...
}
通过上面的代码可以知道这里主要做了两件事情
- 创建的任务被丢入了一个队列中等待执行
- 如果是初次创建,则启动Nio线程
- SingleThreadEventExecutor.this.run(); 调用子类的Run实现(执行IO事件的轮询)
看下NioEventLoop
的Run
方法实现
protected void run() {
int selectCnt = 0;
for (;;) {
try {
int strategy;
try {
// 获取IO事件类型
strategy = selectStrategy.calculateStrategy(selectNowSupplier, hasTasks());
...
default:
}
} catch (IOException e) {
// 出现异常 重建Selector
rebuildSelector0();
selectCnt = 0;
handleLoopException(e);
continue;
}
selectCnt++;
cancelledKeys = 0;
needsToSelectAgain = false;
final int ioRatio = this.ioRatio;
boolean ranTasks;
if (ioRatio == 100) {
try {
if (strategy > 0) {
// 处理对应事件,激活对应的ChannelHandler事件
processSelectedKeys();
}
} finally {
// 处理完事件了才执行全部Task
ranTasks = runAllTasks();
}
}
...
}
}
}
到这里的代码是不是就非常熟悉了,熟悉的死循环轮询事件
- 通过Selector来轮询IO事件
- 触发Channel所绑定的Handler处理对应的事件
- 处理完IO事件了 会执行系统或用户自定义加入的Task
doBind0
实际的Bind逻辑在 NioServerSocketChannel
中执行,我们直接省略前面一些冗长的调用,来看下最底层的调用代码,发现其实就是调用其绑定的Java Channel来执行对应的监听端口绑定逻辑
protected void doBind(SocketAddress localAddress) throws Exception {
// 如果JDK版本大于7
if (PlatformDependent.javaVersion() >= 7) {
javaChannel().bind(localAddress, config.getBacklog());
} else {
javaChannel().socket().bind(localAddress, config.getBacklog());
}
}
尾言
本篇文章把Netty的启动流程粗略的捋了一遍,目的不是为了抠细节,而是大致能够清楚Netty服务端启动时主要做了哪些事情,所以有些地方难免会比较粗略一笔带过。在后面的文章我会把一些细节的源码单独拎出来深入分析