前一阵在工作中用到了RabbitMQ,因此对几种常见的消息队列产生了兴趣。首先从GitHub上下载了RocketMQ的源码打算一探究竟。在阅读remoting这个模块时遇到了很大的障碍。RocketMQ的网络编程完全基于Netty,而本人对Netty的理解还只停留在了知道这是一款封装了NIO的优秀框架上。于是正好就借此机会先揭开Netty的面纱。
阅读完《Netty IN ACTION》后有些手痒,就用Netty实现了一个简易的应用层协议以及一个同步调用的方法。
github:https://github.com/ztglcy/netty-protocol
整体结构
图里demo中是client和server的简易demo;handler中则是自定义协议的编码器和解码器;message中是与传输的消息相关的类;processor是服务端的业务处理类;service中则是client和server的启动类。
传输消息格式及编解码
length是一个表示消息大小的int型数字,自定义长度解码器解决TCP黏包问题。headerLength则是表示消息头大小的int型数字,用以将传输的消息头与消息体分开进行序列化。header和content分别存储消息的消息头以及消息体。
public class MessageHeader{
private int messageId;
private int clientId;
private int serverId;
private int code;
private MessageHeader(){}
public MessageHeader(int code) {
this.code = code;
}
public int getCode() {
return code;
}
public int getMessageId() {
return messageId;
}
public void setMessageId(int messageId) {
this.messageId = messageId;
}
public int getClientId() {
return clientId;
}
public void setClientId(int clientId) {
this.clientId = clientId;
}
public int getServerId() {
return serverId;
}
public void setServerId(int serverId) {
this.serverId = serverId;
}
public void setCode(int code) {
this.code = code;
}
}
消息头包含messageId,clientId,serverId,code四个参数,分别用以表征Message的ID,客户端ID,服务端ID,以及消息体的格式code(维护在一个常量中)。公有的构造方法中必传消息体格式code,私有的构造方法用于fastjson的反序列化。
public class Message {
private MessageHeader messageHeader;
private byte[] content;
private Message(){
}
public static Message createMessage(MessageHeader messageHeader){
Message message = new Message();
message.messageHeader = messageHeader;
return message;
}
public byte[] getContent() {
return content;
}
public void setContent(byte[] content) {
this.content = content;
}
public MessageHeader getMessageHeader() {
return messageHeader;
}
//还有编码与解码的方法
......
}
Message的结构比较直白,包含消息头和消息体以及编码与解码的方法。解码与编码的方法在解码器与编码器中进行调用。先来介绍一下编码的过程。
public class ProtocolEncoder extends MessageToByteEncoder<Message> {
@Override
protected void encode(ChannelHandlerContext channelHandlerContext, Message message, ByteBuf byteBuf) throws Exception {
ByteBuffer byteBuffer = message.encode();
byteBuf.writeBytes(byteBuffer);
}
}
编码器继承了MessageToByteEncoder并实现了其encode()方法进行编码。编码器直接调用传进来的Message自己的编码方法,将编码后的ByteBuffer写入ByteBuf中。再来看一下Message怎么实现这个方法的。
public ByteBuffer encode(){
int length = 4;
byte[] bytes = SerializableHelper.encode(messageHeader);
if(bytes != null){
length += bytes.length;
}
if(content!=null){
length += content.length;
}
ByteBuffer byteBuffer = ByteBuffer.allocate(length + 4);
byteBuffer.putInt(length);
if(bytes != null){
byteBuffer.putInt(bytes.length);
byteBuffer.put(bytes);
}else{
byteBuffer.putInt(0);
}
if(content!=null){
byteBuffer.put(content);
}
byteBuffer.flip();
return byteBuffer;
}
length用以表示整个消息大小,计算方式为表示消息头大小的int+序列化后的消息头大小+消息体大小。计算完成后申请一块length+4大小的ByteBuffer(因为length本身存储也要4个字节)。将消息内容按照上面给出的格式依次写入Buffer中。
public class ProtocolDecoder extends LengthFieldBasedFrameDecoder {
public ProtocolDecoder() {
super(16777216, 0, 4,0,4);
}
@Override
public Object decode(ChannelHandlerContext ctx, ByteBuf in) throws Exception {
ByteBuf byteBuf = (ByteBuf) super.decode(ctx, in);
if(byteBuf == null){
return null;
}
ByteBuffer byteBuffer = byteBuf.nioBuffer();
return Message.decode(byteBuffer);
}
}
解码器继承了LengthFieldBasedFrameDecoder用以解决粘包的问题。构造函数中的参数分别表示包的最大值、长度字段的偏移量、长度字段占的字节数、添加到长度字段的补偿值以及从解码帧中第一次去除的字节数。因为消息的头部存储了4个字节的表示消息大小的Int型,所以后4个参数为0、4、0、4。经过处理后的消息已经剥离掉了最消息头部的Int型。再调用Message自身的decode()方法进行解码。
public static Message decode(ByteBuffer byteBuffer){
int length = byteBuffer.limit();
int headerLength = byteBuffer.getInt();
byte[] headerData = new byte[headerLength];
byteBuffer.get(headerData);
MessageHeader messageHeader = SerializableHelper.decode(headerData,MessageHeader.class);
byte[] content = new byte[length - headerLength -4];
byteBuffer.get(content);
Message message = Message.createMessage(messageHeader);
message.setContent(content);
return message;
}
解码时首先将消息头的长度从ByteBuffer中取出,然后读取该长度的字节作为消息头进行反序列化,其他部分则作为消息体,重新组装成新的Message。
服务端与客户端的引导
public interface ProtocolService {
void start();
void shutdown();
}
服务端与客户端都继承了ProtocolService接口,实现了start()和shutdown()两个方法。
public class NettyProtocolServer implements ProtocolService {
private EventLoopGroup bossGroup = new NioEventLoopGroup(1);
private EventLoopGroup workerGroup = new NioEventLoopGroup();
private Map<Integer,ProtocolProcessor> processorMap = new HashMap<>();
@Override
public void start(){
try{
ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup,workerGroup)
.channel(NioServerSocketChannel.class)
.localAddress(8888)
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) throws Exception {
ch.pipeline()
.addLast(new ProtocolEncoder()
,new ProtocolDecoder()
,new ProtocolServerProcessor()
);
}
});
ChannelFuture cf = bootstrap.bind().sync();
} catch (InterruptedException e) {
}
}
@Override
public void shutdown() {
bossGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
public void registerProcessor(Integer code,ProtocolProcessor protocolProcessor){
processorMap.put(code,protocolProcessor);
}
public class ProtocolServerProcessor extends SimpleChannelInboundHandler<Message> {
@Override
protected void channelRead0(ChannelHandlerContext channelHandlerContext, Message message) throws Exception {
Integer code = message.getMessageHeader().getCode();
ProtocolProcessor processor = processorMap.get(code);
if(processor != null){
Message response = processor.process(message);
channelHandlerContext.writeAndFlush(response);
}
}
}
}
服务端的start()方法中完成了服务端的初始化,很常见的netty写法,将编码器、解码器以及业务处理器ProtocolServerProcessor加入了Worker的Pipeline中。这里业务处理器也可以放在线程池里执行,防止业务处理时间太长造成堵塞。shutdown()方法则将两个EventLoopGroup进行关闭,防止资源泄露。registerProcessor()方法则是将业务处理器以KV的形式注册到服务端中,ProtocolServerProcessor会根据消息头中的code在map中查找对应的业务处理器进行业务的处理。
public class DemoProcessor implements ProtocolProcessor{
@Override
public Message process(Message message) {
byte[] bodyDate = message.getContent();
DemoMessageBody messageBody = SerializableHelper.decode(bodyDate,DemoMessageBody.class);
System.out.println(messageBody.getDemo());
MessageHeader messageHeader = new MessageHeader(1);
messageHeader.setMessageId(message.getMessageHeader().getMessageId());
DemoMessageBody responseBody = new DemoMessageBody();
responseBody.setDemo("I received!");
Message response = Message.createMessage(messageHeader);
response.setContent(SerializableHelper.encode(responseBody));
return response;
}
}
DemoProcessor是一个示例的业务处理器,将传来的消息体解码后返回一个I received!的回复,这里注意的是messageId要与请求的消息一致,用以表征这是哪个请求的返回。
public class NettyProtocolClient implements ProtocolService {
private EventLoopGroup eventLoopGroup = new NioEventLoopGroup();
private Bootstrap bootstrap = new Bootstrap();
private ConcurrentHashMap<Integer,Response> responseMap = new ConcurrentHashMap<>();
@Override
public void start() {
bootstrap.group(eventLoopGroup)
.channel(NioSocketChannel.class)
.handler(new ChannelInitializer<SocketChannel>() {
@Override
protected void initChannel(SocketChannel ch) throws Exception {
ch.pipeline()
.addLast(new ProtocolDecoder(),
new ProtocolEncoder(),
new ProtocolClientProcessor());
}
});
}
@Override
public void shutdown() {
eventLoopGroup.shutdownGracefully();
}
public Message send(String address, Message message){
try {
Response response = new Response();
responseMap.put(message.getMessageHeader().getMessageId(),response);
Channel channel = bootstrap.connect(address,8888).sync().channel();
channel.writeAndFlush(message);
Message responseMessage = response.waitResponse();
responseMap.remove(message.getMessageHeader().getMessageId());
channel.close();
return responseMessage;
} catch (InterruptedException e) {
e.printStackTrace();
}
return null;
}
public class ProtocolClientProcessor extends SimpleChannelInboundHandler<Message> {
@Override
protected void channelRead0(ChannelHandlerContext channelHandlerContext, Message message) throws Exception {
Response response = responseMap.get(message.getMessageHeader().getMessageId());
if (response != null){
response.putResponse(message);
}
}
}
}
客户端与服务端的start()方法和shutdown()方法类似。客户端提供了一个send()方法用以消息的同步调用,send()方法在发送信息后以消息的messageId为key生成一个Response的实例缓存在responseMap中,调用Response中的countDownLatch.await()方法堵塞住等待返回(这里应该加一个时间限制以防止线程无限期地堵塞住)。ProtocolClientProcessor会处理返回的消息,将其存入对应的Response中,并调用countDownLatch.countDown()。这样客户端线程就可以收到结果同步返回。还可以改进的一点在于保持客户端与服务端的长连接,将其缓存在客户端中,每次发送消息都用已缓存的连接,减少开销。
DEMO
最后分别编写一个客户端与服务端的demo用以测试我们的协议。
public class ServerDemo {
public static void main(String[] args) {
NettyProtocolServer nettyProtocolServer = new NettyProtocolServer();
nettyProtocolServer.registerProcessor(1,new DemoProcessor());
nettyProtocolServer.start();
try {
Thread.sleep(10000);
} catch (InterruptedException e) {
e.printStackTrace();
}
nettyProtocolServer.shutdown();
}
}
服务端的demo首先构建一个NettyProtocolServer的实例,将DemoProcessor注册到服务端中之后挂起主线程等待客户端的消息,最后shutdown掉NettyProtocolServer。
public class ClientDemo {
public static void main(String[] args) {
NettyProtocolClient client = new NettyProtocolClient();
client.start();
Message message = demoMessage();
Message messageResponse = client.send("localhost",message);
System.out.println(SerializableHelper.decode(messageResponse.getContent(),DemoMessageBody.class).getDemo());
client.shutdown();
}
private static Message demoMessage(){
MessageHeader messageHeader = new MessageHeader(1);
messageHeader.setMessageId(1);
messageHeader.setClientId(1);
messageHeader.setServerId(1);
Message message =Message.createMessage(messageHeader);
DemoMessageBody responseBody = new DemoMessageBody();
responseBody.setDemo("Hello World!");
message.setContent(SerializableHelper.encode(responseBody));
return message;
}
}
客户端的demo也很简单。构建一个NettyProtocolClient的实例,拼装一个消息,调用send()方法,再对返回的消息稍加处理就OK啦(客户端拼装和处理消息可以再抽出一个中间层)。