netty构建udp服务器以及发送报文到客户端客户端详细案例

服务器 0

目录

一、基于netty创建udp服务端以及对应通道设置关键

二、发送数据

三、netty中的ChannelOption常用参数说明

1、ChannelOption.SO_BACKLOG

2、ChannelOption.SO_REUSEADDR

3、ChannelOption.SO_KEEPALIVE

4、ChannelOption.SO_SNDBUF和ChannelOption.SO_RCVBUF

5、ChannelOption.SO_LINGER

6、ChannelOption.TCP_NODELAY


一、基于netty创建udp服务端以及对应通道设置关键

@Configuration@RefreshScopepublic class NettyUdpServer {    @Value("${netty.server.udpPort}")    private int port;    private EventLoopGroup bossGroup;//主线程    private Channel channel;//通道    private ChannelFuture future; //回调    @Autowired    private DataCollector dataCollector;;    public Channel start() throws InterruptedException {        //判断是否支持Epoll模式,从而创建不同的线程组        bossGroup = Epoll.isAvailable()? new EpollEventLoopGroup() : new NioEventLoopGroup();        try {            Bootstrap b = new Bootstrap();            //linux平台下增加SO_REUSEPORT特性提高性能,支持多个进程或者线程绑定到同一个端口,提高服务器程序的吞吐性能            if(Epoll.isAvailable()) {                //设置反应器线程组                b.group(bossGroup)                 .handler(new EpollUdpServerInitializer(dataCollector))                //设置nio类型的通道                 .channel(EpollDatagramChannel.class)                 .option(ChannelOption.SO_BROADCAST, true)                 .option(ChannelOption.SO_REUSEADDR, true)                 .option(ChannelOption.SO_RCVBUF, 1024 * 1024)                 .option(EpollChannelOption.SO_REUSEPORT, true);            }else{                //设置反应器线程组                b.group(bossGroup)                 .handler(new UdpServerInitializer(dataCollector))                 //设置nio类型的通道                 .channel(NioDatagramChannel.class)                 //设置通道的参数                 .option(ChannelOption.SO_BROADCAST, true)                 .option(ChannelOption.SO_REUSEADDR, true);            }            //Channel channel = server.bind(port).sync().channel();            //开始绑定服务器,通过调用sync()同步方法阻塞直到绑定成功            //ChannelFuture channelFuture = b.bind(port).sync();            //等待通道关闭的异步任务结束            //ChannelFuture closeFuture = channelFuture.channel().closeFuture();            //closeFuture.sync();            ChannelFuture f = b.bind(port).sync();            channel = f.channel();            if(f.isSuccess()){                //MasterSelector registry = new MasterSelector("","netty-services",  port);                System.out.println("UDP服务器启动,监听在端口:" + port);            }else {                channel.closeFuture().sync();            }        } finally {            //bossGroup.shutdownGracefully().sync();        }        System.out.println("Udp服务器启动,监听在端口:"+port);        return channel;    }}

以上代码中Epoll.isAvailable()用户判断是window还是linux环境,linux环境默认采用Epoll相关通道,所以显式设置EpollDatagramChannel通道。在处理(handler)的设置中要根据不同的通道设置初始化的通道类型:

linux环境下EpollDatagramChannel通道设置 .handler(new EpollUdpServerInitializer(dataCollector))具体代码

public class EpollUdpServerInitializer extends ChannelInitializer<EpollDatagramChannel> {    private final DataCollector dataCollector;    public EpollUdpServerInitializer(DataCollector dataCollector) {        this.dataCollector = dataCollector;    }    @Override    protected void initChannel(EpollDatagramChannel epollDatagramChannel) throws Exception {        epollDatagramChannel.pipeline()                //添加netty空闲超时检查的支持                .addLast(new UdpServerHandler(dataCollector));    }

要使 通过服务器端通过EpollDatagramChannel通道发送数据,客户端能够正常接收到数据,下图中标红的泛型通道类要与服务器端设置的通道类一致

同意要支持Nio类型通道为NioDatagramChannel.class时,通道初始化为:

public class UdpServerInitializer extends ChannelInitializer<NioDatagramChannel> {    private final DataCollector dataCollector;    public UdpServerInitializer(DataCollector dataCollector) {        this.dataCollector = dataCollector;    }    @Override    protected void initChannel(NioDatagramChannel nioDatagramChannel) throws Exception {        nioDatagramChannel.pipeline()                //添加netty空闲超时检查的支持                .addLast(new UdpServerHandler(dataCollector));    }}

 要使 通过服务器端通过NioDatagramChannel通道发送数据,客户端能够正常接收到数据,下图中标红的泛型通道类要与服务器端设置的通道类一致

二、发送数据

关键代码,采用writeAndFlush发送数据,注意:要发送udp数据报,

public class UdpServerHandler extends SimpleChannelInboundHandler<DatagramPacket> {    /**设置最大消息大小*/    private static final int MAX_MESSAGE_SIZE = 2048;    /**线程池*/    private ExecutorService executorService;    private final DataCollector dataCollector;    public UdpServerHandler(DataCollector dataCollector) {        this.dataCollector = dataCollector;        //根据当前系统可用的处理器数量创建一个固定长度的线程池        executorService = Executors.newFixedThreadPool(Runtime.getRuntime().availableProcessors());    }    @Override    protected void channelRead0(ChannelHandlerContext ctx, DatagramPacket datagramPacket) throws Exception {        ByteBuf buffer = datagramPacket.content();        //确保不会超出最大消息大小        if(buffer.readableBytes() > MAX_MESSAGE_SIZE) {            buffer.release();            return;        }        UdpDatagram udpDatagram = parseUdpDatagram(buffer);        UdpDatagram respUdpDatagram = dataCollector.processUdpDatagram(udpDatagram);        if (null != respUdpDatagram) {             handleReceivedData(ctx, respUdpDatagram, datagramPacket);        }    }    /**     * 处理接收到的数据     * @param ctx     * @param udpDatagram     */    public void handleReceivedData(ChannelHandlerContext ctx, UdpDatagram udpDatagram, DatagramPacket datagramPacket) throws ExecutionException, InterruptedException {        Channel channel = ctx.channel();        if (log.isInfoEnabled()) {            log.info("received udp message: sessionId: {}, opCode: {}, short messageId: {}",                    ctx.channel().id(), udpDatagram.getMessageTypeEnum(), udpDatagram.getShortMessageId());        }        byte[] payloadBytes = udpDatagram.getPayloadBytes();        ByteBuf copiedBuffer = Unpooled.copiedBuffer(payloadBytes);        ChannelFuture channelFuture = channel.writeAndFlush(new DatagramPacket(copiedBuffer.retain(), datagramPacket.sender()));        channelFuture.addListener(new ChannelFutureListener() {            @Override            public void operationComplete(ChannelFuture channelFuture) throws Exception {                if (channelFuture.isSuccess()) {                    // 数据发送成功                    log.info("数据发送成功:sender host: {}, sender port:{}, sender address:{}",datagramPacket.sender().getHostName(),datagramPacket.sender().getPort(), datagramPacket.sender().getAddress());                } else {                    // 数据发送失败                    log.error("数据发送失败: {}",channelFuture.cause().getStackTrace());                    channelFuture.cause().printStackTrace();                }            }        });    }    @Override    public void handlerAdded(ChannelHandlerContext ctx) throws Exception {        dataCollector.tcpConnect(ctx.channel());    }    @Override    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {        if (log.isWarnEnabled()) {            log.warn("udp session throw an exception, sessionId:{} exception message: {}",                    ctx.channel().id().asLongText(), cause.getMessage());        }    }    //当客户端关闭链接时关闭通道    @Override    public void handlerRemoved(ChannelHandlerContext ctx) throws Exception {        dataCollector.tcpChannelDisconnect(ctx.channel());    }}

处理类继承SimpleChannelInboundHandler类泛型类为DatagramPacket 

 writeAndFlush方法中发送的数据类型要是DatagramPacket

三、netty中的ChannelOption常用参数说明

1、ChannelOption.SO_BACKLOG

ChannelOption.SO_BACKLOG对应的是tcp/ip协议listen函数中的backlog参数。函数listen(int socketfd, int backlog)用来初始化服务端可连接队列。

服务端处理客户端连接请求是顺序处理的,所以同一时间只能处理一个客户端连接,多个客户端来的时候,服务端将不能处理的客户端连接请求放在队列中等待处理,backlog参数指定了队列的大小。

2、ChannelOption.SO_REUSEADDR

ChanneOption.SO_REUSEADDR对应于套接字选项中的SO_REUSEADDR,这个参数表示允许重复使用本地地址和端口。

比如,某个服务器进程占用了TCP的80端口进行监听,此时再次监听该端口就会返回错误,使用该参数就可以解决问题,该参数允许共用该端口,这个在服务器程序中比较常使用。

比如某个进程非正常退出,该程序占用的端口可能要被占用一段时间才能允许其他进程使用,而且程序死掉以后,内核一需要一定的时间才能够释放此端口,不设置SO_REUSEADDR就无法正常使用该端口。

3、ChannelOption.SO_KEEPALIVE

Channeloption.SO_KEEPALIVE参数对应于套接字选项中的SO_KEEPALIVE,该参数用于设置TCP连接,当设置该选项以后,连接会测试链接的状态,这个选项用于可能长时间没有数据交流的连接。

当设置该选项以后,如果在两小时内没有数据的通信时,TCP会自动发送一个活动探测数据报文。

4、ChannelOption.SO_SNDBUF和ChannelOption.SO_RCVBUF

ChannelOption.SO_SNDBUF参数对应于套接字选项中的SO_SNDBUF,ChannelOption.SO_RCVBUF参数对应于套接字选项中的SO_RCVBUF这两个参数用于操作发送缓冲区大小和接受缓冲区大小。

接收缓冲区用于保存网络协议站内收到的数据,直到应用程序读取成功,发送缓冲区用于保存发送数据,直到发送成功。

5、ChannelOption.SO_LINGER

ChannelOption.SO_LINGER参数对应于套接字选项中的SO_LINGER,Linux内核默认的处理方式是当用户调用close()方法的时候,函数返回,在可能的情况下,尽量发送数据,不一定保证会发送剩余的数据,造成了数据的不确定性,使用SO_LINGER可以阻塞close()的调用时间,直到数据完全发送。

6、ChannelOption.TCP_NODELAY

ChannelOption.TCP_NODELAY参数对应于套接字选项中的TCP_NODELAY,该参数的使用与Nagle算法有关。

Nagle算法是将小的数据包组装为更大的帧然后进行发送,而不是输入一次发送一次,因此在数据包不足的时候会等待其他数据的到来,组装成大的数据包进行发送,虽然该算法有效提高了网络的有效负载,但是却造成了延时。

而该参数的作用就是禁止使用Nagle算法,使用于小数据即时传输。和TCP_NODELAY相对应的是TCP_CORK,该选项是需要等到发送的数据量最大的时候,一次性发送数据,适用于文件传输。

ChannelOption属性
SO_BROADCAST对应套接字层的套接字:SO_BROADCAST,将消息发送到广播地址。
如果目标中指定的接口支持广播数据包,则启用此选项可让应用程序发送广播消息。
SO_KEEPALIVE对应套接字层的套接字:SO_KEEPALIVE,保持连接。
在空闲套接字上发送探测,以验证套接字是否仍处于活动状态。
SO_SNDBUF对应套接字层的套接字:SO_SNDBUF,设置发送缓冲区的大小。
SO_RCVBUF对应套接字层的套接字:SO_RCVBUF,获取接收缓冲区的大小。
SO_REUSEADDR对应套接字层的套接字:SO_REUSEADDR,本地地址复用。
启用此选项允许绑定已使用的本地地址。
SO_LINGER对应套接字层的套接字:SO_LINGER,延迟关闭连接。
启用此选项,在调用close时如果存在未发送的数据时,在close期间将阻止调用应用程序,直到数据被传输或连接超时。
SO_BACKLOG

对应TCP/IP协议中<font color=red>backlog</font>参数,<font color=red>backlog</font>即连接队列,设置TCP中的连接队列大小。如果队列满了,会发送一个ECONNREFUSED错误信息给C端,即“ Connection refused”。

SO_TIMEOUT等待客户连接的超时时间。
IP_TOS对应套接字层的套接字:IP_TOS,在IP标头中设置服务类型(TOS)和优先级。
IP_MULTICAST_ADDR对应IP层的套接字选项:IP_MULTICAST_IF,设置应发送多播数据报的传出接口。
IP_MULTICAST_IF对应IP层的套接字选项:IP_MULTICAST_IF2,设置应发送多播数据报的IPV6传出接口。
IP_MULTICAST_TTL对应IP层的套接字选项:IP_MULTICAST_TTL,在传出的 多播数据报的IP头中设置生存时间(TTL)。
IP_MULTICAST_LOOP_DISABLED取消 指定应将 传出的多播数据报的副本 回传到发送主机,只要它是多播组的成员即可。
TCP_NODELAY

对应TCP层的套接字选项:TCP_NODELAY,指定TCP是否遵循<font color=#35b998>Nagle算法</font> 决定何时发送数据。Nagle算法代表通过减少必须发送包的个数来增加网络软件系统的效率。即尽可能发送大块数据避免网络中充斥着大量的小数据块。如果要追求高实时性,需要设置关闭Nagle算法;如果需要追求减少网络交互次数,则设置开启Nagle算法。

  

 ChannelOption通用配置

参数说明
ALLOCATORByteBuf的分配器,默认值为ByteBufAllocator.DEFAULT。
RCVBUF_ALLOCATOR

用于Channel分配接受Buffer的分配器,默认值为AdaptiveRecvByteBufAllocator.DEFAULT,是一个自适应的接受缓冲区分配器,能根据接受到的数据自动调节大小。可选值为FixedRecvByteBufAllocator,固定大小的接受缓冲区分配器。

MESSAGE_SIZE_ESTIMATOR

消息大小估算器,默认为DefaultMessageSizeEstimator.DEFAULT。估算ByteBuf、ByteBufHolder和FileRegion的大小,其中ByteBuf和ByteBufHolder为实际大小,FileRegion估算值为0。该值估算的字节数在计算水位时使用,FileRegion为0可知FileRegion不影响高低水位。

CONNECT_TIMEOUT_MILLIS连接超时毫秒数,默认值30000毫秒即30秒。
WRITE_SPIN_COUNT一个Loop写操作执行的最大次数,默认值为16。也就是说,对于大数据量的写操作至多进行16次,如果16次仍没有全部写完数据,此时会提交一个新的写任务给EventLoop,任务将在下次调度继续执行。这样,其他的写请求才能被响应不会因为单个大数据量写请求而耽误。
WRITE_BUFFER_WATER_MARK
ALLOW_HALF_CLOSURE一个连接的远端关闭时本地端是否关闭,默认值为False。值为False时,连接自动关闭;为True时,触发ChannelInboundHandler的userEventTriggered()方法,事件为ChannelInputShutdownEvent。
AUTO_READ自动读取,默认值为True。Netty只在必要的时候才设置关心相应的I/O事件。对于读操作,需要调用channel.read()设置关心的I/O事件为OP_READ,这样若有数据到达才能读取以供用户处理。该值为True时,每次读操作完毕后会自动调用channel.read(),从而有数据到达便能读取;否则,需要用户手动调用channel.read()。需要注意的是:当调用config.setAutoRead(boolean)方法时,如果状态由false变为true,将会调用channel.read()方法读取数据;由true变为false,将调用config.autoReadCleared()方法终止数据读取。

也许您对下面的内容还感兴趣: