如何分析高性能服务器Server中的Reactor模型

发布时间:2022-01-12 17:15:56 作者:柒染
来源:亿速云 阅读:132

小编今天带大家了解如何分析高性能服务器Server中的Reactor模型,文中知识点介绍的非常详细。觉得有帮助的朋友可以跟着小编一起浏览文章的内容,希望能够帮助更多想解决这个问题的朋友找到问题的答案,下面跟着小编一起深入学习“如何分析高性能服务器Server中的Reactor模型”的知识吧。

在这个充斥着云的时代,我们使用的软件可以说99%都是C/S架构的!

你发邮件用的Outlook,Foxmail等

你看视频用的优酷,土豆等

你写文档用的Office365,googleDoc,Evernote等

你浏览网页用的IE,Chrome等(B/S是特殊的C/S)

C/S架构的软件带来的一个明显的好处就是:只要有网络,你可以在任何地方干同一件事。

例如:你在家里使用Office365编写了文档。到了公司,只要打开编辑地址就可以看到在家里编写的文档,进行展示或者继续编辑。甚至在手机上进行阅读与编辑。不再需要U盘拷来拷去了。

C/S架构可以抽象为如下模型:

如何分析高性能服务器Server中的Reactor模型

C/S架构之所以能够流行的一个主要原因就是网速的提高以及费用的降低,特别是无线网络速度的提高。试想在2G时代,大家最多就是看看文字网页,小说什么的。看图片,那简直就是奢侈!更别说看视频了!

网速的提高,使得越来越多的人使用网络,例如:优酷,微信都是上亿用户量,更别说天猫双11的瞬间访问量了!这就对服务器有很高的要求!能够快速处理海量的用户请求!那服务器如何能快速的处理用户的请求呢?

高性能服务器

高性能服务器至少要满足如下几个需求:

而满足如上需求的一个基础就是高性能的IO!

Socket

无论你是发邮件,浏览网页,还是看视频~实际底层都是使用的TCP/IP,而TCP/IP的编程抽象就是Socket!

我一直对Socket的中文翻译很困惑,个人觉得是我所接触的技术名词翻译里最莫名其妙的,没有之一!

Socket中文翻译为”套接字”!什么鬼?在很长的时间里我都无法将其和网络编程关联上!后来专门找了一些资料,***在知乎上找到了一个还算满意的答案(具体链接,请见文末的参考资料链接)!

Socket的原意是插口,想表达的意思是插口与插槽的关系!”send socket”插到”receive  socket”里,建立了链接,然后就可以通信了!

套接字的翻译,应该是参考了套接管(如下图)!从这个层面上来看,是有那么点意思!

如何分析高性能服务器Server中的Reactor模型

套接字这个翻译已经是标准了,不纠结这个了!

我们看一下Socket之间建立链接及通信的过程!实际上就是对TCP/IP连接与通信过程的抽象:

如何分析高性能服务器Server中的Reactor模型

对于IO来说,我们听得比较多的是:

以及其组合:

那么什么是阻塞IO、非阻塞IO、同步IO、异步IO呢?

举个不太恰当的例子 :比如你家网络断了,你打电话去中国电信报修!

本文只讨论BIO和NIO,AIO使用度没有前两者普及,暂不讨论!

下面从代码层面看看BIO与NIO的流程!

BIO

//Bind,Connect Socket client = new Socket("127.0.0.1",7777);     //读写 PrintWriter pw = new PrintWriter(client.getOutputStream()); BufferedReader br=         new BufferedReader(new InputStreamReader(System.in));   pw.write(br.readLine());   //Close pw.close();   br.close();
Socket socket;   //Bind,Listen ServerSocket ss = new ServerSocket(7777);   while (true) {       //Accept     socket = ss.accept();       //一般新建一个线程执行读写     BufferedReader br = new BufferedReader(             new InputStreamReader(socket  .getInputStream()));       System.out.println("you input is : " + br.readLine());   }

模型图如下所示:

如何分析高性能服务器Server中的Reactor模型

BIO优缺点

优点

缺点

优缺点很明显。这里主要说下缺点:主要瓶颈在线程上。每个连接都会建立一个线程。虽然线程消耗比进程小,但是一台机器实际上能建立的有效线程有限,以Java来说,1.5以后,一个线程大致消耗1M内存!且随着线程数量的增加,CPU切换线程上下文的消耗也随之增加,在高过某个阀值后,继续增加线程,性能不增反降!而同样因为一个连接就新建一个线程,所以编码模型很简单!

就性能瓶颈这一点,就确定了BIO并不适合进行高性能服务器的开发!像Tomcat这样的Web服务器,从7开始就从BIO改成了NIO,来提高服务器性能!

NIO

//获取socket通道 SocketChannel channel = SocketChannel.open();         channel.configureBlocking(false); //获得通道管理器 selector=Selector.open();         channel.connect(new InetSocketAddress(serverIp, port)); //为该通道注册SelectionKey.OP_CONNECT事件 channel.register(selector, SelectionKey.OP_CONNECT);
while(true){     //选择注册过的io操作的事件(***次为SelectionKey.OP_CONNECT)    selector.select();    while(SelectionKey key : selector.selectedKeys()){        if(key.isConnectable()){            SocketChannel channel=(SocketChannel)key.channel();            if(channel.isConnectionPending()){                channel.finishConnect();//如果正在连接,则完成连接            }            channel.register(selector, SelectionKey.OP_READ);        }else if(key.isReadable()){ //有可读数据事件。            SocketChannel channel = (SocketChannel)key.channel();            ByteBuffer buffer = ByteBuffer.allocate(10);            channel.read(buffer);            byte[] data = buffer.array();            String message = new String(data);            System.out.println("recevie message from server:, size:"                + buffer.position() + " msg: " + message);        }    } }
//获取一个ServerSocket通道 ServerSocketChannel serverChannel = ServerSocketChannel.open(); serverChannel.configureBlocking(false); serverChannel.socket().bind(new InetSocketAddress(port)); //获取通道管理器 selector = Selector.open(); //将通道管理器与通道绑定,并为该通道注册SelectionKey.OP_ACCEPT事件, serverChannel.register(selector, SelectionKey.OP_ACCEPT);
while(true){     //当有注册的事件到达时,方法返回,否则阻塞。    selector.select();    for(SelectionKey key : selector.selectedKeys()){        if(key.isAcceptable()){            ServerSocketChannel server =                 (ServerSocketChannel)key.channel();            SocketChannel channel = server.accept();            channel.write(ByteBuffer.wrap(             new String("send message to client").getBytes()));            //在与客户端连接成功后,为客户端通道注册SelectionKey.OP_READ事件。            channel.register(selector, SelectionKey.OP_READ);        }else if(key.isReadable()){//有可读数据事件            SocketChannel channel = (SocketChannel)key.channel();            ByteBuffer buffer = ByteBuffer.allocate(10);            int read = channel.read(buffer);            byte[] data = buffer.array();            String message = new String(data);            System.out.println("receive message from client, size:"                + buffer.position() + " msg: " + message);        }    } }

NIO模型示例如下:

如何分析高性能服务器Server中的Reactor模型

NIO优缺点

优点

缺点

NIO的优缺点和BIO就完全相反了!性能高,不用一个连接就建一个线程,可以一个线程处理所有的连接!相应的,编码就复杂很多,从上面的代码就可以明显体会到了。还有一个问题,由于是非阻塞的,应用无法知道什么时候消息读完了,就存在了半包问题!

半包问题

简单看一下下面的图就能理解半包问题了!

如何分析高性能服务器Server中的Reactor模型

我们知道TCP/IP在发送消息的时候,可能会拆包(如上图1)!这就导致接收端无法知道什么时候收到的数据是一个完整的数据。例如:发送端分别发送了ABC,DEF,GHI三条信息,发送时被拆成了AB,CDRFG,H,I这四个包进行发送,接受端如何将其进行还原呢?在BIO模型中,当读不到数据后会阻塞,而NIO中不会!所以需要自行进行处理!例如,以换行符作为判断依据,或者定长消息发生,或者自定义协议!

NIO虽然性能高,但是编码复杂,且需要处理半包问题!为了方便的进行NIO开发,就有了Reactor模型!

Reactor模型

Reactor模型和AWT事件模型很像,就是将消息放到了一个队列中,通过异步线程池对其进行消费!

Reactor中的组件

对应上面的NIO代码来看:

Reactor从线程池和Reactor的选择上可以细分为如下几种:

Reactor单线程模型

如何分析高性能服务器Server中的Reactor模型

这个模型和上面的NIO流程很类似,只是将消息相关处理独立到了Handler中去了!

虽然上面说到NIO一个线程就可以支持所有的IO处理。但是瓶颈也是显而易见的!我们看一个客户端的情况,如果这个客户端多次进行请求,如果在Handler中的处理速度较慢,那么后续的客户端请求都会被积压,导致响应变慢!所以引入了Reactor多线程模型!

Reactor多线程模型

如何分析高性能服务器Server中的Reactor模型

Reactor多线程模型就是将Handler中的IO操作和非IO操作分开,操作IO的线程称为IO线程,非IO操作的线程称为工作线程!这样的话,客户端的请求会直接被丢到线程池中,客户端发送请求就不会堵塞!

但是当用户进一步增加的时候,Reactor会出现瓶颈!因为Reactor既要处理IO操作请求,又要响应连接请求!为了分担Reactor的负担,所以引入了主从Reactor模型!

主从Reactor模型

如何分析高性能服务器Server中的Reactor模型

主Reactor用于响应连接请求,从Reactor用于处理IO操作请求!

Netty

Netty是一个高性能NIO框架,其是对Reactor模型的一个实现!

EventLoopGroup workerGroup = new NioEventLoopGroup(); try {     Bootstrap b = new Bootstrap();     b.group(workerGroup);     b.channel(NioSocketChannel.class);     b.option(ChannelOption.SO_KEEPALIVE, true);     b.handler(new ChannelInitializer<SocketChannel>() {         @Override         public void initChannel(SocketChannel ch) throws Exception {             ch.pipeline().addLast(new TimeClientHandler());         }     });      ChannelFuture f = b.connect(host, port).sync();      f.channel().closeFuture().sync(); } finally {     workerGroup.shutdownGracefully(); }
public class TimeClientHandler extends ChannelInboundHandlerAdapter {     @Override     public void channelRead(ChannelHandlerContext ctx, Object msg) {         ByteBuf m = (ByteBuf) msg;         try {             long currentTimeMillis =                 (m.readUnsignedInt() - 2208988800L) * 1000L;             System.out.println(new Date(currentTimeMillis));             ctx.close();         } finally {             m.release();         }     }      @Override     public void exceptionCaught(ChannelHandlerContext ctx,                 Throwable cause) {         cause.printStackTrace();         ctx.close();     } }
EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); try {     ServerBootstrap b = new ServerBootstrap();     b.group(bossGroup, workerGroup)      .channel(NioServerSocketChannel.class)      .childHandler(new ChannelInitializer<SocketChannel>() {          @Override          public void initChannel(SocketChannel ch) throws Exception {              ch.pipeline().addLast(new TimeServerHandler());          }      })      .option(ChannelOption.SO_BACKLOG, 128)        .childOption(ChannelOption.SO_KEEPALIVE, true);     // Bind and start to accept incoming connections.     ChannelFuture f = b.bind(port).sync();     f.channel().closeFuture().sync(); } finally {     workerGroup.shutdownGracefully();     bossGroup.shutdownGracefully(); }
public class TimeServerHandler extends ChannelInboundHandlerAdapter {      @Override     public void channelActive(final ChannelHandlerContext ctx) {         final ByteBuf time = ctx.alloc().buffer(4);         time.writeInt((int)             (System.currentTimeMillis() / 1000L + 2208988800L));          final ChannelFuture f = ctx.writeAndFlush(time);         f.addListener(new ChannelFutureListener() {             @Override             public void operationComplete(ChannelFuture future) {                 assert f == future;                 ctx.close();             }         });     }      @Override     public void exceptionCaught(ChannelHandlerContext ctx,         Throwable cause) {         cause.printStackTrace();         ctx.close();     } }

我们从Netty服务器代码来看,与Reactor模型进行对应!

具体Netty内容,请访问Netty官网!

Netty的问题

Netty开发中一个很明显的问题就是回调,一是打破了线性编码习惯,

二就是Callback Hell!

看下面这个例子:

a.doing1();  //1 a.doing2();  //2 a.doing3();  //3

1,2,3处代码如果是同步的,那么将按顺序执行!但是如果不是同步的呢?我还是希望2在1之后执行,3在2之后执行!怎么办呢?想想AJAX!我们需要写类似如下这样的代码!

a.doing1(new Callback(){     public void callback(){         a.doing2(new Callback(){             public void callback(){                 a.doing3();             }         })     } });

那有没有办法解决这个问题呢?其实不难,实现一个类似Future的功能!当Client获取结果时,进行阻塞,当得到结果后再继续往下走!实现方案,一个就是使用锁了,还有一个就是使用RingBuffer。经测试,使用RingBuffer比使用锁TPS有2000左右的提高!

如何分析高性能服务器Server中的Reactor模型

感谢大家的阅读,以上就是“如何分析高性能服务器Server中的Reactor模型”的全部内容了,学会的朋友赶紧操作起来吧。相信亿速云小编一定会给大家带来更优质的文章。谢谢大家对亿速云网站的支持!

推荐阅读:
  1. Java中的Reactor是什么
  2. Linux网络I/O+Reactor模型是怎么样的

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

服务器 server reactor

上一篇:如何解读服务器内存RAM参数以及分辨各种内存

下一篇:TF-IDF模型的概念是什么

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》