先从用BIO构建一个小的服务器软件骨架
最近想重新梳理一下自己对BIO、NIO 、AIO、IO_Uring的理解,让我们来先说BIO,所BIO就是 Blocking IO,那究竟Blocking在什么地方呢? 让我们先开始写代码,首先我们需要开启一个ServerSocketChannel,驻留在对应的端口上,监听连接:
// 代码基于openJDK17
private static void bio() throws Exception {
ServerSocketChannel serverSocketChannel = ServerSocketChannel.open();
serverSocketChannel.bind(new InetSocketAddress(8080),200); // 语句二
}
语句二代表我们的服务端驻留在8080端口上,在这个端口上监听连接,第二个参数在JDK中的解释是:
The backlog parameter is the maximum number of pending connections on the socket. Its exact semantics are implementation specific. In particular, an implementation may impose a maximum length or may choose to ignore the parameter altogether. If the backlog parameter has the value 0, or a negative value, then an implementation specific default is used.
backlog参数是socket上待处理连接的最大数量。它的具体语义取决于具体实现。特别是,实现可能会强制限制最大长度或选择完全忽略该参数。如果backlog参数值为0或负值,则使用实现特定的默认值。
让我们先回忆一下TCP协议建立连接的过程:
第一步: 客户端发送syn到server发起握手
第二步: 服务端收到syn之后,回复syn+ack给客户端。
第三步: 客户端收到syn+ack之后, 回复server一个ack表示收到了server的syn + ack(此时客户端的tcp连接状态已经是established, 在客户端看来连接已经成功建立)
对应到Linux上的实现如下图所示:
第二次握手进入半连接队列,三次握手的最后一次ACK到达,连接就从半连接队列移动到全连接队列中。然后上层的程序发起accept调用,就可以拿到连接的抽象,从连接中读写数据。这个accept队列的大小就是由backlog指定。我们接着写程序,注意到上面我们建立连接的过程中出现了bind、listen,但是我们上面写的代码里面只有bind, 这是因为在调用bind的时候,自动调用了listen:
@Override
public ServerSocketChannel bind(SocketAddress local, int backlog) throws IOException {
synchronized (stateLock) {
ensureOpen();
if (localAddress != null)
throw new AlreadyBoundException();
if (isUnixSocket()) {
localAddress = unixBind(local, backlog);
} else {
localAddress = netBind(local, backlog);
}
}
return this;
}
private SocketAddress unixBind(SocketAddress local, int backlog) throws IOException {
UnixDomainSockets.checkPermission();
if (local == null) {
// Attempt up to 10 times to find an unused name in temp directory.
// If local address supplied then bind called only once
boolean bound = false;
int attempts = 0;
while (attempts < 10 && !bound) {
try {
Path path = UnixDomainSockets.generateTempName().getPath();
UnixDomainSockets.bind(fd, path); // bind
bound = true;
} catch (BindException e) { }
attempts++;
}
if (!bound)
throw new BindException("Could not bind to temporary name");
} else {
Path path = UnixDomainSockets.checkAddress(local).getPath();
UnixDomainSockets.bind(fd, path);
}
Net.listen(fd, backlog < 1 ? 50 : backlog); // listen
return UnixDomainSockets.localAddress(fd);
}
private SocketAddress netBind(SocketAddress local, int backlog) throws IOException {
InetSocketAddress isa;
if (local == null) {
isa = new InetSocketAddress(Net.anyLocalAddress(family), 0);
} else {
isa = Net.checkAddress(local, family);
}
@SuppressWarnings("removal")
SecurityManager sm = System.getSecurityManager();
if (sm != null)
sm.checkListen(isa.getPort());
NetHooks.beforeTcpBind(fd, isa.getAddress(), isa.getPort());
Net.bind(family, fd, isa.getAddress(), isa.getPort()); // bind
Net.listen(fd, backlog < 1 ? 50 : backlog); // listen
return Net.localAddress(fd);
}
报文分割与定义
现在让我们考虑如何读数据,一般来说,服务端程序总是根据客户端的请求报文回应数据。由于TCP属于流式协议,所谓流式协议就是应用程序通过TCP协议发送给服务端的数据包,是没有边界的,假设客户端发送了两个hello world,服务端可能一次收到两个helloworld,也可能分多次收到。所以就需要应用层确定消息边界, 我们需要设计应用层的报文格式,那其实一般的应用层报文就有以下几种格式,一部分用于指示需要读取的数据长度,一部分是实际的报文内容。我们称之为自定义长度的报文,
自定义长度
自定义长度: 规定前几个字节是表示长度,我们只需要向后读数据长度就行了。
我们规定byte数组的前两位代表报文的长度,下一个问题来了,我们知道Java的数据类型是有符号数,byte占一个字节,一个字节是八位, 表达无符号数,最小是0,最大是255, 但是在 Java中byte是有符号整数,数据范围是-128到127。那如果我想充分的利用这个字节,该如何将负数映射到对应的正数呢? 这就要涉及Java中整数的二进制表示了,Java中的整数是用补码来表示的,在补码系统里面,最高位是符号位,0为正,1为负。对于负数,补码是其绝对值的二进制取反后加1,那么-127的绝对值是127,127对应的二进制是0111 1111,取反后是1000 0000,加1之后是1000 0001。
如果我们用超过byte的数字,然后将其强制转换为byte类型,像下面这样:
byte s = (byte) 255;
System.out.println(s);
然后输出是-1,这是为什么呢? 255是一个正数对应的补码是1111 1111, -1的绝对值是1,二进制是0000 0001,取反是1111 1110,加1刚好是1111 1111。 我这里想拿到的结论是对于byte这种数据类型来说,超过byte这种数据类型范围的整数,对于如果x∈[128, 255] , 那么将其强制转换到有符号整数,那么x的补码刚好被转换成了对应的有符号数。
所以如果客户端填入的数字里面超过了255,转成byte就变成了-1。那我们如何将-1还原成255呢。观察到-1的补码是1111 1111,所以我们直接做强制转换? 但是int也带符号的,所以byte一个字节,在byte里面的补码是 1111 1111 ,int占据4个字节,int的-1对应的补码 其实应该是 11111111 11111111 11111111 11111111。前面的符号位需要我们抹去,也就是我们需要三个字节也就是24位个0做与运算,后面的刚好八位我们保持不变,我们只需要再选取八个一即可。
如果我们将255转换为byte类型,会被转换为-1,254转为-2。 -1的先取绝对值是1, 在二进制里面的表示是0000 0001,取反之后是1111 1110, 然后加1等于1111 1111, 这刚好是255的二进制表示,只不过一个byte占八个字节,最高位是1表示负数, 如果我们在前面补24个0,刚好是4个字节,这也就是int中的255。那么现在的问题来了,我们该怎么填0,也就是说对于byte中的负数,在更大的范围我们为其填24个0就行了,剩下的8位呢? 我们只需要让其和1111 1111做与运算就可以将其还原出来。由上面推导的命题可知,对于超过byte范围的数,但是还在一个字节的范围,我们只需要让其与上0xff(255的16进制表示),我们就能将其还原出来。那如果255不够呢,我们就需要再借助一个字节,由此就引出了大端序和小端序。
大端序与小端序
现在我们拥有能够让一个字节表达0到255的能力,如果255还不够呢,我们再借助一个字节,现在有一个问题就是数组里面索引小的是高位,还是索引小的是高位。所谓高位举一个例子就是以十进制数123来说,1就处于高位,3就处于低位:
高位在前被称为大端序,低位在前就被称为小端序。一般来说TCP/IP协议用大端序。X86系列CPU都是小端序。现在我们的数组前两位放的是数组长度,索引小的是高位,那么我们如何将这两个数字组合起来成为一个无符号整数呢?
// 将两个 byte 视为无符号整数
int high = byte1 & 0xFF; // 消除符号位影响
int low = byte2 & 0xFF;
int value = (high << 8) | low; // 组合为 16 位无符号整数
其他报文格式
我们谈论报文格式的时候,事实上就是在定义怎么读报文,除了我们在报文里面填入数据长度字段之外,常见的还有以特殊字符为消息结束符的报文格式,比如\n, 我们就可以将helloworld\n当做一个完整的报文。还有固定长度的报文,比如我们指定长度为10,我们一次就读10个字节,进行解析处理。
报文分割
有了对报文的基本了解,我们可以开始从数据里面提取报文了。我们目前为了讨论简单就使用\r\n\r\n,作为消息的结束符。这样其实面临以下几个问题:
- 一次读了两个报文 1\r\n\r\n2\r\n\r\n。
- 1\r\n\r\n,可能读取了多次才读到。
- 我们用ByteBuffer来读取数据,假设我们请求分配了4096个字节,但是从中读到的数据超过了容量,所以我们需要扩容。
针对第一个问题,每次读取完毕我们都需要从里面找消息的结尾,针对第二个问题,我们需要一个暂存,存储我们读到的还没有碰到结束符的报文。针对第三个问题,我们需要动态扩容。因此我们从中提取数据的大致程序结构应该是这样的,从SocketChannel里面提取数据,碰到消息结束符,提取消息,交给上层程序。
public class SocketIOHandler {
// 默认Buffer大小
private static final int DEFAULT_BUFFER_SIZE = 1024;
private static final byte[] DELIMITER = {'\r', '\n', '\r', '\n'};
// 暂存读取到的数据
private ByteBuffer carrierBuffer;
public void processData(SocketChannel socketChannel) {
try {
for (; ; ) {
ByteBuffer directByteBuffer = ByteBuffer.allocateDirect(DEFAULT_BUFFER_SIZE);
int readData = socketChannel.read(directByteBuffer);
mergeByteBuffer(directByteBuffer);
// 代表连接正常关闭
int readIndex = -1;
if (readData < 0) {
// 判断是否有完整的报文
carrierBuffer.flip();
while ((readIndex = isHaveCompleteData(carrierBuffer)) != -1) {
// 清空数据
byte[] completeData = new byte[readIndex - carrierBuffer.position() + 1];
//
carrierBuffer.get(completeData);
carrierBuffer.position(readIndex);
}
carrierBuffer.clear();
}
// 连接正常
carrierBuffer.flip();
while ((readIndex = isHaveCompleteData(carrierBuffer)) != -1) {
byte[] completeData = new byte[readIndex - carrierBuffer.position() + 1];
carrierBuffer.get(completeData);
String readDataString = new String(completeData,0,completeData.length - 4);
System.out.println(readDataString);
carrierBuffer.position(readIndex + 1);
}
}
} catch (IOException e) {
// 这里只做代码演示
throw new RuntimeException(e);
}
}
private void doSomeThing(ByteBuffer carrierBuffer) {
}
private int isHaveCompleteData(ByteBuffer carrierBuffer) {
// 转成读模式
for (int i = carrierBuffer.position() ; i <= carrierBuffer.limit() - 4; i++) {
if (carrierBuffer.get(i) == DELIMITER[0] &&
carrierBuffer.get(i + 1) == DELIMITER[1] &&
carrierBuffer.get(i + 2) == DELIMITER[2] &&
carrierBuffer.get(i + 3) == DELIMITER[3]
) {
return i + 3;
}
}
return -1;
}
private void mergeByteBuffer(ByteBuffer directByteBuffer) {
if (this.carrierBuffer == null) {
this.carrierBuffer = ByteBuffer.allocateDirect(DEFAULT_BUFFER_SIZE);
// flip 之后转为读模式,remaining返回的是可读的元素数量
directByteBuffer.flip();
// carrierBuffer.remaining() 返回的是可写的元素数量
this.carrierBuffer.put(directByteBuffer);
// 剩余的小于最大的百分之五
return;
}
// 判断暂存的容量还剩多少,够不够放
if (this.carrierBuffer.remaining() < this.carrierBuffer.capacity() / 20) {
resizeCarrierBuffer();
}
directByteBuffer.flip();
this.carrierBuffer.put(directByteBuffer);
}
private void resizeCarrierBuffer() {
ByteBuffer directBuffer = ByteBuffer.allocateDirect(DEFAULT_BUFFER_SIZE * 2);
directBuffer.put(this.carrierBuffer);
this.carrierBuffer = directBuffer;
}
}
public class BIOServer {
public static void main(String[] args) throws Exception {
bio();
}
private static final SocketIOHandler SOCKET_IO_HANDLER = new SocketIOHandler();
private static void bio() throws Exception {
ServerSocketChannel serverSocketChannel = ServerSocketChannel.open();
serverSocketChannel.bind(new InetSocketAddress(8080),200);
while (true) {
SocketChannel socketChannel = serverSocketChannel.accept();
System.out.println("连接成功建立");
SOCKET_IO_HANDLER.processData(socketChannel);
}
}
}
然后我们来写客户端,我们先不写数据:
public class ClientDemo {
public static void main(String[] args) throws Exception {
Socket socket = new Socket();
socket.connect(new InetSocketAddress(8080));
TimeUnit.SECONDS.sleep(40);
}
}
我们的main线程停留在SocketDispatcher.read0这一行,当前的线程状态是Runnable,在Java中处于这个状态的线程有以下三种情况:
- 已经在JVM中运行
- 可能在等待系统资源
- 随时可被调度执行
如果再把read函数的细节展开,我们会发现其阻塞在了三个阶段,第一个阶段是数据到达网卡,在没有数据到达网卡之前,线程将一直被阻塞在这里。第二个阶段是从网卡到达内核缓冲区。第三个阶段是从内核缓冲区到达用户缓冲区。这个时候读才就绪,read函数就能接着向下执行了。
现在的情况属于第二种就是在等数据的到来,在数据到来之前,这个线程被等待在这里。 那为了能够处理多个连接,一种简单的方案是线程池,我们对每一个连接都弃用一个线程来处理。 就好像我们现在有个机场,这个机场效率很低,每一个航班都派了一个人在等飞机是否到来,在飞机到来之前这个人什么都不能干。这无疑造成了资源的浪费,一个连接一个线程。
那怎么提升效率呢? 一种方案是引入塔台和飞机建立通讯,当飞机快要降落的时候,飞机主动上报,塔台通知对应的机场工作人员去准备。这也就是我们下面要讲的非阻塞IO。第二种方案是当线程阻塞在这里的时候,将这个线程切出去做别的事情,等到资源就绪的时候,再恢复这个任务的执行,这对应协程,我们会在后面讲虚拟线程的实现。
由此引出NIO
在上面我们都是借助类比的思维,将通讯的过程比做迎接飞机,这不本质。现在让我们从最初的Linux调用先前一步一步推导设计,观察如何优化我们的调用。
回顾系统调用
当我们使用Java 的网络库在做网络编程的时候,本质上使用的还是操作系统的能力。也就是调用操作系统提供的api, 在Linux下面BIO调用的几个系统函数如下:
int socket(int domain, int type, int protocol);
int setsockopt(int socket, int level, int option_name,const void *option_value, socklen_t option_len);
int bind(int sockfd, const struct sockaddr *addr,ocklen_t addrlen);
int listen(int sockfd, int backlog);
int accept(int sockfd, struct sockaddr *_Nullable restrict addr,socklen_t *_Nullable restrict addrlen);
ssize_t read(int fd, void buf[.count], size_t count);
ssize_t send(int sockfd, const void buf[.size], size_t size, int flags);
我们一般通过socket()调用创建Socket,然后通过setsockopt()设置参数,通过bind绑定地址,listen调用开启监听,accept接收连接。read函数读取数据,send函数写数据。
注意到里面有形参里面都有fd,这个fd事实上file descriptor,意为文件描述符。在Linux系统里面一切皆可以看成文件,当我们在操作这些文件的时候就需要获得这些文件的引用。如果用名字来进行查找,我们每操纵一次就要查找一次名字,这无疑效率比较慢。所以Linux规定每一个文件都对应一个索引,这样要操作文件的时候,我们直接找到索引就可以对其进行操作了。 通常文件描述符号是一个非负整数(通常是小整数)。
现在我们再来看上面的调用,调用socket函数之后返回一个socket的fd,然后通过setsockopt函数传入fd,做参数设置。然后通过bind函数传入fd,绑定端口。然后listen也是接收fd。accept函数也是接收fd,返回是连接的fd。我们向read函数中传入fd,传入数组,读取数据。一切都是fd。
初步设计
那么我们自然就会萌生第一个想法 , 能否请求操作系统为我们提供一个api,然后我们传入fd,询问是否可读,如果可读我们就进行读取。accept连接之后,拿到fd将其放入到一个集合里面。然后不断的去询问操作系统数据到了没有。
// list在这里声明
while(1){
int clientFD = accept(); // 就执行不到语句一
list.add(clientFd);
for(int fd : list) {
int result = read(); // 这里调用的是加强过的read,
if(result == 0){
read();
}
}
}
但上面的代码还是有问题,比如一个连接进来之后,list里面加入了一个fd,然后不断的遍历这个集合,无法执行到语句一。所以我们需要有一个专门处理accept连接的线程,一个专门去轮询操作系统的线程。两个线程之间共享连接fd集合,需要保证是线程安全的。现在看起来很完美,但是这个加强过之后的read函数,仍然是系统调用,仍然需要上下文切换。那能不能把这个read() 函数做进内核里面。 这也就引出了Linux的select调用。
select和poll
int select(int nfds, fd_set *_Nullable restrict readfds,
fd_set *_Nullable restrict writefds,
fd_set *_Nullable restrict exceptfds,
struct timeval *_Nullable restrict timeout);
- nfds: 监控的文件描述符集里最大文件描述符加1
- readfds: 监控有读数据到达文件描述符集合,传入传出参数
- writefds: 监控有写数据到达文件描述符集合,传入传出参数
- exceptfds: 监控异常发生到达文件描述符集合,传入传出参数
我们可以将fd理解为一个数组。所以有了select之后,我们的程序就可以这么写,考虑到有些同学喜欢看图,这里我们先上一个大致的流程图, 流程图下面就是代码:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <sys/time.h>
#include <sys/select.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <errno.h>
#include <fcntl.h>
#define PORT 8888
#define MAX_CLIENTS 10
#define BUFFER_SIZE 1024
// FD管理器结构
typedef struct {
int server_fd; // 服务器fd
int client_fds[MAX_CLIENTS]; // 客户端fd数组
int max_fd; // 当前最大的fd
int client_count; // 当前客户端数量
} FDManager;
// 初始化FD管理器
void init_fd_manager(FDManager *manager) {
manager-> = -1;
manager->max_fd = -1;
manager->client_count = 0;
// 初始化客户端数组为-1
for(int i = 0; i < MAX_CLIENTS; i++) {
manager->client_fds[i] = -1;
}
}
// 更新max_fd
void update_max_fd(FDManager *manager) {
manager->max_fd = manager->server_fd;
for(int i = 0; i < MAX_CLIENTS; i++) {
if(manager->client_fds[i] > manager->max_fd) {
manager->max_fd = manager->client_fds[i];
}
}
printf("Max FD updated to %d\n", manager->max_fd);
}
// 添加新的客户端fd
int add_client(FDManager *manager, int client_fd) {
if(manager->client_count >= MAX_CLIENTS) {
return -1;
}
for(int i = 0; i < MAX_CLIENTS; i++) {
if(manager->client_fds[i] == -1) {
manager->client_fds[i] = client_fd;
manager->client_count++;
if(client_fd > manager->max_fd) {
manager->max_fd = client_fd;
printf("New max FD: %d\n", manager->max_fd);
}
return i;
}
}
return -1;
}
// 移除客户端
void remove_client(FDManager *manager, int client_fd) {
for(int i = 0; i < MAX_CLIENTS; i++) {
if(manager->client_fds[i] == client_fd) {
close(client_fd);
manager->client_fds[i] = -1;
manager->client_count--;
update_max_fd(manager);
printf("Client %d removed\n", client_fd);
break;
}
}
}
// 主服务器程序
int main() {
FDManager fd_manager;
struct sockaddr_in server_addr, client_addr;
fd_set read_fds;
char buffer[BUFFER_SIZE];
// 初始化FD管理器
init_fd_manager(&fd_manager);
// 创建服务器socket
fd_manager.server_fd = socket(AF_INET, SOCK_STREAM, 0);
if(fd_manager.server_fd < 0) {
perror("Socket creation failed");
exit(EXIT_FAILURE);
}
// 设置socket选项
int opt = 1;
if(setsockopt(fd_manager.server_fd, SOL_SOCKET, SO_REUSEADDR,
&opt, sizeof(opt)) < 0) {
perror("Setsockopt failed");
exit(EXIT_FAILURE);
}
// 配置服务器地址
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_addr.s_addr = INADDR_ANY;
server_addr.sin_port = htons(PORT);
// 绑定地址
if(bind(fd_manager.server_fd, (struct sockaddr *)&server_addr,
sizeof(server_addr)) < 0) {
perror("Bind failed");
exit(EXIT_FAILURE);
}
// 监听连接
if(listen(fd_manager.server_fd, 5) < 0) {
perror("Listen failed");
exit(EXIT_FAILURE);
}
printf("Server listening on port %d\n", PORT);
// 更新max_fd
fd_manager.max_fd = fd_manager.server_fd;
// 主循环
while(1) {
// 清空fd_set
FD_ZERO(&read_fds);
// 添加服务器fd到集合
FD_SET(fd_manager.server_fd, &read_fds);
// 添加所有客户端fd到集合
for(int i = 0; i < MAX_CLIENTS; i++) {
int client_fd = fd_manager.client_fds[i];
if(client_fd > 0) {
FD_SET(client_fd, &read_fds);
}
}
printf("Waiting for activity... (max_fd = %d)\n", fd_manager.max_fd);
// 使用select等待活动
int activity = select(fd_manager.max_fd + 1, &read_fds, NULL, NULL, NULL);
if(activity < 0) {
perror("Select error");
continue;
}
// 检查服务器fd是否有新连接
if(FD_ISSET(fd_manager.server_fd, &read_fds)) {
socklen_t addr_len = sizeof(client_addr);
int new_client = accept(fd_manager.server_fd,
(struct sockaddr *)&client_addr,
&addr_len);
if(new_client < 0) {
perror("Accept failed");
continue;
}
printf("New connection from %s:%d\n",
inet_ntoa(client_addr.sin_addr),
ntohs(client_addr.sin_port));
// 添加新客户端
if(add_client(&fd_manager, new_client) < 0) {
printf("Cannot accept more clients\n");
close(new_client);
}
}
// 检查客户端fd是否有数据
for(int i = 0; i < MAX_CLIENTS; i++) {
int client_fd = fd_manager.client_fds[i];
if(client_fd > 0 && FD_ISSET(client_fd, &read_fds)) {
memset(buffer, 0, BUFFER_SIZE);
int read_size = read(client_fd, buffer, BUFFER_SIZE);
if(read_size <= 0) {
// 客户端断开连接或错误
printf("Client %d disconnected\n", client_fd);
remove_client(&fd_manager, client_fd);
}
else {
// 回显数据
buffer[read_size] = '\0';
printf("Received from client %d: %s", client_fd, buffer);
write(client_fd, buffer, strlen(buffer));
}
}
}
}
// 关闭所有连接
for(int i = 0; i < MAX_CLIENTS; i++) {
if(fd_manager.client_fds[i] > 0) {
close(fd_manager.client_fds[i]);
}
}
close(fd_manager.server_fd);
return 0;
}
上面的代码我们可以分成以下几个流程:
初始化FD管理器, FD管理器是我们创建的结构体,里面放置了服务端SocketFD、最大的FD、client_count、然后是一个整型数组。这个数组用于记录客户端的fd,然后我们将其初始化为-1。
- 创建服务端Socket,然后在FD管理器里面存储。绑定地址、监听连接。
select返回时,会只保留那些就绪的fd。所以如果再循环里面使用select,必须每次调用之前重新初始化。 而与select相关的有以下几个函数:
- FD_ZERO() 清空fd_set
- FD_SET() 将传入的fd 添加进入fd_set里面
- FD_ISSET() 判断传入的fd是否在fd_set里面
4 . 所以我们每次都会将结构体存储的fd,重新填入。
- 然后调用select 里面会返回就绪的fd,如果我们服务端的fd还在说明有就绪的连接,然后调用accept函数,获取连接对应的fd。然后将其加入到我们的fd管理器里面。
- 然后遍历我们存储的fd,是否在select修改之后的fd里面,如果有代表有数据。
select从设计上来说最多只能监听1024个文件描述符,这个限制由后面的poll来完成解除限制。除此之外,我们观察可以发现select调用仍然需要传入fd数组,需要拷贝一份到内核,高并发场景下这样的拷贝消耗的资源是惊人的(可优化为不复制)。在实现上,内核仍然通过遍历的方式检查文件描述符的继续状态,是个同步过程。除此之外,select仅仅返回可读文件描述符个数,具体哪个可读还是需要用户自己遍历。能不能直接返回给用户就绪的文件描述符呢,无需用户做无效的遍历呢?由此就引出epoll。其实我刚开始看一段,看到readyfds的时候我以为里面塞的就是就绪的fd,但其实不是的,所以才提供了FD_SET、FD_ISSET这几个函数。
epoll降临
epoll 概述
在参考文档[4]里面我们可以看到,epoll api的功能类似于poll,监控多个文件描述符,检查是否可以进行I/O操作。 epoll支持两种模式:
- 边缘触发 (edge-triggered, ET)
- 水平触发 (level-triggered, LT)
epoll的核心是epoll实例,它是内核中的一个数据结构,包含以下两部分:
- Interest List 或称 epoll 集合: 包含用户注册的需要监控的文件描述符列表
- Ready List: 包含当前"就绪"的文件描述符集合。
epoll包含三个系统函数:
- epoll_create: 创建一个新的
epoll
实例,并返回一个引用该实例的文件描述符,也就是fd。 - epoll_ctl: 用于管理
epoll
实例的兴趣列表,添加/修改/删除需要监控的文件描述符。 - epoll_wait: 等待 I/O 事件。如果没有事件可用,则阻塞调用线程。(可以理解为从就绪列表中获取文件描述符事件。)
边缘触发和水平触发
那么该怎么理解边缘触发和水平触发呢? 让我们引入一个场景,来体会边缘触发和水平触发的区别:
- 我们拿到了连接的fd,我们这里姑且称之为clientFD,然后用epoll注册对读事件感兴趣
- 然后客户端写入2KB数据。
- epoll调用返回,返回clientFD,
- 然后我们用这个clientFD读1KB数据
- 然后再次调用epoll_wait。
如果对于边缘触发来说,在步骤5中的epoll_wait会被挂起,如果在没有新的数据块到来的话。这是因为边缘触发模式只在被监控的文件描述符发生变化时才传递事件。所以如果是边缘触发我们就需要一次将数据都读全。而对于水平触发,再次调用epoll_wait的时候,rfd(读就绪的fd)仍然是就绪的。在参考文档[4]中给了一个示例, 我这里也准备了流程图,如果觉得代码有点难懂可以先看流程图理解:
#define MAX_EVENTS 10
struct epoll_event ev, events[MAX_EVENTS];
int listen_sock, conn_sock, nfds, epollfd;
/* Code to set up listening socket, 'listen_sock',
(socket(), bind(), listen()) omitted. */
epollfd = epoll_create1(0); // 语句一
if (epollfd == -1) {
perror("epoll_create1");
exit(EXIT_FAILURE);
}
ev.events = EPOLLIN; // 语句二
ev.data.fd = listen_sock;
if (epoll_ctl(epollfd, EPOLL_CTL_ADD, listen_sock, &ev) == -1) { // 语句三
perror("epoll_ctl: listen_sock");
exit(EXIT_FAILURE);
}
for (;;) {
nfds = epoll_wait(epollfd, events, MAX_EVENTS, -1);
if (nfds == -1) {
perror("epoll_wait");
exit(EXIT_FAILURE);
}
for (n = 0; n < nfds; ++n) {
if (events[n].data.fd == listen_sock) {
conn_sock = accept(listen_sock,
(struct sockaddr *) &addr, &addrlen);
if (conn_sock == -1) {
perror("accept");
exit(EXIT_FAILURE);
}
setnonblocking(conn_sock); // 设置非阻塞模式
ev.events = EPOLLIN | EPOLLET; // 设置对事件感兴趣、边缘触发
ev.data.fd = conn_sock;
if (epoll_ctl(epollfd, EPOLL_CTL_ADD, conn_sock,
&ev) == -1) {
perror("epoll_ctl: conn_sock");
exit(EXIT_FAILURE);
}
} else {
do_use_fd(events[n].data.fd);
}
}
}
这里出现了一个新的结构体,也就是epoll_event,epoll_event的声明如下:
struct epoll_event { uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */ };
union epoll_data { void *ptr; int fd; uint32_t u32; uint64_t u64; }; typedef union epoll_data epoll_data_t;
在结构体中的events的变量用来代表Epoll的事件,那这些事件对应的值去哪里找呢? 在 Linux manual page里面我们去在epoll_create、epoll_ctl、epoll_wait找函数说明就可以了。我是在epoll_ctl里面找到的:
The events member of the epoll_event structure is a bit mask composed by ORing together zero or more event types, returned by epoll_wait(2), and input flags, which affect its behaviour, but aren't returned.
epoll_event
结构中的 events
成员是一个位掩码,通过对零个或多个事件类型进行 OR 运算组合而成。这些事件类型会通过 epoll_wait(2)
返回。此外,还可以包含输入标志,这些标志影响行为,但不会被返回。
这就解释通了 ev.events = EPOLLIN | EPOLLET; 这句,EPOLLIN代表对读事件就绪感兴趣,EPOLLET边缘触发。或运算有1保留为1,我们只用依次检验对应二进制数字的1就可以知道,触发的模式和感兴趣的事件。
常见的events候选值有以下几个:
- EPOLLIN:可读
- EPOLLOUT: 可写,注意在边缘触发模式下面,只在不可写到写的转变时刻,才会触发一次。而在水平触发下面, 只要Socket的发送缓冲区还有空间,这个事件会被频繁触发。除非写入的数据超过了Socket 发送缓冲区的剩余空间,这会返回EAGAIN。
- EPOLLET: 为关联的fd设置边缘触发,EPOLL默认是水平触发
- EPOLLONESHOT: 将关联的FD设置为一次通知模式,该文件描述符会从关注列表中被禁用,epoll 接口也将不再报告其他事件。 用户必须调用 epoll_ctl() 并使用 EPOLL_CTL_MOD 来重新激活该文件描述符,并设置新的事件掩码。默认模式我们注册一次,会通知多次,减少fd的复制,我们一般称之为multishot。
现在我们就可以读懂上面的程序了,语句一调用epoll_create1,创建epoll的FD,然后用ev来临时存储一下,然后设置感兴趣的事件。通过epoll_ctl请求epoll的fd对服务端的socket进行监控,设置对读事件感兴趣。如果有对应的事件,epoll_wait会修改我们传入的events数组。我们遍历这个数组就可以去读,去接受连接了。到现在epoll_wait返回的时候,我们就知道就绪的fd了,但是我们还是需要主动的去读。
我的一些不理解的地方
我的理解是边缘触发关注变化,而水平触发关注事件是否被满足。如果边缘触发配合oneshot,会是什么呢,我的预测是我们read一次,epoll丢失了对这个fd的监控,需要我们通过EPOLL_CTL_MOD 请求epoll实例重新关注这个fd。有了预测之后,我们就需要验证,那我们该怎么验证呢。我们设置边缘触发和oneshot,看对应的客户端触发读数据的时候,epoll_wait能不能返回这个fd。我认为就算是十分显然的预测,如果有疑问,那我们也应当有能力来验证我们预测, 我们设计的例子如下,服务端设置为边缘触发和oneshot,客户端第一次发送数据,能读到,第二次发数据就读不到了。考虑到有些同学对c有点陌生,我还是先配了图,后配代码。
#include <sys/epoll.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <fcntl.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#define PORT 12345
#define MAX_EVENTS 10
int set_nonblocking(int fd) {
int flags = fcntl(fd, F_GETFL);
return fcntl(fd, F_SETFL, flags | O_NONBLOCK);
}
int main() {
int listen_fd = socket(AF_INET, SOCK_STREAM, 0);
struct sockaddr_in addr = {0};
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = INADDR_ANY;
addr.sin_port = htons(PORT);
bind(listen_fd, (struct sockaddr*)&addr, sizeof(addr));
listen(listen_fd, 5);
set_nonblocking(listen_fd);
int epfd = epoll_create1(0);
struct epoll_event ev, events[MAX_EVENTS];
ev.events = EPOLLIN;
ev.data.fd = listen_fd;
epoll_ctl(epfd, EPOLL_CTL_ADD, listen_fd, &ev);
int conn_fd = -1;
while (1) {
int nfds = epoll_wait(epfd, events, MAX_EVENTS, -1);
for (int i = 0; i < nfds; ++i) {
if (events[i].data.fd == listen_fd) {
conn_fd = accept(listen_fd, NULL, NULL);
set_nonblocking(conn_fd);
ev.events = EPOLLIN | EPOLLET | EPOLLONESHOT;
ev.data.fd = conn_fd;
epoll_ctl(epfd, EPOLL_CTL_ADD, conn_fd, &ev);
printf("客户端连接成功 fd=%d\n", conn_fd);
} else if (events[i].data.fd == conn_fd) {
char buf[1024] = {0};
int n = read(conn_fd, buf, sizeof(buf));
printf("第一次收到数据: %.*s\n", n, buf);
// 第二次epoll_wait,预期不会触发
printf("等待第二次数据(预期不会触发)...\n");
int nfds2 = epoll_wait(epfd, events, MAX_EVENTS, 30000);
if (nfds2 == 0) {
printf("第二次epoll_wait未触发,oneshot验证成功 ✅\n");
} else {
printf("第二次epoll_wait触发了事件,oneshot验证失败 ❌\n");
}
// 重新注册fd事件
ev.events = EPOLLIN | EPOLLET | EPOLLONESHOT;
epoll_ctl(epfd, EPOLL_CTL_MOD, conn_fd, &ev);
printf("重新注册fd事件,等待第三次数据...\n");
// 第三次epoll_wait,客户端发数据后预期会触发
int nfds3 = epoll_wait(epfd, events, MAX_EVENTS, 5000);
if (nfds3 > 0) {
n = read(conn_fd, buf, sizeof(buf));
printf("第三次收到数据:%.*s,重新注册验证成功 ✅\n", n, buf);
} else {
printf("第三次epoll_wait未触发,重新注册验证失败 ❌\n");
}
close(conn_fd);
return 0; // 测试结束
}
}
}
}
然后我们用nc 命令测试这个服务器 , 预期输入第一次数据,会读到。第二次发送,在30s里面,epoll_wait无法触发。结果如下所示:
# 服务端
客户端连接成功 fd=5
第一次收到数据: 66666
等待第二次数据(预期不会触发)...
# 客户端
66666
8888
99999
所以oneshot和multishot影响的是epoll监控fd的行为,oneshot在触发一次之后,对应监控fd被移除,multishot会一直驻留。
小小的总结一下
我们从BIO逐步走向了IO多路复用,BIO的阻塞其实阻塞在read调用上,一直在等数据的到来,这是最本质的解释。我们可以通过thread dump观测到这一点。解决这一点其实也简单,我们一个连接一个线程,使用线程池。但在很多活跃连接的情况下,这会难以扩展,我们扩充硬件配置,可以获得更多的线程。但是对应的线程上下文切换也是一个成本。于是我们就希望让操作系统自己去监控,希望操作系统出api,我们在对应的fd就绪之后,才自己去读。由此就引出了select和poll。但poll也是不完美的,我们需要去遍历看看,由此就引出了epoll的降临,内核保存了一份fd,我们只需要通过对epoll进行添加fd、修改fd即可。我们就省去了自己遍历fd的成本。那不能再好一些呢,现在我们还是主动的去读的,我们还需要传入一个数组,那不能我们传入我们fd和数组,就绪的时候直接读好给我们呢。由此就引入了AIO和io_uring。
由此引出AIO 到IO演进之路
所谓AIO的A,也就是asynchronous 异步的意思是,在某种情况下AIO有着不同的语义,一种AIO的语义是将你的回调函数传递给系统,当有事件发生的时候,系统调用你的回调函数。Java中的AIO就是这种语义:
public class AIOServer {
private static final int PORT = 8080;
public static void main(String[] args) {
try {
// 1. 创建并绑定异步服务器通道
AsynchronousServerSocketChannel serverChannel =
AsynchronousServerSocketChannel.open().bind(new InetSocketAddress(PORT));
System.out.println("AIO Server started on port " + PORT);
// 2. 异步接受客户端连接
serverChannel.accept(null, new CompletionHandler<AsynchronousSocketChannel, Void>() {
@Override
public void completed(AsynchronousSocketChannel clientChannel, Void attachment) {
// 继续接受下一个客户端连接(异步循环)
serverChannel.accept(null, this);
// 处理当前客户端
handleClient(clientChannel);
}
@Override
public void failed(Throwable exc, Void attachment) {
System.err.println("Accept failed: " + exc.getMessage());
}
});
// 3. 防止主线程退出
Thread.currentThread().join();
} catch (IOException | InterruptedException e) {
e.printStackTrace();
}
}
private static void handleClient(AsynchronousSocketChannel clientChannel) {
// 4. 创建缓冲区读取客户端数据
ByteBuffer buffer = ByteBuffer.allocate(1024);
// 5. 异步读取数据
clientChannel.read(buffer, null, new CompletionHandler<Integer, Void>() {
// 外部引用,用于递归调用
CompletionHandler<Integer, Void> thisOuter = this;
@Override
public void completed(Integer bytesRead, Void attachment) {
if (bytesRead < 0) { // 客户端关闭连接
closeChannel(clientChannel);
return;
}
// 6. 处理读取到的数据
buffer.flip();
String received = new String(buffer.array(), 0, bytesRead).trim();
System.out.println("Received: " + received);
// 7. 准备并异步发送响应
String response = "Server response: Hello, " + received + "!\n";
ByteBuffer responseBuffer = ByteBuffer.wrap(response.getBytes());
clientChannel.write(responseBuffer, null, new CompletionHandler<Integer, Void>() {
@Override
public void completed(Integer bytesWritten, Void attachment) {
buffer.clear();
// 8. 继续读取下一条消息
clientChannel.read(buffer, null, thisOuter);
}
@Override
public void failed(Throwable exc, Void attachment) {
System.err.println("Write failed: " + exc.getMessage());
closeChannel(clientChannel);
}
});
}
@Override
public void failed(Throwable exc, Void attachment) {
System.err.println("Read failed: " + exc.getMessage());
closeChannel(clientChannel);
}
});
}
private static void closeChannel(AsynchronousSocketChannel channel) {
try {
channel.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
AsynchronousServerSocketChannel的accept方法提供了函数参数,要求是CompletionHandler类型,当连接建立的时候,自动触发completed方法,然后我们接着在AsynchronousServerSocketChannel实例上注册自身,不断接收连接。然后我们拿到AsynchronousSocketChannel之后,同样在AsynchronousSocketChannel的read方法上注册CompletionHandler函数。
但是我们回想一下内核通知用户程序的几种方式,最为常见的就是同步系统调用,当系统调用返回的时候就代表内核完成了任务。除此之外常见的还有信号(Signals)机制 , 信号从字面意思上就是内核完成任务之后向应用程序发一个信号,我们可以注册对应的函数。 但是注册的函数只能入参是int,无返回值:
void handler_name(int signum) {}
用信号这种方式来实现异步IO无疑限制太多,Java的AsynchronousSocketChannel本质上还是用Epoll来模拟的,所以本质上我们还是将其归类的同步非阻塞IO中(依据来自参考资料[18]里面, 里面有详细的考证)。难道我们要让操作系统给我们开口子,定制更为通用的接口? 这似乎并不是一个很好的思路。就算能实现也不适应现在越来越快的硬件,因为要借助中断。但是随着设备越来越快,轮询要快于中断模式。
在Linux 2.6就引入了异步IO,也就是io_submit和io_getevents,简单的说io_submit提交IO请求,io_getevents返回就绪的事件。这里其实Linux的方式就是轮询。但这套api最初是为数据库软件设计的,只支持O_DIRECT模式,也就是绕过高速缓存直接读写设备,我们在《深入Java IO:文件读写原理(一)》提到数据库需要自己的缓存管理,操作系统的缓存管理对于数据库来说太粗糙了,缺页异常会导致性能抖动,这不稳定,于是数据库软件希望可以绕开磁盘自己管理缓存。对于非常规的非数据库应用是无用的,除此之外这组接口在设计的时候没有考虑扩展,虽然我们也确实可以扩展,但这就有点复杂了。虽然说从技术上来说是非阻塞的,但实际很多原因都会导致它阻塞。
Linus也对这组接口非常不满意,在参考资料[23]可以看到,我们这里只放一小段:
So I think this is ridiculously ugly.
AIO is a horrible ad-hoc design, with the main excuse being “other, less gifted people, made that design, and we are implementing it for compatibility because database people — who seldom have any shred of taste — actually use
所以我认为这是荒谬至极的丑陋设计。AIO 是一个可怕的临时凑合设计,其主要借口是"其他不那么有天赋的人做了这个设计,而我们为了兼容性而实现它,因为数据库领域的人 —— 他们几乎从不具备任何品味 —— 实际上在使用它"。
到现在我们已经大致理清楚了,Linux 的IO演进之路,最开始是阻塞式系统调用,阻塞在read调用上或者accept调用上,慢慢的操作系统上的软件发现这不符合要求,于是开始添加异步接口。网络领域(network socket) 是添加的异步接口,不断的轮询请求是否完成。而存储IO领域,则是添加了一个定制版的异步接口。
由此引出io_uring
这就是Linux I/O的演进历史,各类软件 都根据自己的需要请求内核添加功能和接口,各自管各自的,并没有多少前瞻性。由此就引出了io_uring,io_uring来自资深内核开发者Jens Axboe ,这项工作来自于一个简单的观察,中断驱动(interrup-driven)模式效率已经低于轮询模式(polling for completions)。所以有些想法看起来很美妙,但确实是不符合实际的,从api的设计上来说,我们向对应的事件注册函数,事件满足之后触发, 这样看起来写起来简单,读起来容易读。但是我们贴近底层看的话,引入这种机制性能并不佳,而且难以维护。我们其实可以选择底层轮询,在对外层暴露成事件驱动的模式。io_uring的处理结构如下图所示:
一般我们通过io_uring_setup创建io_uring实例,每个io_uring实例都有两个环形队列,在内核和应用程序之间共享:
- 提交队列: submission queue (SQ)
- 完成队列: completion queue (CQ)
这两个队列都是单生产者、单消费者,size是2的幂次,都提供无锁接口,内部使用内存屏障做同步。应用发起的IO请求会先进入到SQ里面,更新SQ尾指针。内核消费SQ 节点,更新SQ 头节点。内核尾完成的一个或多个请求创建CQ节点,更新CQ指针。应用消费CQ节点,更新CQ的头指针。完成事件可能以任意顺序到达,到总是与特定的SQ节点相关联。消费CQ中元素的过程无需切换到内核态。
io_uring支持三种工作模式:
- 中断驱动模式, 这是默认模式,不需要设置特殊标志。I/O 完成时通过硬件中断通知系统,应用程序通过
io_uring_enter()
提交请求,然后检查 CQ 判断完成状态。 - 轮询模式(IORING_SETUP_IOPOLL),通过轮询方式检测IO完成,延迟更低,但是会更消耗CPU,需要设备和文件系统支持轮询功能只适用于使用 O_DIRECT 标志打开的文件描述符。
- 内核轮询模式,通过
IORING_SETUP_SQPOLL
标志开启 ,创建内核线程轮询 SQ,减少系统调用开销允许应用程序无需切换到内核态即可提交 I/O 请求
如果你觉得io_uring太繁琐,这里有一个liburing 的库,将io_uring封装的更加便捷,我们可以参考文档[17] 来学习io_uring的使用,我这里准备了代码和示例图:
void server_loop(int server_socket) {
struct io_uring_cqe *cqe;
struct sockaddr_in client_addr;
socklen_t client_addr_len = sizeof(client_addr);
add_accept_request(server_socket, &client_addr, &client_addr_len);
while (1) {
int ret = io_uring_wait_cqe(&ring, &cqe); // 从完成队列里面取事件
if (ret < 0)
fatal_error("io_uring_wait_cqe");
struct request *req = (struct request *) cqe->user_data;
if (cqe->res < 0) {
fprintf(stderr, "Async request failed: %s for event: %d\n",
strerror(-cqe->res), req->event_type);
exit(1);
}
// 根据类型来触发对应的操作,连accept调用都省略了
switch (req->event_type) {
case EVENT_TYPE_ACCEPT:
add_accept_request(server_socket, &client_addr, &client_addr_len);
add_read_request(cqe->res);
free(req);
break;
case EVENT_TYPE_READ:
if (!cqe->res) {
fprintf(stderr, "Empty request!\n");
break;
}
handle_client_request(req);
free(req->iov[0].iov_base);
free(req);
break;
case EVENT_TYPE_WRITE:
for (int i = 0; i < req->iovec_count; i++) {
free(req->iov[i].iov_base);
}
close(req->client_socket);
free(req);
break;
}
/* Mark this request as processed */
io_uring_cqe_seen(&ring, cqe);
}
}
int add_read_request(int client_socket) {
// 从队列里面获取一个位置
struct io_uring_sqe *sqe = io_uring_get_sqe(&ring);
// 为请求分配内存
struct request *req = malloc(sizeof(*req) + sizeof(struct iovec));
// 为接收数据分配缓冲区,大小为READ_SZ
req->iov[0].iov_base = malloc(READ_SZ);
req->iov[0].iov_len = READ_SZ;
req->event_type = EVENT_TYPE_READ;
req->client_socket = client_socket;
memset(req->iov[0].iov_base, 0, READ_SZ);
/* Linux kernel 5.5 has support for readv, but not for recv() or read() */
io_uring_prep_readv(sqe, client_socket, &req->iov[0], 1, 0);
io_uring_sqe_set_data(sqe, req);
io_uring_submit(&ring);
return 0;
}
通过上面的示例,我们可以发现,在io_uring下面,我们可以不再主动的接收连接,主动的去read数据。省掉了系统调用,但这个时候就有人问了,那我们提前申请了内存,那这样连接多的时候会不会浪费内存。io_uring也提供了缓冲区机制,也就是io_uring_prep_provide_buffers,可以复用内存。
总结一下
到现在我们已经从bio梳理到了io_uring, 所谓bio就是在blocking在read上面,如果我们只有一个线程,在数据没到达内核缓冲区之前,就会阻塞在这里。对此我们可以使用线程池来解决这个问题,一个线程专门处理连接,连接接受之后,提交给线程池去处理,这就颇有点 one thread per request的感觉。这会难以扩展,随着连接的增多,我们的线程不能无限增长。于是我们就希望内核为我们提供这样的接口,我们告诉内核需要监控的fd,fd是对文件的抽象,在事件就绪的时候,内核告知我们。这也就是select和epoll,这看起来将问题缓解了一些,但是还不够原因在于我们还需要自己维护一个fd,我们传入的fd集合到内核还需要复制一下,这在高频的读写下仍然是昂贵的成本,由此就引出了epoll,由内核直接告知我们哪个fd就绪,epoll的功能非常丰富,我们可以选择水平触发和边缘触发。
边缘触发模式只在被监控的文件描述符发生变化时才传递事件,比如说客户端发了2KB数据,读了1KB,再次调用epoll_wait,不会返回就绪的事件。而水平触发只要满足条件就会一直触发。所以在边缘触发的情况下,只有在不可读转为可读的情况下,才会再度返回就绪事件。除此之外对于就绪的fd,EPOLL也提供了oneshot和multishot,我们姑且可以理解为一次触发和多次触发,对于就绪的fd,oneshot触发一次就会自动移除这个fd监控,需要我们再添加。而multishot则会多次触发,那么触发一次之后,我们处理过之后就不会再触发。Netty默认是边缘触发,这能减少触发次数,毕竟在Netty里面是一次读取数据。但是Epoll仍然不够完美,我们仍然需要主动的accept,主动的去读数据。
由此就引出了io_uring, 操作系统总是根据应用软件的需求来引入特性,一般的非数据库应用软件添加的异步接口和数据库软件添加的异步接口,设计目标并不一致,数据库软件希望绕开缓存,但非数据库软件希望有效的利用缓存。尽管io_submit已经开始支持epoll,但扩展和维护都相当复杂。于是就引出了io_uring, io_uring的推出基于以下事实,随着设备越来越快,轮询开始快于中断。io_uring统一了网络io和磁盘io。这也就是最新的异步IO,这个异步可以体现在减少系统调用上,我们只用处理就绪的事件上,减少read和accept的系统调用次数。
但是AIO还有另外一重语义,将你的回调函数传递给系统,当有事件发生的时候,系统调用你的回调函数。我们可以传递函数指针给操作系统,但是操作系统回调应用程序比较复杂,往往需要借助于中断,在设备越来越快的今天,轮询要比中断快,因此我们可以设计的底层调用是轮询形式,然后在包装成AIO的语义。
这次梳理流程的时候,我们没有借助一些理所当然的类比,有些类比会把往我们引到沟里面。我选择的思路是直面底层的实现,力图寻找演变的动机,设计的动机。我们可以看到在梳理的这个过程中,我们澄清了一些概念,为了验证这些概念,我们不断的引入验证的工具。我们依据理论构建预测,然后验证。如果验证的符合了我们的预测,则说明我们的理解是有效的。当我们对一些理论有理解的时候,我们总可以做出一些预测,那就是最本质的东西,依据最本质的东西向前推导,我们会发现不会有什么本质性的困难。我们获得的理解也更深入。
参考资料
[1] Linux – IO Multiplexing – Select vs Poll vs Epoll https://devarea.com/linux-io-multiplexing-select-vs-poll-vs-e...
[2 ] read、write 与recv、send区别 gethostname https://www.cnblogs.com/Malphite/p/11645067.html
[3] select函数及fd_set介绍 https://www.cnblogs.com/wuyepeng/p/9745573.html
[4] epoll(7) — Linux manual page https://man7.org/linux/man-pages/man7/epoll.7.html
[5] epoll_in_out_test https://github.com/ustcdane/epoll_in_out_test?tab=readme-ov-file
[6] Why you should use io_uring for network I/O https://developers.redhat.com/articles/2023/04/12/why-you-sho...
[7] How to find the socket buffer size of linux https://stackoverflow.com/questions/7865069/how-to-find-the-socket-buffer-size-of-linux
[8] fd_set实现原理 https://www.cnblogs.com/HPhone/p/3662011.html
[9] Panama uring Java https://github.com/dreamlike-ocean/PanamaUring
[10] https://github.com/netty/netty/issues/2515
[12] io_getevents https://man7.org/linux/man-pages/man2/io_getevents.2.html
[13] Linux 异步 I/O 框架 io_uring:基本原理、程序示例与性能压测(2020) https://arthurchiao.art/blog/intro-to-io-uring-zh/#15-%E5%BC%...
[14] 新一代异步IO框架 io_uring | 得物技术 https://tech.dewu.com/article?id=40
[15] 解密高性能异步I/O:io_uring的魔力与应用 https://tech.dewu.com/article?id=28
[16] Missing Manuals - io_uring worker pool https://blog.cloudflare.com/missing-manuals-io_uring-worker-p...
[17] io_uring-by-example https://github.com/shuveb/io_uring-by-example/blob/master/05_webserver_liburing/main.c
[18] 透过现象看Java AIO的本质 | 得物技术 https://tech.dewu.com/article?id=28
[19] Why you should use io_uring for network I/O https://developers.redhat.com/articles/2023/04/12/why-you-sho...
[20] What's the difference between event-driven and asynchronous? Between epoll and AIO? https://stackoverflow.com/questions/5844955/whats-the-difference-between-event-driven-and-asynchronous-between-epoll-and-a
[21] signal & system call usage & relationship https://stackoverflow.com/questions/32708830/signal-system-call-usage-relationship
[22] linux-aio https://github.com/littledan/linux-aio
[23] Re: [PATCH 09/13] aio: add support for async openat() https://lwn.net/Articles/671657/
[24] io_uring and networking in 2023 https://github.com/axboe/liburing/wiki/io_uring-and-networking-in-2023
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。