前言:
现在我们对“haproxywi”大体比较看重,各位老铁们都需要了解一些“haproxywi”的相关资讯。那么小编同时在网摘上汇集了一些有关“haproxywi””的相关内容,希望你们能喜欢,看官们一起来了解一下吧!了解版本为主要版本为1.5.12。主要从四个方面了解:主循环逻辑、TCP连接处理流程、HTTP连接处理流程。
主循环处理流程主循环run_poll_loop
HAproxy的主循环在haproxy.c中的run_poll_loop()函数,代码如下:
/* Runs the polling loop */void run_poll_loop(){ int next; tv_update_date(0,1); while (1) { /* check if we caught some signals and process them */ signal_process_queue(); /* Check if we can expire some tasks */ wake_expired_tasks(&next); /* Process a few tasks */ process_runnable_tasks(&next); /* stop when there's nothing left to do */ if (jobs == 0) break; /* The poller will ensure it returns around <next> */ cur_poller.poll(&cur_poller, next); fd_process_cached_events(); }}
主循环的结构比较清晰,就是循环的调用几个函数,并在适当的时候结束循环并退出:
处理信号队列。超时任务。处理可运行的任务。检测是否可以结束循环。执行 poll 处理 fd 的 IO 事件。处理可能仍有 IO 事件的 fd.signal_process_queue- 处理信号队对列
haproxy实现了自己的信号处理机制。接受到信号之后,将该信号放到信号队列中。在程序运行到signal_process_queue()时处理所有位于信号队列中的信号。
wake_expired_tasks- 唤醒超时任务
haproxy的顶层处理逻辑是task,task上存储着要处理的任务的全部信息。task的管理是采用队列方式,同时分为wait_queue和run_queue。顾名思义,wait_queue是需要等待一定时间的task的集合,而run_queue则代表需要立即执行的task的集合。
该函数就是检查wait_queue中那些超时的任务,并将其放到run_queue中。haproxy在执行的过程中,会因为一些情况导致需要将当前的任务通过调用task_queue等接口放到wait_queue中。
process_runnable_tasks- 处理可运行的任务
处理位于run_queue中的任务。
前面提到,wake_expired_tasks可能将一些超时的任务放到run_queue中。此外,haproxy执行的过程中,还有可能通过调用task_wakeup直接讲某个task放到run_queue中,这代表程序希望该任务下次尽可能快的被执行。
对于TCP或者HTTP业务流量的处理,该函数最终通过调用process_session来完成,包括解析已经接收到的数据, 并执行一系列load balance的特性,但不负责从socket收发数据。
jobs == 0- 无任务可执行,结束循环
haproxy中用jobs记录当前要处理的任务总数,一个listener也会被计算在内。因此, 如果jobs为0的话,通常意味着haproxy要退出了,因为连listener都要释放了。 jobs的数值通常在process_session时更新。因此,是否可以退出循环,就放在了所有任务的process_session执行之后。
cur_poller.poll()- 执行poll处理fd的IO事件
haproxy启动阶段,会检测当前系统可以启用那种异步处理的机制,比如select、poll、epoll、kqueue等,并注册对应poller的poll方法。epoll的相关函数接口在ev_epoll.c中。
这里就是执行已经注册的poller的poll方法,主要功能就是获取所有活动的fd,并调用对应的handler,完成接受新建连接、数据收发等功能。
处理可能仍有IO事件的fd
poller的poll方法执行时,程序会将某些符合条件以便再次执行IO处理的的fd放到fd_spec list[]中,fd_process_cached_events()函数会再次执行这些fd的io handler。
TCP连接处理流程关键数据结构 session
haproxy负责处理请求的核心数据结构是struct session,本文不对该数据结构进行分析。
从业务的处理的角度,简单介绍一下对session的理解:
haproxy每接收到client的一个连接,便会创建一个session结构,该结构一直伴随着连接的处理,直至连接被关闭,session才会被释放。haproxy其他的数据结构,大多会通过引用的方式和session进行关联。一个业务session上会存在两个TCP连接,一个是client到haproxy,一个是haproxy到后端server.
此外,一个session,通常还要对应一个task,haproxy最终用来做调度的是通过task.
相关初始化
在haproxy正式处理请求之前,会有一系列初始化动作。这里介绍和请求处理相关的一些初始化。
初始化处理TCP连接的方法
初始化处理TCP协议的相关数据结构,主要是和socket相关的方法的声明。详细见下面proto_tcpv4 (proto_tcp.c)的初始化:
/* Note: must not be declared <const> as its list will be overwritten */static struct protocol proto_tcpv4 = { .name = "tcpv4", .sock_domain = AF_INET, .sock_type = SOCK_STREAM, .sock_prot = IPPROTO_TCP, .sock_family = AF_INET, .sock_addrlen = sizeof(struct sockaddr_in), .l3_addrlen = 32/8, .accept = &listener_accept, .connect = tcp_connect_server, .bind = tcp_bind_listener, .bind_all = tcp_bind_listeners, .unbind_all = unbind_all_listeners, .enable_all = enable_all_listeners, .get_src = tcp_get_src, .get_dst = tcp_get_dst, .drain = tcp_drain, .pause = tcp_pause_listener, .listeners = LIST_HEAD_INIT(proto_tcpv4.listeners), .nb_listeners = 0,};初始化 listener
listener,顾名思义,就是用于负责处理监听相关的逻辑。
在haproxy解析bind配置的时候赋值给listener的proto成员。函数调用流程如下:
cfgparse.c-> cfg_parse_listen-> str2listener-> tcpv4_add_listener-> listener->proto = &proto_tcpv4;
由于这里初始化的是listener处理socket的一些方法。可以推断,haproxy接收client新建连接的入口函数应该是protocol结构体中的accpet方法。对于tcpv4来说,就是listener_accept()函数。
listener的其他初始化
cfgparse.c-> check_config_validity-> listener->accept = session_accept; listener->frontend = curproxy; (解析 frontend 时,会执行赋值: curproxy->accept = frontend_accept) listener->handler = process_session;
整个haproxy配置文件解析完毕,listener也已初始化完毕。可以简单梳理一下几个accept方法的设计逻辑:
stream_sock_accept(): 负责接收新建TCP连接,并触发listener自己的accept方法session_accept()。session_accept(): 负责创建session,并作session成员的初步初始化,并调用frontend的accept方法front_accetp()。frontend_accept(): 该函数主要负责session前端的TCP连接的初始化,包括socket设置,log设置,以及session部分成员的初始化。
下文分析TCP新建连接处理过程,基本上就是这三个函数的分析。
绑定所有已注册协议上的listeners
haproxy.c-> protocol_bind_all-> all registered protocol bind_all-> tcp_bind_listeners (TCP)-> tcp_bind_listener-> [ fdtab[fd].iocb = listener->proto->accept ]
该函数指针指向proto_tcpv4结构体的accept成员,即函数listener_accept。
启用所有已注册协议上的listeners
把所有 listeners 的 fd 加到 polling lists 中 haproxy.c -> protocol_enable_all -> all registered protocol enable_all -> enable_all_listeners (TCP) -> enable_listener 函数会将处于 LI_LISTEN 的 listener 的状态修改为 LI_READY,并调用 cur poller 的 set 方法, 比如使用 sepoll,就会调用 __fd_set.
TCP 连接的处理流程接受新建连接
前面几个方面的分析,主要是为了搞清楚当请求到来时,处理过程中实际的函数调用关系。以下分析TCP建连过程。
haproxy.c-> run_poll_loop-> cur_poller.poll-> _do_poll (如果配置使用的是 sepoll,则调用 ev_sepoll.c 中的 poll 方法)-> fd_process_polled_events-> fdtab[fd].iocb (TCP 协议的该函数指针指向 listener_accept )-> listener_accept-> 按照 global.tune.maxaccept 的设置尽量可能多执行系统调用 accept,然后再调用 l->accept(),即 listener 的 accept 方法 session_accept-> session_accept
session_accept主要完成以下功能:
调用conn_new分配一个connection结构。cli_conn->t.sock.fd = cfd: 系统调用返回的 cfd 记录到连接。cli_conn->addr.from = *addr: 记录ip地址。调用pool_alloc2分配一个session结构。调用task_new分配一个新任务。将新分配的session加入全局sessions链表中。si_attach_conn将si_conn_cb绑定到connection(si_conn_recv_cb和si_conn_send_cb)。conn_attach将sess_conn_cb绑定到connection(全为NULL)。conn_ctrl_init主要是fdtab[fd].iocb = conn_fd_handler。session_complete中的session和task的初始化,若干重要成员的初始化如下:t->process = l->handler:即t->process指向process_session。t->context = s:任务的上下文指向session。s->listener = l:session的listener成员指向当前的listener。s->si[]的初始化,将si_conn_cb绑定connection(si_conn_recv_cb和si_conn_send_cb)。为s->req和s->rep分别分配内存,并作对应的初始化。s->req = pool_alloc2(pool2_buffer)。s->rep = pool_alloc2(pool2_buffer)。从代码上来看,应该是各自独立分配tune.bufsize + sizeof struct buffer大小的内存。初始化s->txn。p->accept执行proxy的accept方法即frontend_accept。设置session结构体的log成员。根据配置的情况,分别设置新建连接套接字的选项,包括TCP_NODELAY/KEEPALIVE/LINGER/SNDBUF/RCVBUF等等。如果mode是http的话,将session的txn成员做相关的设置和初始化。TCP连接上的接收事件
haproxy.c-> run_poll_loop-> cur_poller.poll-> _do_poll (如果配置使用的是 sepoll,则调用 ev_sepoll.c 中的 poll 方法)-> fd_process_polled_events-> fdtab[fd].iocb(fd) (该函数在建连阶段被初始化为四层协议的 read 方法,对于 TCP 协议,为 conn_fd_handler)-> conn_fd_handler-> conn->data->recv(对应si_conn_recv_cb)-> si_conn_recv_cb
si_conn_recv_cb主要完成以下功能:
找到当前连接的读缓冲,即当前 session 的 req buffer:struct channel *chn = si->ib。根据配置,调用splice或者recv读取套接字上的数据,并填充到读缓冲中,即填充到从b->r(初始位置应该就是b->data)开始的内存中。ret = conn->xprt->rcv_pipe(conn, chn->pipe, chn->to_forward); -> raw_sock_to_buf。如果读取到0字节,则意味着接收到对端的关闭请求,调用stream_sock_shutr进行处理。读缓冲标记si->ib->flags的BF_SHUTR置位,清除当前fd的epoll读事件,不再从该fd读取。如果写缓冲si->ob->flags的BF_SHUTW已经置位,说明应该是由本地首先发起的关闭连接动作。将fd从fdset[]中清除,从epoll中移除fd,执行系统调用close(fd),fd.state置位FD_STCLOSE。
*stream interface的状态修改si->state = SI_ST_DIS。唤醒任务task_wakeup,把当前任务加入到run queue中。随后检测runnable tasks时,就会处理该任务。TCP连接上的发送事件
haproxy.c-> run_poll_loop-> cur_poller.poll-> _do_poll (如果配置使用的是 sepoll,则调用 ev_sepoll.c 中的 poll 方法)-> fdtab[fd].iocb(fd) (该函数在建连阶段被初始化为四层协议的 write 方法,对于 TCP 协议,为 conn_fd_handler)-> conn_fd_handler-> conn->data->send(对应si_conn_send_cb)-> si_conn_send_cb
si_conn_send_cb主要完成以下功能:
找到当前连接的写缓冲,即当前session的rep buffer:struct channel *chn = si->ob;。将待发送的数据调用send系统调用发送出去。或者数据已经发送完毕,需要发送关闭连接的动作stream_sock_shutw->系统调用shutdown。唤醒任务task_wakeup,把当前任务加入到run queue中。随后检测runnable tasks时,就会处理该任务。HTTP 请求的处理
haproxy.c-> run_poll_loop-> process_runnable_tasks,查找当前待处理的任务所有 tasks, 然后调用 task->process(大多时候就是 process_session) 进行处理-> process_session
process_session主要完成以下功能:
处理连接需要关闭的情形,分支resync_stream_interface。处理请求,分支resync_request (read event)。根据s->req->analysers的标记位,调用不同的analyser进行处理请求。ana_list & AN_REQ_WAIT_HTTP:http_wait_for_request。ana_list & AN_REQ_HTTP_PROCESS_FE:http_process_req_common。ana_list & AN_REQ_SWITCHING_RULES:process_switching_rules。处理应答,分支resync_response(write event)。根据s->rep->analysers的标记位,调用不同的analyser进行处理请求。ana_list & AN_RES_WAIT_HTTP:http_wait_for_response。ana_list & AN_RES_HTTP_PROCESS_BE:http_process_res_common。处理forward buffer的相关动作。关闭req和rep的buffer,调用pool2_free释放session及其申请的相关内存,包括读写缓冲 (read 0 bytes)。pool_free2(pool2_buffer, s->req);pool_free2(pool2_buffer, s->rep);pool_free2(pool2_session, s);task从运行任务队列中清除,调用pool2_free释放 task申请的内存:task_delete(); task_free();
本文简单分析了TCP连接的处理过程,不侧重细节分析,而且缺少后端server的选择以及建连等,重在希望展示出一个haproxy处理TCP连接的框架。
HTTP请求处理初始化session数据处理相关的设置
建连的处理基本上就是_do_poll->listener_accept->session_accept->fronend_accept()。
其中session_accept()会设置新建fd的io handler。
/* Add the various callbacks. Right now the transport layer is present * but not initialized. Also note we need to be careful as the stream * int is not initialized yet. */conn_prepare(s->si[0].conn, &sess_conn_cb, l->proto, l->xprt, s);fdtab[cfd].owner = s->si[0].conn; /*fd 对应的 owner 为 connection 结构*/fdtab[cfd].iocb = conn_fd_handler;conn_data_want_recv(s->si[0].conn);if (conn_xprt_init(s->si[0].conn) < 0) goto out_free_task;
IPv4 http对应的listener的xprt和proto分别被初始化为
l->xprt = &raw_sock;l->proto = &proto_tcpv4;
conn_prepare()就是将相关数据收发以及连接处理的函数都赋值到connection结构体上:
/* Assigns a connection with the appropriate data, ctrl, transport layers, and owner. */static inline void conn_assign(struct connection *conn, const struct data_cb *data, const struct protocol *ctrl, const struct xprt_ops *xprt, void *owner){ conn->data = data; conn->ctrl = ctrl; conn->xprt = xprt; conn->owner = owner;}/* prepares a connection with the appropriate data, ctrl, transport layers, and * owner. The transport state and context are set to 0. */static inline void conn_prepare(struct connection *conn, const struct data_cb *data, const struct protocol *ctrl, const struct xprt_ops *xprt, void *owner){ conn_assign(conn, data, ctrl, xprt, owner); conn->xprt_st = 0; conn->xprt_ctx = NULL;}
经过初始化,session client端的connection结构体初始化完成:
conn->data指向sess_conn_cb。后面调用session_complete()会被再次赋值。conn->ctrl指向l->proto, IPv4下为proto_tcpv4。conn->xprt执向l->xprt, 不启用SSL时为raw_sock,启用SSL时为ssl_sock。conn->owner指向session。
接着调用session_complete完成建立一个session所需要的最后的初始化工作,其中包含调用frontend_accept,并将当前session对应的task放入runqueue中以待下次执行:
...si_takeover_conn(&s->si[0], l->proto, l->xprt);...t->process = l->handler;...if (p->accept && (ret = p->accept(s)) <= 0) { /* Either we had an unrecoverable error (<0) or work is * finished (=0, eg: monitoring), in both situations, * we can release everything and close. */ goto out_free_rep_buf;}...task_wakeup(t, TASK_WOKEN_INIT);
其中si_takeover_conn完成为si分配连接的处理函数,实现如下:
static inline void si_takeover_conn(struct stream_interface *si, const struct protocol *ctrl, const struct xprt_ops *xprt){ si->ops = &si_conn_ops; conn_assign(si->conn, &si_conn_cb, ctrl, xprt, si);}
si_conn_cb的定义如下:
struct data_cb si_conn_cb = { .recv = si_conn_recv_cb, .send = si_conn_send_cb, .wake = si_conn_wake_cb,};
因此,si->conn->data指向了si_conn_cb。这个结构用在随后的recv/send中。
此外,session所对应的任务task在session_complete的最后通过调用task_wakeup()是在随后的循环中被执行。task的处理函数初始化为l->handler即process_session()。
至此,一个新建session的client fd的io处理函数conn_fd_handler()及session的处理函数process_session()都已经正确初始化好了。
以后基本上就是这两个函数分别负责数据的读取,以及业务的处理。
接收client发送的请求数据
epoll中考虑的新建连接通常会尽可能快的传输数据,因此对于新建的fd,通常会尽快的执行io handler,即调用conn_fd_handler。
是在ev_epoll.c中的_do_poll()中进行:
gettimeofday(&before_poll, NULL);status = epoll_wait(epoll_fd, epoll_events, global.tune.maxpollevents, wait_time);tv_update_date(wait_time, status);measure_idle();/* process polled events */for (count = 0; count < status; count++) { unsigned int n; unsigned int e = epoll_events[count].events; fd = epoll_events[count].data.fd; ... /* Save number of updates to detect creation of new FDs. */ old_updt = fd_nbupdt; fdtab[fd].iocb(fd); ... for (new_updt = fd_nbupdt; new_updt > old_updt; new_updt--) { fd = fd_updt[new_updt - 1]; ... if (fdtab[fd].ev && fdtab[fd].iocb && fdtab[fd].owner) fdtab[fd].iocb(fd); ... }
上面代码中第一处执行iocb()的是由epoll_wait()返回的fd触发的。而第二次的iocb()则就是在前面iocb的执行过程中新建的fd,为了提高效率,则直接调用该fd的iocb(),也 就是conn_fd_handler()函数。
int conn_fd_handler(int fd){ struct connection *conn = fdtab[fd].owner; ... if ((fdtab[fd].ev & (FD_POLL_IN | FD_POLL_HUP | FD_POLL_ERR)) && conn->xprt && !(conn->flags & (CO_FL_WAIT_RD|CO_FL_WAIT_ROOM|CO_FL_ERROR|CO_FL_HANDSHAKE))) { /* force detection of a flag change : it's impossible to have both * CONNECTED and WAIT_CONN so we're certain to trigger a change. */ flags = CO_FL_WAIT_L4_CONN | CO_FL_CONNECTED; conn->data->recv(conn); } ...}
根据的session_complete的初始化,上面代码conn->data->recv指向si_conn_recv_cb()。 该函数就是haproxy中负责接收数据的入口函数。相同的,si_conn_send_cb()就是haproxy中负责发送数据的入口函数。
si_conn_recv_cb()函数简单介绍如下:
if (conn->xprt->rcv_pipe && chn->to_forward >= MIN_SPLICE_FORWARD && chn->flags & CF_KERN_SPLICING) { ... ret = conn->xprt->rcv_pipe(conn, chn->pipe, chn->to_forward); ...}...while (!chn->pipe && !(conn->flags & (CO_FL_ERROR | CO_FL_SOCK_RD_SH | CO_FL_DATA_RD_SH | CO_FL_WAIT_RD | CO_FL_WAIT_ROOM | CO_FL_HANDSHAKE))) { ... ret = conn->xprt->rcv_buf(conn, chn->buf, max); ...}
该函数主要根据数据的接收情况,选择调用xprt的rcv_pipe还是rcv_buf。前面已经分析过,conn->xprt指向了listner的xprt,不启用SSL就是raw_sock数据结构。
因此,数据的接收最终是通过调用raw_sock的raw_sock_to_pipe或/和raw_sock_to_buf完成的。
连接处理过程
haproxy.c-> run_poll_loop 调用 cur_poller.poll, 实际为_do_poll (如果配置使用的是 sepoll,则调用 ev_sepoll.c 中的 poll 方法)--> _do_poll 中监听事件,触发之后根据事件数量依次调用 fd_process_polled_events---> fd_process_polled_events 调用 fdtab[fd].iocb (TCP协议的该函数指针指向listener_accept)----> listener_accept 按照 global.tune.maxaccept 的设置尽量可能多执行系统调用 accept,然后再调用 l->accept(),即 listener 的 accept 方法 session_accept-----> session_accept 调用 session_complete------> session_complete 调用 p->accept 即 frontend_accept-------> frontend_accept 调用完毕后退回到 fd_process_polled_events---> fd_process_polled_events 进入循环判定是否有新的fd加入,有的话调用fd对应的fdtab[fd].iocb(TCP协议的该函数指针指向 conn_fd_handler)----> conn_fd_handler 调用 conn->data->recv(conn) (指向 si_conn_recv_cb)-----> si_conn_recv_cb 调用 conn->xprt->rcv_buf(conn, chn->buf, max) (指向 raw_sock_to_buf)------> raw_sock_to_buf 调用 recv(conn->t.sock.fd, bi_end(buf), try, 0) 接收数据,退回到 conn_fd_handler----> conn_fd_handler 调用 conn->data->wake(conn) (指向 si_conn_wake_cb)-----> si_conn_wake_cb 退回到 run_poll_loop-> run_poll_loop 调用 process_runnable_tasks
标签: #haproxywi