来源:PromisE_谢-博客园
链接: #
sysctlnet.core.wmem_default#
sysctlnet.core.wmem_max#
已经发送到网络的数据依然需要暂存在sendbuffer中,只有收到对方的ack后,kernel才从buffer中清除这一部分数据,为后续发送数据腾出空间。接收端将收到的数据暂存在receivebuffer中,自动进行确认。但如果socket所在的进程不及时将数据从receivebuffer中取出,最终导致receivebuffer填满,由于TCP的滑动窗口和拥塞控制,接收端会阻止发送端向其发送数据。这些控制皆发生在TCP/IP栈中,对应用程序是透明的,应用程序继续发送数据,最终导致sendbuffer填满,write调用阻塞。
一般来说,由于接收端进程从socket读数据的速度跟不上发送端进程向socket写数据的速度,最终导致发送端write调用阻塞。
而read调用的行为相对容易理解,从socket的receivebuffer中拷贝数据到应用程序的buffer中。read调用阻塞,通常是发送端的数据没有到达。
二、blocking(默认)和nonblock模式下read/write行为的区别:
将socketfd设置为nonblock(非阻塞)是在服务器编程中常见的做法,采用blockingIO并为每一个client创建一个线程的模式开销巨大且可扩展性不佳(带来大量的切换开销),更为通用的做法是采用线程池+NonblockI/O+Multiplexing(select/poll,以及Linux上特有的epoll)。
//设置一个文件描述符为nonblock
intset_nonblocking(intfd)
{
intflags;
if((flags=fcntl(fd,F_GETFL,0))==-1)
flags=0;
returnfcntl(fd,F_SETFL,flags
O_NONBLOCK);
}
几个重要的结论:
1、read总是在接收缓冲区有数据时立即返回,而不是等到给定的readbuffer填满时返回。
只有当receivebuffer为空时,blocking模式才会等待,而nonblock模式下会立即返回-1(errno=EAGAIN或EWOULDBLOCK)
2、blocking的write只有在缓冲区足以放下整个buffer时才返回(与blockingread并不相同)
nonblockwrite则是返回能够放下的字节数,之后调用则返回-1(errno=EAGAIN或EWOULDBLOCK)
对于blocking的write有个特例:当write正阻塞等待时对面关闭了socket,则write则会立即将剩余缓冲区填满并返回所写的字节数,再次调用则write失败(connectionresetbypeer),这正是下个小节要提到的:
三、read/write对连接异常的反馈行为:
对应用程序来说,与另一进程的TCP通信其实是完全异步的过程:
1、我并不知道对面什么时候、能否收到我的数据
2、我不知道什么时候能够收到对面的数据
3、我不知道什么时候通信结束(主动退出或是异常退出、机器故障、网络故障等等)
对于1和2,采用write()-read()-write()-read()-…的序列,通过blockingread或者nonblockread+轮询的方式,应用程序基于可以保证正确的处理流程。
对于3,kernel将这些事件的“通知”通过read/write的结果返回给应用层。
假设A机器上的一个进程a正在和B机器上的进程b通信:某一时刻a正阻塞在socket的read调用上(或者在nonblock下轮询socket)
当b进程终止时,无论应用程序是否显式关闭了socket(OS会负责在进程结束时关闭所有的文件描述符,对于socket,则会发送一个FIN包到对面)。
”同步通知“:进程a对已经收到FIN的socket调用read,如果已经读完了receivebuffer的剩余字节,则会返回EOF:0
”异步通知“:如果进程a正阻塞在read调用上(前面已经提到,此时receivebuffer一定为空,因为read在receivebuffer有内容时就会返回),则read调用立即返回EOF,进程a被唤醒。
socket在收到FIN后,虽然调用read会返回EOF,但进程a依然可以其调用write,因为根据TCP协议,收到对方的FIN包只意味着对方不会再发送任何消息。在一个双方正常关闭的流程中,收到FIN包的一端将剩余数据发送给对面(通过一次或多次write),然后关闭socket。
但是事情远远没有想象中简单。优雅地(gracefully)关闭一个TCP连接,不仅仅需要双方的应用程序遵守约定,中间还不能出任何差错。
假如b进程是异常终止的,发送FIN包是OS代劳的,b进程已经不复存在,当机器再次收到该socket的消息时,会回应RST(因为拥有该socket的进程已经终止)。a进程对收到RST的socket调用write时,操作系统会给a进程发送SIGPIPE,默认处理动作是终止进程,知道你的进程为什么毫无征兆地死亡了吧:)
from《UnixNetworkprogramming,vol1》3rdEdition:
“ItisokaytowritetoasocketthathasreceivedaFIN,butitisanerrortowritetoasocketthathasreceivedanRST.”
通过以上的叙述,内核通过socket的read/write将双方的连接异常通知到应用层,虽然很不直观,似乎也够用。
这里说一句题外话:
不知道有没有同学会和我有一样的感慨:在写TCP/IP通信时,似乎没怎么考虑连接的终止或错误,只是在read/write错误返回时关闭socket,程序似乎也能正常运行,但某些情况下总是会出奇怪的问题。想完美处理各种错误,却发现怎么也做不对。
原因之一是:socket(或者说TCP/IP栈本身)对错误的反馈能力是有限的。
考虑这样的错误情况:
不同于b进程退出(此时OS会负责为所有打开的socket发送FIN包),当B机器的OS崩溃(注意不同于人为关机,因为关机时所有进程的退出动作依然能够得到保证)/主机断电/网络不可达时,a进程根本不会收到FIN包作为连接终止的提示。
如果a进程阻塞在read上,那么结果只能是永远的等待。
如果a进程先write然后阻塞在read,由于收不到B机器TCP/IP栈的ack,TCP会持续重传12次(时间跨度大约为9分钟),然后在阻塞的read调用上返回错误:ETIMEDOUT/EHOSTUNREACH/ENETUNREACH
假如B机器恰好在某个时候恢复和A机器的通路,并收到a某个重传的pack,因为不能识别所以会返回一个RST,此时a进程上阻塞的read调用会返回错误ECONNREST
恩,socket对这些错误还是有一定的反馈能力的,前提是在对面不可达时你依然做了一次write调用,而不是轮询或是阻塞在read上,那么总是会在重传的周期内检测出错误。如果没有那次write调用,应用层永远不会收到连接错误的通知。
write的错误最终通过read来通知应用层,有点阴差阳错?
四、还需要做什么?
至此,我们知道了仅仅通过read/write来检测异常情况是不靠谱的,还需要一些额外的工作:
1、使用TCP的KEEPALIVE功能?
cat/proc/sys/net/ipv4/tcp_keepalive_time
cat/proc/sys/net/ipv4/tcp_keepalive_intvl
75
cat/proc/sys/net/ipv4/tcp_keepalive_probes
9
以上参数的大致意思是:keepaliveroutine每2小时(秒)启动一次,发送第一个probe(探测包),如果在75秒内没有收到对方应答则重发probe,当连续9个probe没有被应答时,认为连接已断。(此时read调用应该能够返回错误,待测试)
但在我印象中keepalive不太好用,默认的时间间隔太长,又是整个TCP/IP栈的全局参数:修改会影响其他进程,Linux的下似乎可以修改persocket的keepalive参数?(希望有使用经验的人能够指点一下),但是这些方法不是portable的。
2、进行应用层的心跳
严格的网络程序中,应用层的心跳协议是必不可少的。虽然比TCP自带的keepalive要麻烦不少(怎样正确地实现应用层的心跳,我或许会用一篇专门的文章来谈一谈),但有其最大的优点:可控。
当然,也可以简单一点,针对连接做timeout,关闭一段时间没有通信的”空闲“连接。这里可以参考一篇文章:
Muduo网络编程示例之八:Timingwheel踢掉空闲连接by陈硕
参考资料:
《TCP/IPIllustrated,vol1》byRichardStevens
《UnixNetworkProgramming,vol1》(3rdEdition)byRichardStevens
LinuxTCPtuning
UsingTCPkeepaliveunderLinux
●本文编号,以后想阅读这篇文章直接输入即可。
●本文分类“网络编程”,搜索分类名可以获得相关文章。
●输入m可以获取到文章目录
本文内容的相关治白癜风去哪里治白癜风治疗多少钱