处理网络粘包问题

粘包问题

今天介绍一下如何处理粘包,粘包问题是服务器收发数据常遇到的一个现象,下面我们介绍一下粘包问题是什么,当客户端发送多个数据包给服务器时,服务器底层的tcp接收缓冲区收到的数据为粘连在一起的,如下图所示

https://cdn.llfc.club/9714C5D1A5B9.png

当客户端发送两个Hello World!给服务器,服务器TCP接收缓冲区接收了两次,一次是Hello World!Hello, 第二次是World!。

粘包原因

因为TCP底层通信是面向字节流的,TCP只保证发送数据的准确性和顺序性,字节流以字节为单位,客户端每次发送N个字节给服务端,N取决于当前客户端的发送缓冲区是否有数据,比如发送缓冲区总大小为10个字节,当前有5个字节数据(上次要发送的数据比如’loveu’)未发送完,那么此时只有5个字节空闲空间,我们调用发送接口发送hello world!其实就是只能发送Hello给服务器,那么服务器一次性读取到的数据就很可能是loveuhello。而剩余的world!只能留给下一次发送,下一次服务器接收到的就是world!
如下图
https://cdn.llfc.club/1682251035380.jpg

这是最好理解的粘包问题的产生原因。还有一些其他的原因比如
1   客户端的发送频率远高于服务器的接收频率,就会导致数据在服务器的tcp接收缓冲区滞留形成粘连,比如客户端1s内连续发送了两个hello world!,服务器过了2s才接收数据,那一次性读出两个hello world!。
2   tcp底层的安全和效率机制不允许字节数特别少的小包发送频率过高,tcp会在底层累计数据长度到一定大小才一起发送,比如连续发送1字节的数据要累计到多个字节才发送,可以了解下tcp底层的Nagle算法。
3   再就是我们提到的最简单的情况,发送端缓冲区有上次未发送完的数据或者接收端的缓冲区里有未取出的数据导致数据粘连。

处理粘包

处理粘包的方式主要采用应用层定义收发包格式的方式,这个过程俗称切包处理,常用的协议被称为tlv协议(消息id+消息长度+消息内容),如下图
https://cdn.llfc.club/1683367901552.jpg

为保证大家容易理解,我们先简化发送的格式,格式变为消息长度+消息内容的方式,之后再完善为tlv格式。
简化后的结构如下图
https://cdn.llfc.club/1683368829739.jpg

完善消息节点

之前我们设计过消息节点的数据结构MsgNode,这里需要完善一下.

  1. class MsgNode
  2. {
  3. friend class CSession;
  4. public:
  5. MsgNode(char * msg, short max_len):_total_len(max_len + HEAD_LENGTH),_cur_len(0){
  6. _data = new char[_total_len+1]();
  7. memcpy(_data, &max_len, HEAD_LENGTH);
  8. memcpy(_data+ HEAD_LENGTH, msg, max_len);
  9. _data[_total_len] = '\0';
  10. }
  11. MsgNode(short max_len):_total_len(max_len),_cur_len(0) {
  12. _data = new char[_total_len +1]();
  13. }
  14. ~MsgNode() {
  15. delete[] _data;
  16. }
  17. void Clear() {
  18. ::memset(_data, 0, _total_len);
  19. _cur_len = 0;
  20. }
  21. private:
  22. short _cur_len;
  23. short _total_len;
  24. char* _data;
  25. };

1   两个参数的构造函数做了完善,之前的构造函数通过消息首地址和长度构造节点数据,现在需要在构造节点的同时把长度信息也写入节点,该构造函数主要用来发送数据时构造发送信息的节点。
2   一个参数的构造函数为较上次新增的,主要根据消息的长度构造消息节点,该构造函数主要是接收对端数据时构造接收节点调用的。
3   新增一个Clear函数清除消息节点的数据,主要是避免多次构造节点造成开销。

CSession类完善

为能够对收到的数据切包处理,需要定义一个消息接收节点,一个bool类型的变量表示头部是否解析完成,以及将处理好的头部先缓存起来的结构。

  1. //收到的消息结构
  2. std::shared_ptr<MsgNode> _recv_msg_node;
  3. bool _b_head_parse;
  4. //收到的头部结构
  5. std::shared_ptr<MsgNode> _recv_head_node;

_recv_msg_node用来存储接受的消息体信息
_recv_head_node用来存储接收的头部信息
_b_head_parse表示是否处理完头部信息

同时我们新增一个HEAD_LENGTH变量表示数据包头部的大小,修改原消息最大长度为1024*2

  1. #define MAX_LENGTH 1024*2
  2. #define HEAD_LENGTH 2

完善接收逻辑

我们需要修改HandleRead函数

  1. void CSession::HandleRead(const boost::system::error_code& error, size_t bytes_transferred, std::shared_ptr<CSession> shared_self){
  2. if (!error) {
  3. //已经移动的字符数
  4. int copy_len = 0;
  5. while (bytes_transferred>0) {
  6. if (!_b_head_parse) {
  7. //收到的数据不足头部大小
  8. if (bytes_transferred + _recv_head_node->_cur_len < HEAD_LENGTH) {
  9. memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data+ copy_len, bytes_transferred);
  10. _recv_head_node->_cur_len += bytes_transferred;
  11. ::memset(_data, 0, MAX_LENGTH);
  12. _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
  13. std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
  14. return;
  15. }
  16. //收到的数据比头部多
  17. //头部剩余未复制的长度
  18. int head_remain = HEAD_LENGTH - _recv_head_node->_cur_len;
  19. memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data+copy_len, head_remain);
  20. //更新已处理的data长度和剩余未处理的长度
  21. copy_len += head_remain;
  22. bytes_transferred -= head_remain;
  23. //获取头部数据
  24. short data_len = 0;
  25. memcpy(&data_len, _recv_head_node->_data, HEAD_LENGTH);
  26. cout << "data_len is " << data_len << endl;
  27. //头部长度非法
  28. if (data_len > MAX_LENGTH) {
  29. std::cout << "invalid data length is " << data_len << endl;
  30. _server->ClearSession(_uuid);
  31. return;
  32. }
  33. _recv_msg_node = make_shared<MsgNode>(data_len);
  34. //消息的长度小于头部规定的长度,说明数据未收全,则先将部分消息放到接收节点里
  35. if (bytes_transferred < data_len) {
  36. memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);
  37. _recv_msg_node->_cur_len += bytes_transferred;
  38. ::memset(_data, 0, MAX_LENGTH);
  39. _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
  40. std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
  41. //头部处理完成
  42. _b_head_parse = true;
  43. return;
  44. }
  45. memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, data_len);
  46. _recv_msg_node->_cur_len += data_len;
  47. copy_len += data_len;
  48. bytes_transferred -= data_len;
  49. _recv_msg_node->_data[_recv_msg_node->_total_len] = '\0';
  50. cout << "receive data is " << _recv_msg_node->_data << endl;
  51. //此处可以调用Send发送测试
  52. Send(_recv_msg_node->_data, _recv_msg_node->_total_len);
  53. //继续轮询剩余未处理数据
  54. _b_head_parse = false;
  55. _recv_head_node->Clear();
  56. if (bytes_transferred <= 0) {
  57. ::memset(_data, 0, MAX_LENGTH);
  58. _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
  59. std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
  60. return;
  61. }
  62. continue;
  63. }
  64. //已经处理完头部,处理上次未接受完的消息数据
  65. //接收的数据仍不足剩余未处理的
  66. int remain_msg = _recv_msg_node->_total_len - _recv_msg_node->_cur_len;
  67. if (bytes_transferred < remain_msg) {
  68. memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);
  69. _recv_msg_node->_cur_len += bytes_transferred;
  70. ::memset(_data, 0, MAX_LENGTH);
  71. _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
  72. std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
  73. return;
  74. }
  75. memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, remain_msg);
  76. _recv_msg_node->_cur_len += remain_msg;
  77. bytes_transferred -= remain_msg;
  78. copy_len += remain_msg;
  79. _recv_msg_node->_data[_recv_msg_node->_total_len] = '\0';
  80. cout << "receive data is " << _recv_msg_node->_data << endl;
  81. //此处可以调用Send发送测试
  82. Send(_recv_msg_node->_data, _recv_msg_node->_total_len);
  83. //继续轮询剩余未处理数据
  84. _b_head_parse = false;
  85. _recv_head_node->Clear();
  86. if (bytes_transferred <= 0) {
  87. ::memset(_data, 0, MAX_LENGTH);
  88. _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
  89. std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
  90. return;
  91. }
  92. continue;
  93. }
  94. }
  95. else {
  96. std::cout << "handle read failed, error is " << error.what() << endl;
  97. Close();
  98. _server->ClearSession(_uuid);
  99. }
  100. }

1   copy_len记录的是已经处理过数据的长度,因为存在一次接收多个包的情况,所以copy_len用来做已经处理的数据长度的。
2   首先判断_b_head_parse是否为false,如果为false则说明头部未处理,先判断接收的数据是否小于头部, 如果小于头部大小则将接收到的数据放入_recv_head_node节点保存,然后继续调用读取函数监听对端发送数据。否则进入步骤3.
3   如果收到的数据比头部多,可能是多个逻辑包,所以要做切包处理。根据之前保留在_recv_head_node的长度,计算出剩余未取出的头部长度,然后取出剩余的头部长度保存在_recv_head_node节点,然后通过memcpy方式从节点拷贝出数据写入short类型的data_len里,进而获取消息的长度。接下来继续处理包体,也就是消息体,判断接收到的数据未处理部分的长度和总共要接收的数据长度大小,如果小于总共要接受的长度,说明消息体没接收完,则将未处理部分先写入_recv_msg_node里,并且继续监听读事件。否则说明消息体接收完全,进入步骤4
4   将消息体数据接收到_recv_msg_node中,接受完全后返回给对端。当然存在多个逻辑包粘连,此时要判断bytes_transferred是否小于等于0,如果是说明只有一个逻辑包,我们处理完了,继续监听读事件,就直接返回即可。否则说明有多个数据包粘连,就继续执行上述操作。

5   因为存在_b_head_parse为true,也就是包头接收并处理完的情况,但是包体未接受完,再次触发HandleRead,此时要继续处理上次未接受完的消息体,大体逻辑和3,4一样。
以上就是处理粘包的过程,我们绘制流程图更明了一些

https://cdn.llfc.club/1683373951566.jpg

客户端修改

客户端的发送也要遵循先发送数据2个字节的数据长度,再发送数据消息的结构。
接收时也是先接收两个字节数据获取数据长度,再根据长度接收消息。

  1. int main()
  2. {
  3. try {
  4. //创建上下文服务
  5. boost::asio::io_context ioc;
  6. //构造endpoint
  7. tcp::endpoint remote_ep(address::from_string("127.0.0.1"), 10086);
  8. tcp::socket sock(ioc);
  9. boost::system::error_code error = boost::asio::error::host_not_found; ;
  10. sock.connect(remote_ep, error);
  11. if (error) {
  12. cout << "connect failed, code is " << error.value() << " error msg is " << error.message();
  13. return 0;
  14. }
  15. std::cout << "Enter message: ";
  16. char request[MAX_LENGTH];
  17. std::cin.getline(request, MAX_LENGTH);
  18. size_t request_length = strlen(request);
  19. char send_data[MAX_LENGTH] = { 0 };
  20. memcpy(send_data, &request_length, 2);
  21. memcpy(send_data + 2, request, request_length);
  22. boost::asio::write(sock, boost::asio::buffer(send_data, request_length+2));
  23. char reply_head[HEAD_LENGTH];
  24. size_t reply_length = boost::asio::read(sock,boost::asio::buffer(reply_head, HEAD_LENGTH));
  25. short msglen = 0;
  26. memcpy(&msglen, reply_head, HEAD_LENGTH);
  27. char msg[MAX_LENGTH] = { 0 };
  28. size_t msg_length = boost::asio::read(sock,boost::asio::buffer(msg, msglen));
  29. std::cout << "Reply is: ";
  30. std::cout.write(msg, msglen) << endl;
  31. std::cout << "Reply len is " << msglen;
  32. std::cout << "\n";
  33. }
  34. catch (std::exception& e) {
  35. std::cerr << "Exception: " << e.what() << endl;
  36. }
  37. return 0;
  38. }

服务器启动后,启动客户端,然后客户端发送Hello World,服务器收到后打印如下

https://cdn.llfc.club/1683458311421.jpg

粘包测试

为了测试粘包,需要制造粘包产生的现象,可以让客户端发送的频率高一些,服务器接收的频率低一些,这样造成前后端收发数据不一致导致多个数据包在服务器tcp缓冲区滞留产生粘包现象。
测试粘包之前,在服务器的CSession类里添加打印二进制数据的函数,便于查看缓冲区的数据

  1. void CSession::PrintRecvData(char* data, int length) {
  2. stringstream ss;
  3. string result = "0x";
  4. for (int i = 0; i < length; i++) {
  5. string hexstr;
  6. ss << hex << std::setw(2) << std::setfill('0') << int(data[i]) << endl;
  7. ss >> hexstr;
  8. result += hexstr;
  9. }
  10. std::cout << "receive raw data is : " << result << endl;;
  11. }

然后将这个函数放到HandleRead里,每次收到数据就调用这个函数打印接收到的最原始的数据,然后睡眠2秒再进行收发操作,用来延迟接收对端数据制造粘包,之后的逻辑不变

  1. void CSession::HandleRead(const boost::system::error_code& error, size_t bytes_transferred, std::shared_ptr<CSession> shared_self){
  2. if (!error) {
  3. PrintRecvData(_data, bytes_transferred);
  4. std::chrono::milliseconds dura(2000);
  5. std::this_thread::sleep_for(dura);
  6. }
  7. }

修改客户端逻辑,实现收发分离。

  1. int main()
  2. {
  3. try {
  4. //创建上下文服务
  5. boost::asio::io_context ioc;
  6. //构造endpoint
  7. tcp::endpoint remote_ep(address::from_string("127.0.0.1"), 10086);
  8. tcp::socket sock(ioc);
  9. boost::system::error_code error = boost::asio::error::host_not_found; ;
  10. sock.connect(remote_ep, error);
  11. if (error) {
  12. cout << "connect failed, code is " << error.value() << " error msg is " << error.message();
  13. return 0;
  14. }
  15. thread send_thread([&sock] {
  16. for (;;) {
  17. this_thread::sleep_for(std::chrono::milliseconds(2));
  18. const char* request = "hello world!";
  19. size_t request_length = strlen(request);
  20. char send_data[MAX_LENGTH] = { 0 };
  21. memcpy(send_data, &request_length, 2);
  22. memcpy(send_data + 2, request, request_length);
  23. boost::asio::write(sock, boost::asio::buffer(send_data, request_length + 2));
  24. }
  25. });
  26. thread recv_thread([&sock] {
  27. for (;;) {
  28. this_thread::sleep_for(std::chrono::milliseconds(2));
  29. cout << "begin to receive..." << endl;
  30. char reply_head[HEAD_LENGTH];
  31. size_t reply_length = boost::asio::read(sock, boost::asio::buffer(reply_head, HEAD_LENGTH));
  32. short msglen = 0;
  33. memcpy(&msglen, reply_head, HEAD_LENGTH);
  34. char msg[MAX_LENGTH] = { 0 };
  35. size_t msg_length = boost::asio::read(sock, boost::asio::buffer(msg, msglen));
  36. std::cout << "Reply is: ";
  37. std::cout.write(msg, msglen) << endl;
  38. std::cout << "Reply len is " << msglen;
  39. std::cout << "\n";
  40. }
  41. });
  42. send_thread.join();
  43. recv_thread.join();
  44. }
  45. catch (std::exception& e) {
  46. std::cerr << "Exception: " << e.what() << endl;
  47. }
  48. return 0;
  49. }

再次启动服务器和客户端,看到粘包现象了,我们的服务器也能稳定切割数据包并返回正确的消息给客户端。
可以看到服务器收到了大量数据,然后准确切割返回给了客户端。如下图。

https://cdn.llfc.club/1683460029221.jpg

总结

该服务虽然实现了粘包处理,但是服务器仍存在不足,比如当客户端和服务器处于不同平台时收发数据会出现异常,根本原因是未处理大小端模式的问题,这个留给下节处理。
源码链接https://gitee.com/secondtonone1/boostasio-learn

热门评论
  • zyouth
    2024-10-14 15:23:25

     //消息的长度小于头部规定的长度,说明数据未收全,则先将部分消息放到接收节点里
    if (bytes_transferred < data_len) {
    memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);
    _recv_msg_node->_cur_len += bytes_transferred;
    ::memset(_data, 0, MAX_LENGTH);
    _socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),
    std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));
    //头部处理完成
    _b_head_parse = true;
    return;
    }

    把_b_head_parse = true;放在_socket.async_read_some前面是不是更好

  • 夏黎辰
    2024-10-08 17:19:16

    切包之前代码少,回调函数里error_code不加const也可以,切包之后代码多了直接给我报了一堆错误,加上const就好了,吓我一跳😑

  • Chellin
    2024-09-26 00:07:10

    请问一下这个冗长的handleread最后有一个Close()函数,但我即不知道他是哪个类下的,也不知道他是什么作用.客户端连接发送信息之后服务器端立马报错:引发了异常: 读取访问权限冲突。 std::shared_ptr::operator->(...) 返回 nullptr。 报错代码是这一行int remain_msg = _recv_msg_node->_total_len - _recv_msg_node->_cur_len; 因为不知道close函数体所以我把它注释了跑成这样的,想知道是不是他的问题

  • DarkFlameMaster
    2024-07-08 23:18:48

    我的Client这个程序老是老是报这个错:CRT detected that the application wrote to memory after end of heap buffer. 直接复制源码跑也是这样

热门文章

  1. C++ 类的继承封装和多态

    喜欢(588) 浏览(4233)
  2. slice介绍和使用

    喜欢(521) 浏览(2205)
  3. Linux环境搭建和编码

    喜欢(594) 浏览(9695)
  4. windows环境搭建和vscode配置

    喜欢(587) 浏览(2277)
  5. 解密定时器的实现细节

    喜欢(566) 浏览(2998)

最新评论

  1. asio多线程模型IOServicePool Lion:线程池一定要继承单例模式吗
  2. 泛型算法的定制操作 secondtonone1:lambda和bind是C11新增的利器,善于利用这两个机制可以极大地提升编程安全性和效率。
  3. 类和对象 陈宇航:支持!!!!
  4. C++ 虚函数表原理和类成员内存分布 WangQi888888:class Test{ int m; int b; }中b成员是int,为什么在内存中只占了1个字节。不应该是4个字节吗?是不是int应该改为char。这样的话就会符合图上说明的情况
  5. 解决博客回复区被脚本注入的问题 secondtonone1:走到现在我忽然明白一个道理,无论工作也好生活也罢,最重要的是开心,即使一份安稳的工作不能给我带来事业上的积累也要合理的舍弃,所以我还是想去做喜欢的方向。

个人公众号

个人微信