首页 > 技术文章 > 一种基于Qt的可伸缩的全异步C/S架构server实现(五) 单层无中心集群

mfmdaoyou 2017-05-21 16:52 原文

五、单层无中心集群

对40万用户规模以内的server。使用星形的无中心连接是较为简便的实现方式。分布在各个物理server上的服务进程共同工作。每一个进程承担若干连接。为了实现这个功能,须要解决几个关键问题。

5.1、跨server传输通道

        设计在快速局域网中的连接可直接採用TCP,并用第二章介绍的网络传输工具、第三章介绍的流水线线程池共同搭建。引用上述两个工具的代码在cluster子目录的   zp_clusterterm.h中定义:

      

		ZPNetwork::zp_net_Engine * m_pClusterNet;
		ZPTaskEngine::zp_pipeline * m_pClusterEng;

        server在专用的集群网络中监听。须要參数例如以下:

       1、监听的地址、port

       2、本节点唯一名称

       3、对server集群内其它节点公布的连接port、地址

       4、对公网client公布的连接port、地址。

      比方,server快速局域网网段可能是 10.129.XX.XX,而有些server可能以虚拟机(192.168.11.XX)+NAT(10.129.XX.XX)的方式在内网的子网中映射,因此。须要告诉别的server节点,怎样连接到自己。

同一时候。对公网client来说。每一个server的连接地址又不同了。非常有可能也是通过NAT的方式,把数十个内网IP映射到一个外网出口的连续port上去。这个策略的配置页面例如以下:


      集群的连接策略是,新的server进程选取随意一个现有节点,连接后。通过集群内广播系统自己主动接收其他各个节点的地址。并继续发起连接,直到与现有节点两两相通为止。  

     为了支持这个策略,集群传输须要定义一些指令。

5.1.1 集群指令

     集群指令在 cluster 目录的cross_svr_message.h 定义:

 

#ifndef CROSS_SVR_MESSAGES_H
#define CROSS_SVR_MESSAGES_H
#include <qglobal.h>
namespace ZP_Cluster{
#pragma  pack (push,1)
	typedef struct tag_cross_svr_message{
		struct tag_header{
			quint16 Mark;    //Always be 0x1234
			quint8 messagetype;
			quint32 data_length;
		}  hearder;
		union uni_payload{
			quint8 data[1];
			struct tag_CSM_heartBeating{
				quint32 nClients;
			} heartBeating;
			struct tag_CSM_BasicInfo{
				quint8 name [64];
				quint8 Address_LAN[64];
				quint16 port_LAN;
				quint8 Address_Pub[64];
				quint16 port_Pub;
			} basicInfo;
			struct tag_CSM_Broadcast{
				quint8 name [64];
				quint8 Address_LAN[64];
				quint16 port_LAN;
				quint8 Address_Pub[64];
				quint16 port_Pub;
			} broadcastMsg[1];
		} payload;
	} CROSS_SVR_MSG;

#pragma pack(pop)
}

#endif // CROSS_SVR_MESSAGES_H
指令由头部、载荷两部分组成。

头部header说明:

Mark是一个固定的起始,用于验证流解译的正确性。假设流解译不对,第二块指令的起始将不是这个值。

messagetype 是一个用来标定指令类型的字节,决定了载荷联合体该採用哪个策略解译

data_length是长度。这里代表载荷的长度

载荷 payload说明:

有三种指令结构体, 心跳结构体用来维持各个server之间的心跳,基本信息(basicInfo)用于在连接建立后,向对方告知本节点的信息。

广播结构体是用于在本机的server列表发生变更时,向全部现有节点广播新的列表。

对传输的用户数据,直接存储在data中。


5.1.2 连接流程

第一步,准备增加集群的server选取集群中任一个节点作为对象,发起P2P连接。

第二步,两方互换信息(basicInfo)

第三步。两方将对方的信息加入到本地的server节点表中。server节点表是一群zp_ClusterNode类的实例,该类由ZPTaskEngine::zp_plTaskBase派生。这个基类在第三章有介绍。server节点对象的实例负责详细的指令解译。

该列表例如以下(在cluster子目录的   zp_clusterterm.h中定义):

		//important hashes. server name to socket, socket to server name
		QMutex m_hash_mutex;
		QMap<QString , zp_ClusterNode *> m_hash_Name2node;
		QMap<QObject *,zp_ClusterNode *> m_hash_sock2node;

节点的指针存放在映射中,一个是名称到对象的映射,一个是套接字到对象的映射

第四步,因为节点表发生变化。因此。会触发对现有节点的广播(broadCasting)

第五步,各个节点收到广播后。会比較广播中的节点信息和自己眼下的节点信息,并发起向新增节点的连接。

终于,当一对一连接完毕,系统又一次处于稳定状态。解译这段信息的代码片段在中cluster目录zp_clusternode.cpp的deal_current_message_block方法中实现:

		switch(m_currentHeader.messagetype)
		{
                \\...
		case 0x01://basicInfo, when connection established, this message should be used

			if (bytesLeft==0)
			{
				QString strName ((const char *)pMsg->payload.basicInfo.name);
				if (strName != m_pTerm->name())
				{
					this->m_strTermName = strName;
					m_nPortLAN = pMsg->payload.basicInfo.port_LAN;
					m_addrLAN = QHostAddress((const char *)pMsg->payload.basicInfo.Address_LAN);
					m_nPortPub = pMsg->payload.basicInfo.port_Pub;
					m_addrPub = QHostAddress((const char *)pMsg->payload.basicInfo.Address_Pub);
					if (false==m_pTerm->regisitNewServer(this))
					{
						this->m_strTermName.clear();
						emit evt_Message(this,tr("Info: New Svr already regisited. Ignored.")+strName);
						emit evt_close_client(this->sock());
					}
					else
					{
						emit evt_NewSvrConnected(this->termName());
						m_pTerm->BroadcastServers();
					}
				}
				else
				{
					emit evt_Message(this,tr("Can not connect to it-self, Loopback connections is forbidden."));
					emit evt_close_client(this->sock());
				}
			}
			break;
		case 0x02: //Server - broadcast messages

			if (bytesLeft==0)
			{
				int nSvrs = pMsg->hearder.data_length / sizeof(CROSS_SVR_MSG::uni_payload::tag_CSM_Broadcast);
				for (int i=0;i<nSvrs;i++)
				{
					QString strName ((const char *)pMsg->payload.broadcastMsg[i].name);
					if (strName != m_pTerm->name() && m_pTerm->SvrNodeFromName(strName)==NULL)
					{
						QHostAddress addrToConnectTo((const char *)pMsg->payload.broadcastMsg[i].Address_LAN);
						quint16 PortToConnectTo = pMsg->payload.broadcastMsg[i].port_LAN;
						
						if (strName > m_pTerm->name())
							emit evt_connect_to(addrToConnectTo,PortToConnectTo,false);
						else
							emit evt_Message(this,tr("Name %1 <= %2, omitted.").arg(strName).arg(m_pTerm->name()));
					}
				}
			}
			break;
                     ...


5.2 流式解析

TCP 是面向连接的流式传输。对用户发送的一个大数据包,尽管保证收发的完整性,旦接收方每次接收的数据片段长度是有限的,也是不定的。

一种简单的思路是依照指令结构体的长度。直接缓存完整的数据包,而后集中处理。这样有一个问题,在数据包非常大时。内存开销过高。

因此,本应用设计的思路是边接收、边处理。

详细步骤:

1、检查收到的头部是否合法

2、存储当前指令的头部

3、一旦得到一段载荷数据。就回调一次处理过程,处理过程依据需求等待很多其它数据,或者处理完后清空缓存。这对一次传输100MB数据的应用是非常关键的。流式处理须要完毕的步骤关键代码例如以下:

5.2.1  数据接收

在 zp_ClusterTerm的接收槽里。直接把数据片段压入zp_ClusterNode对象的队列中,并压入流水线。

	//some data arrival
	void  zp_ClusterTerm::on_evt_Data_recieved(QObject *  clientHandle,QByteArray  datablock )
	{
		//Push Clients to nodes if it is not exist
		zp_ClusterNode * pClientNode = ...;
		int nblocks =  pClientNode->push_new_data(datablock);
		if (nblocks<=1)
			m_pClusterEng->pushTask(pClientNode);
                //...
	}

oushTask方法把Block压入zp_ClusterNode的处理队列m_list_Rawdata里,这部分的状态变量例如以下:

	class zp_ClusterNode : public ZPTaskEngine::zp_plTaskBase
	{
		//.....
		//Data Process
		//The raw data queue and its mutex
		QList<QByteArray> m_list_RawData;
		QMutex m_mutex_rawData;

		//The current Read Offset, from m_list_RawData's beginning
		int m_currentReadOffset;
		//Current Message Offset, according to m_currentHeader
		int m_currentMessageSize;

		//Current un-procssed message block.for large blocks,
		//this array will be re-setted as soon as some part of data has been
		//dealed, eg, send a 200MB block, the 200MB data will be splitted into pieces
		QByteArray m_currentBlock;

		CROSS_SVR_MSG::tag_header m_currentHeader;

		//...		
	};

变量 m_currentReadOffset 指的是队列的首部元素已经处理的偏移。比方首部的Block有2341字节。处理了1099字节,本指令已经结束,则此值为1099

变量 m_currentMessageSize 指的是当前接收的信息的大小。比方100MB 的信息。接受了23MB,这个值就是23MB

变量 m_currentBlock 是当前的缓存。这个缓存会不断的递交处理,负责处理的程序能够依据情况适时清空它。对短指令,不清也是能够的。

变量 m_currentHeader 是当前的信息头部,这个值记录了当前结构体的首部信息。

5.2.2 数据处理

在线程池中,会调用 zp_ClusterNode::run 虚拟方法。这种方法的关键代码例如以下(实际代码由于有线程同步,要复杂一些):

	int zp_ClusterNode::run()
	{
		//nMessageBlockSize 是静态变量。表示最多处理几个块就释放CPU给其它节点
		int nMessage = m_nMessageBlockSize;
		int nCurrSz = -1;
		while (--nMessage>=0 && nCurrSz!=0  )
		{
			QByteArray block;			
			block =  *m_list_RawData.begin();			
			m_currentReadOffset = filter_message(block,m_currentReadOffset);
			if (m_currentReadOffset >= block.size())
			{
				m_list_RawData.pop_front();
				m_currentReadOffset = 0;
			}
			nCurrSz = m_list_RawData.size();
		}
		if (nCurrSz==0)
			return 0;
		return -1;
	}

当中,filter_message 是对信息进行初步处理。输入当前队列的首部、处理偏移,返回新的处理偏移

这种方法的关键代码例如以下:

	//!deal one message, affect m_currentRedOffset,m_currentMessageSize,m_currentHeader
	//!return bytes Used.
	int zp_ClusterNode::filter_message(QByteArray  block, int offset)
	{
		const int blocklen = block.length();
		while (blocklen>offset)
		{
			const char * dataptr = block.constData();

			//先确保信息的头标志被接收
			while (m_currentMessageSize<2 && blocklen>offset )
			{
				m_currentBlock.push_back(dataptr[offset++]);
				m_currentMessageSize++;
			}
			if (m_currentMessageSize < 2) //First 2 byte not complete
				continue;

			if (m_currentMessageSize==2)
			{
				const char * headerptr = m_currentBlock.constData();
				memcpy((void *)&m_currentHeader,headerptr,2);
			}

			const char * ptrCurrData = m_currentBlock.constData();
			//推断头2个字节是不是1234
			if (m_currentHeader.Mark == 0x1234)
				//Valid Message
			{
				//试图接收完整的头部信息
				if (m_currentMessageSize< sizeof(CROSS_SVR_MSG::tag_header) && blocklen>offset)
				{
					int nCpy = sizeof(CROSS_SVR_MSG::tag_header) - m_currentMessageSize;
					if (nCpy > blocklen - offset)
						nCpy = blocklen - offset;
					QByteArray arrCpy(dataptr+offset,nCpy);
					m_currentBlock.push_back(arrCpy);
					offset += nCpy;
					m_currentMessageSize += nCpy;
				}
				//假设头部还没收完则返回
				if (m_currentMessageSize < sizeof(CROSS_SVR_MSG::tag_header)) //Header not completed.
					continue;
				//除了头部以外,还有数据可用,而且头部刚刚接收完
				else if (m_currentMessageSize == sizeof(CROSS_SVR_MSG::tag_header))//Header just  completed.
				{
					//保存头部
					const char * headerptr = m_currentBlock.constData();
					memcpy((void *)&m_currentHeader,headerptr,sizeof(CROSS_SVR_MSG::tag_header));

					//继续处理兴许的载荷
					if (block.length()>offset)
					{
						//确定还有多少字节没有接收
						qint32 bitLeft = m_currentHeader.data_length + sizeof(CROSS_SVR_MSG::tag_header)
								-m_currentMessageSize ;
						//继续接收载荷
						if (bitLeft>0 && blocklen>offset)
						{
							int nCpy = bitLeft;
							if (nCpy > blocklen - offset)
								nCpy = blocklen - offset;
							QByteArray arrCpy(dataptr+offset,nCpy);
							m_currentBlock.push_back(arrCpy);
							offset += nCpy;
							m_currentMessageSize += nCpy;
							bitLeft -= nCpy;
						}
						//处理一次数据
						deal_current_message_block();
						if (bitLeft>0)
							continue;
						//This Message is Over. Start a new one.
						m_currentMessageSize = 0;
						m_currentBlock = QByteArray();
						continue;
					}
				}
				//除了头部以外,还有数据可用
				else
				{
						
					if (block.length()>offset)
					{
						//确定还有多少字节没有接收
						qint32 bitLeft = m_currentHeader.data_length + sizeof(CROSS_SVR_MSG::tag_header)
								-m_currentMessageSize ;
						//继续接收载荷
						if (bitLeft>0 && blocklen>offset)
						{
							int nCpy = bitLeft;
							if (nCpy > blocklen - offset)
								nCpy = blocklen - offset;
							QByteArray arrCpy(dataptr+offset,nCpy);
							m_currentBlock.push_back(arrCpy);
							offset += nCpy;
							m_currentMessageSize += nCpy;
							bitLeft -= nCpy;
						}
						//deal block, may be processed as soon as possible;
						deal_current_message_block();
						if (bitLeft>0)
							continue;
						//This Message is Over. Start a new one.
						m_currentMessageSize = 0;
						m_currentBlock = QByteArray();
						continue;
					}
				} // end if there is more bytes to append
			} //end deal trans message
			else
			  //...
		} // end while block len > offset

		return offset;
	}

在处理当前块数据的方法 deal_current_message_block里。就可以逐一推断消息类型,加以处理了。


5.3 集群模块外部接口

         集群模块仅仅负责在server之间建立连接,并提供一套传输用户数据的通路。

在集群建立连接后。用户直接通过

 

	void zp_ClusterTerm::SendDataToRemoteServer(QString  svrName,QByteArray  SourceArray)
	{
		int nMsgLen = sizeof(CROSS_SVR_MSG::tag_header) +  SourceArray.size();
		QByteArray array(nMsgLen,0);
		CROSS_SVR_MSG * pMsg =(CROSS_SVR_MSG *) array.data();
		pMsg->hearder.Mark = 0x1234;
		pMsg->hearder.data_length = SourceArray.size();
		pMsg->hearder.messagetype = 0x03;
		memcpy (pMsg->payload.data,SourceArray.constData(),SourceArray.size());
		m_hash_mutex.lock();
		if (m_hash_Name2node.contains(svrName))
			netEng()->SendDataToClient(m_hash_Name2node[svrName]->sock(),array);
		m_hash_mutex.unlock();
	}

向server svrName发送 SourceArray, 并响应

void evt_RemoteData_recieved(QString /*svrHandle*/,QByteArray  /*svrHandle*/ );

信号来接收数据。

用户不用关心传输协议的封装和解析。

     可是,下面问题是不涉及的。

     1、传输的数据的详细意义解释

     2、全局client的UUID哈希和同步

     3、client数据是否被真正接收。

     这些部分留给应用相关部分来详细实现。

推荐阅读