聊天系统中的用户列表并发问题分析

1.问题描写叙述

上周末一个做视频直播的朋友向我咨询他们遇到的一个关于大量内存对象并发的问题。详细问题描写叙述是这种。在游戏视频直播的时候,须要向观看直播的人提供一个能够自由聊天的功能(相当于QQ群),这就要涉及到在server端实现一个管理用户列表的功能,这个用户列表可能非常大(最大能够容纳300万人观看和聊天)。他们的做法是在后端服务分为两层,如图:

图-1
gate用来做client连接和消息分发的服务。chat是用来做用户认、管理和消息转发。

那么须要在chat上维护一下用户

列表。他们遇到的问题就是当用户列表比較大的情况下,chat的处理能力急剧下降。我具体询问了他关于用户列表维
护的数据结构和并发控制,初步定位到了问题所在。



2.问题分析

我们先来分析一下他们的实现,他们採用的是C++和STL,熟悉C++/STL的朋友非常快就会想到使用std::map 来实现管理。对的,这正是他们的思路,以下是他们实现的简单描写叙述:
class user{
public:
	uint64_t	user_id;
	/*todo:用户信息基本信息*/
pthread_mutex_t mutex;		/*用于保护user的多线程并发*/
}

std::map<uint64_t, user*> user_map;
pthread_mutex_t	user_map_mutex; /*多线程操作时保护user_map*/

对map管理的用户列表须要提供增、删、改、查和遍历。比如向某一个用户进行操作:

LOCK(user_map_mutex);
std::map<uint64_t, user*>::iterator it = user_map.find(id);
if(it != user_map.end()){
UNLOCK(user_map_mutex);

	LOCK(it->second->mutex);
	operator(it->second); /*可能时间比較长。可能是发送网络报文、信息写盘、RPC调用等*/
	UNLOCK((it->second->mutex);
}
else
UNLOCK(user_map_mutex);


其它操作类似。这个实现有几个严重的并发问题:

1.每次操作都须要对user_map进行LOCK

                2.每次对某个用户操作都须要对用户LOCK

                3.每次对用户操作的函数可能时间会比較长,比如socket发包、RPC调用等。



3.user并发竞争优化

因为chat是个单点多线程并发系统,在网络事件多的情况下。会发生大量的线程锁竞争问题。最为明显的就是第二三个问题。事实上这两个是一个问题。

解决这个我们仅仅要把user中的mutex去掉就可以。怎么去?我的想法是採用user对象引用计数来实现。

比如:

class user{
public:
	string	user_id;
	/*其它的一些用户信息*/
	Int ref;	/*引用计数为0时,free掉这个对象*/
}
 void add_ref(user* u){
	u->ref ++;
}
void release_ref(user* u){
	u->ref --;
	if(u->ref <= 0) delete u;
}

引用计数的操作规则:

在用户信息增加用户列表的时候,add_ref

在用户从用户列表中删除的时候,release_ref

在用户信息被引用的时候,add_ref

在用户信息引用完成的时候。release_ref

那么对某个用户的操作就会变成:

LOCK(user_map_mutex);
std::map<uint64_t, user*>::iterator it = user_map.find(id);
if(it != user_map.end()){
	user* u = it->second;
	add_ref(u);
	UNLOCK(user_map_mutex);

	operator(it->second); /*有可能时间比較长*/
	release_ref(u);
}
else
	UNLOCK(user_map_mutex);
User对象引用计数非常好的解决的User加锁的问题,但引用计数的引入了一个新的问题就是在多个线程同一时候改动某一个用户信息时,会引发数据无法保护的问题。我们处理里这个问题非常easy。无论是添加操作、改动操作和删除操作,都遵循先必须将user_map中已存在的相应的user信息从map中删除。再做信息新增。比如改动操作:
LOCK(user_map_mutex);
std::map<uint64_t, user*>::iterator it = user_map.find(id);
if(it != user_map.end()){
/*将旧的信息拷贝出来*/
	user* u =it->second;
	user_map.erase(it);
	copy(update_u, u);
	release_ref(u);	   /*解除引用*/

	update(update_u); /*改动用户数据*/
	Add_ref(update_u);
	user_map.insert(update_u);
UNLOCK(user_map_mutex);
	
}
else
	UNLOCK(user_map_mutex);
添加和删除的实现类似。

对象引用计数非常好的解决的用户数据锁竞争的问题,但在user_map的用户数小于1万下面,使用引用计数能够把增删改查操作的并发问题避免掉。不能解决全map扫描并发问题,也不能解决在user_map非常大时大量须要操作用户信息的并发问题。问题出在无论是全map扫描还是对单个用户都须要对user_map进行上锁,这就是第一个问题了。在高并发请求下,这个user_map锁会产生大量的竞争,造成资源损耗。


4.放弃std::map

要去掉这个锁,这就回到了在问题分析中的第一个问题上,众所周知,std::map是不支持多线程并发的。并且std::map操作对CPU cache并不友好。

去掉这个全局锁改用更小粒度的锁,那就须要放弃std::map。在大量数据的情况下,通常会採用hash table或则btree来组织数据(研究过数据库存储引擎的人都知道。呵呵!)。简单起见,这里就以hash table为例来展开分析。


图-2


图-2是一个hash table的结构图,当中hash buckets是个数组。

数组内有一个指向user结构的指针。

好,了解了hash table的结构我们再回到前面缩小锁粒度的问题上来。

比如我们定义了一个hash table,它的buckets个数为1024,我们再定义一个pthread_mutex_t数组。长度为256。

缩小锁的粒度非常easy。

第一个mutex数组单元负责0 256 512 768序号bucket的相互排斥,第二个负责1 257 512 769序号的并发相互排斥,类推。计算一个bucket序号是由哪个mutex负责相互排斥的事实上就是:
mutex下标 = bucket_seq % mutex_array_size;

这样实现很easy理解。在内部的user对象操作我们还是採用引用计数的方法。

细分了锁粒度,能让整个用户列表具有很好的并发性,同一时候由于buckets是个连续的数组,对CPU L1/L2 cahce也很的友好,也大大提高了CPU Cache的命中率问题。

一般优化到此,基本上能够说做到了90%的工作。但还是有几个疑问:

Ø  为什么要用pthread_mutex_t?在高并发下它会不会引起不必要的操作系统上下文切换?

Ø  除了hash table之外还有什么数据结构能支持细粒度的锁?

针对上面第一个疑问,我们能够使用CPU原子操作来实现一个简单的mutex。样例例如以下:
void LOCK(int* q){
	int i;
	while(__sync_lock_test_and_set(q, 1)){
		for(i = 0; i < 32; i ++) cpu_pause();
		sched_yield(); /*释放CPU运行权,让操作系统又一次调度本线程*/
	}
};

#define UNLOCK(q) __sync_lock_release((q))

那么就能够将pthread_mutex_t数组去掉,由一个int数组来取代他的工作。

为什么能够这样实现?在lock函数里面难道空转不耗CPU么?这个能够结合我们的hash table来分析,一次hash table的增删改查操作,一般几百个CPU指令周期就能够完毕(不计算hash函数执行时间,由于计算hash(key)无需等待锁),也就是说在LOCK等待的时间不长,并且CPU的指令执行速度远远大于CPU从内存中加载数据的速度,所以用CPU spin等待来换取操作系统由于pthread lock造成的上下文切换损耗是值得的。这个能够自行去測试。呵呵。


对于这样的hashtable结构并发量,我做了个初步的測试。測试机配置:4核2.4GCPU,内存16G,程序启动8个线程进行測试,hashtable存有800万个用户信息,每秒能够支持100万个左右查询。50万左右的增删改。


5.思考

回到最初的问题,事实上就是在内存中管理一个海量内存对象的问题,这不是什么新技术,在数据库存储引擎中,随处能够看到这种解决方式,比如:memcache的索引实现、innodb的自适应hash索引实现和btree实现、lsm树的memtable实现,无一不是解决此类问题的。通过这个问题的分析,能够得到下面几个认识:

1.     C++从业人员在高并发设计上应该慎用stl/boost,它们的非常多数据结构对多核并发并不友好。这里不过针对C++说的。

 

2.     非常多看似非常难的问题,事实上非常多其它领域的系统有非常好的解决方式。作为C/C++从业人员,应该多去了解数据库内核、操作系统内核或者编程语言内核(JVM/GOruntime)。这三个地方有挖不完的技术宝藏。

 

3.     C/C++语言在多核并发控制上能够说非常原始。作为C/C++从业人员的我们,应该多去了解CPU的工作机制、C/C++的内存模型等,这样有利于我们去分析系统瓶颈和优化系统。

 

4. 放弃意味着收获很多其它,放弃C++,选用更easy编写并发程序的语言编写此类系统。比如go、scala、erlang。



遗留的思考题

1.     用CPU CAS + memory barrier怎么实现hash table的无锁并发?能够尝试去实现一下看看。

2.     除了用hash table解决海量用户列表问题,还能够用skip list、btree等数据结构来实现。怎么实现?skip list、btree和hash table对照优劣势在什么地方?

3.     hashtable在管理海量用户列表时,它有缺点么?有什么样的缺点?



posted @ 2017-05-27 09:24  yfceshi  阅读(496)  评论(0编辑  收藏  举报