[转载]memCached客户端CPU过高问题的排查

[转载]memCached客户端CPU过高问题的排查 – hellofox2000 – 博客园.

公司网站使用了memCached来做分布式缓存,最近有人反映memCached客户端占用CPU过高,怀疑是第三方客户端性能不佳,进而怀疑是文本协议的问题,要求部门自己开发memCached的客户端,使其支持二进制协议。因为重新开发客户端工作量比较大,同时在日常开发中,没有听说过memCached客户端遇到瓶颈。因此对此问题进行了排查。结果发现主要是由于客户端反序列化,类设计不合理造成的。把排查过程分享下,希望对其他人有所帮助。

首先想到是:memCached服务器端内存占满,在清理内存中,造成客户端socket连接不上,不断发生异常。随上服务器查看了memCached的内存占用率,连接数等,发现利用率均很低。暂时先排除服务器端问题。

其次想到可能是第三方在使用socket连接池时,造成资源没有关闭,或者死锁。随对第三方客户端代码粗略读了一遍,并搜索相关文档。未发现异常代码。暂时先排除第三方客户端问题。

最后想到会不会是开发人员在代码编写中出现了问题。随对反映问题的两个产品进行了排查。发现了以下代码。

代码片段1

代码

static Serializer ser = new Serializer(typeof(List<UserModule>)); //using JsonExSerializer;
public static List<UserModule> GetAllUserModule(int userId)
{
string cache = CacheManager.Current.Get<string>(GetCacheKey(userId));
if (!string.IsNullOrEmpty(cache))
{
return ser.Deserialize(cache) as List<UserModule>;
}
else
{
return null;
}
}

public static List<UserModule> SetAllUserModule(int userId, List<UserModule> modules)
{
if (modules != null)
{
string cache = ser.Serialize(modules);
CacheManager.Current.Add(GetCacheKey(userId), cache);
}
else
{
CacheManager.Current.Remove(GetCacheKey(userId));
}
return modules;
}

代码片段2

代码

/// <summary>
/// 聊天室房间
/// </summary>
[Serializable]
public class Room
{
//房间有观看人员数据
List<Viewer> _viewers = null;
List
<string> _blackips = null;
List
<Viewer> _blackviewers = null;
List
<Notice> _notice = null;
List
<Speaker > _speakers = null;
List
<Content> _content = null;

/// <summary>
/// 添加新聊天者
/// </summary>
/// <returns>返回新添加的聊天人员</returns>
public Viewer AddViewer()
{
Viewer vi
= new Viewer();
//MaxViewerID += 1;

//int id = MaxViewerID;
int id = GetViewerID();
vi.Name
= GetViewerName(游客 + id);
//vi.IP = System.Web.HttpContext.Current.Request.UserHostAddress;
vi.IP = 127.0.0.1;
vi.ViewID
= id;
Viewers.Add(vi);
return vi;
}

/// <summary>
/// 添加聊天内容
/// </summary>
/// <param name=”content”>聊天的内容</param>
/// <param name=”viewid”>发言人的id</param>
/// <returns>返回新添加的对象</returns>
public Content AddContent(string content, int viewid)
{
MaxContentID
+= 1;
Content con
= new Content(DateTime.Now, content, viewid, MaxContentID);
Contents.Add(con);
return con;
}
……
}

调用代码为:
Room room = LiveSys.Get(key);
lock (room)
{
if (room.MaxContentID == 0)
{
//ChatContentOp cpo = new ChatContentOp();
//room.MaxContentID = cpo.GetMaxContentID();

room.MaxContentID
= 300;
}
int viewerID = 123124123;
room.AddContent(chatContent, viewerID);
//判断内容是否大于100条。如果大于100条,删除最近的100条以外的数据。
System.IO.File.AppendAllText(@”d:\haha.txt, 最大数值: + room.LimitContentCount + ###############聊天记录数: + room.Contents.Count + \r\n);
if (room.Contents.Count > room.LimitContentCount)
{
room.Contents.RemoveRange(
0, room.Contents.Count room.LimitContentCount);
}
}
LiveSys.Set(key, room);

代码1存在的问题是:

Cache存储的参数类型为object,没有必要先进行一次序列化,然后再进行存储。而序列化是很消耗CPU的。

代码2问题:

代码2实现的是一个在线聊天室,聊天室本身含有访客,发言等内容。在发言时,对聊天室内容进行判断,只显示最近30条。新进来访客直接加到访客别表中。表面上是没什么问题的。但是细想之下有两个问题:

1 聊天室类设计的比较复杂,每次从memCached服务端取得数据后,都要进行类型转换。

2 没有访客清理机制。随着访客的不断进入,对象的体积会不断增大。

对存疑部分编写了代码进行测试。测试结果果然如推测所想。测试结果如下:

场景 写入 读取 大小

(单位)

CPU
次数 时间 平均 次数 时间 平均
本地缓存 10000 0.03125 0 10000 0 0 1k 0
MemClient 10000 19.2656 0.001926 10000 22.75 0.002275 1k
Json1k 1000 2.8437 0.002843 1000 5.375 0.005375 1k
Json8k 1000 3.8593 0.003859 1000 29.0312 0.029031 8k
直播1000人次 1000 38.9375 0.038937 1000 50k
直播8000人次 100 18.25 0.1825 100 350k
500k 100 7.375 0.07375 100 7.09375 0.070937 500k
场景 写入 读取 大小

(单位)

CPU
次数 时间 平均 次数 时间 平均
本地缓存 10000 0.03125 3.125E-06 10000 0.015625 1.5625E-06 1k 0
MemClient 10000 19.78125 0.001978 10000 21.953125 0.002195 1k
Json1k 1000 2.03125 0.002031 1000 6.078125 0.006078 1k
Json8k 1000 2.765625 0.002765 1000 55.375 0.055375 8k
直播1000人次 1000 38.53125 0.038531 1000 50k
直播8000人次 100 17.96875 0.179687 1000 350k
500k 100 7.5 0.075 100 6.5625 0.065625 500k
场景 写入 读取 大小

(单位)

CPU
次数 时间 平均 次数 时间 平均
本地缓存 10000 0.015625 1.5625E-06 10000 0.015625 1.5625E-06 1k 0
MemClient 10000 18.015625 0.001801 10000 25.96875 0.002596 1k 6%
Json1k 1000 1.15625 0.001156 1000 3.078125 0.003078 1k 40%
Json8k 1000 1.859375 0.001859 1000 32.484375 0.032484 8k 50%
直播1000人次 1000 45.046875 0.045046 1000 50k 30-40%
直播8000人次 100 31.703125 0.317031 100 350k 50%
500k 100 7.0625 0.070625 100 6.421875 0.064218 500k 6%

直播1000人次(当天一共有1000人访问,数据来源于运营检测),留言内容为30条时,Room体积大概为:57K


直播1000人次(当天一共有8000人访问,数据来源于运营检测),留言内容为30条时,Room体积大概为:350k

根据图表可以看到以下情况:处理时间、CPU利用率和数据量大小,序列化,类复杂性都有关系。

序列化问题(类型转换)对性能影响最为明显(可在场景”json1k”、场景直播中看到)。在Json1k中,存储对象和前几个场景是相同的,处理时间也相差不大,较大区别是CPU利用率由5%左右增长到40%左右(反序列化时尤为明显)。在场景直播系统中,不存在序列化问题,但是其对象属性中存在访客繁衍等多个复杂对象,造成其在处理时需要处理过多的类型转换,同时其体积不断增大。

存储对象的大小和处理时间存在一定关系,例如场景”500k”,其处理时间增长,但是其CPU利用率并未提高,其时间增长是由于对象传输造成。

本地缓存在内存中进行寻址和类型转换,涉及不到Socket连接,网络传输,序列化操作,所以其处理相当快。

就测试结果看:

本地缓存性能大约是分布式缓存性能的100倍左右。而出问题的聊天室除了CPU增高以外,其性能更比分布式缓存再降低40倍(直播1000人次)到200倍(直播8000人次)。综合来看,聊天室的分布式缓存比本地缓存降了4000倍,甚至更多。

但是,还没有完。

对于第二个问题,更改类设计,清楚无效访客,即可解决。

但是第一个问题,为什么用户在存储之前,先进行json序列化呢?嗯,这是一个问题。

遂问之。

答曰,有些类直接使用第三方客户端存储时,直接存储报错,所以先序列化为json类型,取值时再反序列化回来。

嗯,还有这事?

开发人员说了相关代码。

代码

interface IUser
{
String UserId{
get; set;}
String UserName{
get; set;}
}

[Serializable]
class UserInfo : IUser
{
String UserId{
get; set;}
String UserName{
get; set;}
}
[Serializable]
class Game
{
IUser User{
get; set;}
String UserName{
get; set;}
}

他说:Game对象在直接使用memCachedClient时,是不能被二进制序列化的,因为其User属性类型为IUser,为一个接口。因此想了一个解决方法,即先将Game对象进行 json序列化将其变为字符串,然后将字符串存储到memCached

原来是这样。

接着又查看了memCachedClient源代码,其需要将对象进行二进制序列化,然后进行存储。接口属性不能被序列化,遂又对序列化问题进行了测试(见附件)。测试结果显示上述代码直接进行二进制序列化是可以的,同时直接使用第三方客户端也是可以可行的。

问题出在哪?难道是没有加[Serializable]

一查果然:一个Serializable引发的血案。。。

记得有人说过,慎用分布式,能不用尽量不用。

一方面在性能上确实下降很多,分布式存储主要性能消耗在以下几个方面:协议解析,Socket连接,数据传输,序列化/类型转换。

一方面在使用场景和类设计上要求也更加严格。个人认为memCached是不太适合存储特别大的文件的。虽然有人说网上已经有用来存储视频的。

还有几个问题希望知道的朋友回答下:

1 有没有.Net方面的memCached客户端支持二进制协议和一致性的?

2 测试中发现,当memCached设置缓存过小时(例如64M),当其内存使用已经到62M时,再进行存储,新存储的内容再取出来就是空值,不知道是什么原因。

文章中用到的源码:下载源码

赞(0) 打赏
分享到: 更多 (0)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏