您的位置:首页 > 数据库 > Redis

redis下并发问题解决方案

2015-07-07 16:59 561 查看
最近做的功能需求中,使用了redis作为数据库,上线之后个别玩家出现了莫名其妙的错误,该插入的数据没有插入,莫名其妙丢失了.最后通过分析用户的错误数据才想明白原来是并发问题导致的.第一次接触并发是在看操作系统原理的时候,之后再看数据库原理的时候也看到过并发,对与并发的原理还是比较清楚的,只是一直没遇到过.这次在用reids的过程中算是踩坑了.

现在的计算机大都是多核的cpu,意味着可以并行执行多个进程.如果这多个运行的进程对同一份数据进行读写操作,那么就有可能出现两个或者多个进程读到的都是老的数据,这种情况下,再进行写入操作之后就会有一些进程写入的数据被覆盖掉,就导致最终的结果错误.这份数据对于这些进程来说就是临界区.

redis下处理并发问题.
1.通过使用setnx进行加锁,在操作系统以及数据库中处理并发都会用到锁机制,虽然加锁可以解决并发问题,但是会降低并发量,所以它们都会通过读写锁来降低锁的粒度.
加锁实际上就是把并行读写改成串行读写的方式来避免资源竞争
$redis = new Redis();
$redis->connect('127.0.0.1', 6370);
if(!$redis->setnx('lock',1)){
usleep(500000); //等待一段时间
if(!$redis->setnx('lock',1)){
exit();
}
}
redis->EXPIREAT('lock', 2); //设置一个过期时间,避免进程挂掉导致锁不能释放
//业务处理
$redis->del('lock');


2.watch + 事物,redis的事物不能自动回滚,所以在失败的情况下要处理回滚操作.如果事物中更新多个,那么回滚操作会比较麻烦,
$redis = new Redis();
$redis->connect('127.0.0.1', 6370);
$redis->watch('test'); //必须在读之前进行watch
$redis->hGetAll('test')
//业务处理
$result = $redis->multi()
->hset()
->exec();


3.减少写数据的粒度或者修改数据结构来避免并发,我们的业务中使用的是hset方式,把用户的数据都放到了一个filed中,这就导致一次更改要写入用户所有的数据,通过修改
使用hmset,更新数据的时候只更新需要更新的数据,降低写入的粒度来降低各个接口对临界区的读写访问.这种方式或许能避免部分接口对临界区的访问,不能避免的接口还需要另外
处理.

4.在并发量过大的情况下,可以通过消息中间件进行处理,把并行读写进行串行化.这种方式在一些高并发的场景中算是一种通用的解决方案,简单的方式可以通过redis的list实现,
在大规模的软件中就需要引入专门的消息中间层来处理了.
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: