多批次并行,经常出现死锁,求指点。

各位专家大神们!
    您好!      
         

我现在的情况是有对多个来源系统数据进行处理,例如:3G、2G等十几个来源系统。采取的是多批次并行的处理方式,程序中大量的SELECT、INSERT和少量的UPDATE操作,由于各个系统数据量的不同,即使同时跑批,到后面可能处理的相同的表有不同的操作,例如:同时对一个表多次INSERT和SELECT,甚至是UPDATE。我现在的操作如下:


        1.在SELECT 时加入了UR。
        2.基本上在每个事务上都加了COMMIT。
        3.根据IBM的专家建议调整了数据库的死锁参数和DB2_EVALUNCOMMITED、DB2_SKIPINSERTED、DB2_SKIPDELETED3个参数。
        虽然现在的死锁概率大大减少了,但是还是会出现死锁的现象:-911,2,400001,而且出现死锁的地方没有规律性。
        请问各位专家大神们,有什么好的建议,能够尽量的避免死锁。
                                                                              谢谢!
参与17

16 同行回答

ilovebaishikele ilovebaishikele 数据库管理员 北京首都公路发展集团
学习了显示全部
学习了 收起
互联网服务 · 2014-05-13
浏览1637
wangyax wangyax 软件开发工程师 金融机构
产生死锁本质上是业务逻辑不清晰造成的。在批量执行的时候通过调度程序设置调度次序,通过测试验证数据库支持多大的并行度。尽量做到相同的表串行插入,并行读取,读取依赖于插入完成;不同的表做到并行处理,同时尽量避免并行度过大导致锁升级。...显示全部
产生死锁本质上是业务逻辑不清晰造成的。在批量执行的时候通过调度程序设置调度次序,通过测试验证数据库支持多大的并行度。尽量做到相同的表串行插入,并行读取,读取依赖于插入完成;不同的表做到并行处理,同时尽量避免并行度过大导致锁升级。 收起
互联网服务 · 2014-05-08
浏览1622
zhugfang zhugfang 软件开发工程师 杭州信雅达
尽量使用外连接加工临时表,最后插入目标表,来减少update的几率显示全部
尽量使用外连接加工临时表,最后插入目标表,来减少update的几率 收起
互联网服务 · 2014-04-30
浏览1838

    提问者

    lucky_yu
    研发工程师 北京泛鹏天地科技有限公司
    评论26

    相关问题

    相关资料

    相关文章

    问题状态

  • 发布时间:2014-04-22
  • 关注会员:1 人
  • 问题浏览:11658
  • 最近回答:2014-05-13
  • X社区推广