当数据量比较庞大的时候,如何稳定并高效的刷新CUBE

当一个多维分析报表的数据比较庞大的时候,如果全量刷新CUBE时间消耗特别大,可否有增量刷新的方式提高效率,并且刷新的CUBE不会影响历史数据的CUBE。若有该如何开发呢?显示全部

当一个多维分析报表的数据比较庞大的时候,如果全量刷新CUBE时间消耗特别大,可否有增量刷新的方式提高效率,并且刷新的CUBE不会影响历史数据的CUBE。若有该如何开发呢?

收起
参与14

查看其它 2 个回答cuicuitiger的回答

cuicuitigercuicuitiger软件架构设计师龙江银行股份有限公司

可以按日期将Cube分区,Cognos会依据数据日期将Cube分成若干小文件,在Tr建模的时候可以选择分区方式生成Cube

银行 · 2016-10-27
浏览1328
  • 如果只想重刷中间某一个日期分区的数据,如何实现?
    2016-10-27
  • 如果是增量的话 好办 直接写个脚本就刷新了 如果是重刷某一个段日期的话比较麻烦,需要把这段日期的.mdc文件删掉,重新生成这段日期的.mdc
    2016-10-27

回答者

cuicuitiger
软件架构设计师龙江银行股份有限公司
擅长领域: 大数据服务器前置系统

cuicuitiger 最近回答过的问题

回答状态

  • 发布时间:2016-10-27
  • 关注会员:5 人
  • 回答浏览:1328
  • X社区推广