活动简介
保险企业数据的处理,主要解决了保险公司数据分析中的信息孤岛问题、程序可扩展性问题、程序开发周期过长问题以及将数据分析需要的专业知识整合进系统,减少对数据分析程序操作人员专业度要求。收集多平台,多来源的数据源,建立有效的清理与整合机制,在此基础上构建为数据分析服务的统一的多维度的数据集市,使最终用户不用熟知算法和一些背景专业知识就可以得到比较专业的分析结果。但是随着保险公司各业务数据的爆发式增长,新的数据处理问题又冒出来。以国内某保险行业大型集团公司为例,业务范围涵盖财产险、人寿险、健康险、保险销售等多项业务。随着业务的快速发展,主要核心业务系统中寿险业务系统和健康险业务系统的数据量呈爆炸式增长。伴随着数据量的增加,两个主要核心业务系统所承受的压力越来越大,导致系统运行效率的降低。
经过分析总结出两大核心业务系统数据库目前面临的主要问题为:
系统核心表数据增长较快,核心表数据过千万,部分表数据过亿,业务查询效率降低。
历史数据较多,核心表查询压力增大,导致大量IO竞争与资源消耗。
服务器、存储硬件瓶颈,业务量的不断增长导致业务查询效率极其低下。
为有效解决核心业务系统数据量激增带来的问题,保障核心业务系统的运行效率和提升服务质量,如何优化提升核心业务系统的I/O吞吐处理能力,是摆在目前大多数保险集团IT人员面前的首要问题。
本次分享的解决方案以此为背景详细介绍了对于大型保险集团核心业务系统如何通过具有性能强悍的LinuxONE整合数量众多的传统数据库服务器,同时利用LinuxONE完美的云化动态伸缩能力,大规模池化共享整合能力来提升企业核心业务系统的利用率,在保证核心业务系统安全性的同时,为企业降本增效。