请提供nmon的历史数据,导入大数据系统后会安排websession跟您交流。如您有兴趣,请私信,谢谢。
一天的数据很难找出真正的问题,很多问题是积累出来的,呵呵!
利用nmon大数据,解决用户等待、系统报错、负载过大、运行缓慢、应用当机、系统重启、用户无法登入…等现象有兴趣试用吗?
您好,方便提供2-4周的nmon资料吗?最好有在发现状况之前的数据,我们有nmon的大数据平台,可以帮您做个分析
我们的经验中,有些SQL语句问题存在已久,资源也持续占用很高也许达30-40,这是需要长期调养的,但其它一些的SQL业务原来资源占用并不高,比如占5%作业,如果发生问题时,这些业务占用有达到10%,如果仔细观察,这养业务资源占用成长达
数据,采集内容时间点都是客户给我们的,还有有2000多个PV,我们当然有自己的分析工具,半天就理完数据,开始写分析报告了,但被要求拿这analyzer做对比,就是一个惨字呀。 analyzer没有这样的功能就好,不然就没得混了
感谢指导,看来碰上专家了,以前都只用一天的数据分析,但不知同时30天的数据同时分析要多长时间? 我曾有过这样的经验 - 每天一个文件的数据分析大约要 30 分钟, 分析3个后Excel就挂了, 两台主机60个文件搞得头昏脑涨地! 此
说的好,如何验证? 主系统都崩了,如何确认? 零数据丢失更近零数据对失的架构及投入差很多的!
重点是, 准备花多少钱做这事? 越高级别的容灾需求所需要的成本越高,可能会超出原来系统架构费用,值得吗?要深思,要做到完全不丢数据,只有在应用级别才能真正做到。 而当真正发生灾难时,如何确认数据没有丢失? 原系统已崩溃了
analyzer也只是生成一天的数据及图表, 要自行合并及制作图表(还要有点EXCEL的基础)....太累人了, 所以很多人都不会经常做, 累积一段时间后就放弃了! 要有效率,分析工具很重要的!
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30