谢谢大家回答,有空和厂家接触下.另外power系列,实际应用部署感觉如何?
软件肯定大规模升级和重来开发,比如hbase mongo接替oracle来做日志留存,价格便宜,效率高,我们正在做。主要是关系型向nosql转换,从关系型行转keyvlue型。关键是原系统升级开发,对于厂家难度还是很大,底层推倒重来了一遍,不过
我说的1000G是每秒流量,不是一天的!
从整体看,不是空间换时间,就是时间换空间,万变不离其宗。没有灵丹妙药,具体还要看业务场景。其实很多应用在开发层面是可以优化的,人是活的,就我感觉,软件开发优化带来的效能,常常百倍于系统优化。
1,霸王硬上弓,水平扩展 2.细节调优,比如空间换时间之类 3.前端加内存缓冲,如redis
请问下:目前streams的开发主要语言和接口有哪些?
spark 5节点,每个节点8G内存,处理100G左右的数据,跑sparkmllib,每次都内存溢出。建议还是提升内存,起步128G。磁盘能放几个ssd.网卡现在主机标配1000M 3-6个,可以考虑捆绑,不捆绑也无所谓,但是万兆个人感觉没意义,如果确实需
适用性很普遍,我们现在有很多环境供参考 1,大数据hadoop 基本磁盘挂满的2950 380G6 2.数据分析前置或采集 用大内存挂临时文件,io还可以 3.serversan,我们用X86的,赛门铁克方案 pcie ssd,多租户数据库,效果实测差不多普通存
首先,如果纯存储型的,配置可以不高。如果带计算的,也相应配合提升cpu。如果是spark.起步内存建议还是128G。存储部分,可以考虑增加几块ssd。关键还是看应用和资金,有钱的话适当超前一点,运行也能稳定不少。
为什么单独那条不可以用内存数据库,历史数据用hbase呢?
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30