对,目前几家,亚信,斯特齐和新大陆都有,并且在PowerLinux都做过测试。性能都不错。
我理解楼主说的是什么场景采用scale up的架构,什么场景采用Scale out的架构。可以向大家澄清的是,Power的小型机不只是支持scale up的方式,也有和X86 类似scale out的方式。架构之争由来已久,更有千秋。最近一段时间,Hadoo
这个有很多种了。增加内存只是从硬件提升的一个方面。大数据处理方案要从数据处理类型来考虑:1. TB/PB级别的非结构化数据,如果批处理,可以采用MR。实时处理,可以采用Spark。2. 混合数据,开发使用简单,可以采用NoSQL的方案
确实是,虚拟化是手段,是技术。那么资源管理,就是目的,是管理。所以在虚拟化平台上的应用选择就很重要,很简单的例子,电信交易系统白天很繁忙,要占用大量资源。晚上跑批处理,就需要把交易系统的资源分配给批处理来做。这样错峰
现在Spark的计算模型就是DAG的方式。主流的大数据发行版的厂商都采用这种模式。Cloudera,IBM,hortonwork,transwarp等等。
正如您所说,确实要根据场景来判断。目前整体来看,大数据无论采用MR或者Spark,都牵扯到了,大量的迭代计算和suffling,对CPU有很高的要求。所以,从硬件选型来看,首先,CPU的计算能力最为重要,这也是为什么Power8 的Linux的服务器
同意!个人觉得提升硬件能力是最简单,成本最低,维护最容易的方式来提升处理能力的方式。软件的优化比较复杂,这不仅仅是平台级别软件的优化,还牵扯到搭建在平台软件上的应用软件的优化。期间还需要不断的debug。所以选择一
这三个产品应该分成两个部分来看。1.spark,: Spark从狭义上来看,就是一个分布式计算框架。广义上来说,spark代表了spark BDAS整个软件栈。Spark主要处理一些海量的已经保存的历史数据,通过并行计算,内存计算等技术,使得响应
这句话从命题角度来说,是没有问题的。但是从系统角度来看,用SSD无非是在IOPS和latency上比起传统硬盘有很大的优势,但是你要考虑,1. 你的业务系统的瓶颈是不是在IO上,是不是因为IO慢导致了CPU wait时间过长。2. SSD是做部
对于这个问题,我很感兴趣,能举个例子来说明吗?
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30