查看其它 1 个回答sxtycxx的回答

sxtycxxsxtycxx 解决方案经理人工智能(计算机视觉)

SPark体系中的 Spark Streaming严格意义上属于批处理计算框架,准实时,基于内存的计算框架,性能可以达到秒级,大数据除了实时计算之外,还包括了离线批处理、交互式查询等业务功能,而且实时计算中,可能还会牵扯到高延迟批处理、交互式查询等功能,就应该首选Spark生态,用Spark Core开发离线批处理,用Spark SQL开发交互式查询,用Spark Streaming开发实时计算,三者可以无缝整合,给系统提供非常高的可扩展性
Storm是纯实时计算框架,来一条数据,处理一条数据,可以达到毫秒级,适合于要求可靠的事务机制和可靠性机制,即数据的处理完全精准,一条也不能多,一条也不能少,也可以考虑使用Storm
形象点比喻,SPark就好比商城的直梯,Storm就好比商场的扶梯

互联网服务 · 2018-12-28
浏览3257

回答者

sxtycxx
解决方案经理人工智能(计算机视觉)
擅长领域: 存储灾备服务器

sxtycxx 最近回答过的问题

回答状态

  • 发布时间:2018-12-28
  • 关注会员:3 人
  • 回答浏览:3257
  • X社区推广