spark sql
spark sql
该主题还没有描述

热点

互联网服务spark·2018-11-20
rein07 · 某证券 擅长领域:人工智能, 大数据, 机器学习
581 会员关注
无论是hive还是spark,数据都是按数据块大小读取。建议试下写parquet文件前设置parquet.block.size参数,保证每个块大小合适,如果要在读取时改变并行效果,可以通过设置repartition调整partition个数。通过两个参数配合应该能满足你的需求。...

    描述

    该主题还没有描述
    X社区推广
  • 提问题