您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 火花混洗过程的一种新的压缩算法决策方法

  2. 随着Spark大数据平台的广泛应用,暴露了实际应用中的一些问题,其中主要问题之一就是性能优化。 Spark的Shuffle模块是Spark的核心模块之一,也是其他一些分布式大数据计算框架的重要模块。 Shuffle模块的设计是直接决定大数据计算框架性能的关键因素。 Shuffle流程的主要优化参数涉及CPU利用率,I / O识字率,网络传输率,而这些因素之一可能是应用程序执行过程中的瓶颈。 网络数据传输时间消耗,I / O读写时间以及CPU利用率与数据处理的大小密切相关。 因此,Spark提供了
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:383kb
    • 提供者:weixin_38557896