采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
当job.setNumReduceTasks()的个数大于自定义Partitioner中的分区规则个数时,程序正常执行,相当于多分配了几个reducetask任务,多分配的reducetask没有干活而已 当job.setNumReduceTasks()的个数小于自定义Partitionew中的分区规则个数时,job.waitForCompletion()会输出返回false,同时没有输出文件
pk哥 这样说对吗??
三个场景你可以动手测试下:
1)reduce > partition
2) 1 < reduce < partition
3) reduce = 1
1)reduce > partition 可以 2) 1 < reduce < partition 报错 3) reduce = 1 或者0 都可以,是不是为0的时候默认取1 ?
0 的时候就没reduce,map就完成
登录后可查看更多问答,登录/注册
从Hadoop核心技术入手,掌握数据处理中ETL应用,轻松进军大数据
1.3k 21
1.6k 20
1.4k 19
1.7k 17
3.3k 16