如果有这样一个需求:一个大的任务需要拆分成多个小任务然后由多台计算机并行执行,然后把不同任务的结果进行汇总再做进一步的任务分派。这好像是mapReduce,但mapReduce是大数据的工具,我们仅仅是做任务分派。这里需要一个master做任务协调,由它来分解大任务然后指派给不同的工作机器。其实是不是仅仅用hadoop的mapReduce功能即可。
如果有这样一个需求:一个大的任务需要拆分成多个小任务然后由多台计算机并行执行,然后把不同任务的结果进行汇总再做进一步的任务分派。这好像是mapReduce,但mapReduce是大数据的工具,我们仅仅是做任务分派。这里需要一个master做任务协调,由它来分解大任务然后指派给不同的工作机器。其实是不是仅仅用hadoop的mapReduce功能即可。
15 回答8.4k 阅读
8 回答6.2k 阅读
1 回答4k 阅读✓ 已解决
3 回答6k 阅读
3 回答2.2k 阅读✓ 已解决
2 回答3.1k 阅读
2 回答3.8k 阅读