这是为了统一资源管理,假如我集群同时装了spark与hadoop,spark是不知道mapreduce任务占了多少内核,多少内存的,分配任务的时候,以为这个节点是空闲的,其实已经被mapreduce占满了,就会导致spark任务运行失败,同时资源不统一管理也会涉及到相互锁住资源的问题.
这是为了统一资源管理,假如我集群同时装了spark与hadoop,spark是不知道mapreduce任务占了多少内核,多少内存的,分配任务的时候,以为这个节点是空闲的,其实已经被mapreduce占满了,就会导致spark任务运行失败,同时资源不统一管理也会涉及到相互锁住资源的问题.