Namespace无法让Task以及Actor之间资源隔离的问题

问题描述
Ray的NameSpace似乎无法隔离开不同Job提交的任务。
我有两个进程,都向同一个Ray集群提交任务,是否有某种机制让两个进程感受不到资源资源总量上有另一个进程在和自己抢。本以为让两个进程工作在不同的NameSpace中就可以了,但实际情况依然是
两个进程可以看到ray.available_resources()会被另一个进程抢占,
请问有任何办法可以使得Ray Job任务之间相互隔离么?包括在调度的时候也不会被其他job的资源总量所限制?

目前只能通过placement group去抢占一批资源。如果想达到节点级别的隔离,没有直接的方法,你可以用placement group尽量将单节点的资源占满,间接达到节点隔离的目的。

好的,感谢回复

想一下ray如何做资源隔离,比如单个任务消耗光了内存导致oom,如何保证不会导致其他任务挂掉。还有就是在公司级别的实践,如何对不同任务进行资源开销的计算,想咨询有没有最佳实践。

raylet有个oom killer,可以杀掉内存超出的actor