XGBoost_ray 比原生xgboost慢

我使用xgb_ray和xgb原生进行了测试,在4节点7核CPU上训练1kw*20的数据num_actors=4,cpu_per_actors=7 用时297s,在原生xgboost用时237s,然后我在单节点尝试了一下也就是num_actors=1的情况下xgb_ray是321s,原生没有变化,为什么并行化的反而更慢,是因为通信原因吗?那怎样可以加速呢?如果用了ray更慢了那还有什么意义啊

这块儿我们没有测试过。能否提供详细的可以复现的测试脚本?

我们在之前也遇到过同样的问题,在进行xgb训练时,使用同样的参数以及数据集结果发现训练出的模型auc等一些指标与原生xgb并不相同。