在spark集群上可以同时运行多个提交的应用程序吗

2025-03-05 00:00:52
推荐回答(2个)
回答1:

可以的,spark提交job的方式有client和cluster两种,同时提交多个的话最好用cluster方式,但是需要注意的是:如果集群的资源不能同时支持两个job运行,则后提交的job会一直等待资源,直到第一个job运行完成释放出足够的资源。具体的行为依赖资源管理框架(如yarn)

回答2:

可以的呀,只有有资源就行