如何在代码中通过API监控Hadoop,Spark任务的进度和结果

2025-03-26 17:42:39
推荐回答(1个)
回答1:

另外Spark可以直接写JDBC df.write().mode(mode).jdbc(url,tableName,prop) ; 你也可以df.collect() 得到 List 然后定义自己的Insert SQL语句。 没必要再通过Sqoop从Hive导出到Oracle