Questions tagged «spark-submit»

1
如何停止Spark控制台上显示的INFO消息?
我想停止Spark Shell上出现的各种消息。 我试图编辑log4j.properties文件以停止这些消息。 这是内容 log4j.properties # Define the root logger with appender file log4j.rootCategory=WARN, console log4j.appender.console=org.apache.log4j.ConsoleAppender log4j.appender.console.target=System.err log4j.appender.console.layout=org.apache.log4j.PatternLayout log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n # Settings to quiet third party logs that are too verbose log4j.logger.org.eclipse.jetty=WARN log4j.logger.org.eclipse.jetty.util.component.AbstractLifeCycle=ERROR log4j.logger.org.apache.spark.repl.SparkIMain$exprTyper=INFO log4j.logger.org.apache.spark.repl.SparkILoop$SparkILoopInterpreter=INFO 但是消息仍在控制台上显示。 这是一些示例消息 15/01/05 15:11:45 INFO SparkEnv: Registering BlockManagerMaster 15/01/05 15:11:45 INFO DiskBlockManager: …

6
将罐子添加到Spark Job-spark-submit
没错,已经讨论了很多。 但是,存在很多歧义和提供的一些答案...包括在jars / executor / driver配置或选项中复制jar引用。 模棱两可和/或省略的细节 含糊不清之后,应为每个选项澄清不清楚和/或省略的细节: ClassPath如何受到影响 司机 执行器(用于正在运行的任务) 都 一点也不 分隔字符:逗号,冒号,分号 如果提供的文件自动分发 用于任务(针对每个执行者) 用于远程驱动程序(如果以群集模式运行) 接受的URI类型:本地文件,hdfs,http等 如果复制到公共位置,则该位置在哪里(hdfs,本地?) 影响的选项: --jars SparkContext.addJar(...) 方法 SparkContext.addFile(...) 方法 --conf spark.driver.extraClassPath=... 要么 --driver-class-path ... --conf spark.driver.extraLibraryPath=..., 要么 --driver-library-path ... --conf spark.executor.extraClassPath=... --conf spark.executor.extraLibraryPath=... 不要忘记,spark-submit的最后一个参数也是.jar文件。 我知道在哪里可以找到主要的spark文档,尤其是有关如何提交,可用的选项以及JavaDoc的信息。但是,这仍然给我留下了很多空白,尽管它也可以部分解决。 我希望这不是那么复杂,并且有人可以给我一个清晰简洁的答案。 如果我从文档中猜测,似乎--jars和SparkContext addJar和addFile方法都是将自动分发文件的方法,而其他选项仅修改了ClassPath。 为了简单起见,可以安全地假设我可以同时使用3个主要选项添加其他应用程序jar文件: spark-submit --jar additional1.jar,additional2.jar \ --driver-library-path …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.