当前位置:网站首页 > R语言数据分析 > 正文

yarn命令查看进程(yarn查看任务状态)



集群运行spark、hadoop程序,可以通过UI界面查看进程状态,如图所示,可登陆到界面查看程序运行状态。

查看yarn列表显示字段 yarn命令查看进程_hdfs

可以通过application ID查看程序的日志信息以及输出信息,如图,查看logs

查看yarn列表显示字段 yarn命令查看进程_spark_02

查看yarn列表显示字段 yarn命令查看进程_jar_03

查看yarn列表显示字段 yarn命令查看进程_jar_04

2.1、kill掉不需要的整个shell程序,(kill掉某个进程进到UI界面的ApplicationMaster,点击kill的即可以),具体命令

yarn application -kill 你的application_id(application_id可通过上诉的方式找到)

2.2、查看spark程序日志信息的命令(其他类型程序应该也可以)

(由于程序跑完,一般日志信息就不存在了,可以把集群端的日志信息复制到本地服务器上查看)

yarn logs -applicationId application_70_(具体的任务ID) > application_70_(存储到本地的文件名字)

然后less application_70_打开,然后在命令行先输入一个"/",然后输入你要搜索的比如Exception,你就可以找到一些异常的地方。

打开spark-shell交互命令行的脚本:

spark-shell --master yarn --name zlc-spark-shell --queue "marvel.service"

--executor-memory 12g --executor-cores 4 --num-executors 128 --driver-memory 10g --conf spark.sql.orc.enabled=true

--conf spark.sql.hive.convertMetastoreParquet=false

对于一般的只有一个主要jar包的情况:

hdfs_param=程序中使用的参数文件路径json文件(一般提交到hdfs上)


JAR=task2_train-1.0-SNAPSHOT.jar(jar的路径,如果和脚本在一个目录下,可以直接写jar包名字)
CLASS=TrainModel(指定好入口类名)(上述的的JAR和CLASS、hdfs也可以直接在下面的运行命令参数行写,不一定这样写,可参照下面样例)

对于存在多个jar包,其中部分的jar包为依赖包的命令:

PS:注意每个行之后有“”

1、使用json文件提交配置参数的情况(类似上述spark-submit第一个)

2、直接在命令行写入参数的情况

查看yarn列表显示字段 yarn命令查看进程_hdfs_05

到此这篇yarn命令查看进程(yarn查看任务状态)的文章就介绍到这了,更多相关内容请继续浏览下面的相关推荐文章,希望大家都能在编程的领域有一番成就!

版权声明


相关文章:

  • tmr缩写(tmr缩写网名)2026-02-10 14:00:12
  • crnaira是什么品牌的手表(crnaira是什么品牌的手表多少钱)2026-02-10 14:00:12
  • vier是什么品牌(viiger是什么牌子)2026-02-10 14:00:12
  • torder翻译(tothe翻译)2026-02-10 14:00:12
  • yarn队列配置(yarn队列并行任务)2026-02-10 14:00:12
  • chrony同步命令(chromium 同步)2026-02-10 14:00:12
  • nacos配置中心动态刷新(nacos配置中心动态刷新environment)2026-02-10 14:00:12
  • 数组方法filter返回值(数组作为方法的返回值,传递的是什么)2026-02-10 14:00:12
  • treesoft官网下载(tree软件下载)2026-02-10 14:00:12
  • hprof文件怎么分析linux(hprof文件怎么分析 linux)2026-02-10 14:00:12
  • 全屏图片