按照优先级在关闭时执行一系列操作,在spark内用途很广泛,主要是释放资源,删除文件等
使用
// SparkContext在初始化时注册,设定优先级和要调用的函数
_shutdownHookRef = ShutdownHookManager.addShutdownHook(
ShutdownHookManager.SPARK_CONTEXT_SHUTDOWN_PRIORITY) { () =>
logInfo("Invoking stop() from shutdown hook")
try {
stop() // 关闭SparkContext时要释放清理的对象
} catch {
case e: Throwable =>
logWarning("Ignoring Exception while stopping SparkContext from shutdown hook", e)
}
}
ShutdownHookManager
ShutdownHookManager
的静态函数addShutdownHook
依赖SparkShutdownHookManager
类进行具体的逻辑处理
//处理的核心
private lazy val shutdownHooks = {
val manager = new SparkShutdownHookManager()
manager.install()
manager
}
// 如果在jvm执行shutdown hook过程中添加钩子,jvm会抛出异常
def inShutdown(): Boolean = {
try {
val hook = new Thread {
override def run() {}
}
// scalastyle:off runtimeaddshutdownhook
Runtime.getRuntime.addShutdownHook(hook)
// scalastyle:on runtimeaddshutdownhook
Runtime.getRuntime.removeShutdownHook(hook)
} catch {
case ise: IllegalStateException => return true
}
false
}
//添加钩子
def addShutdownHook(priority: Int)(hook: () => Unit): AnyRef = {
shutdownHooks.add(priority, hook)
}
private [util] class SparkShutdownHookManager {
// 每个钩子都记录到优先队列里
private val hooks = new PriorityQueue[SparkShutdownHook]()
@volatile private var shuttingDown = false
/**
* Install a hook to run at shutdown and run all registered hooks in order.
*/
def install(): Unit = {
val hookTask = new Runnable() {
// runAll 函数会从优先队列中取出所有的钩子并运行
override def run(): Unit = runAll()
}
// 依赖Hadoop的ShutdownHookManager机制
org.apache.hadoop.util.ShutdownHookManager.get().addShutdownHook(
hookTask, FileSystem.SHUTDOWN_HOOK_PRIORITY + 30)
}
}
Hadoop的ShutdownHookManager机制是通过JDK的addShutdownHook
实现,收到信号后,将所有的钩子按照优先级取出执行
JDK ShutdownHook
java.lang.Runtime包内的函数:
addShutdownHook(Thread hook)
注册一个JVM关闭的钩子,JVM会为了响应以下两类事件而关闭:
- 程序正常退出
exits
,当最后的非守护线程退出时,或者在调用System.exit
方法时 - 因为用户中断,终止
terminated
虚拟机,例如Ctrl + C
,或发生系统级别的事件,比如用户退出(产生SIGHUP,系统的默认处理方式是终止进程)或系统关闭
shutdown hook
是一个已初始化但尚未启动的线程。虚拟机开始关闭时,它会以某种顺序启动所有已经注册的关闭钩子,并让它们同时运行。运行完所有的钩子后,虚拟机就会停止。注意,关闭期间会继续运行守护线程,如果通过调用exit
方法来发起关闭,那么也会继续运行非守护线程
一旦开始了关闭序列shutdown sequence
,则只能通过调用halt
方法来停止,此方法可强行终止虚拟机,在关闭过程中不能注册新的关闭钩子或取消注册先前已注册的钩子。否则会导致抛出 IllegalStateException
shutdown hook
在虚拟机生命周期中的特定时间运行,因此在编写代码时要特别注意,保证线程安全,并尽可能地避免死锁
shutdown hook
应该快速地完成其工作。当程序调用exit
时,虚拟机应该迅速地关闭并退出。由于用户退出或系统关闭而终止虚拟机时,底层的操作系统可能只允许在固定的时间内关闭并退出。因此在关闭钩子中不应该进行用户交互或执行长时间的计算
与其他所有线程一样,通过调用线程所属线程组的ThreadGroup.uncaughtException
方法,可在关闭钩子中处理未捕获的异常。此方法的默认实现是将该异常的堆栈跟踪打印至System.err
并终止线程;它不会导致虚拟机退出或暂停。
仅在很少的情况下,虚拟机可能会中止abort
,也就是没有完全关闭就停止运行。虚拟机被外部终止时会出现这种现象,比如在Unix
上使用SIGKILL
信号。如果native方法出错,虚拟机也会终止,例如内部数据结构损坏或试图访问不存在的内存。如果虚拟机中止,则无法保证是否将运行关闭钩子
File.deleteOnExit()
进程结束后删除文件,其实现机制就是ShutdownHook
JDK信号处理相关
主要是sun.misc
包内两个类:Signal
和SignalHandler
Signal
构造函数
// 参数为对应信号的名称
public Signal(String var1)
通过
kill -l
可以查看信号的名称
SignalHandler
接口的核心是处理函数handle(Signal var1)
public interface SignalHandler {
SignalHandler SIG_DFL = new NativeSignalHandler(0L);
SignalHandler SIG_IGN = new NativeSignalHandler(1L);
void handle(Signal var1);
}
静态方法Signal.handle(Signal, SignalHandler)
注册Signal对应的处理器
在org.apache.spark.util.SignalUtils
类中就添加了对"TERM", "HUP", "INT"三个信号的处理
def registerLogger(log: Logger): Unit = synchronized {
if (!loggerRegistered) {
Seq("TERM", "HUP", "INT").foreach { sig =>
SignalUtils.register(sig) {
log.error("RECEIVED SIGNAL " + sig)
false
}
}
loggerRegistered = true
}
}
内部创建对应的信号Signal
,以及对应的ActionHandler
,其实现了SignalHandler
接口的handle
方法,内部会执行注册的方法,这里就是进行log输出