elastic job 阅读

前面的话

elastic job是当当开源的一个分布式调度系统。基于quartz实现的。这里只分析了lite类型的job,主要功能如下:
1、分布式调度协调
2、弹性扩容缩容
3、失效转移
4、错过执行作业重触发
5、作业分片一致性,保证同一分片在分布式环境中仅一个执行实例
6、自诊断并修复分布式不稳定造成的问题
7、支持并行调度
8、支持作业生命周期操作
9、丰富的作业类型
10、Spring整合以及命名空间提供
11、运维平台
elastic job 不能满足的场景有:
1、由于elastic-job只用了quartz的cronTrigger,所以就不支持quartz的simpleTrigger,即执行指定次数的任务。
2、elastic-job,job与调度器是1:1的关系,当任务过多时,会起很多线程,这是一个隐患。启动时,会启一个quartz的调度线程,一个quartz的工作线程,和elastic-job自己启的cpuCore*2的工作线程。任务数与线程数至少是3倍的关系
3、misfired策略单一。当任务集群全部宕机重启时,不能重新执行一次任务。这个功能在quartz 使用jobsotresupport策略的时候有。
4、当任务过多时,在运维平台上查询任务很慢。主要是需要遍历zk的节点。

一个例子进入elastic-job的源码走读

这里例子主要是通过spring方式注册和启动任务。

  <!--配置作业注册中心 -->
    <reg:zookeeper id="regCenter" server-lists="192.168.102.45:2181" namespace="test-dd-jobs" base-sleep-time-milliseconds="1000" max-sleep-time-milliseconds="3000" max-retries="3" />

    <!-- 配置作业-->
    <job:simple id="foreOffElasticJob" class="com.test.elastic.job.MyElasticJob" registry-center-ref="regCenter" cron="0/10 * * * * ?" sharding-total-count="3" sharding-item-parameters="0=A,1=B,2=C" />

其中任务的执行逻辑代码:

public class MyElasticJob implements SimpleJob {
    @Override
    public void execute(ShardingContext shardingContext) {
        System.out.println(shardingContext.getShardingItem()+"=========start");
        try {
            System.out.println(shardingContext);
            Thread.sleep(5000l);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        System.out.println(shardingContext.getShardingItem()+"=========end");
    }
}

自己的业务逻辑需要实现elastic-job提供的接口。


elastic-job提供业务逻辑接口

任务注册过程

elastic-job通过自定义spring标签来进行注册中心的定义与任务的配置。

spring标签定义一瞥

reg标签的xsd定义里可以看到reg的属性有:

  • server-lists :zk主机列表。ip1:port1,ip2:port2
  • namespace : 任务根目录
  • base-sleep-time-milliseconds :等待重试的间隔时间的初始值
  • max-sleep-time-milliseconds :等待重试的间隔时间的最大值
  • max-retries :最大重试次数
  • session-timeout-milliseconds :会话超时时间
  • connection-timeout-milliseconds:连接超时时间
  • digest : 连接Zookeeper的权限令牌
    标签解析类com.dangdang.ddframe.job.lite.spring.reg.handler.RegNamespaceHandler.主要是初始化zk连接。具体的类为ZookeeperRegistryCenter
    job 标签有三种,分为simple,script和dataflow,分别代表简单任务,脚本任务和数据流任务。其中simple类型的任务跟我们平时见到的任务一样,与quartz的cron任务类似。script类型的任务,业务处理逻辑是用一些脚本语言实现的,通过调用Apache的DefaultExecutor().execute方法来实现。dataflow类型的任务,主要是提供了两个接口供业务实现,一个是数据获取接口,一个是数据处理接口。获取数据的时候,会根据streamingProcess的配置来决定是流式处理还是非流式处理。(流式处理含义是,一次任务触发,会一直获取数据,知道获取的数据为空本次任务才算执行完成。非流式表示一次任务只获取一次数据)
    job标签的属性有很多,这里就列出主要的属性:
  • listener、distributed-listener :定义job的监听。用户在任务执行前后做额外的处理。
  • class : 任务处理逻辑的全路径。
  • job-ref :任务的关联beanid,优先级大于class里配置的类路径。
  • registry-center-ref : 注册中心的beanid。
  • cron : cron表达式。
  • sharding-total-count : 总的分片数。
  • sharding-item-parameters : 分片序列号和分片参数,用=连接,多个分片之间用分割。
  • job-parameter : 作业参数
  • max-time-diff-seconds: 容忍本机与注册中心时间的误差秒数。
  • failover : 是否打开失效转移功能。默认false
  • misfire:是否开启misfire 。默认true
  • job-sharding-strategy-class : 作业分片类全路径
  • disabled : 禁用作业,默认false
  • overwrite : 启动时是否更新作业,默认false
  • executor-service-handler : 作业处理的线程池类,默认com.dangdang.ddframe.job.executor.handler.impl.DefaultExecutorServiceHandler
  • job-exception-handler :异常处理类。默认com.dangdang.ddframe.job.executor.handler.impl.DefaultJobExceptionHandler
  • event-trace-rdb-data-source : 作业事件追踪的数据源。
    若是dataflow类型任务,还有
  • streaming-process : 是否流式处理数据。默认 false
    若是script类型任务,有
  • script-command-line : 执行脚本的全路径及名称。
    任务配置完成之后,通过spring的自定义标签解析,组装,获得一个SpringJobScheduler类型的bean。调用init方法初始化。
 public void init() {
//(1)持久化任务配置信息到zk的config节点下
        LiteJobConfiguration liteJobConfigFromRegCenter = schedulerFacade.updateJobConfiguration(liteJobConfig);
      //(2)设置分片总数
        JobRegistry.getInstance().setCurrentShardingTotalCount(liteJobConfigFromRegCenter.getJobName(), liteJobConfigFromRegCenter.getTypeConfig().getCoreConfig().getShardingTotalCount());
// (3)初始化quartz的scheduler,组装jobdetail
        JobScheduleController jobScheduleController = new JobScheduleController(
                createScheduler(), createJobDetail(liteJobConfigFromRegCenter.getTypeConfig().getJobClass()), liteJobConfigFromRegCenter.getJobName());
//(4)将任务放到内存里,并起zk监听,监听节点/jobname
        JobRegistry.getInstance().registerJob(liteJobConfigFromRegCenter.getJobName(), jobScheduleController, regCenter);
//(5)处理作业的启动信息。启动前准备工作。
        schedulerFacade.registerStartUpInfo(!liteJobConfigFromRegCenter.isDisabled());
     //(6)真正的启动调度器去定时的调度任务【主要是quartz来做】   
jobScheduleController.scheduleJob(liteJobConfigFromRegCenter.getTypeConfig().getCoreConfig().getCron());
    }

下面主要来看看第(5)步的处理,其他的处理都比较简单。

 public void registerStartUpInfo(final boolean enabled) {
// 启动所有监听。
        listenerManager.startAllListeners();
//选主 /jobname/leader/election/instance/instanceid  临时节点
        leaderService.electLeader();
// 往zk上注册节点ip信息,持久化节点/jobname/servers/ip
        serverService.persistOnline(enabled);
// 注册实例信息,临时节点,/jobname/instance/instanceid[instanceid格式:ip@-@pid]
        instanceService.persistOnline();
// 设置分片标志节点,持久化节点 /jobname/leader/sharding/necessary
        shardingService.setReshardingFlag();
//初始化作业监听服务
        monitorService.listen();
        if (!reconcileService.isRunning()) {
            reconcileService.startAsync();
        }
    }

很多逻辑其实都在各个listener里。监听zk各个节点的变化,做不同的处理。

    public void startAllListeners() {
//主节点选举监听管理器
        electionListenerManager.start();
//分片监听管理器.
        shardingListenerManager.start();
//失效转移监听管理器
        failoverListenerManager.start();
//幂等性监听管理器
        monitorExecutionListenerManager.start();
//运行实例关闭监听管理器
        shutdownListenerManager.start();
//作业触发监听管理器
        triggerListenerManager.start();
// 重调度监听管理器
        rescheduleListenerManager.start();
//保证分布式任务全部开始和结束状态监听管理器
        guaranteeListenerManager.start();
//注册连接状态监听器
        jobNodeStorage.addConnectionStateListener(regCenterConnectionStateListener);
    }

下面分别走读下每个管理器所做的事情。

主节点选举过程
public void executeInLeader(final String latchNode, final LeaderExecutionCallback callback) {
        try (LeaderLatch latch = new LeaderLatch(getClient(), jobNodePath.getFullPath(latchNode))) {
            latch.start();
            latch.await();
            callback.execute();
        //CHECKSTYLE:OFF
        } catch (final Exception ex) {
        //CHECKSTYLE:ON
            handleException(ex);
        }
    }

利用zk的客户端包curator的选主过程。只有选主成功了,才执行callback.execute方法。主要是在zk上创建临时节点/jobname/leader/election/instance,值为主节点的instance id。
ElectionListenerManager中起了两个监听,其实这里是有点小问题的。

  @Override
    public void start() {
        addDataListener(new LeaderElectionJobListener());
        addDataListener(new LeaderAbdicationJobListener());
    }

addDataListener(new LeaderElectionJobListener());监听不是太有必要。这个主要是监听临时节点是否被删除,若被删除了,则重新选举节点。事实上,

         (1)  latch.start();
            (2)latch.await();
            (3)callback.execute();

这段代码里就包含了上述功能。(1)中表示开始选举主节点。(2)等待选举成功,这里是一个while死循环,一直在看当前线程是不是主节点,如果不是,继续循环,若果是,则执行execute,在zk上建立主节点选举信息。当主节点挂掉之后,zk上的相应节点被删除掉。那么就会重新选举,直到有实例获取主节点权限,再次执行callback.execute,建立主节点信息。
测试结果也是支持上面结论的。

分片处理过程

shardingListenerManager这里的分片只是设置一个需要分片的标志。这里监听zk上的任务配置的任务分片个数是否被修改,同时监听作业实例是否有变化,如果有变化,则设置分片标志位。标志位zk上的路径为:/jobname/leader/sharding/necessary.临时节点。
真正进行任务分片是在任务调度过程中。真正执行前,获取分片上下文的时候进行的。代码如下:
在执行AbstractElasticJobExecutor的execute方法的时候有如下语句ShardingContexts shardingContexts = jobFacade.getShardingContexts();.

 @Override
    public ShardingContexts getShardingContexts() {
        boolean isFailover = configService.load(true).isFailover();
        if (isFailover) {
            List<Integer> failoverShardingItems = failoverService.getLocalFailoverItems();
            if (!failoverShardingItems.isEmpty()) {
                return executionContextService.getJobShardingContext(failoverShardingItems);
            }
        }
/////这里就是进行分片的逻辑
        shardingService.shardingIfNecessary();
        List<Integer> shardingItems = shardingService.getLocalShardingItems();
        if (isFailover) {
            shardingItems.removeAll(failoverService.getLocalTakeOffItems());
        }
        shardingItems.removeAll(executionService.getDisabledItems(shardingItems));
        return executionContextService.getJobShardingContext(shardingItems);
    }
public void shardingIfNecessary() {
        List<JobInstance> availableJobInstances = instanceService.getAvailableJobInstances();
        if (!isNeedSharding() || availableJobInstances.isEmpty()) {
            return;
        }
//若不是主节点,则等待分片完成
        if (!leaderService.isLeaderUntilBlock()) {
            blockUntilShardingCompleted();
            return;
        }
//先等待其他的任务完成。
        waitingOtherJobCompleted();
        LiteJobConfiguration liteJobConfig = configService.load(false);
        int shardingTotalCount = liteJobConfig.getTypeConfig().getCoreConfig().getShardingTotalCount();
        log.debug("Job '{}' sharding begin.", jobName);
//建立临时节点/jobname/leader/sharding/processing,标志正在进行分片
        jobNodeStorage.fillEphemeralJobNode(ShardingNode.PROCESSING, "");
    //建立分片信息节点 /jobname/sharding/分片ID,持久化节点
        resetShardingInfo(shardingTotalCount);
//获取分片策略
        JobShardingStrategy jobShardingStrategy = JobShardingStrategyFactory.getStrategy(liteJobConfig.getJobShardingStrategyClass());
//开始分片。zk事务。PersistShardingInfoTransactionExecutionCallback将分片的信息持久化到zk上。zk上的路径为/jobname/sharding/item/instanceid.然后在这个事务里删除processing和necessary节点。
        jobNodeStorage.executeInTransaction(new PersistShardingInfoTransactionExecutionCallback(jobShardingStrategy.sharding(availableJobInstances, jobName, shardingTotalCount)));
        log.debug("Job '{}' sharding complete.", jobName);
    }

执行完上面的代码,任务分片完成。就可以进行调度了。

失效转移监听管理器

这里就直接引用[芋道源码].这里讲的很清楚。

上面主要的功能就在这些listener里。

任务调度

任务主要由quartz来完成,下面就来看看实现quartz的job接口的类是如何实现的。
lite作业调度代码

public final class LiteJob implements Job {
    
    @Setter
    private ElasticJob elasticJob;
    
    @Setter
    private JobFacade jobFacade;
    
    @Override
    public void execute(final JobExecutionContext context) throws JobExecutionException {
        JobExecutorFactory.getJobExecutor(elasticJob, jobFacade).execute();
    }
}

真正的执行器是AbstractElasticJobExecutor.下面看下这个的核心代码实现:

public final void execute() {
        try {
            jobFacade.checkJobExecutionEnvironment();
        } catch (final JobExecutionEnvironmentException cause) {
            jobExceptionHandler.handleException(jobName, cause);
        }
// 获取分片信息,这里会真正的进行数据分片
        ShardingContexts shardingContexts = jobFacade.getShardingContexts();
        if (shardingContexts.isAllowSendJobEvent()) {
            jobFacade.postJobStatusTraceEvent(shardingContexts.getTaskId(), State.TASK_STAGING, String.format("Job '%s' execute begin.", jobName));
        }
//若当前有分片的执行状态有running,则置 本次为misfired状态。在zk上添加/jobname/sharding/item/misfire,持久化节点
        if (jobFacade.misfireIfRunning(shardingContexts.getShardingItemParameters().keySet())) {
            if (shardingContexts.isAllowSendJobEvent()) {
                jobFacade.postJobStatusTraceEvent(shardingContexts.getTaskId(), State.TASK_FINISHED, String.format(
                        "Previous job '%s' - shardingItems '%s' is still running, misfired job will start after previous job completed.", jobName, 
                        shardingContexts.getShardingItemParameters().keySet()));
            }
            return;
        }
        try {
            jobFacade.beforeJobExecuted(shardingContexts);
            //CHECKSTYLE:OFF
        } catch (final Throwable cause) {
            //CHECKSTYLE:ON
            jobExceptionHandler.handleException(jobName, cause);
        }
//执行业务
        execute(shardingContexts, JobExecutionEvent.ExecutionSource.NORMAL_TRIGGER);
//执行misfired的任务
        while (jobFacade.isExecuteMisfired(shardingContexts.getShardingItemParameters().keySet())) {
            jobFacade.clearMisfire(shardingContexts.getShardingItemParameters().keySet());
            execute(shardingContexts, JobExecutionEvent.ExecutionSource.MISFIRE);
        }
// 如果有开启失效转移,则执行失效转移的操作,取孤儿分片那边去获取任务进行执行。
        jobFacade.failoverIfNecessary();
        try {
            jobFacade.afterJobExecuted(shardingContexts);
            //CHECKSTYLE:OFF
        } catch (final Throwable cause) {
            //CHECKSTYLE:ON
            jobExceptionHandler.handleException(jobName, cause);
        }
    }

看这里的execute方法

private void execute(final ShardingContexts shardingContexts, final JobExecutionEvent.ExecutionSource executionSource) {
        if (shardingContexts.getShardingItemParameters().isEmpty()) {
            if (shardingContexts.isAllowSendJobEvent()) {
                jobFacade.postJobStatusTraceEvent(shardingContexts.getTaskId(), State.TASK_FINISHED, String.format("Sharding item for job '%s' is empty.", jobName));
            }
            return;
        }
        jobFacade.registerJobBegin(shardingContexts);
        String taskId = shardingContexts.getTaskId();
        if (shardingContexts.isAllowSendJobEvent()) {
            jobFacade.postJobStatusTraceEvent(taskId, State.TASK_RUNNING, "");
        }
        try {
            process(shardingContexts, executionSource);
        } finally {
            // TODO 考虑增加作业失败的状态,并且考虑如何处理作业失败的整体回路
            jobFacade.registerJobCompleted(shardingContexts);
            if (itemErrorMessages.isEmpty()) {
                if (shardingContexts.isAllowSendJobEvent()) {
                    jobFacade.postJobStatusTraceEvent(taskId, State.TASK_FINISHED, "");
                }
            } else {
                if (shardingContexts.isAllowSendJobEvent()) {
                    jobFacade.postJobStatusTraceEvent(taskId, State.TASK_ERROR, itemErrorMessages.toString());
                }
            }
        }
    }

这里最主要的是process方法:

private void process(final ShardingContexts shardingContexts, final JobExecutionEvent.ExecutionSource executionSource) {
        Collection<Integer> items = shardingContexts.getShardingItemParameters().keySet();
        if (1 == items.size()) {
            int item = shardingContexts.getShardingItemParameters().keySet().iterator().next();
            JobExecutionEvent jobExecutionEvent =  new JobExecutionEvent(shardingContexts.getTaskId(), jobName, executionSource, item);
            process(shardingContexts, item, jobExecutionEvent);
            return;
        }
        final CountDownLatch latch = new CountDownLatch(items.size());
        for (final int each : items) {
            final JobExecutionEvent jobExecutionEvent = new JobExecutionEvent(shardingContexts.getTaskId(), jobName, executionSource, each);
            if (executorService.isShutdown()) {
                return;
            }
            executorService.submit(new Runnable() {
                
                @Override
                public void run() {
                    try {
//这个就是真正的业务逻辑实现了。
                        process(shardingContexts, each, jobExecutionEvent);
                    } finally {
                        latch.countDown();
                    }
                }
            });
        }
        try {
            latch.await();
        } catch (final InterruptedException ex) {
            Thread.currentThread().interrupt();
        }
    }

上面的方法里可以看出,同一个任务实例上的数据分片是同时完成的,即,只有同一个实例上的分片都完成了才算该实例的任务调度完成。

写在后面

通过上面分析,可以看到该调度框架对任务少的循环任务,同时对任务的安全性要求比较高的场景下使用。像电商的一些营销推广任务,任务多,任务类型多,有大量的有限次数,且每种任务的misfired策略要求不同的任务不太合适。同时也不太适合跨系统,跨DC的任务的数据管理。
这也是我们自己要重复造轮子的一个原因。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,214评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,307评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,543评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,221评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,224评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,007评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,313评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,956评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,441评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,925评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,018评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,685评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,234评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,240评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,464评论 1 261
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,467评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,762评论 2 345

推荐阅读更多精彩内容