logback通过配置自动发送kafka消息并存入es

步骤

logback的AppenderBase和UnsynchronizedAppenderBase

先来段logback配置

<configuration>
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <Pattern>%d [%-5level][%t][%c][%X{tenant}][%X{requestId}] %m%n</Pattern>
        </encoder>
    </appender>

    <appender name="logfile" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <FileNamePattern>${LOG_HOME}/xxx-%d{yyyy-MM-dd}.log</FileNamePattern>
        </rollingPolicy>
        <layout class="ch.qos.logback.classic.PatternLayout">
            <pattern>[%d{HH:mm:ss:SSS}][%5p][%c:%L] %m%n</pattern>
        </layout>
    </appender>
    
<!--    <appender name="kafka" class="com.xxx.util.logback.UnblockedKafkaAppender"> -->
<!--        <needFilter>true</needFilter> -->
<!--        <includingPackage>com.xxx.mirc.redis.dubbo</includingPackage> -->
<!--    </appender> -->
    <root level="info">
<!--         <appender-ref ref="kafka"/> -->
        <appender-ref ref="logfile"/>
<!--         <appender-ref ref="STDOUT"/> -->
    </root>
</configuration>

上述的appender标签就是配置的logback处理类。有使用logback提供的ConsoleAppender,RollingFileAppender。同时也可以自定义扩展appender。
logback提供的抽象处理类。AppenderBase,UnsynchronizedAppenderBase,用来提供扩展支持。分析下源码。

abstract public class UnsynchronizedAppenderBase<E> extends ContextAwareBase implements
    Appender<E> {
  private ThreadLocal<Boolean> guard = new ThreadLocal<Boolean>();
  public void doAppend(E eventObject) {
 }

  abstract protected void append(E eventObject);
}
abstract public class AppenderBase<E> extends ContextAwareBase implements
    Appender<E> {
   private boolean guard = false;
  public void doAppend(E eventObject) {
 }

  public synchronized void doAppend(E eventObject);
}

其实这两个类,大多代码都一样。

实现的功能都是记录Status状态,然后检查Appender上的Filter是否满足条件,最后再调用子类的doAppend方法。用到设计模式:模板方法。

但是区别在于Appender的doAppend方法是synchronized的,UnsynchronizedAppenderBase则是用ThreadLocal的方式存储guard状态值。
自定义一个扩展类,实现发送kafka消息:

public class UnblockedKafkaAppender extends UnsynchronizedAppenderBase<ILoggingEvent>{
    BaseKafkaProducer<LogBackKafkaVo> producer;
    private static Set<String> includeSet = new HashSet<String>();
    private String includingPackage;
    private String kafkaBrokerPath;

    private boolean needFilter=true;

    public boolean isNeedFilter() {
        return needFilter;
    }

    @Override
    protected void append(ILoggingEvent eventObject) {
        if (needFilter) {
            boolean flag=false;
            if(CollectionUtils.isNotEmpty(includeSet)){
                for(String regex:includeSet){
                    if(eventObject.getLoggerName().matches(regex)){
                        flag=true;
                        break;
                    }
                }
            }
            if(!flag)
                return;
        }
        LogBackKafkaVo vo = new LogBackKafkaVo().build(eventObject);
        if (producer != null)
            try {
                producer.sendMsg(vo);
            } catch (Exception e) {
                e.printStackTrace();
            }
    }
    

    @Override
    public void start() {
        super.start();
        new Thread(new Runnable() {
            @Override
            public void run() {
                initProducer();
            }
        }).start();
    }
    
    private void initProducer(){
        while (!FileReaderUtils.existsFile("kafka.properties")) {
            try {
                Thread.sleep(50L);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
            
        }
        if (needFilter) {
            if (StringUtils.isBlank(includingPackage))
                return;
            for (String s : includingPackage.split(",")) {
                includeSet.add(s+".*");
            }
        }
        producer = new LogBackLoggerProducer();
        try {
            producer.kafkaProducerConfig=producer.initConfig(kafkaBrokerPath);
            producer.setProducer_type(KafkaConstant.ASYNC);
            producer.init();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

kafka操作/ 生产者为例

定义底层kafka操作类

public class ProducerProxy<T1, T2> {
    public ProducerProxy(ProducerConfig producerConfig,int size) {
        for(int i=0;i<size;i++){
            Producer<T1, T2> producer=new Producer<T1, T2>(producerConfig);
            prodMap.put(i, producer);
            queue.offer(producer);
        }
    }

    private Map<Integer,Producer<T1, T2>> prodMap=new HashMap<Integer,Producer<T1, T2>>();
    private ConcurrentLinkedQueue<Producer<T1, T2>> queue=new ConcurrentLinkedQueue<Producer<T1, T2>>();
    public void send(List<KeyedMessage<T1, T2>> messages) {
        if (prodMap.isEmpty())
            throw new IllegalStateException("prodMap can not be null");
            int i = java.util.concurrent.ThreadLocalRandom.current().nextInt(
                    prodMap.size());
            prodMap.get(i).send(messages);
    }
    public void close() {
        for(Producer<T1, T2> prod:prodMap.values())
            prod.close();
    }
    
    public void send(KeyedMessage<T1, T2> msg) {
        if (prodMap.isEmpty())
            throw new IllegalStateException("prodMap can not be null");
            int i = java.util.concurrent.ThreadLocalRandom.current().nextInt(
                    prodMap.size());
            prodMap.get(i).send(msg);
    }
    public Producer<T1, T2> pollProducer() {
        return queue.poll();
    }
}

ProducerProxy意义在于:创建多个producer,调用时,随机分配;

public class AbstractKafkaProducer {
    protected static ProducerProxy<String, String> producer;
    protected static ProducerProxy<byte[], byte[]> byteProducer;
    protected static Map<String,AsyncKafkaMessageProducer> kafkaMessageCacheMap = new HashMap<String,AsyncKafkaMessageProducer>(2);
    static Map<String,AbstractKafkaProducer> mapProducer=new HashMap<String,AbstractKafkaProducer>(2);
    private static AbstractKafkaProducer abstractKafkaProducer=new AbstractKafkaProducer();
    public static AbstractKafkaProducer getInstance(){
        return abstractKafkaProducer;
    }
    protected AbstractKafkaProducer(){
        if(!mapProducer.isEmpty())
            return;
        mapProducer.put(KafkaConstant.STRING, StringKafkaProducer.getInstance());
    }
    public void setProducer(ProducerProxy<String, String> producer) {
        AbstractKafkaProducer.producer = producer;
    }
    public void setByteProducer(ProducerProxy<byte[], byte[]> byteProducer) {
        AbstractKafkaProducer.byteProducer = byteProducer;
    }
    public void sendMsg(String prodtype,String serializerType,Object msg,String topic,String... key) throws IOException{
        mapProducer.get(serializerType).sendMsg(prodtype,msg,topic,key);
    }
    
    protected void sendMsg(String prodtype,Object msg,String topic,String... key) throws IOException{
    }
}

提供基础kafka操作类。

提供基础kafka操作类

public abstract class BaseKafkaProducer<T> implements KafkaProducer<T> {
    public static ProducerProxy<String, String> getProducer() {
        return producer;
    }

    public static ProducerProxy<byte[], byte[]> getByteProducer() {
        return byteProducer;
    }

    protected Properties initProducer(KafkaProducerConfig kafkaProducerConfig,
            String... home) {
        final Properties props = new Properties();
        
        props.put(KafkaConstant.Producer.metadata_broker_list, kafkaProducerConfig.getMetadata_broker_list());
        ...
        return props;
    }

    /**
     * 发送管理事件
     * 
     * @throws Exception
     */
    @Override
    public boolean sendMsg(final T t,String... key) throws Exception {
        if (t == null) {
            return false;
        }
        try {
            resetTopic();
            String type = producer_type;
            Object o = generateMsg(t);
            AbstractKafkaProducer
                    .getInstance()
                    .sendMsg(
                            type,
                            KafkaConstant.BYTEENCODER
                                    .equals(produce_serilize_class) ? KafkaConstant.BYTE
                                    : KafkaConstant.STRING, o, topic,key);
            return true;
        } catch (final Exception e) {
            logger.error("send msg to jump mq exception:", e);
            throw e;
        } catch (final Error e) {
            logger.error("send msg to jump mq error:", e);
            throw e;
        }
    }

    public void init(){}

    protected abstract void resetTopic();

    protected Object generateMsg(T t) {
        return t;
    }
}

暴露使用方式

@Configuration
public class DubboKafkaProducerConfiguration  {
    @Bean(name = "dubboLoggerProducer")
    public DubboLoggerProducer dubboLoggerProducer() throws IOException {
        BaseKafkaProducer<DubboInvokeDetail> dubboProducer=new DubboLoggerProducer();
        try {
            dubboProducer.setProducer_type(KafkaConstant.ASYNC);
            dubboProducer.init();
            KafkaDubboUtil.setLogSender((KafkaProducer<DubboInvokeDetail>) dubboProducer);
        } catch (Exception e) {
            LOG.error(e.getMessage(),e);
            return null;
        }
        return (DubboLoggerProducer) dubboProducer;
    }

}

es操作

写个kafka消费程序,写入es即可。

结果说明

{
    "_index":"logback-2017",
    "_type":"com.xxx.util.logback.LogBackKafkaVo",
    "_id":"hacyp0pdrvtt",
    "_version":1,
    "_score":1,
    "_source":{
        "argumentArray":"[]/r/n",
        "callerDataArray":"",
        "formattedMessage":"不存在memberno[]",
        "level":"INFO",
        "loggerContextVO":"LoggerContextVO{name='default', propertyMap={HOSTNAME=wx-test}, birthTime=1495017602946}",
        "loggerName":"com.xxx.Object",
        "shardId":25,
        "status":0,
        "threadName":"ConsumeMessageThread_10",
        "timeStamp":"2017-05-17 18:52:26"
    }
}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,596评论 18 139
  • 在应用程序中添加日志记录总的来说基于三个目的:监视代码中变量的变化情况,周期性的记录到文件中供其他应用进行统计分析...
    时待吾阅读 4,940评论 1 13
  • 在应用程序中添加日志记录总的来说基于三个目的:监视代码中变量的变化情况,周期性的记录到文件中供其他应用进行统计分析...
    时待吾阅读 4,957评论 0 6
  • 这次分享的内容是最近在孩子学校家长会上的一次发言。 在接到这个光荣的“政治任务”时,正好在埋头苦写部门工作总结及思...
    牛爸与波波侠阅读 328评论 0 0
  • 人生即将过半,回想前半生,除了学业不断精进与家庭幸福以外,其他很多生命的维度都是非常欠缺的。最近,对自己过往的人生...
    Sunny之生命管理阅读 1,242评论 7 15