大规模链路跟踪的设计与实现

1 背景

image.png

服务调用层级很多,如何快速定位故障,处理异常。
某个用户报响应很慢,怎么排查?
某笔业务交易出现异常,怎么分析?
怎么防止推诿扯皮,互相甩锅?

2 理论依据--Google Dapper

http://bigbully.github.io/Dapper-translation/
方案基本思路是在服务调用的请求、响应中加入跟踪ID--traceid,traceid用于唯一标识一次链路调用。怎么实现的呢?逻辑很简单,参与者实现在httpheader中加入traceid信息,通过httpheader传输,如果存在则沿用发起者的traceid,否则新建。

标识服务调用上下游关系,通过代表自身节点id的--spanid,代表父节点的parentid。从而将整个链路串联起来。

可集合的信息包括:traceid,spanid,url,httpcode,exception等,用户还可以自定义字段。
对于调用端来说:发出请求的时间戳,收到信息的时间戳;
对于服务端来说:收到请求的时间戳、处理完响应时间戳。

贴一张链路跟踪处理流程图:

image.png

3 实现方案

现成的方案:pinpoint、zipkin、阿里鹰眼、大众CAT
各个方案的优缺点:
pinpoint 字节码注入,对代码完全无侵入,在部署的时候java -jar pinpoint。缺点是生态不大好,个性化较弱,只支持java

zipkin:代码侵入较低,侵入到:配置文件、拦截器。生态好,多语言客户端,个性化较强

阿里鹰眼:牛逼但闭源,高级功能较多,没啥好讲的。人傻钱多速来买

cat:侵入性最强,不建议使用。

综上所述,选zipkin。

官方github:https://github.com/openzipkin/zipkin

3.1 架构图

image.png

reporter:zipkin客户端,没有实现reporter的应用当然推不了链路监控数据了。
transport:http 、kafka,生产环境用kafka,异步解耦高性能
collector:zipkin-server后台任务,接收处理链路监控数据
storage:内存、Cassandra、ES、mysql,推荐用ES
api&ui:ui查询分析工具

可用于生产环境的架构: brave + kafka + zipkin server +es
理由 为何不选spring cloud sleuth,有点厌恶过渡封装,出了问题难以排查,对于生产环境并不是足够稳定。brave足够简单直接,个性化定制能力很强。
为何不用http来传输span跟踪信息?做监控,应当尽量不影响正常的业务代码运行,监控代码不要与业务代码耦合在一起,为什么呢?保证可读性,将来迁移改造很便利,保证业务代码是独立纯粹的,同理不能与常见的日志,异常,参数检验等耦合。
kafka的有点,异步高并发高性能解耦。
为何选es,而不是MySQL或者cassandra.日志采集量大,一天上亿条轻轻松松,一定要具备大容量,便于做日志聚合分析,es绝对首选。而且我们的技术栈也是采用了elk搭建日志体系。便于与业务日志聚合。

4 zipkin客户端:Brave

数据推送方式:HTTP KAFKA scribe

TraceContext中有以下一些属性

traceIdHigh - 唯一标识trace的16字节id,即128-bit
traceId - 唯一标识trace的8字节id
parentId - 父级Span的spanId
spanId - 在某个trace中唯一标识span的8字节id
shared - 如果为true,则表明需要从其他tracer上共享span信息
extra - 在某个trace中相关的额外数据集

image.png

4 与springboot集成

详细代码参考:https://github.com/wuzuquan/microservice

4.1引入jar包

<dependency>
            <groupId>io.zipkin.brave</groupId>
            <artifactId>brave-context-slf4j</artifactId>
            <version>4.9.1</version>
            <exclusions>
                <exclusion>
                    <artifactId>zipkin</artifactId>
                    <groupId>io.zipkin.java</groupId>
                </exclusion>
            </exclusions>
        </dependency>
        <dependency>
            <groupId>io.zipkin.reporter2</groupId>
            <artifactId>zipkin-sender-kafka11</artifactId>
            <version>2.7.3</version>
        </dependency>

        <dependency>
            <groupId>io.zipkin.brave</groupId>
            <artifactId>brave-instrumentation-okhttp3</artifactId>
            <version>4.9.1</version>
        </dependency>
        <dependency>
            <groupId>io.zipkin.brave</groupId>
            <artifactId>brave-instrumentation-spring-webmvc</artifactId>
            <version>4.9.1</version>
        </dependency>

4.2初始化zipkin 客户端配置

初始化一个kafkasender,对httptracing做一些个性化配置

 @Autowired
    private ZipkinProperties zipkinProperties;

    @Bean
    KafkaSender sender() {
        Map<String, String> pro = new HashMap<>();
        pro.put("acks", "1");
        // pro.put("linger.ms","50");

        pro.put("retries", "1");
        // pro.put("compression.type","gzip");
        // pro.put("producer.type","async");
        return KafkaSender.newBuilder().overrides(pro)
                .bootstrapServers(zipkinProperties.getKafkaHosts())
                .topic(zipkinProperties.getTopic())

                .encoding(Encoding.PROTO3)
                .build();
    }

    @Bean
    AsyncReporter<Span> spanReporter() {
        return AsyncReporter.builder(sender())
                .closeTimeout(500, TimeUnit.MILLISECONDS)
                .messageMaxBytes(200000)
                .queuedMaxSpans(500)
                .build();
    }

    @Bean
    Tracing tracing() {
        return Tracing.newBuilder()
                .localServiceName(zipkinProperties.getServiceName())
                .sampler(Sampler.ALWAYS_SAMPLE)
                .propagationFactory(ExtraFieldPropagation.newFactory(B3Propagation.FACTORY, "user-name"))
                .currentTraceContext(MDCCurrentTraceContext.create()) // puts trace IDs into logs
                .spanReporter(spanReporter()).build();
    }


    @Bean
    HttpTracing httpTracing(Tracing tracing) {
        return HttpTracing.newBuilder(tracing)
                .clientParser(new HttpClientParser() {

                    @Override
                    protected <Req> String spanName(HttpAdapter<Req, ?> adapter, Req req) {
                        return adapter.url(req).toString();
                    }

                    @Override
                    public <Req> void request(HttpAdapter<Req, ?> adapter, Req req, SpanCustomizer customizer) {
                        customizer.name(spanName(adapter, req)); // default span name

                        customizer.tag("url", adapter.url(req)); // the whole url, not just the path
                        super.request(adapter, req, customizer);
                    }

                })
                .serverParser(new HttpServerParser() {
                    @Override
                    protected <Req> String spanName(HttpAdapter<Req, ?> adapter, Req req) {
                        return adapter.url(req).toString();
                    }

                    @Override
                    public <Req> void request(HttpAdapter<Req, ?> adapter, Req req, SpanCustomizer customizer) {
                        customizer.name(spanName(adapter, req)); // default span name
                        customizer.tag("url", adapter.url(req)); // the whole url, not just the path
                        super.request(adapter, req, customizer);
                    }
                })
                .build();
    }

初始化完后在webconfig中配置tracing拦截器,当别人来调我的服务时,此时是server的角色,记录 server receive 、server send信息
在resttemplate中配置tracing拦截器,去调别人的http服务的时候,此时是client角色,记录client send、client receive信息

4.3在webconfig中配置拦截器

    @Override
    public void addInterceptors(InterceptorRegistry registry) {
        registry.addInterceptor(serverZipkinInterceptor)
                .excludePathPatterns("/metrics/**")
                .excludePathPatterns("/v2/api-docs","/configuration/**","/swagger-resources/**");

        registry.addInterceptor(new PrometheusMetricsInterceptor()).addPathPatterns("/**");

       
    }

4.4 在resttemplate中配置

resttemplate可用httpclient、okhttp、netty初始化,我们选用的是okhttp。
看看okhttp怎么初始化的吧

@Bean
    public OkHttpClient okHttpClient() {
        //注意:使用http2.0协议,只有明确知道服务端支持H2C协议的时候才能使用。添加H2C支持,
        OkHttpClient.Builder builder = new OkHttpClient.Builder()
                .protocols(Collections.singletonList(Protocol.H2_PRIOR_KNOWLEDGE));
        Dispatcher dispatcher=new Dispatcher(
                httpTracing.tracing().currentTraceContext()
                        .executorService(new Dispatcher().executorService())
        );
        //设置连接池大小
        dispatcher.setMaxRequests(1000);
        dispatcher.setMaxRequestsPerHost(200);
       ConnectionPool pool = new ConnectionPool(20, 30, TimeUnit.MINUTES);


        builder.connectTimeout(250, TimeUnit.MILLISECONDS)
                .readTimeout(10, TimeUnit.SECONDS)
                .writeTimeout(10, TimeUnit.SECONDS)
                .connectionPool(pool)

                .dispatcher(dispatcher)
               //链路监控埋点
                .addNetworkInterceptor(TracingInterceptor.create(httpTracing))
                //.addInterceptor(new OkHttpInterceptor())
                .retryOnConnectionFailure(false);
        return builder.build();
    }

RestTemplate restTemplate= new RestTemplate(OkHttp3Factory());

4.5 数据处理过程

并不是每来一个span数据就往kafka推,这样效率必然是最差的。
批量优化处理嘛,内存建一个span队列,当堆积的量达到设定的最大值,一次性往kafka推span数组。

zipkinserver监听kafka“zipkin”这个topic。收到span数组后,进行拆分,索引,校验等操作,再调ES的restful接口写入ES。

zipkinserver提供的查询分析工具就可以去ES取数据,进行链路监控分析了。

5 融合ELK日志体系

单单只有zipkin的数据还是不够的,zipkin的作用是将一个完整的调用链路串联起来。但缺乏详细的业务日志信息,怎么搞?
每个brave tracing会把traceid spanid等信息插入 MDC,实现了标准日志接口的日志工具既可以从MDC中读取traceid,在log.info中将traceid一并写入,从而将链路与每个服务的业务日志关联起来。
我要记录DB\MQ\NOSQL的日志能支持吗?对不起我不支持,把zipkin定位于一个纯粹的串联链路工具,不与业务代码耦合。
log.info会支持就好。

我们记录的结构化log数据格式:

        LogEntity logEntity=new LogEntity();
        logEntity.setTraceId(MDC.get("traceId"));
        logEntity.setSpanId(MDC.get("spanId"));
        logEntity.setIP(ip);
        logEntity.setAppName(getAppname());
        logEntity.setLevel(event.getLevel().levelStr);
        logEntity.setLogger(event.getLoggerName());
        logEntity.setLocation(event.getCallerData()[0].toString());
        logEntity.setTimestamp(LocalDateTime.now());
        logEntity.setMessage(event.getFormattedMessage());

代码详解core模块下的logback+kafka相关配置与数据结构

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,236评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,867评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,715评论 0 340
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,899评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,895评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,733评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,085评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,722评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,025评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,696评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,816评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,447评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,057评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,009评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,254评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,204评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,561评论 2 343

推荐阅读更多精彩内容