微服务架构是一个强大的设计规范,按照业务划分单元,将负责的单体软件分解为更小、更容易管理的多个单元。然而这种灵活性是要付出代价的,那就是复杂性,如果出现了错误和异常,很难定位到问题。例如一个请求可能会调到很多微服务单元,如果没有分布式链路追踪,很难定位问题出现在哪一步,哪个单元。
举个例子,在微服务系统中,一个来自用户的请求,请求先达到前端A(如前端界面),然后通过远程调用,达到系统的中间件B、C(如负载均衡、网关等),最后达到后端服务D、E,后端经过一系列的业务逻辑计算最后将数据返回给用户。对于这样一个请求,经历了这么多个服务,怎么样将它的请求过程的数据记录下来呢?这就需要用到服务链路追踪。
目前,链路追踪组件有Google的Dapper,Twitter 的Zipkin,以及阿里的Eagleeye (鹰眼)等,它们都是非常优秀的链路追踪开源组件。
本文主要讲述如何在Spring Cloud Sleuth中集成Zipkin。在Spring Cloud Sleuth中集成Zipkin非常的简单,只需要引入相应的依赖和做相关的配置即可。
搭建sleuth环境和使用
- 在服务中添加maven依赖
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>
这个依赖会拉取sleuth所需要的所有核心库,只需要添加这一个jar包,我们的sleuth环境就搭建好了。
访问我们consumer服务可以看到日志:
2018-11-26 19:52:49.048 INFO [consumer-server,cc2bbb7c4086560a,cc2bbb7c4086560a,true] 39657 --- [nio-8111-exec-4] c.h.w.s.cloud.controller.Controller : =================================
2018-11-26 19:52:49.051 INFO [consumer-server,cc2bbb7c4086560a,cc2bbb7c4086560a,true] 39657 --- [nio-8111-exec-4] c.h.w.s.cloud.controller.Controller : =================================
可以看到provider的日志:
2018-11-26 19:52:50.389 INFO [provider-server,cc2bbb7c4086560a,3fa321844b01d3f1,true] 39650 --- [nio-8081-exec-1] c.h.w.s.c.controller.ProviderController : ========================================
2018-11-26 19:52:50.390 INFO [provider-server,cc2bbb7c4086560a,3fa321844b01d3f1,true] 39650 --- [nio-8081-exec-1] c.h.w.s.c.controller.ProviderController : provider service
2018-11-26 19:52:50.390 INFO [provider-server,cc2bbb7c4086560a,3fa321844b01d3f1,true] 39650 --- [nio-8081-exec-1] c.h.w.s.c.controller.ProviderController : ========================================
可以看到服务应用程序编写的所有日志中都包含spring cloud sleuth跟踪信息,其中[provider-server,cc2bbb7c4086560a,3fa321844b01d3f1,true]
这段跟踪信息分为应用程序名称
、跟踪id,用户请求的唯一表示符
、跨度ID,在用户事物中每个服务都会有一个跨度ID
、发送到zipkin标志,是否将日志发送给zipkin服务器
这里我们sleuth环境就搭建完成,接下来我们开始使用zipkin搭建日志收集工具
sleuth整合zipkin
- 搭建zipkin服务,收集日志
首先创建zipkin服务项目,添加maven依赖
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-eureka</artifactId>
</dependency>
<dependency>
<groupId>io.zipkin.java</groupId>
<artifactId>zipkin-server</artifactId>
</dependency>
<dependency>
<groupId>io.zipkin.java</groupId>
<artifactId>zipkin-autoconfigure-ui</artifactId>
</dependency>
接着在启动类上添加@EnableZipkinServer
注解
@SpringBootApplication
@EnableEurekaClient
@EnableZipkinStreamServer
public class ZipKinApplication {
public static void main(String[] args) {
SpringApplication.run(ZipKinApplication.class, args);
}
}
然后配置配置application配置文件
eureka:
instance:
prefer-ip-address: true #注册服务的IP
client:
serviceUrl:
defaultZone: http://localhost:8761/eureka
register-with-eureka: true
server:
port: 8999
spring:
application:
name: zipkin-server
配置端口,服务ID,并注册到eureka中,这样我们的zipkin服务就搭建好了,zipkin支持四种方式存储日志:
- 内存保存
- MySQL
- Cassandra
- elasticsearch
这里我们先模拟内存保存日志方式,这种方式,只要zipkin服务重启,日志数据就会丢失。
- 配置使用zipkin端
首先添加maven依赖
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
<version>RELEASE</version>
</dependency>
接着配置application配置文件
spring:
application:
name: consumer-server
sleuth:
sampler:
percentage: 1
zipkin:
base-url: http://localhost:8999
这里spring.zipkin.base-url
指定zipkin服务的位置,spring.sleuth.sampler.percentage
它的值介于0和1之间,0表示spring cloud sleuth不会发送任何事物数据到zipkin中,1表示spring cloud sleuth会发送所有事物日志到zipkin中,默认情况是0.1.
这样整个环境就搭建完成,分别启动所有的服务。
访问一次consumer服务,然后浏览器打开zipkin服务连接,就可以看到zipkin服务了
这里我们可以根据traceID搜索整个链路的详细信息,例如
zipkin整合Elasticsearch
上面zipkin服务是以内存的方式保存日志,很明显这不是一个很好的方式,这里我们使用Elasticsearch作为保存日志方式,并结合kibana工具,完成日志的简单搜索。
首先需要准备Elasticsearch环境、kibana环境、rabbitMQ环境。
- 重新搭建zipkin服务,添加maven依赖
<dependency>
<groupId>io.zipkin.java</groupId>
<artifactId>zipkin-autoconfigure-ui</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-sleuth-zipkin-stream</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-stream-rabbit</artifactId>
</dependency>
<dependency>
<groupId>io.zipkin.java</groupId>
<artifactId>zipkin</artifactId>
<version>2.8.4</version>
</dependency>
<dependency>
<groupId>io.zipkin.java</groupId>
<artifactId>zipkin-autoconfigure-storage-elasticsearch-http</artifactId>
<version>2.8.4</version>
</dependency>
- 重新配置application配置文件
spring:
application:
name: zipkin-server
rabbitmq: #mq连接配置
addresses: 192.168.33.10:5672 #address
username: guest #用户名
password: guest #密码
cloud:
stream:
bindings:
output:
content-type: application/json #mq序列化方式
input:
content-type: application/json #mq序列化方式
server:
port: 8999
zipkin:
storage:
type: elasticsearch #zipkin保存方式
StorageComponent: elasticsearch
elasticsearch: #elasticsearch配置
cluster: elasticsearch
max-requests: 30
index: zipkin
index-shards: 3
index-replicas: 1
hosts: 192.168.33.10:9200
eureka:
instance:
prefer-ip-address: true #注册服务的IP
client:
serviceUrl:
defaultZone: http://localhost:8761/eureka
register-with-eureka: true
这里就是rabbitMQ配置和elasticsearch配置,注释已经说明。这里zipkin服务端已经配置完成
- 配置zipkin客户端的使用,添加maven依赖
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-sleuth-zipkin-stream</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-stream-rabbit</artifactId>
</dependency>
- 配置application配置文件
spring:
application:
name: consumer-server
rabbitmq:
addresses: 192.168.33.10:5672
username: guest
password: guest
sleuth:
sampler:
percentage: 1
zipkin:
base-url: http://localhost:8999
这里也是一些基本配置,不用过多说明,这样就完成整个环境的搭建,分别启动所有服务。
等所有服务都启动完成后,访问consumer 端,日志显示正常,zipkin管理后端无异常,打开kibana,创建索引,我创建的索引为zipkin*
,索引创建成功后,就可以看到访问日志了
这里我们日志收集工作基本完成,剩下的就是kibana的使用了。