k8s 部署 httpserver

httpserver 代码

package main

import (
    "context"
    "fmt"
    "github.com/fsnotify/fsnotify"
    log "github.com/sirupsen/logrus"
    "github.com/spf13/viper"
    "io"
    "net"
    "net/http"
    "os"
    "os/signal"
    "strconv"
    "strings"
    "syscall"
    "time"
)
var logLevel string
var viperInstance *viper.Viper

func main() {
    httpserverConf := os.Getenv("HTTPSERVER_CONF")
    log.Info("configFile from env is " + httpserverConf)
    if httpserverConf == "" {
        httpserverConf = "/etc/httpserver/httpserver.properties"
    }
    log.Info("confFile is " + httpserverConf)
    viperInstance = viper.New() // viper实例
    viperInstance.SetConfigFile(httpserverConf) // 指定配置文件路径

    err := viperInstance.ReadInConfig()
    if err != nil { // 处理读取配置文件的错误
        panic(fmt.Errorf("Fatal error config file: %s \n", err))
    }
    viperInstance.WatchConfig()
    viperInstance.OnConfigChange(func(e fsnotify.Event) {
        fmt.Println("Detect config change: %s \n", e.String())
        log.Warn("Config file updated.")
        viperLoadConf(viperInstance)  // 加载配置的方法
    })
    viperLoadConf(viperInstance)

    port := 8080
    portstr := ":" + strconv.Itoa(port)
    log.Info("httpserver listend port: ", port)

    mux := http.NewServeMux()
    mux.HandleFunc("/", HttpHandler)
    mux.HandleFunc("/healthz", HealthZ)
    mux.HandleFunc("/sleep", SleepTest)
    server := &http.Server{
        Addr:         portstr,
        Handler:      mux,
    }
    go server.ListenAndServe()
    listenSignal(context.Background(), server)
}

func dynamicConfig() {
    viperInstance.WatchConfig()
    viperInstance.OnConfigChange(func(e fsnotify.Event) {
        fmt.Println("Detect config change: %s \n", e.String())
        log.Warn("Config file updated.")
        viperLoadConf(viperInstance)  // 加载配置的方法
    })
}

func viperLoadConf(viperInstance *viper.Viper) {
    logLevel = viperInstance.GetString("log_level")
    level, err := log.ParseLevel(logLevel)
    if err != nil {
        level = log.GetLevel()
    }
    log.SetLevel(level)
    myconf := viperInstance.GetString("my_conf")
    log.Trace(myconf + " in viperLoadConf")
    log.Debug(myconf + " in viperLoadConf")
    log.Info(myconf + " in viperLoadConf")
    log.Warn(myconf + " in viperLoadConf")
    log.Error(myconf + " in viperLoadConf")
}

func HealthZ(w http.ResponseWriter, r *http.Request) {
    w.WriteHeader(200)
}
func HttpHandler(w http.ResponseWriter, r *http.Request) {
    myconf := viperInstance.GetString("my_conf")
    log.Trace(myconf)
    log.Debug(myconf)
    log.Info(myconf)
    log.Warn(myconf)
    log.Error(myconf)
    ip := ClientIP(r)
    httpcode := 200
    log.Info("reqLog: clientIP : " + ip + " httpcode " + strconv.Itoa(httpcode))
    headers := r.Header
    log.Info("req headers : %+v", headers)
    for k, v := range headers {
        for _, val := range v {
            w.Header().Set(k, val)
        }
    }
    version := os.Getenv("VERSION")
    if version != "" {
        w.Header().Set("VERSION", version)
    }
    w.WriteHeader(httpcode)
    io.WriteString(w, "ok")
}

func ClientIP(r *http.Request) string {
    xForwardedFor := r.Header.Get("X-Forwarded-For")
    ip := strings.TrimSpace(strings.Split(xForwardedFor, ",")[0])
    if ip != "" {
        return ip
    }
    ip = strings.TrimSpace(r.Header.Get("X-Real-Ip"))
    if ip != "" {
        return ip
    }
    if ip, _, err := net.SplitHostPort(strings.TrimSpace(r.RemoteAddr)); err == nil {
        return ip
    }
    return ""
}

func SleepTest(w http.ResponseWriter, r *http.Request) {
    values := r.URL.Query()
    sleeptimeStr := values.Get("sleep")
    sleeptime, err := strconv.Atoi(sleeptimeStr)
    if err != nil {
        sleeptime = 1
    }
    time.Sleep(time.Duration(sleeptime) * time.Second)
    fmt.Fprintln(w, "Hello world, sleep " + strconv.Itoa(sleeptime) + "s")
    log.Printf( "Hello world, sleep %+vs", sleeptime)
}

// 优雅终止
func listenSignal(ctx context.Context, httpSrv *http.Server) {
    sigs := make(chan os.Signal, 1)
    signal.Notify(sigs, syscall.SIGHUP, syscall.SIGINT, syscall.SIGTERM, syscall.SIGQUIT)

    select {
    case <-sigs:
        fmt.Println("notify sigs")
        httpSrv.Shutdown(ctx)
        fmt.Println("http shutdown gracefully")
    }
}

Deployment Yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: httpserver
  namespace: mxs
  labels:
    app: httpserver
spec:
  replicas: 2
  strategy:
    type: RollingUpdate
    rollingUpdate:
      # maxSurge: 最大激增数, 指更新过程中, 最多可以比replicas预先设定值多出的pod数量, 可以为固定值或百分比(默认25%), 更新过程中最多会有replicas + maxSurge个pod
      maxSurge: 2
      # maxUnavailable: 最大无效数, 指更新过程中, 最多有几个pod处于无法服务状态, 当maxSurge不为0时, 此栏位也不可为0, 整个更新过程中, 会有maxUnavailable个pod处于Terminating状态
      maxUnavailable: 1
  # minReadySeconds: 容器内应用的启动时间, pod变为run状态, 会在minReadySeconds后继续更新下一个pod. 如果不设置该属性, pod会在run成功后, 立即更新下一个pod.
  minReadySeconds: 15
  selector:
    matchLabels:
      app: httpserver
  template:
    metadata:
      labels:
        app: httpserver
    spec:
      containers:
        - name: httpserver
          image: tjudream/httpserver:v5
          command: [/httpserver]
          envFrom:
          - configMapRef: 
              name: httpserver-env-cm
          volumeMounts:
          - name: config-volume
            mountPath: /etc/httpserver/
          resources:
            limits:
              cpu: 500m
              memory: 512Mi
            requests:
              cpu: 500m
              memory: 512Mi
          # 优雅启动
          livenessProbe:
            httpGet:
              ### this probe will fail with 404 error code
              ### only httpcode between 200-400 is retreated as success
              path: /healthz
              port: 8080
            initialDelaySeconds: 10
            periodSeconds: 5
          # 探活
          readinessProbe:
            httpGet:
              ### this probe will fail with 404 error code
              ### only httpcode between 200-400 is retreated as success
              path: /healthz
              port: 8080
            initialDelaySeconds: 30
            periodSeconds: 5
            successThreshold: 2
      volumes:
        - name: config-volume
          configMap:
          # Provide the name of the ConfigMap containing the files you want
          # to add to the container
            name: httpserver-conf-cm

ConfigMap

apiVersion: v1
kind: ConfigMap
metadata:
  name: httpserver-env-cm
  namespace: mxs
data:
  VERSION: v1.0 from cm
  HTTPSERVER_CONF: /etc/httpserver/httpserver.properties
---
apiVersion: v1
kind: ConfigMap
metadata:
  name: httpserver-conf-cm
  namespace: mxs
data:
  httpserver.properties: |
  log_level: debug
  my_conf: myconf_v1

优雅启动

deploy 中的 livenessProbe 提供优雅启动功能,只有当 8080 端口的 http get 请求 url 127.0.0.1/healthz 返回 200 时,pod 才会被 k8s 设置成 ready 状态,然后才会接收外部流量

livenessProbe:
          httpGet:
            ### this probe will fail with 404 error code
            ### only httpcode between 200-400 is retreated as success
            path: /healthz
            port: 8080
          initialDelaySeconds: 10
          periodSeconds: 5

优雅终止

go 代码中的 listenSignal 函数提供优雅终止功能,当 go 的 httpserver 服务接收到 k8s 的终止信号时,会调用 httpserver 的 Shutdown 函数,不再接收新的请求,将现在正在处理中的请求处理完成后会主动退出

// 优雅终止
func listenSignal(ctx context.Context, httpSrv *http.Server) {
    sigs := make(chan os.Signal, 1)
    signal.Notify(sigs, syscall.SIGHUP, syscall.SIGINT, syscall.SIGTERM, syscall.SIGQUIT)

    select {
    case <-sigs:
        fmt.Println("notify sigs")
        httpSrv.Shutdown(ctx)
        fmt.Println("http shutdown gracefully")
    }
}

资源需求和 QoS 保证

k8s 的 QoS 保证:

  • pod中所有容器都必须统一设置limits,并且设置参数都一致,如果有一个容器要设置requests,那么所有容器都要设置,并设置参数同limits一致,那么这个pod的QoS就是Guaranteed级别
  • Burstable: pod中只要有一个容器的requests和limits的设置不相同,该pod的QoS即为Burstable
  • Best-Effort:如果对于全部的resources来说requests与limits均未设置,该pod的QoS即为Best-Effort

3种QoS优先级从有低到高(从左向右):Best-Effort pods -> Burstable pods -> Guaranteed pods

httpserver 这个容器设置了一样的 requests 和 limit 且只有这一个容器,所以是最高 QoS 保证,即 Guaranteed

探活

deploy 中配置的 readinessProbe 用于探活,一旦 /healthz 这个接口请求不通,或者返回非 200~400 的状态码,则 k8s 就会将这个pod调度为非 ready 状态,流量就不会请求到这个 pod 上了

 readinessProbe:
          httpGet:
            ### this probe will fail with 404 error code
            ### only httpcode between 200-400 is retreated as success
            path: /healthz
            port: 8080
          initialDelaySeconds: 30
          periodSeconds: 5
          successThreshold: 2

日常运维需求,日志等级

日常日志查看,其中 httpserver-565798b9f9-4rghf 是 pod 的名称,由于 httpserver 将日志打印到控制台中所以可以直接通过 logs 命令查看

kubectl logs -f httpserver-565798b9f9-4rghf

但是在pod出现异常退出时,日志也就销毁了,这种方法就无法查看到日志了

常用的日志解决方案是采用 ELK 方案,搭建 ElasticSearch 集群,采用 filebeat(最初是 logstash,由于内存消耗比较大,所以现在一般用 filebeat 替代)采集日志存储至 ES 中,最后通过 Kibana 查询和展示。

filebeat 可以采用 sidecar 的方式挂载到业务容器中,也可通过 DeamonSet 的方式启动之后进行收集。

配置和代码分离

通过 ConfigMap 配置 httpserver 的配置

envFrom:
- configMapRef: 
    name: httpserver-env-cm
volumeMounts:
- name: config-volume
  mountPath: /etc/httpserver/httpserver.properties

ConfigMap + viper 实现 httpserver 热加载配置

    viperInstance.WatchConfig()
    viperInstance.OnConfigChange(func(e fsnotify.Event) {
        fmt.Println("Detect config change: %s \n", e.String())
        log.Warn("Config file updated.")
        viperLoadConf(viperInstance)  // 加载配置的方法
    })

当 ConfigMap 发生变化时,会被 viperInstance.WatchConfig() 监控到,然后会调用 OnConfigChange 函数中的匿名函数,重新加载配置

HPA 动态扩缩容

HPA的全称为Horizontal Pod Autoscaling,它可以根据当前pod资源的使用率(如CPU、磁盘、内存等),进行副本数的动态的扩容与缩容,以便减轻各个pod的压力。
安装 meritcs

wget https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml

在 image: k8s.gcr.io/metrics-server/metrics-server:v0.6.1 上边加入一行 - --kubelet-insecure-tls


image.png
kubectl apply -f components.yaml

创建 hpa,在 cpu 使用率高于 80% 或者内存使用率高于 70% 的时候进行扩容,最少 2 个实例,最多 5 个实例

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:
  name: httpserver
  namespace: mxs
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: httpserver
  minReplicas: 2
  maxReplicas: 5
  metrics:
  - type: Resource
    resource:
      name: cpu
      target:
        type: Utilization
        averageUtilization: 80
  - type: Resource
    resource:
      name: memory
      target:
        type: Utilization
        averageUtilization: 70
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容