2023年12月6日发(作者:)
K8S内部服务调用域名解析超时
前言
近期线上 k8s 时不时就会出现一些内部服务间的调用超时问题,通过日志可以得知超时的原因都是出现在
域名解析
上,并且都是 k8s 内部的
域名解析超时,于是直接先将内部域名替换成 k8s service 的 IP,观察一段时间发现没有超时的情况发生了,但是由于使用 service IP 不是
长久之计,所以还要去找解决办法。
复现
一开始运维同事在调用方 pod 中使用
ab
工具对目标服务进行了多次压测,并没有发现有超时的请求,我介入之后分析
ab
这类 http 压测工具应
该都会有 dns 缓存,而我们主要是要测试 dns 服务的性能,于是直接动手撸了一个压测工具只做域名解析,代码如下:
package main
import (
"context"
"flag"
"fmt"
"net"
"sync/atomic"
"time"
)
var host string
var connections int
var duration int64
var limit int64
var timeoutCount int64
func main() {
// = append(, "-host", "", "-c", "200", "-d", "30", "-l", "5000")
Var(&host, "host", "", "Resolve host")
(&connections, "c", 100, "Connections")
64Var(&duration, "d", 0, "Duration(s)")
64Var(&limit, "l", 0, "Limit(ms)")
()
var count int64 = 0
var errCount int64 = 0
pool := make(chan interface{}, connections)
exit := make(chan bool)
var (
min int64 = 0
max int64 = 0
sum int64 = 0
)
go func() {
( * on(duration))
exit <- true
}()
endD:
for {
select {
case pool <- nil:
go func() {
defer func() {
<-pool
}()
resolver := &er{}
now := ()
_, err := IPAddr(ound(), host)
use := (now).Nanoseconds() / int64(econd)
if min == 0 || use < min {
min = use
}
if use > max {
max = use
}
sum += use
if limit > 0 && use >= limit {
timeoutCount++
}
64(&count, 1)
if err != nil {
n(())
64(&errCount, 1) }
}()
case <-exit:
break endD
}
}
("request count:%dnerror count:%dn", count, errCount)
("request time:min(%dms) max(%dms) avg(%dms) timeout(%dn)n", min, max, sum/count, timeoutCount)
}
编译好二进制程序直接丢到对应的 pod 容器中进行压测:
# 200个并发,持续30秒
./dns -host {service}.{namespace} -c 200 -d 30
这次可以发现最大耗时有
5s
多,多次测试结果都是类似:
而我们内部服务间 HTTP 调用的超时一般都是设置在
3s
左右,以此推断出与线上的超时情况应该是同一种情况,在并发高的情况下会出现部
分域名解析超时而导致 HTTP 请求失败。
原因
起初一直以为是
coredns
的问题,于是找运维升级了下
coredns
版本再进行压测,发现问题还是存在,说明不是版本的问题,难道是
coredns
本身
的性能就差导致的?想想也不太可能啊,才 200 的并发就顶不住了那性能也未免太弱了吧,结合之前的压测数据,平均响应都挺正常的
(82ms),但是就有个别请求会延迟,而且都是 5 秒左右,所以就又带着
k8s dns 5s
的关键字去 google 搜了一下,这不搜不知道一搜吓一跳
啊,原来是 k8s 里的一个大坑啊(其实和 k8s 没有太大的关系,只是 k8s 层面没有提供解决方案)。
5s 超时原因
linux 中
glibc
的 resolver 的缺省超时时间是 5s,而导致超时的原因是内核
conntrack
模块的 bug。
Weave works 的工程师 Martynas Pumputis 对这个问题做了很详细的分析:
DNS client (glibc 或 musl libc) 会并发请求 A 和 AAAA 记录,跟 DNS Server 通信自然会先 connect (建立 fd),后面请求报文使
用这个 fd 来发送,由于 UDP 是无状态协议, connect 时并不会发包,也就不会创建 conntrack 表项, 而并发请求的 A 和 AAAA
记录默认使用同一个 fd 发包,send 时各自发的包它们源 Port 相同(因为用的同一个 socket 发送),当并发发包时,两个包都还没
有被插入 conntrack 表项,所以 netfilter 会为它们分别创建 conntrack 表项,而集群内请求 kube-dns 或 coredns 都是访问的
CLUSTER-IP,报文最终会被 DNAT 成一个 endpoint 的 POD IP,当两个包恰好又被 DNAT 成同一个 POD IP 时,它们的五元
组就相同了,在最终插入的时候后面那个包就会被丢掉,如果 dns 的 pod 副本只有一个实例的情况就很容易发生(始终被 DNAT
成同一个 POD IP),现象就是 dns 请求超时,client 默认策略是等待 5s 自动重试,如果重试成功,我们看到的现象就是 dns 请
求有 5s 的延时。
解决方案
方案(一):使用 TCP 协议发送 DNS 请求
通过
的
use-vc
选项来开启 TCP 协议
测试
1. 修改
/etc/
文件,在最后加入一行文本:
options use-vc
2. 进行压测:
# 200个并发,持续30秒,记录超过5s的请求个数 ./dns -host {service}.{namespace} -c 200 -d 30 -l 5000
结果如下:
结论
确实没有出现
5s
的超时问题了,但是部分请求耗时还是比较高,在
4s
左右,而且平均耗时比 UPD 协议的还高,效果并不好。
方案(二):避免相同五元组 DNS 请求的并发
通过
的
single-request-reopen
和
single-request
选项来避免:
single-request-reopen (glibc>=2.9) 发送 A 类型请求和 AAAA 类型请求使用不同的源端口。这样两个请求在 conntrack 表中不占用同一
个表项,从而避免冲突。
single-request (glibc>=2.10) 避免并发,改为串行发送 A 类型和 AAAA 类型请求,没有了并发,从而也避免了冲突。
测试 single-request-reopen
1. 修改
/etc/
文件,在最后加入一行文本:
options single-request-reopen
2. 进行压测:
# 200个并发,持续30秒,记录超过5s的请求个数 ./dns -host {service}.{namespace} -c 200 -d 30 -l 5000
结果如下:
测试 single-request
1. 修改
/etc/
文件,在最后加入一行文本:
options single-request
2. 进行压测:
# 200个并发,持续30秒,记录超过5s的请求个数 ./dns -host {service}.{namespace} -c 200 -d 30 -l 5000
结果如下:
结论
通过压测结果可以看到
single-request-reopen
和
single-request
选项确实可以显著的降低域名解析耗时。
关于方案(一)和方案(二)的实施步骤和缺点
实施步骤
其实就是要给容器的
/etc/
文件添加选项,目前有两个方案比较合适:
1. 通过修改 pod 的 postStart hook 来设置
lifecycle:
postStart:
exec:
command:
- /bin/sh
- -c
- "/bin/echo 'options single-request-reopen' >> /etc/"
1. 通过修改 pod 的 fig 来设置
template:
spec:
dnsConfig:
options:
- name: single-request-reopen
注
: 需要 k8s 版本>=1.9
缺点
不支持
alpine
基础镜像的容器,因为
apline
底层使用的
musl libc
库并不支持这些 选项,所以如果使用
alpine
基础镜像构建的应用,还是
无法规避超时的问题。
方案(三):本地 DNS 缓存
大概原理就是:
本地 DNS 缓存以 DaemonSet 方式在每个节点部署一个使用 hostNetwork 的 Pod,创建一个网卡绑上本地 DNS 的 IP,本机的
Pod 的 DNS 请求路由到本地 DNS,然后取缓存或者继续使用 TCP 请求上游集群 DNS 解析 (由于使用 TCP,同一个 socket 只
会做一遍三次握手,不存在并发创建 conntrack 表项,也就不会有 conntrack 冲突)
部署
1. 获取当前
kube-dns service
的 clusterIP
# kubectl -n kube-system get svc kube-dns -o jsonpath="{.rIP}"
10.96.0.10
1. 下载官方提供的 yaml 模板进行关键字替换wget -O "/kubernetes/kubernetes/raw/master/cluster/addons/dns/nodelocaldns/" &&
sed -i 's/__PILLAR__DNS__SERVER__/10.96.0.10/g' &&
sed -i 's/__PILLAR__LOCAL__DNS__/169.254.20.10/g' &&
sed -i 's/__PILLAR__DNS__DOMAIN__//g' &&
sed -i 's/__PILLAR__CLUSTER__DNS__/10.96.0.10/g' &&
sed -i 's/__PILLAR__UPSTREAM__SERVERS__//g'
1. 最终 yaml 文件如下:
# Copyright 2018 The Kubernetes Authors.
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# /licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
#
apiVersion: v1
kind: ServiceAccount
metadata:
name: node-local-dns
namespace: kube-system
labels:
/cluster-service: "true"
/mode: Reconcile
---
apiVersion: v1
kind: Service
metadata:
name: kube-dns-upstream
namespace: kube-system
labels:
k8s-app: kube-dns
/cluster-service: "true"
/mode: Reconcile
/name: "KubeDNSUpstream"
spec:
ports:
- name: dns
port: 53
protocol: UDP
targetPort: 53
- name: dns-tcp
port: 53
protocol: TCP
targetPort: 53
selector:
k8s-app: kube-dns
---
apiVersion: v1
kind: ConfigMap
metadata:
name: node-local-dns
namespace: kube-system
labels:
/mode: Reconcile
data:
Corefile: |
:53 {
errors
cache {
success 9984 30
denial 9984 5
}
reload
loop
bind 169.254.20.10 10.96.0.10
forward . 10.96.0.10 {
force_tcp
}
prometheus :9253
health 169.254.20.10:8080
}
:53 {
errors
cache 30
reload loop bind 169.254.20.10 10.96.0.10 forward . 10.96.0.10 { force_tcp } prometheus :9253 } :53 { errors cache 30 reload loop bind 169.254.20.10 10.96.0.10 forward . 10.96.0.10 { force_tcp } prometheus :9253 } .:53 { errors cache 30 reload loop bind 169.254.20.10 10.96.0.10 forward . /etc/ { force_tcp } prometheus :9253 }---apiVersion: apps/v1kind: DaemonSetmetadata: name: node-local-dns namespace: kube-system labels: k8s-app: node-local-dns /cluster-service: "true" /mode: Reconcilespec: updateStrategy: rollingUpdate: maxUnavailable: 10% selector: matchLabels: k8s-app: node-local-dns template: metadata: labels: k8s-app: node-local-dns spec: priorityClassName: system-node-critical serviceAccountName: node-local-dns hostNetwork: true dnsPolicy: Default # Don't use cluster DNS. tolerations: - key: "CriticalAddonsOnly" operator: "Exists" containers: - name: node-cache image: /k8s-dns-node-cache:1.15.7 resources: requests: cpu: 25m memory: 5Mi args: [ "-localip", "169.254.20.10,10.96.0.10", "-conf", "/etc/Corefile", "-upstreamsvc", "kube-dns-upstream", ] securityContext: privileged: true ports: - containerPort: 53 name: dns protocol: UDP - containerPort: 53 name: dns-tcp protocol: TCP - containerPort: 9253 name: metrics
protocol: TCP
livenessProbe:
httpGet:
host: 169.254.20.10
path: /health
port: 8080
initialDelaySeconds: 60
timeoutSeconds: 5
volumeMounts:
- mountPath: /run/
name: xtables-lock
readOnly: false
- name: config-volume
mountPath: /etc/coredns
- name: kube-dns-config
mountPath: /etc/kube-dns
volumes:
- name: xtables-lock
hostPath:
path: /run/
type: FileOrCreate
- name: kube-dns-config
configMap:
name: kube-dns
optional: true
- name: config-volume
configMap:
name: node-local-dns
items:
- key: Corefile
path:
通过 yaml 可以看到几个细节:
1. 部署类型是使用的
DaemonSet
,即在每个 k8s node 节点上运行一个 dns 服务
2.
hostNetwork
属性为
true
,即直接使用 node 物理机的网卡进行端口绑定,这样在此 node 节点中的 pod 可以直接访问 dns 服务,不通过
service 进行转发,也就不会有 DNAT
3.
dnsPolicy
属性为
Default
,不使用 cluster DNS,在解析外网域名时直接使用本地的 DNS 设置
4. 绑定在 node 节点
169.254.20.10
和
10.96.0.10
IP 上,这样节点下面的 pod 只需要将 dns 设置为
169.254.20.10
即可直接访问宿主机上的 dns 服
务。
测试
1. 修改
/etc/
文件中的 nameserver:
nameserver 169.254.20.10
2. 进行压测:
# 200个并发,持续30秒,记录超过5s的请求个数 ./dns -host {service}.{namespace} -c 200 -d 30 -l 5000
结果如下:
结论
通过压测发现并没有解决超时的问题,按理说没有
conntrack
冲突应该表现出的情况与方案(二)类似才对,也可能是我使用的姿势不对,不过虽
然这个问题还存在,但是通过
DaemonSet
将 dns 请求压力分散到各个 node 节点,也可以有效的缓解域名解析超时问题。
实施
方案(一):通过修改 pod 的 fig 来设置,并将
dnsPolicy
设置为
None
template:
spec:
dnsConfig:
nameservers:
- 169.254.20.10
searches:
-
-
-
options:
- name: ndots
value: "5"
dnsPolicy: None
方案(二):修改默认的
cluster-dns
,在 node 节点上将
/etc/systemd/system/e.d/
文件中的
--cluster-dns
参数值修改
为
169.254.20.10
,然后重启
kubeletsystemctl restart kubelet
注
:配置文件路径也可能是
/etc/kubernetes/kubelet
最终解决方案
最后还是决定使用
方案(二)+方案(三)
配合使用,来最大程度的优化此问题,并且将线上所有的基础镜像都替换为非
apline
的镜像版本,至此问题
基本解决,也希望 K8S 官方能早日将此功能直接集成进去。


发布评论