跳至主要内容

Kubernetes 上的保留資源

· 閱讀時間約 6 分鐘
Ivan Tsai

最近發現我們在 Azure Kubernetes Service (AKS) 上的 Pod 很容易被驅逐,查了一下才發現原來我們不能用盡 Node 上的所有資源,這篇文章就來看看我們必須留下多少資源給系統吧。

Node Capacity

在 Kubernetes 上執行 Pod 的時候,我們可以指定 Resource Request/Limit 來告訴 K8S 我們的程式需要多少的資源來運行,K8S 會自動幫我們安排到符合條件的節點上,像下面這樣:

resources:
requests:
memory: "64Mi"
cpu: "250m"
limits:
memory: "128Mi"
cpu: "500m"

一個節點的資源量是固定的,稱為 Node Capacity,例如在 AWS 上開 t3.medium 等級的 Node,就會有差不多 4GiB 的記憶體可以使用。但在機器上其實還會有一些不受群集控制的程式在運作 (例如 OS 程式、Kubernetes 本人等等),這時候如果還是按照 Capacity 去分配的話,就可能會發生問題,所以 K8S 提供了 Node Allocatable 這個功能。

Node Allocatable

我們可以使用 kubectl describe node 來查看 Node 的 Capacity 和 Allocatable

Capacity:
cpu: 8
ephemeral-storage: 9765628Ki
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 32930000Ki
pods: 110
Allocatable:
cpu: 8
ephemeral-storage: 9000002750
hugepages-1Gi: 0
hugepages-2Mi: 0
memory: 32827600Ki
pods: 110

上面的測試環境中大約有 100 MB 的記憶體被保留起來,這個數值在雲端服務中例如 AKS / EKS 會更大,在文章末會說明,我們先來看看 Allocatable 是怎麼計算出來的。

	  Node Capacity
---------------------------
| kube-reserved |
|-------------------------|
| system-reserved |
|-------------------------|
| eviction-threshold |
|-------------------------|
| |
| allocatable |
| (available for pods) |
| |
| |
---------------------------

這個來自官網的圖示可以發現 Allocatable 其實是 Capacity 扣除 reserved resource 和 eviction threshold 出來的,我們來一一介紹他們,其實比較會出問題的是記憶體的部分,所以下方都會以記憶體來討論,但其他資源 (CPU, storage, pid 等等)也都有對應的保留設定。

Kube/System Reserved

這兩個著值代表的是預留給 Kubernetes 和 OS 程式的資源,可以使用 --kube-reserved--system-reserved 來覆寫,通常 system reserved 不會變動,kube reserved 則會根據 Node 上可以跑的 Pod 數量來決定。

在 Azure (AKS) 上,kube reserved memory 是根據 Node capacity 來決定的,計算方式如下:

  • 25% of the first 4 GB of memory
  • 20% of the next 4 GB of memory (up to 8 GB)
  • 10% of the next 8 GB of memory (up to 16 GB)
  • 6% of the next 112 GB of memory (up to 128 GB)
  • 2% of any memory above 128 GB

例如 7 GB 的機器就會有 (0.25 x 4) + (0.20 x 3) = 1.6 GB 的資源被保留,可以參考官方文件

在 AWS (EKS) 上,則是根據 Max Pod 來決定

memory_to_reserve=$((11 * $max_num_pods + 255))

例如 t3.medium 可以跑 17 個 pod,就會有 17 * 11 + 255 = 442 MB 的資源被保留,可以參考 EKS AMI Image 的 bootstrap script

Eviction Threshold

這個設定就很有趣了,當 Node 上可以使用的資源 (Capacity - reserved - 已經被使用的資源) 小於這個數值時,kubelet 就會開始驅逐 (Evict) Pod,直到資源回復到正常數值為止,來避免 Node 遭到破壞(例如 k8s 系統沒有足夠的資源,造成 Node 離線等等)。

在 AWS 上,這個值固定為 100MB ,可以參考 EKS AMI Image 的 bootstrap script

在 Azure 上,這個值固定為 750MB,可以參考官方文件

雲端服務遇到的問題

如果是自己建立的 K8S Cluster ,上面提到的設定都可以自己控制,但雲端服務提供的 Kubernetes Service 就不是這麼好調整了。

其實會讓我注意到 Node Allocatable 的原因是我們在 Azure 上發現 Pod 很容易被驅逐,仔細查看才發現原來系統必須保留這麼多的資源,以 DS2 v2 的機器來說,原本可用的記憶體為 7GiB,但仔細算一算保留資源

0.75 + (0.25*4) + (0.20*3) = 0.75GB + 1GB + 0.6GB = 2.35GB / 7GB = 33.57% reserved

1/3 的記憶體必須給系統保留 😂

這個問題官方有說明原因以及暫時的解決辦法 (AKS Github),不過到目前為止其實沒有正規的手法來調整。

References