web-dev-qa-db-fra.com

Comment vérifier la capacité de la pod max d'un nœud Kubettes

Je suis occupé à configurer un nouveau cluster K8S.

J'utilise Rke avec les --Max-Pods: 200

kubelet: # https://rancher.com/docs/rke/latest/en/config-options/services/services-extras/#extra-args
    extra_args: 
    - max-pods: 200  # https://forums.rancher.com/t/solved-setting-max-pods/11866/5

Comment puis-je vérifier si le nœud en cours d'exécution a été créé avec les paramètres corrects.

2
nelaaro

Inside Kubetites Docs concernant construire de grandes grappes de grandes grappes Nous pouvons lire qu'à la V1.17 prend en charge:

Kubettes prend en charge les clusters avec jusqu'à 5000 nœuds. Plus PECIFICIQUEMENT, nous soutenons les configurations qui répondent tout des critères suivants:

  • Pas plus de 5000 nœuds
  • Pas plus de 150000 pods totaux
  • Pas plus de 300 000 conteneurs totaux
  • Pas plus de 100 pods par nœud

Inside GKE Une limite dure de gousses par nœud est 110 à cause des adresses disponibles.

Avec le maximum de 110 pods par défaut par nœud, KubeTes attribue un bloc CIDR/24 (256 adresses) à chacun des nœuds. En ayant environ deux fois plus d'adresses IP disponibles que le nombre de gousses pouvant être créées sur un nœud, Kubettes est capable d'atténuer la réutilisation de l'adresse IP, car les pods sont ajoutés et supprimés d'un nœud.

Ceci est décrit dans optimiser l'allocation d'adresse IP et quotas et limites .

Comme ou régler max pods pour Rancher voici une solution [[RESOLU] Réglage des pods max .

Il y a aussi une discussion sur augmenter les pods maximum par nœud

... L'utilisation d'un seul nombre (pods maximum) peut être trompeuse pour les utilisateurs, compte tenu de l'énorme variation des spécifications de la machine, de la charge de travail et de l'environnement. Si nous avons un noeud de référence, nous pouvons laisser les utilisateurs profiler leurs nœuds et décider quelle est la meilleure configuration pour eux. Le repère peut exister en tant que test E2E NODE, ou dans le référentiel de contributions.

J'espère que cela donne un peu plus d'inside dans les limites.

4
Crou

J'ai trouvé que c'est le meilleur moyen

kubectl get nodes -A
NAME            STATUS   ROLES                      AGE   VERSION
192.168.1.1   Ready    controlplane,etcd,worker   9d    v1.17.2
192.168.1.2   Ready    controlplane,etcd,worker   9d    v1.17.2

kubectl describe nodes 192.168.1.1 | grep -i pods

Capacity:
cpu:                16
ephemeral-storage:  55844040Ki
hugepages-2Mi:      0
memory:             98985412Ki
pods:               110
Allocatable:
cpu:                16
ephemeral-storage:  51465867179
hugepages-2Mi:      0
memory:             98883012Ki
pods:               110
2
nelaaro
  1. kubelet par défaut des pods max par nœud est de 110.
  2. Kuberentes meilleures pratiques est 100 pods par nœud
  3. OpenShift définit la valeur par défaut sur 250 pods par nœud et a testé 500 pods par nœud.
  4. EK a souligné qu'il est limité par le nombre d'IP que la POD peut utiliser. Azure CNI a des limitations. Le nœud par défaut CIDR CIDR est/24 qui signifie moins de 256.

Reportez-vous à la table ici https://www.stackrox.com/post/2020/02/eks-vs-gke-vs-aks/ et https://learnk8s.io/Kubettes-Nœud-Taille de nœud: ~: Texte = Most% 20Ganked% 20kuberNettes% 20Services% 20Even, de% 20Le %%%% 20Of% 20Node .

Entrez la description de l'image ici

Les services KubeNettes les plus gérants imposent même des limites difficiles sur le nombre de gousses par nœud:

Sur Amazon Elastic service Kubernetes (EKS), le nombre maximum de gousses par noeud dépend du type de noeud et varie de 4 à 737. Engine Google Kubernetes (GKE), la limite est de 100 gousses par noeud, quel que soit le type de noeud . Sur le service Azure Kubettes (AKS), la limite par défaut est de 30 pods par nœud, mais il peut être augmenté jusqu'à 250.

0
paco alcacer