k8s nós de trabalho continuam terminando um novo é gerado a cada 3 minutos

0

Eu tenho implantado um cluster k8s em aws usando kops. Abaixo está minha especificação de cluster, eu tenho exatamente o mesmo cluster de trabalho em outra região, então eu repliquei em outra região com o mesmo abaixo config, a coisa é quando eu implantar este cluster os nós do grupo "nó do trabalhador" ec2 gera e obtém terminado imediatamente, ele continua a repetir como um loop, se eu excluir este grupo de instâncias e gerar um novo grupo de instâncias com um nome diff, que funciona muito bem .. o que estou perdendo, o que pode ser o problema?

apiVersion: kops/v1alpha2
kind: Cluster
metadata:
  name: qa.247.net
spec:
  kubelet:
    kubeletCgroups: "/systemd/system.slice"
    runtimeCgroups: "/systemd/system.slice"
  masterKubelet:
    kubeletCgroups: "/systemd/system.slice"
    runtimeCgroups: "/systemd/system.slice"
  api:
    dns: {}
  authorization:
    rbac: {}
  channel: stable
  cloudProvider: aws
  configBase: s3://qa.247.net/
  dnsZone: Z2VTD4ffgg
  etcdClusters:
  - etcdMembers:
    - instanceGroup: master-us-east-1b
      name: qa.main
      volumeSize: 20
    name: main
  - etcdMembers:
    - instanceGroup: master-us-east-1b
      name: qa.events
      volumeSize: 20
    name: events
  iam:
    allowContainerRegistry: true
    legacy: false
  kubeAPIServer:
    kubeletPreferredAddressTypes:
    - InternalIP
    - ExternalIP
  kubernetesApiAccess:
  - 10.5.2.5/32
  kubernetesVersion: 1.10.8
  masterInternalName: api.internal.qa.247.net
  masterPublicName: api.qa.247.net
  networkCIDR: 172.2.6.0/20
  networkID: vpc-e2454335
  networking:
    calico:
      crossSubnet: true
      mtu: 9001
  nonMasqueradeCIDR: 100.64.0.0/10
  sshAccess:
  - 172.2.6.0/20
  - 10.5.2.5/32
  subnets:
  - cidr: 172.2.6.0/22
    id: subnet-a4553456
    name: Q-One
    egress: nat-09c917d9e263
    type: Private
    zone: us-east-1b
  - cidr: 172.2.2.0/22
    id: subnet-a6568efd
    name: Q-Two
    egress: nat-09c917d9e263
    type: Private
    zone: us-east-1d  
  topology:
    dns:
      type: Private
    masters: private
    nodes: private
---
apiVersion: kops/v1alpha2
kind: InstanceGroup
metadata:
  labels:
    kops.k8s.io/cluster: qa.247.net
  name: master-us-east-1b
spec:
  additionalUserData:
  - content: |
      #!/bin/bash      
      sudo echo "Asia/Kolkata" | sudo tee /etc/timezone
      sudo dpkg-reconfigure --frontend noninteractive tzdata      
    name: infrachanges.sh
    type: text/x-shellscript
  image: kope.io/k8s-1.9-debian-jessie-amd64-hvm-ebs-2018-03-11
  machineType: t2.medium
  maxSize: 1
  minSize: 1
  nodeLabels:
    kops.k8s.io/instancegroup: master-us-east-1b
  role: Master
  subnets:
  - Q-One
---
apiVersion: kops/v1alpha2
kind: InstanceGroup
metadata:
  labels:
    kops.k8s.io/cluster: qa.247.net
  name: nodes-us-east
spec:
  additionalUserData:
  - content: |
      #!/bin/bash      
      sudo echo "Asia/Kolkata" | sudo tee /etc/timezone
      sudo dpkg-reconfigure --frontend noninteractive tzdata
    name: infrachanges.sh
    type: text/x-shellscript  
  image: kope.io/k8s-1.9-debian-jessie-amd64-hvm-ebs-2018-03-11
  machineType: t2.medium
  maxSize: 4
  minSize: 2
  nodeLabels:
    kops.k8s.io/instancegroup: nodes-us-east
  role: Node
  rootVolumeSize: 50
  rootVolumeType: gp2
  subnets:
  - Q-One
  - Q-Two
    
por Mohd 10.11.2018 / 11:02

0 respostas