“kubeadm init” перестал работать при установке Высоконадежных кластеров

Я пытаюсь установить haproxy'd установку мультиглавного узла для Kubernetes, как описано в [1]. Мои конфигурации сети:

  • haproxy = 192.168.1.213
  • master0|1|2 = 192.168.1.210|211|212
  • worker0|1|2 = 192.168.1.220|221|222 (не интересный в этой точке)

все хосты могут соединиться друг с другом (DNS разрешен для каждого узла). Каждый узел запускает Ubuntu 18.04.3 (LTS). Докер установлен как

  • docker.io/bionic-updates, бионическая безопасность, теперь 18.09.7-0ubuntu1~18.04.4 amd64 [установлены]

Пакеты Kubernetes, в настоящее время устанавливаемые,

  • kubeadm/kubernetes-xenial, теперь 1.16.3-00 amd64 [установлен]
  • kubectl/kubernetes-xenial, теперь 1.16.3-00 amd64 [установлен]
  • kubelet/kubernetes-xenial, теперь 1.16.3-00 amd64 [установленный, автоматический]
  • kubernetes-cni/kubernetes-xenial, теперь 0.7.5-00 amd64 [установленный, автоматический]

использование другого хранилища, как описано в [2] (я знаю, что установил bionic на моем VMs, но "новейшем" repo доступном тихо xenial).

Мой haproxy установлен как haproxy/bionic,now 2.0.9-1ppa1~bionic amd64 [installed] от [3] репозиторий.

global
    log /dev/log        local0
    log /dev/log        local1 notice
    chroot /var/lib/haproxy
    stats socket /run/haproxy/admin.sock mode 660 level admin expose-fd listeners
    stats timeout 30s
    user haproxy
    group haproxy
    daemon

defaults
    log global
    mode http
    retries 2
    timeout connect 3000ms
    timeout client  5000ms
    timeout server  5000ms

frontend kubernetes
    bind        *:6443
    option      tcplog
    mode        tcp
    default_backend kubernetes-master-nodes

backend kubernetes-master-nodes
    mode    tcp
    balance roundrobin
    option  tcp-check
    server  master0 192.168.1.210:6443 check fall 3 rise 2
    server  master1 192.168.1.211:6443 check fall 3 rise 2
    server  master2 192.168.1.212:6443 check fall 3 rise 2

При попытке установить мою первую плоскость управления, работая kubeadm init --control-plane-endpoint "haproxy.my.lan:6443" --upload-certs -v=6 как описано в [4] результаты по этой ошибке:

Error writing Crisocket information for the control-plane node

полный журнал в [5]. Я довольно потерян, если существует ошибка в моей haproxy конфигурации или если мог бы быть некоторый отказ в докере или самом kubernetes.

Мой /etc/docker/daemon.json похож на это:

{
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2"
}
0
задан 21 November 2019 в 17:21

1 ответ

В то время как быть неспособностью для нахождения достойного решения и создала проблему в исходном "kubeadm" проекте в GitHub, посмотрите здесь: https://github.com/kubernetes/kubeadm/issues/1930.

Так как "медицинская сортировка", предложенная в проблеме, не была выполнима (Ubuntu в значительной степени "установлена") для меня, я закончил в установке другого распределения Докера, как описано здесь: https://docs.docker.com/install/linux/docker-ce/ubuntu/, производя чистку установленного распределения прежде, чем запустить новую установку.

При выполнении Докера (Сообщество) v19.03.5 через kubeadm v1.16.3 броски соблюдающее предупреждение:

[WARNING SystemVerification]: this Docker version is not on the list of validated versions: 19.03.5. Latest validated version: 18.09

результаты прекрасны довольно, мне удалось установить мой ха кластер, как описано в исходной документации.

Так, это можно рассмотреть как обходное решение, НЕ как решение моего первичного размещения!

0
ответ дан 21 December 2019 в 23:52

Другие вопросы по тегам:

Похожие вопросы: