Разворачиваем через консоль управляемый кластер (master) в яндекс облаке (YC) и сразу добавляем рабочие узлы (worker node(s)). Также, в той же локации (зоне обслуживания ...-a (b,c,d)), добавляем отдельный диск под Persistent Volume (PV), и запоминаем его "disk-id" Настраиваем локальную работу kubectl по инструкции от яндекс облако.
Затем развернем 2 деплоймента: postgres and wiki.js
1. Postgres,
сначала создадим PV и PV Claim (PVC): (pv-pvc.yaml)
запускаем: kubectl apply -f .\pv-pvc.yaml
в консоли яндекс клауд должно появиться "Bound" для обоих сущностей (пункт Хранилище)
красным цветом указано как ссылаются сущности, на зеленый будет ссылка ниже, из деплоймента PG.
далее разворачиваем еще 2 сущности ConfigMap and Secret (conf-map-sec.yaml)
запускаем: kubectl apply -f .\conf-map-sec.yaml
ConfigMap здесь только для примера, чтобы понять как могут передаваться в контейнер файл с нужным содержимым, там можно создать базу, таблицу, внести строки, создать пользователя и т.д. Использовал для проверки работоспособности базы и чтобы потом, подключившись к Pod руками пролить нужные настройки, т.к. пока не изучал как может повлиять многоразовая инициализация рабочей (нужной) базы, которая хранится в отдельном, от кластера кубернетис, диске. Если всё правильно, то должны появиться в секции "Конфигурация" обе сущности с нужными переменными. На белый и светло-коричневый пункты будет ссылка из деплоймента PG
Разворачиваем деплоймент postgres (kubectl apply -f .\depl-pd.yaml)
Здесь видно, что запрошено (зеленым) PVC который описан ранее, и ему дано имя db-data (голубым) и уже это имя тома/раздела будет подмонтировано к каталогу "/var/lib/postgresql/data" -где лежат сами файлы БД, важно добавить параметр subPath: data
т.к. он указывает и на подкаталоги(?), иначе postgres (PG) находит прежние файлы БД, но считает их чужими, т.к. его конфиг возможно ничего не знает о старой, с параметром же, он находит и конфиг в этом же каталоге и запускается без ошибок. Можно это увидеть в секции "Логи" в YC для данного деплоймента.
Для опубликования внутри кластера порта (5432) для подключения к PG запустим service (svc-db.yaml)
запускаем kubectl apply -f .\svc-db.yaml
Здесь объявлен hostname (светло-бежевым) , который мы укажем в деплойменте wiki.js для подключения к БД.
проверяем:
C:\work\projects>kubectl get deployments
NAME READY UP-TO-DATE AVAILABLE AGE
deployment-db 1/1 1 1 106m
C:\work\projects>kubectl get pods
NAME READY STATUS RESTARTS AGE
deployment-db-7f9649d79f-65swk 1/1 Running 0 97m
подключаемся к БД и убеждаемся, что БД работает:
C:\work\projects>kubectl exec -it deployment-db-7f9649d79f-65swk -- psql -h localhost -U admin --password -p 5432 gifts-table
Password:
psql (16.1 (Debian 16.1-1.pgdg120+1))
Type "help" for help.
gifts-table=#
Создаем пользователя, базу данных и права для wiki.js (вставляем в промт)
CREATE DATABASE wikijs;
CREATE USER wikijs WITH PASSWORD 'wikijsrocks';
GRANT CONNECT ON DATABASE wikijs TO wikijs;
GRANT USAGE ON SCHEMA public TO wikijs;
GRANT SELECT,UPDATE,INSERT,DELETE ON ALL TABLES IN SCHEMA public TO wikijs;
ALTER DEFAULT PRIVILEGES IN SCHEMA public GRANT SELECT ON TABLES TO wikijs;
ALTER DATABASE wikijs OWNER TO wikijs;
Выходим из БД и заходим повторно но уже с пользователем wikijs:
kubectl exec -it deployment-db-7f9649d79f-65swk -- psql -h localhost -U wikijs --password -p 5432 wikijs
Должно пустить.
2. Wiki.js
Создаем ConfigMap (conf-map-sec-wiki-js.yaml)
запускам: kubectl apply -f .\conf-map-sec-wiki-js.yaml
Передаем таким образом параметры в переменные для контейнера с wiki.js
Создаем деплоймент (и сразу service) для приложения Wiki.js (depl-wiki-js.yaml)
Запускаем: kubectl apply -f .\depl-wiki-js.yaml
Желтым цветом показана привязка к ConfigMap wikijs. В секции "полезная нагрузка" , в соответствующем деплойменте, провалившись в строку, можно посмотреть "Логи" там должно быть успешное соединение с БД. (используется Deployment c replica=1, но правильно д.б. StatefulSet).
для публикации Wiki.js в интернет понадобится еще один сервис типа loadBalancer
запускаю его вручную (т.к. это для теста и учебы):
kubectl expose deployment wikijs --type=LoadBalancer --name=my-serv-wiki
Важно, создается новый сервис my-serv-wiki,
узнаем внешний IP:
kubectl get services my-serv-wiki
и можно соединяться по 3000 порту на внешний IP, который виден в выводе комнады.
Замечания:
можно собрать в один файл, но кубернетес нет команды "depends on:, считается, что все компоненты/сущности, что работают в кубернетес, должно быть толерантны к времени своего запуска/перезапуска.
Деплоймент читает ConfigMap и Secret только один раз, при запуске/перезапуcке, т.е. даже изменив их, надо заставить обновиться Pod-ы (рестарт/scaling и т.д.)
команды для тестирования (kubectl port-forward <pod-name> <localhost-port>:<pod-port>):
kubectl port-forward wikijs-678fdfd978-7tgdj 3000:3000 (прибиндить порт Pod к 127.0.0.1:3000)
ниже полный (по опциям) эквивалент сервиса ...expose ... LoadBalancer
kubectl expose deployment example --port=8765 --target-port=9376 \
--name=example-service --type=LoadBalancer
apiVersion: v1
kind: Service
metadata:
name: example-service
spec:
selector:
app: example
ports:
- port: 8765
targetPort: 9376
type: LoadBalancer
Комментариев нет:
Отправить комментарий