Add support for IPv6 to machine and cluster chart
[icn.git] / deploy / site / vm-mc / vm-mc.sh
index 4e1aa71..97f51d5 100755 (executable)
@@ -14,170 +14,25 @@ SITE_REPO=${SITE_REPO:-" https://gerrit.akraino.org/r/icn"}
 SITE_BRANCH=${SITE_BRANCH:-"master"}
 SITE_PATH=${SITE_PATH:-"deploy/site/vm-mc/deployment"}
 
-FLUX_SOPS_KEY_NAME=${FLUX_SOPS_KEY_NAME:-"icn-site-vm"}
-FLUX_SOPS_PRIVATE_KEY="${SCRIPTDIR}/../secrets/sops.asc"
-
-# !!!NOTE!!! THE KEYS USED BELOW ARE FOR TEST PURPOSES ONLY.  DO NOT
-# USE THESE OUTSIDE OF THIS ICN VIRTUAL TEST ENVIRONMENT.
-function build_source {
-    # First decrypt the existing site YAML, otherwise we'll be
-    # attempting to encrypt it twice below
-    if [[ -f ${FLUX_SOPS_PRIVATE_KEY} ]]; then
-       gpg --import ${FLUX_SOPS_PRIVATE_KEY}
-       for yaml in ${SCRIPTDIR}/cluster*/*.yaml ${SCRIPTDIR}/deployment/*.yaml; do
-           sops_decrypt ${yaml} ${SCRIPTDIR}
-       done
-    fi
-
-    # Generate user password and authorized key in site YAML
-    # To login to guest, ssh -i ${SCRIPTDIR}/id_rsa
-    HASHED_PASSWORD=$(mkpasswd --method=SHA-512 --rounds 10000 "mypasswd")
-    ssh-keygen -t rsa -N "" -f ${SCRIPTDIR}/id_rsa <<<y
-    SSH_AUTHORIZED_KEY=$(cat ${SCRIPTDIR}/id_rsa.pub)
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       sed -i -e 's!hashedPassword: .*!hashedPassword: '"${HASHED_PASSWORD}"'!' ${yaml}
-       # Use ! instead of usual / to avoid escaping / in
-       # SSH_AUTHORIZED_KEY
-       sed -i -e 's!sshAuthorizedKey: .*!sshAuthorizedKey: '"${SSH_AUTHORIZED_KEY}"'!' ${yaml}
-    done
-
-    # Create root and intermediate CA certs for use by Istio in each
-    # cluster
-    clone_istio_repository
-    local -r certs_dir=${SCRIPTDIR}/../secrets/certs
-    rm -rf ${certs_dir}
-    mkdir -p ${certs_dir}
-    certs=${ISTIOPATH}/tools/certs
-    make -C ${certs} -f Makefile.selfsigned.mk ROOT_CN="EMCO Root CA" ROOTCA_ORG=project-emco.io root-ca
-    find ${certs}/root-* -exec cp '{}' ${certs_dir} ';'
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/clusterName:/ {print $2}' ${yaml})
-       make -C ${certs} -f Makefile.selfsigned.mk INTERMEDIATE_CN="EMCO Intermediate CA" INTERMEDIATE_ORG=project-emco.io ${name}-cacerts
-       cp -r ${certs}/${name} ${certs_dir}
-       kubectl create secret generic cacerts -n istio-system --dry-run=client -o yaml \
-           --from-file=${certs}/${name}/ca-cert.pem \
-           --from-file=${certs}/${name}/ca-key.pem \
-           --from-file=${certs}/${name}/root-cert.pem \
-           --from-file=${certs}/${name}/cert-chain.pem >${SCRIPTDIR}/${name}/istio-cacerts.yaml
-    done
-
-    # Encrypt the site YAML
-    create_gpg_key ${FLUX_SOPS_KEY_NAME}
-    for yaml in ${SCRIPTDIR}/cluster*/*.yaml ${SCRIPTDIR}/deployment/*.yaml; do
-       sops_encrypt ${yaml} ${FLUX_SOPS_KEY_NAME} ${SCRIPTDIR}
-    done
-
-    # ONLY FOR TEST ENVIRONMENT: save the private key used
-    export_gpg_private_key ${FLUX_SOPS_KEY_NAME} >${FLUX_SOPS_PRIVATE_KEY}
-}
-
-function deploy {
-    gpg --import ${FLUX_SOPS_PRIVATE_KEY}
-    flux_create_site ${SITE_REPO} ${SITE_BRANCH} ${SITE_PATH} ${FLUX_SOPS_KEY_NAME}
-}
-
-function clean {
-    kubectl -n flux-system delete kustomization $(flux_site_kustomization_name ${SITE_REPO} ${SITE_BRANCH} ${SITE_PATH})
-}
-
-function is_cluster_ready {
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/clusterName:/ {print $2}' ${yaml})
-       if [[ $(kubectl -n ${SITE_NAMESPACE} get cluster ${name} -o jsonpath='{.status.conditions[?(@.type=="Ready")].status}') != "True" ]]; then
-           return 1
-       fi
-    done
-}
-
-function is_control_plane_ready {
-    # Checking the Cluster resource status is not sufficient, it
-    # reports the control plane as ready before the nodes forming the
-    # control plane are ready
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/clusterName:/ {print $2}' ${yaml})
-       local replicas=$(kubectl -n ${SITE_NAMESPACE} get kubeadmcontrolplane ${name} -o jsonpath='{.spec.replicas}')
-       if [[ $(kubectl --kubeconfig=${BUILDDIR}/${name}-admin.conf get nodes -l node-role.kubernetes.io/control-plane -o jsonpath='{range .items[*]}{.status.conditions[?(@.type=="Ready")].status}{"\n"}{end}' | grep -c True) != ${replicas} ]]; then
-           return 1
-       fi
-    done
-}
-
-function insert_control_plane_network_identity_into_ssh_config {
-    # This enables logging into the control plane machines from this
-    # machine without specifying the identify file on the command line
-
-    if [[ ! $(which ipcalc) ]]; then
-        apt-get install -y ipcalc
-    fi
-
-    # Create ssh config if it doesn't exist
-    mkdir -p ${HOME}/.ssh && chmod 700 ${HOME}/.ssh
-    touch ${HOME}/.ssh/config
-    chmod 600 ${HOME}/.ssh/config
-    # Add the entry for the control plane network, host value in ssh
-    # config is a wildcard
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/name:/ {print $2; exit}' ${yaml})
-       endpoint=$(helm -n ${SITE_NAMESPACE} get values -a ${name} | awk '/controlPlaneEndpoint:/ {print $2}')
-       prefix=$(helm -n ${SITE_NAMESPACE} get values -a ${name} | awk '/controlPlanePrefix:/ {print $2}')
-       host=$(ipcalc ${endpoint}/${prefix} | awk '/Network:/ {sub(/\.0.*/,".*"); print $2}')
-       if [[ $(grep -c "Host ${host}" ${HOME}/.ssh/config) != 0 ]]; then
-           sed -i -e '/Host '"${host}"'/,+3 d' ${HOME}/.ssh/config
-       fi
-       cat <<EOF >>${HOME}/.ssh/config
-Host ${host}
-  IdentityFile ${SCRIPTDIR}/id_rsa
-  StrictHostKeyChecking no
-  UserKnownHostsFile /dev/null
-EOF
-    done
-    # Add the identity to authorized keys on this host to enable ssh
-    # logins via its control plane address
-    authorized_key=$(cat ${SCRIPTDIR}/id_rsa.pub)
-    sed -i -e '\!'"${authorized_key}"'!d' ${HOME}/.ssh/authorized_keys
-    cat ${SCRIPTDIR}/id_rsa.pub >> ~/.ssh/authorized_keys
-}
-
-function wait_for_all_ready {
-    WAIT_FOR_INTERVAL=60s
-    WAIT_FOR_TRIES=30
-    wait_for is_cluster_ready
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/clusterName:/ {print $2}' ${yaml})
-       clusterctl -n ${SITE_NAMESPACE} get kubeconfig ${name} >${BUILDDIR}/${name}-admin.conf
-       chmod 600 ${BUILDDIR}/${name}-admin.conf
-    done
-    wait_for is_control_plane_ready
-    insert_control_plane_network_identity_into_ssh_config
-}
-
-function is_cluster_deleted {
-    for yaml in ${SCRIPTDIR}/deployment/cluster-*.yaml; do
-       name=$(awk '/clusterName:/ {print $2}' ${yaml})
-       ! kubectl -n ${SITE_NAMESPACE} get cluster ${name}
-    done
-}
-
-function wait_for_all_deleted {
-    WAIT_FOR_INTERVAL=60s
-    WAIT_FOR_TRIES=30
-    wait_for is_cluster_deleted
-}
-
 case $1 in
-    "build-source") build_source ;;
-    "clean") clean ;;
-    "deploy") deploy ;;
-    "wait") wait_for_all_ready ;;
-    "wait-clean") wait_for_all_deleted ;;
+    "clean") site_clean ;;
+    "deploy")
+       gpg --import ${FLUX_SOPS_PRIVATE_KEY}
+       site_deploy
+       ;;
+    "wait")
+       site_wait_for_all_ready
+       site_insert_control_plane_network_identity_into_ssh_config
+       ;;
+    "wait-clean") site_wait_for_all_deleted ;;
     *) cat <<EOF
 Usage: $(basename $0) COMMAND
 
 Commands:
-  build-source  - Build the in-tree site values
   clean         - Remove the site
   deploy        - Deploy the site
   wait          - Wait for the site to be ready
+  wait-clean    - Wait for the site to be removed
 EOF
        ;;
 esac