Add Istio to vm and pod11 sites
[icn.git] / deploy / site / vm / vm.sh
index 1308854..fbe0890 100755 (executable)
@@ -12,40 +12,10 @@ mkdir -p ${BUILDDIR}
 
 SITE_REPO=${SITE_REPO:-"https://gerrit.akraino.org/r/icn"}
 SITE_BRANCH=${SITE_BRANCH:-"master"}
-SITE_PATH=${SITE_PATH:-"deploy/site/vm"}
-
-FLUX_SOPS_KEY_NAME=${FLUX_SOPS_KEY_NAME:-"icn-site-vm"}
-
-# !!!NOTE!!! THE KEYS USED BELOW ARE FOR TEST PURPOSES ONLY.  DO NOT
-# USE THESE OUTSIDE OF THIS ICN VIRTUAL TEST ENVIRONMENT.
-function build_source {
-    # First decrypt the existing site YAML, otherwise we'll be
-    # attempting to encrypt it twice below
-    if [[ -f ${SCRIPTDIR}/sops.asc ]]; then
-       gpg --import ${SCRIPTDIR}/sops.asc
-       sops_decrypt_site ${SCRIPTDIR}/site.yaml
-    fi
-
-    # Generate user password and authorized key in site YAML
-    # To login to guest, ssh -i ${SCRIPTDIR}/id_rsa
-    HASHED_PASSWORD=$(mkpasswd --method=SHA-512 --rounds 10000 "mypasswd")
-    sed -i -e 's!hashedPassword: .*!hashedPassword: '"${HASHED_PASSWORD}"'!' ${SCRIPTDIR}/site.yaml
-    ssh-keygen -t rsa -N "" -f ${SCRIPTDIR}/id_rsa <<<y
-    SSH_AUTHORIZED_KEY=$(cat ${SCRIPTDIR}/id_rsa.pub)
-    # Use ! instead of usual / to avoid escaping / in
-    # SSH_AUTHORIZED_KEY
-    sed -i -e 's!sshAuthorizedKey: .*!sshAuthorizedKey: '"${SSH_AUTHORIZED_KEY}"'!' ${SCRIPTDIR}/site.yaml
-
-    # Encrypt the site YAML
-    create_gpg_key ${FLUX_SOPS_KEY_NAME}
-    sops_encrypt_site ${SCRIPTDIR}/site.yaml ${FLUX_SOPS_KEY_NAME}
-
-    # ONLY FOR TEST ENVIRONMENT: save the private key used
-    export_gpg_private_key ${FLUX_SOPS_KEY_NAME} >${SCRIPTDIR}/sops.asc
-}
+SITE_PATH=${SITE_PATH:-"deploy/site/vm/deployment"}
 
 function deploy {
-    gpg --import ${SCRIPTDIR}/sops.asc
+    gpg --import ${FLUX_SOPS_PRIVATE_KEY}
     flux_create_site ${SITE_REPO} ${SITE_BRANCH} ${SITE_PATH} ${FLUX_SOPS_KEY_NAME}
 }
 
@@ -54,14 +24,14 @@ function clean {
 }
 
 function is_cluster_ready {
-    [[ $(kubectl -n metal3 get cluster icn -o jsonpath='{.status.conditions[?(@.type=="Ready")].status}') == "True" ]]
+    [[ $(kubectl -n ${SITE_NAMESPACE} get cluster icn -o jsonpath='{.status.conditions[?(@.type=="Ready")].status}') == "True" ]]
 }
 
 function is_control_plane_ready {
     # Checking the Cluster resource status is not sufficient, it
     # reports the control plane as ready before the nodes forming the
     # control plane are ready
-    local -r replicas=$(kubectl -n metal3 get kubeadmcontrolplane icn -o jsonpath='{.spec.replicas}')
+    local -r replicas=$(kubectl -n ${SITE_NAMESPACE} get kubeadmcontrolplane icn -o jsonpath='{.spec.replicas}')
     [[ $(kubectl --kubeconfig=${BUILDDIR}/icn-admin.conf get nodes -l node-role.kubernetes.io/control-plane -o jsonpath='{range .items[*]}{.status.conditions[?(@.type=="Ready")].status}{"\n"}{end}' | grep -c True) == ${replicas} ]]
 }
 
@@ -69,17 +39,21 @@ function insert_control_plane_network_identity_into_ssh_config {
     # This enables logging into the control plane machines from this
     # machine without specifying the identify file on the command line
 
+    if [[ ! $(which ipcalc) ]]; then
+        apt-get install -y ipcalc
+    fi
+
     # Create ssh config if it doesn't exist
     mkdir -p ${HOME}/.ssh && chmod 700 ${HOME}/.ssh
     touch ${HOME}/.ssh/config
     chmod 600 ${HOME}/.ssh/config
     # Add the entry for the control plane network, host value in ssh
     # config is a wildcard
-    endpoint=$(helm -n metal3 get values -a cluster-icn | awk '/controlPlaneEndpoint:/ {print $2}')
-    prefix=$(helm -n metal3 get values -a cluster-icn | awk '/controlPlanePrefix:/ {print $2}')
+    endpoint=$(helm -n ${SITE_NAMESPACE} get values -a cluster-icn | awk '/controlPlaneEndpoint:/ {print $2}')
+    prefix=$(helm -n ${SITE_NAMESPACE} get values -a cluster-icn | awk '/controlPlanePrefix:/ {print $2}')
     host=$(ipcalc ${endpoint}/${prefix} | awk '/Network:/ {sub(/\.0.*/,".*"); print $2}')
     if [[ $(grep -c "Host ${host}" ${HOME}/.ssh/config) != 0 ]]; then
-       sed -i -e '/Host '"${host}"'/,+1 d' ${HOME}/.ssh/config
+       sed -i -e '/Host '"${host}"'/,+3 d' ${HOME}/.ssh/config
     fi
     cat <<EOF >>${HOME}/.ssh/config
 Host ${host}
@@ -89,6 +63,8 @@ Host ${host}
 EOF
     # Add the identity to authorized keys on this host to enable ssh
     # logins via its control plane address
+    authorized_key=$(cat ${SCRIPTDIR}/id_rsa.pub)
+    sed -i -e '\!'"${authorized_key}"'!d' ${HOME}/.ssh/authorized_keys
     cat ${SCRIPTDIR}/id_rsa.pub >> ~/.ssh/authorized_keys
 }
 
@@ -96,22 +72,31 @@ function wait_for_all_ready {
     WAIT_FOR_INTERVAL=60s
     WAIT_FOR_TRIES=30
     wait_for is_cluster_ready
-    clusterctl -n metal3 get kubeconfig icn >${BUILDDIR}/icn-admin.conf
+    clusterctl -n ${SITE_NAMESPACE} get kubeconfig icn >${BUILDDIR}/icn-admin.conf
     chmod 600 ${BUILDDIR}/icn-admin.conf
     wait_for is_control_plane_ready
     insert_control_plane_network_identity_into_ssh_config
 }
 
+function is_cluster_deleted {
+    ! kubectl -n ${SITE_NAMESPACE} get cluster icn
+}
+
+function wait_for_all_deleted {
+    WAIT_FOR_INTERVAL=60s
+    WAIT_FOR_TRIES=30
+    wait_for is_cluster_deleted
+}
+
 case $1 in
-    "build-source") build_source ;;
     "clean") clean ;;
     "deploy") deploy ;;
     "wait") wait_for_all_ready ;;
+    "wait-clean") wait_for_all_deleted ;;
     *) cat <<EOF
 Usage: $(basename $0) COMMAND
 
 Commands:
-  build-source  - Build the in-tree site values
   clean         - Remove the site
   deploy        - Deploy the site
   wait          - Wait for the site to be ready