Override passwords in emco-db release
[icn.git] / deploy / site / vm / vm.sh
index 841644b..b35784d 100755 (executable)
@@ -10,16 +10,21 @@ source $SCRIPTDIR/../common.sh
 BUILDDIR=${SCRIPTDIR/deploy/build}
 mkdir -p ${BUILDDIR}
 
+SITE_REPO=${SITE_REPO:-"https://gerrit.akraino.org/r/icn"}
+SITE_BRANCH=${SITE_BRANCH:-"master"}
+SITE_PATH=${SITE_PATH:-"deploy/site/vm"}
+
 FLUX_SOPS_KEY_NAME=${FLUX_SOPS_KEY_NAME:-"icn-site-vm"}
+FLUX_SOPS_PRIVATE_KEY="${SCRIPTDIR}/../secrets/sops.asc"
 
 # !!!NOTE!!! THE KEYS USED BELOW ARE FOR TEST PURPOSES ONLY.  DO NOT
 # USE THESE OUTSIDE OF THIS ICN VIRTUAL TEST ENVIRONMENT.
 function build_source {
     # First decrypt the existing site YAML, otherwise we'll be
     # attempting to encrypt it twice below
-    if [[ -f ${SCRIPTDIR}/sops.asc ]]; then
-       gpg --import ${SCRIPTDIR}/sops.asc
-       sops_decrypt_site ${SCRIPTDIR}/site.yaml
+    if [[ -f ${FLUX_SOPS_PRIVATE_KEY} ]]; then
+       gpg --import ${FLUX_SOPS_PRIVATE_KEY}
+       sops_decrypt ${SCRIPTDIR}/site.yaml
     fi
 
     # Generate user password and authorized key in site YAML
@@ -34,31 +39,31 @@ function build_source {
 
     # Encrypt the site YAML
     create_gpg_key ${FLUX_SOPS_KEY_NAME}
-    sops_encrypt_site ${SCRIPTDIR}/site.yaml ${FLUX_SOPS_KEY_NAME}
+    sops_encrypt ${SCRIPTDIR}/site.yaml ${FLUX_SOPS_KEY_NAME}
 
     # ONLY FOR TEST ENVIRONMENT: save the private key used
-    export_gpg_private_key ${FLUX_SOPS_KEY_NAME} >${SCRIPTDIR}/sops.asc
+    export_gpg_private_key ${FLUX_SOPS_KEY_NAME} >${FLUX_SOPS_PRIVATE_KEY}
 }
 
 function deploy {
-    gpg --import ${SCRIPTDIR}/sops.asc
-    flux_create_site https://gerrit.akraino.org/r/icn master deploy/site/vm ${FLUX_SOPS_KEY_NAME}
+    gpg --import ${FLUX_SOPS_PRIVATE_KEY}
+    flux_create_site ${SITE_REPO} ${SITE_BRANCH} ${SITE_PATH} ${FLUX_SOPS_KEY_NAME}
 }
 
 function clean {
-    kubectl -n flux-system delete kustomization icn-master-site-vm
+    kubectl -n flux-system delete kustomization $(flux_site_kustomization_name ${SITE_REPO} ${SITE_BRANCH} ${SITE_PATH})
 }
 
 function is_cluster_ready {
-    [[ $(kubectl -n metal3 get cluster e2etest -o jsonpath='{.status.conditions[?(@.type=="Ready")].status}') == "True" ]]
+    [[ $(kubectl -n metal3 get cluster icn -o jsonpath='{.status.conditions[?(@.type=="Ready")].status}') == "True" ]]
 }
 
 function is_control_plane_ready {
     # Checking the Cluster resource status is not sufficient, it
     # reports the control plane as ready before the nodes forming the
     # control plane are ready
-    local -r replicas=$(kubectl -n metal3 get kubeadmcontrolplane e2etest -o jsonpath='{.spec.replicas}')
-    [[ $(kubectl --kubeconfig=${BUILDDIR}/e2etest-admin.conf get nodes -l node-role.kubernetes.io/control-plane -o jsonpath='{range .items[*]}{.status.conditions[?(@.type=="Ready")].status}{"\n"}{end}' | grep -c True) == ${replicas} ]]
+    local -r replicas=$(kubectl -n metal3 get kubeadmcontrolplane icn -o jsonpath='{.spec.replicas}')
+    [[ $(kubectl --kubeconfig=${BUILDDIR}/icn-admin.conf get nodes -l node-role.kubernetes.io/control-plane -o jsonpath='{range .items[*]}{.status.conditions[?(@.type=="Ready")].status}{"\n"}{end}' | grep -c True) == ${replicas} ]]
 }
 
 function insert_control_plane_network_identity_into_ssh_config {
@@ -71,8 +76,8 @@ function insert_control_plane_network_identity_into_ssh_config {
     chmod 600 ${HOME}/.ssh/config
     # Add the entry for the control plane network, host value in ssh
     # config is a wildcard
-    endpoint=$(helm -n metal3 get values -a cluster-e2etest | awk '/controlPlaneEndpoint:/ {print $2}')
-    prefix=$(helm -n metal3 get values -a cluster-e2etest | awk '/controlPlanePrefix:/ {print $2}')
+    endpoint=$(helm -n metal3 get values -a cluster-icn | awk '/controlPlaneEndpoint:/ {print $2}')
+    prefix=$(helm -n metal3 get values -a cluster-icn | awk '/controlPlanePrefix:/ {print $2}')
     host=$(ipcalc ${endpoint}/${prefix} | awk '/Network:/ {sub(/\.0.*/,".*"); print $2}')
     if [[ $(grep -c "Host ${host}" ${HOME}/.ssh/config) != 0 ]]; then
        sed -i -e '/Host '"${host}"'/,+1 d' ${HOME}/.ssh/config
@@ -80,15 +85,20 @@ function insert_control_plane_network_identity_into_ssh_config {
     cat <<EOF >>${HOME}/.ssh/config
 Host ${host}
   IdentityFile ${SCRIPTDIR}/id_rsa
+  StrictHostKeyChecking no
+  UserKnownHostsFile /dev/null
 EOF
+    # Add the identity to authorized keys on this host to enable ssh
+    # logins via its control plane address
+    cat ${SCRIPTDIR}/id_rsa.pub >> ~/.ssh/authorized_keys
 }
 
 function wait_for_all_ready {
     WAIT_FOR_INTERVAL=60s
     WAIT_FOR_TRIES=30
     wait_for is_cluster_ready
-    clusterctl -n metal3 get kubeconfig e2etest >${BUILDDIR}/e2etest-admin.conf
-    chmod 600 ${BUILDDIR}/e2etest-admin.conf
+    clusterctl -n metal3 get kubeconfig icn >${BUILDDIR}/icn-admin.conf
+    chmod 600 ${BUILDDIR}/icn-admin.conf
     wait_for is_control_plane_ready
     insert_control_plane_network_identity_into_ssh_config
 }