Deploy addons via EMCO
[icn.git] / cmd / bpa-operator / e2etest / bpa_vm_verifier.sh
1 #!/usr/bin/env bash
2 set -eu -o pipefail
3
4 CLUSTER_NAME=cluster-test
5 NUM_MASTERS=${NUM_MASTERS:-"1"}
6 NUM_WORKERS=${NUM_WORKERS:-"1"}
7
8 # Create Fake DHCP File
9 mkdir -p /opt/icn/dhcp
10 cat <<EOF > /opt/icn/dhcp/dhcpd.leases
11 # The format of this file is documented in the dhcpd.leases(5) manual page.
12 # This lease file was written by isc-dhcp-4.3.5
13
14 # authoring-byte-order entry is generated, DO NOT DELETE
15 authoring-byte-order little-endian;
16
17 EOF
18 for ((master=0;master<NUM_MASTERS;++master)); do
19     lease=$(virsh net-dhcp-leases baremetal |grep "master-${master}")
20     mac=$(echo $lease | cut -d " " -f 3)
21     ip=$(echo $lease | cut -d " " -f 5)
22     ip="${ip%%/*}"
23     cat <<EOF >> /opt/icn/dhcp/dhcpd.leases
24 lease ${ip} {
25   starts 4 2019/08/08 22:32:49;
26   ends 4 2019/08/08 23:52:49;
27   cltt 4 2019/08/08 22:32:49;
28   binding state active;
29   next binding state free;
30   rewind binding state free;
31   hardware ethernet ${mac};
32   client-hostname "master-${master}";
33 }
34 EOF
35 done
36 for ((worker=0;worker<NUM_WORKERS;++worker)); do
37     lease=$(virsh net-dhcp-leases baremetal |grep "worker-${worker}")
38     mac=$(echo $lease | cut -d " " -f 3)
39     ip=$(echo $lease | cut -d " " -f 5)
40     ip="${ip%%/*}"
41     cat <<EOF >> /opt/icn/dhcp/dhcpd.leases
42 lease ${ip} {
43   starts 4 2019/08/08 22:32:49;
44   ends 4 2019/08/08 23:52:49;
45   cltt 4 2019/08/08 22:32:49;
46   binding state active;
47   next binding state free;
48   rewind binding state free;
49   hardware ethernet ${mac};
50   client-hostname "worker-${worker}";
51 }
52 EOF
53 done
54
55 # Create provisioning CR file for testing
56 cat <<EOF > e2etest/e2e_test_provisioning_cr.yaml
57 apiVersion: bpa.akraino.org/v1alpha1
58 kind: Provisioning
59 metadata:
60   name: e2e-test-provisioning
61   labels:
62     cluster: ${CLUSTER_NAME}
63     owner: c1
64 spec:
65   masters:
66 EOF
67 for ((master=0;master<NUM_MASTERS;++master)); do
68     lease=$(virsh net-dhcp-leases baremetal |grep "master-${master}")
69     mac=$(echo $lease | cut -d " " -f 3)
70     cat <<EOF >> e2etest/e2e_test_provisioning_cr.yaml
71     - master-${master}:
72         mac-address: ${mac}
73 EOF
74 done
75 cat <<EOF >> e2etest/e2e_test_provisioning_cr.yaml
76   workers:
77 EOF
78 for ((worker=0;worker<NUM_WORKERS;++worker)); do
79     lease=$(virsh net-dhcp-leases baremetal |grep "worker-${worker}")
80     mac=$(echo $lease | cut -d " " -f 3)
81     cat <<EOF >> e2etest/e2e_test_provisioning_cr.yaml
82     - worker-${worker}:
83         mac-address: ${mac}
84 EOF
85 done
86 cat <<EOF >> e2etest/e2e_test_provisioning_cr.yaml
87   KUDPlugins:
88     - emco
89 EOF
90 kubectl apply -f e2etest/e2e_test_provisioning_cr.yaml
91 sleep 5
92
93 #Check Status of kud job pod
94 status="Running"
95
96 while [[ $status == "Running" ]]
97 do
98     echo "KUD install job still running"
99     sleep 2m
100     stats=$(kubectl get pods |grep -i kud-${CLUSTER_NAME})
101     status=$(echo $stats | cut -d " " -f 3)
102 done
103
104 #Print logs of Job Pod
105 jobPod=$(kubectl get pods|grep kud-${CLUSTER_NAME})
106 podName=$(echo $jobPod | cut -d " " -f 1)
107 printf "\nNow Printing Job pod logs\n"
108 kubectl logs $podName
109
110 if [[ $status == "Completed" ]];
111 then
112    printf "KUD Install Job completed\n"
113    printf "Checking cluster status\n"
114
115    source ../../env/lib/common.sh
116    CLUSTER_KUBECONFIG=/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/admin.conf
117    APISERVER=$(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl config view --minify -o jsonpath='{.clusters[0].cluster.server}')
118    TOKEN=$(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl get secret $(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl get serviceaccount default -o jsonpath='{.secrets[0].name}') -o jsonpath='{.data.token}' | base64 --decode)
119    if ! call_api $APISERVER/api --header "Authorization: Bearer $TOKEN" --insecure;
120    then
121        printf "\nKubernetes Cluster Install did not complete successfully\n"
122        exit 1
123    else
124        printf "\nKubernetes Cluster Install was successful\n"
125    fi
126
127 else
128     printf "KUD Install Job failed\n"
129     exit 1
130 fi
131
132 #Install addons
133 printf "Installing KUD addons\n"
134 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
135 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f prerequisites.yaml -v values.yaml
136 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f composite-app.yaml -v values.yaml
137 popd
138
139 #Wait for addons to be ready
140 # The deployment intent group status reports instantiated before all
141 # Pods are ready, so wait for the instance label (.spec.version) of
142 # the deployment intent group instead.
143 status="Pending"
144 for try in {0..9}; do
145     printf "Waiting for KUD addons to be ready\n"
146     sleep 30s
147     if KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl wait pod -l app.kubernetes.io/instance=r1 --for=condition=Ready --all-namespaces --timeout=0s 2>/dev/null >/dev/null; then
148         status="Ready"
149         break
150     fi
151 done
152 [[ $status == "Ready" ]]
153
154 #Install addon resources
155 printf "Installing KUD addon resources\n"
156 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
157 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f composite-app.yaml -v values-resources.yaml
158 popd
159
160 #Wait for addon resources to be ready
161 status="Pending"
162 for try in {0..9}; do
163     printf "Waiting for KUD addon resources to be ready\n"
164     sleep 30s
165     if KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl wait pod -l app.kubernetes.io/instance=r1 --for=condition=Ready --all-namespaces --timeout=0s 2>/dev/null >/dev/null; then
166        status="Ready"
167        break
168     fi
169 done
170 [[ $status == "Ready" ]]
171
172 #Test addons
173 printf "Testing KUD addons\n"
174 pushd /opt/kud/multi-cluster/addons/tests
175 failed_kud_tests=""
176 for addon in multus ovn4nfv nfd sriov-network qat cmk; do
177     KUBECONFIG=${CLUSTER_KUBECONFIG} bash ${addon}.sh || failed_kud_tests="${failed_kud_tests} ${addon}"
178 done
179 if [[ ! -z "$failed_kud_tests" ]]; then
180     printf "Test cases failed:${failed_kud_tests}\n"
181     exit 1
182 fi
183 popd
184 printf "All test cases passed\n"
185
186 #Tear down setup
187 printf "\n\nBeginning E2E Test Teardown\n\n"
188 # Workaround known issue with emcoctl resource deletion by retrying
189 # until a 404 is received.
190 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
191 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f composite-app.yaml -v values-resources.yaml |
192             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
193     echo "Waiting for KUD addon resources to terminate"
194     sleep 1s
195 done
196 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f composite-app.yaml -v values.yaml |
197             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
198     echo "Waiting for KUD addons to terminate"
199     sleep 1s
200 done
201 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f prerequisites.yaml -v values.yaml |
202             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
203     echo "Waiting for KUD addons to terminate"
204     sleep 1s
205 done
206 popd
207 kubectl delete -f e2etest/e2e_test_provisioning_cr.yaml
208 kubectl delete job kud-${CLUSTER_NAME}
209 kubectl delete --ignore-not-found=true configmap ${CLUSTER_NAME}-configmap
210 rm e2etest/e2e_test_provisioning_cr.yaml
211 rm -rf /opt/kud/multi-cluster/${CLUSTER_NAME}
212 rm -rf /opt/kud/multi-cluster/addons
213 rm /opt/icn/dhcp/dhcpd.leases
214 make delete