Add topology-manager to e2e tested addons
[icn.git] / cmd / bpa-operator / e2etest / bpa_bmh_verifier.sh
1 #!/usr/bin/env bash
2 set -eu -o pipefail
3
4 CLUSTER_NAME=test-bmh-cluster
5
6 kubectl create -f e2etest/test_bmh_provisioning_cr.yaml
7 sleep 5
8
9 #Check Status of kud job pod
10 status="Running"
11
12 while [[ $status == "Running" ]]
13 do
14     echo "KUD install job still running"
15     sleep 2m
16     stats=$(kubectl get pods |grep -i kud-${CLUSTER_NAME})
17     status=$(echo $stats | cut -d " " -f 3)
18 done
19
20 #Print logs of Job Pod
21 jobPod=$(kubectl get pods|grep kud-${CLUSTER_NAME})
22 podName=$(echo $jobPod | cut -d " " -f 1)
23 printf "\nNow Printing Job pod logs\n"
24 kubectl logs $podName
25
26 if [[ $status == "Completed" ]];
27 then
28    printf "KUD Install Job completed\n"
29    printf "Checking cluster status\n"
30
31    source ../../env/lib/common.sh
32    CLUSTER_KUBECONFIG=/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/admin.conf
33    APISERVER=$(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl config view --minify -o jsonpath='{.clusters[0].cluster.server}')
34    TOKEN=$(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl get secret $(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl get serviceaccount default -o jsonpath='{.secrets[0].name}') -o jsonpath='{.data.token}' | base64 --decode)
35    if ! call_api $APISERVER/api --header "Authorization: Bearer $TOKEN" --insecure;
36    then
37        printf "\nKubernetes Cluster Install did not complete successfully\n"
38        exit 1
39    else
40        printf "\nKubernetes Cluster Install was successful\n"
41    fi
42
43 else
44     printf "KUD Install Job failed\n"
45     exit 1
46 fi
47
48 #Install addons
49 printf "Installing KUD addons\n"
50 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
51 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f prerequisites.yaml -v values.yaml
52 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f composite-app.yaml -v values.yaml
53 popd
54
55 #Wait for addons to be ready
56 # The deployment intent group status reports instantiated before all
57 # Pods are ready, so wait for the instance label (.spec.version) of
58 # the deployment intent group instead.
59 status="Pending"
60 for try in {0..19}; do
61     printf "Waiting for KUD addons to be ready\n"
62     sleep 30s
63     if KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl wait pod -l app.kubernetes.io/instance=r1 --for=condition=Ready --all-namespaces --timeout=0s 2>/dev/null >/dev/null; then
64         status="Ready"
65         break
66     fi
67 done
68 [[ $status == "Ready" ]]
69
70 #Install addon resources
71 printf "Installing KUD addon resources\n"
72 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
73 /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh apply -f composite-app.yaml -v values-resources.yaml
74 popd
75
76 #Wait for addon resources to be ready
77 status="Pending"
78 for try in {0..9}; do
79     printf "Waiting for KUD addon resources to be ready\n"
80     sleep 30s
81     if KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl wait pod -l app.kubernetes.io/instance=r1 --for=condition=Ready --all-namespaces --timeout=0s 2>/dev/null >/dev/null; then
82        status="Ready"
83        break
84     fi
85 done
86 [[ $status == "Ready" ]]
87
88 #Test addons
89 printf "Testing KUD addons\n"
90 pushd /opt/kud/multi-cluster/addons/tests
91 failed_kud_tests=""
92 container_runtime=$(KUBECONFIG=${CLUSTER_KUBECONFIG} kubectl get nodes -o jsonpath='{.items[].status.nodeInfo.containerRuntimeVersion}')
93 if [[ "${container_runtime}" == "containerd://1.2.13" ]]; then
94     #With containerd 1.2.13, the qat test container image fails to unpack.
95     kud_tests="topology-manager-sriov multus ovn4nfv nfd sriov-network cmk"
96 else
97     kud_tests="topology-manager-sriov multus ovn4nfv nfd sriov-network qat cmk"
98 fi
99 for test in ${kud_tests}; do
100     KUBECONFIG=${CLUSTER_KUBECONFIG} bash ${test}.sh || failed_kud_tests="${failed_kud_tests} ${test}"
101 done
102 if [[ ! -z "$failed_kud_tests" ]]; then
103     printf "Test cases failed:${failed_kud_tests}\n"
104     exit 1
105 fi
106 popd
107 printf "All test cases passed\n"
108
109 #Tear down setup
110 printf "\n\nBeginning BMH E2E Test Teardown\n\n"
111 # Workaround known issue with emcoctl resource deletion by retrying
112 # until a 404 is received.
113 pushd /opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/addons
114 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f composite-app.yaml -v values-resources.yaml |
115             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
116     echo "Waiting for KUD addon resources to terminate"
117     sleep 1s
118 done
119 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f composite-app.yaml -v values.yaml |
120             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
121     echo "Waiting for KUD addons to terminate"
122     sleep 1s
123 done
124 until [[ $(/opt/kud/multi-cluster/${CLUSTER_NAME}/artifacts/emcoctl.sh delete -f prerequisites.yaml -v values.yaml |
125             awk '/Response Code:/ {code=$3} END{print code}') =~ 404 ]]; do
126     echo "Waiting for KUD addons to terminate"
127     sleep 1s
128 done
129 popd
130 kubectl delete -f e2etest/test_bmh_provisioning_cr.yaml
131 kubectl delete job kud-${CLUSTER_NAME}
132 kubectl delete --ignore-not-found=true configmap ${CLUSTER_NAME}-configmap
133 rm -rf /opt/kud/multi-cluster/${CLUSTER_NAME}
134 rm -rf /opt/kud/multi-cluster/addons
135 make delete