Merge "FIX: Set default IPMI privilege level"
[ta/config-manager.git] / userconfigtemplate / user_config.yaml
1 ---
2 # yamllint disable rule:comments rule:comments-indentation rule:line-length
3
4 # Copyright 2019 Nokia
5
6 # Licensed under the Apache License, Version 2.0 (the "License");
7 # you may not use this file except in compliance with the License.
8 # You may obtain a copy of the License at
9 #
10 #     http://www.apache.org/licenses/LICENSE-2.0
11 #
12 # Unless required by applicable law or agreed to in writing, software
13 # distributed under the License is distributed on an "AS IS" BASIS,
14 # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
15 # See the License for the specific language governing permissions and
16 # limitations under the License.
17
18 ### Version numbering:
19 ###    X.0.0
20 ###        - Major structural changes compared to the previous version.
21 ###        - Requires all users to update their user configuration to
22 ###          the new template
23 ###    a.X.0
24 ###        - Significant changes in the template within current structure
25 ###          (e.g. new mandatory attributes)
26 ###        - Requires all users to update their user configuration according
27 ###          to the new template (e.g. add new mandatory attributes)
28 ###    a.b.X
29 ###        - Minor changes in template (e.g. new optional attributes or
30 ###          changes in possible values, value ranges or default values)
31 ###        - Backwards compatible
32 version: 2.0.4
33
34 ### Cloud name can consist of lower case letters, digits and dash (-).
35 ### Name must start and end with a letter or a digit.
36 name: <VALUE>
37
38 ### Cloud description
39 description: <VALUE>
40
41 ### Time related configuration
42 time:
43     ### A list of NTP server IP addresses.
44     ntp_servers: [VALUE1, VALUE2, ...]
45
46     ### linux time zone name  (e.g. Europe/Helsinki or Asia/Shanghai)
47     zone: <VALUE>
48
49     ### supported values for authentication method of NTP:
50     ### crypto, symmetric, none
51     auth_type: none
52
53     ### If you are using authenticated NTP you must provide the url of the keys used for authentication
54     serverkeys_path:
55
56 ### User related configuration
57 users:
58     ### Admin user details
59     admin_user_name: <VALUE>
60     ### Example how to create SHA512 password hash that can be given as
61     ### the admin password:
62     ### python -c "from passlib.hash import sha512_crypt; import getpass; print sha512_crypt.using(rounds=5000).hash(getpass.getpass())"
63     admin_user_password: <VALUE>
64
65     ### User details for the initial user (gets user_management_admin role)
66     initial_user_name: <VALUE>
67     initial_user_password: <VALUE>
68
69     ### For CaaS deployments
70     ### keystone admin users password (at least 8 characters; at least one letter)
71     admin_password: <VALUE>
72
73 ### Networking configuration
74 networking:
75     ### A list of DNS server IP addresses.
76     ### Max two addresses supported.
77     dns: [VALUE1, VALUE2]
78
79     ### Optional. Default network device mtu.
80     ### Valid value range: 1280 - 9000
81     ### When not set, defaults to 1500
82     #mtu: <VALUE>
83
84     infra_external:
85         ### Optional network mtu
86         ### If not defined default value is used.
87         #mtu: <VALUE>
88
89         ### Network domains
90         network_domains:
91             ### User defined name for network domain
92             rack-1:
93                 ### Network address in CIDR format
94                 cidr: <VALUE>
95
96                 ### Optional vlan id
97                 #vlan: <VALUE>
98
99                 ### IP address of the gateway for default route
100                 gateway: <VALUE>
101
102                 ### Range for external IPs
103                 ###  - First IP address of the range is reserved for vip
104                 ###    (Public API access)
105                 ###  - following addresses are reserved for cmanagement hosts
106                 ###    (one address per management hosts)
107                 ip_range_start: <VALUE>
108                 ip_range_end: <VALUE>
109
110     ### Optional.
111     ### This configuration is required if there are storage hosts in
112     ### the configuration. This network is used for OSD Replication.
113     #infra_storage_cluster:
114         ### Optional network mtu
115         ### If not defined default value is used.
116         #mtu: <VALUE>
117
118         ### Network domains
119         #network_domains:
120             ### User defined name for network domain
121             #rack-1:
122                 ### Network address in CIDR format (e.g. 192.168.4.0/26)
123                 #cidr: <VALUE>
124
125                 ### Optional vlan id
126                 #vlan: <VALUE>
127
128                 ### Optional IP range from the CIDR to limit IP addresses to use
129                 #ip_range_start: <VALUE>
130                 #ip_range_end: <VALUE>
131
132                 ### Optional static routes
133                 #routes:
134                 #    - {to: <CIDR>, via: <IP>}
135
136     ### This network is used for:
137     ### - Internal communication/API
138     ### - SSH between hosts
139     ### - Internal services
140     ### - NTP between hosts
141     infra_internal:
142         ### Optional network mtu
143         ### If not defined default value is used.
144         #mtu: <VALUE>
145
146         ### Network domains
147         network_domains:
148             ### User defined name for network domain
149             rack-1:
150                 ### Network address in CIDR format
151                 cidr: 192.168.12.0/26
152
153                 ### Optional vlan id
154                 #vlan: <VALUE>
155
156                 ### Optional IP range from the CIDR to limit IP addresses to use
157                 #ip_range_start: <VALUE>
158                 #ip_range_end: <VALUE>
159
160                 ### Optional static routes
161                 #routes:
162                 #    - {to: 192.168.12.0/22, via: 192.168.12.1}
163             ### Use above structure for all the other network domains
164             #rack-2:
165                 #cidr: 192.168.12.64/26
166                 #vlan: <VALUE>
167                 #ip_range_start: 192.168.12.68
168                 #ip_range_end: 192.168.12.126
169                 #routes:
170                 #    - {to: 192.168.12.0/22, via: 192.168.12.65}
171
172     ### Provider networks
173     ### Provider network to physical interface mapping is done
174     ### in the network profile configuration
175     #provider_networks:
176         ### Any number of provider network names
177         #<provider_network_name1>:
178             ### Optional. Set provider network mtu.
179             ### If not defined default value is used.
180             #mtu: <VALUE>
181
182             ### Provider network vlan ranges
183             #vlan_ranges: "<VID_START1>:<VID_END1>,<VID_START2>:<VID_END2>,..."
184
185         ### Use above structure for all the other provider networks
186         #<provider_network_name2>:
187         #...
188
189 ### Needed for non-CaaS deployments
190 #openstack:
191     ### keystone admin user password (at least 8 characters; at least one letter)
192     #admin_password: <VALUE>
193
194 ### Caas configuration
195 caas:
196     ### This parameter globally sets a maximum allowed writable disk space quota for every container,
197     ### on all caas related hosts. The quota physically forbids any containers from storing data more
198     ### than the allowed size on its own rootfs.
199     ### These ephemeral disks are allocated from the Docker Cinder volume attached to all hosts,
200     ### and as such are limited in size. The quota protects the containers from possible noisy neighbours
201     ### by limiting their maximum consumption, and thus assuring that no one faulty container
202     ### can eat up the disk space of a whole container execution host.
203     ### Mandatory
204     docker_size_quota: "2G"
205
206     ### This parameter, if provided, will be set into the configuration of the CaaS cluster's
207     ### internal DNS server's configuration. Whenever a DNS query cannot be served by the default server,
208     ### it will be forwarded to the configured address, regardless which sub-domain the query belongs to.
209     ### Please note, that in case the address points out of the infrastructure,
210     ### connectivity between the infrastructure and the external DNS server needs to be separately set-up.
211     #upstream_nameserver: "10.74.3.252"
212
213     ### This parameter, if provided, will be set into the configuration of the CaaS cluster's
214     ### internal DNS server's configuration. Whenever a DNS query cannot be served by the default server,
215     ### it might be forwarded to the address set into the "stub_domain_ip" parameter.
216     ### However, forwarding only happens if "stub_domain_name" matches the domain name in the DNS query.
217     ### Please note, that in case the address points out of the infrastructure, connectivity between the
218     ### infrastructure and the external DNS server needs to be separately set-up.
219     #stub_domain:
220     #  name: "nokia.com"
221     #  ip: "10.74.3.252"
222
223     ### This parameter, if provided, controls how long a Helm install procedure waits before exiting with a timeout error.
224     ### Value is interpreted in minutes.
225     #helm_operation_timeout: "900"
226
227     ### The Docker container run-time engine creates a Linux network bridge by default, and provisions
228     ### a /24 IPv4 network on top of it. Even though this bridge is not used within CaaS subsytem,
229     ### the existence of this bridge is not configurable.
230     ### However, in certain customer environments the default IPv4 network of this bridge can collide with
231     ### real customer networks. To avoid IP collision issues in such cases, the application operator can globally set
232     ### the Docker bridge CIDRs of all host via this parameter.
233     #docker0_cidr: "172.17.0.1/16"
234
235     ### Mandatory parameter. All the infrastructure's HTTP servers are secured with TLS.
236     ### The certificates of the servers are created in infrastructure deployment time, and are signed by an externally provided CA certificate.
237     ### This CA certificate can be configured by setting its encrypted format into this configuration parameter.
238     ### Due to CBAM limitation the value of this parameters shall be provided as a one-element list in JSON format
239     ### e.g. ["U2FsdGVkX1+iaWyYk3W01IFpfVdughR5aDKo2NpcBw2USt.."]
240     encrypted_ca: '["<ENCRYPTED_CA>"]'
241
242     ### Manadatory parameter. All the infrastructure's HTTP servers are secured with TLS.
243     ### The certificates of the servers are created in infrastructure deployment time, and are signed by an externally provided CA certificate.
244     ### This CA certificate can be configured by setting its encrypted format into the "encrypted_CA" configuration parameter.
245     ### The key which can be used to decrypt this CA certificate shall be configured into this configuration parameter, but also encrypted.
246     ###This key shall be encrypted by the super-secret, static key, known only by infrastructure developers, and cloud operators.
247     ### Due to CBAM limitation the value of this parameters shall be provided as a one-element list in JSON format
248     ### e.g. ["U2FsdGVkX1+WlNST+W.."]
249     encrypted_ca_key: '["<ENCRYPTED_CA_KEY>"]'
250
251     ### This parameter defines the DNS domain served by the REC DNS server for example
252     ### in-cluster Kubernetes Services all belongs to this domain DNS queries.
253     ### Outside of this domain are either rejected, or forwarded to a configured upstream DNS server (if, any).
254     ### The default value is: rec.io
255     #dns_domain: "<VALUE>"
256
257     ### Tenant networks.
258     ### This list contains all provider networks dedicated to be used by CaaS tenant users.
259     ### These provider networks needs to binded homogenously to all CaaS hosts and the
260     ### provider network type must be caas.
261     ### SR-IOV provider networks also supported.
262     #tenant_networks: ["tenant_net1", "tenant_net2"]
263
264 ### Storage configuration
265 storage:
266     #backends:
267       ### Configuration of supported storage backends.
268       ### At least one backend must be onfigured and only one backend can be enabled.
269       ### If more than one backend is configured then one should be enabled (enabled:true)
270       ### and the others should be disabled (enabled: false).
271
272       #ceph:
273          ### The ceph can be enbled only in a multi node configuration.
274          #enabled: <true/false>
275
276          ### The OSD replica count.
277          ### The number of replicas for objects in the pool.
278          ### Valid value range for any production environment: 2 - 3
279          ### (for testing purposes only, in environments with very limited
280          ###  storage resource, value 1 can be used as well)
281          ### Required if there are ceph nodes.
282          #osd_pool_default_size: <VALUE>
283
284
285 ### Network profiles
286 network_profiles:
287     ### Users can define multiple network profiles depending on the hardware.
288     #<profile_name>:
289         ### Compulsory if bonding interfaces used for infra networks.
290         ### Bonding options for linux bonding interfaces used for infra
291         ### networks.
292         ### Supported options: "mode=lacp" and "mode=active-backup"
293         ### In "mode=lacp" both nics are active simultaniously.
294         ### In "mode=active-backup" only one slave in the bond is active and
295         ### the another slave becomes active only if the active slave fails.
296         #linux_bonding_options: <VALUE>
297
298         ### Optional bonding interfaces
299         #bonding_interfaces:
300             ### Any number of bonding interface names.
301             ### Bonding interface name syntax must be bond[n]
302             ### where n is a number.
303             ### Numbers in bonding interface names must be
304             ### consecutive natural numbers starting from 0
305             ### (bond0, bond1, bond2, ...)
306             ###
307             ### Value is a list of at least two physical interface names
308             ### (e.g. bond0: [eno3, eno4])
309             #<bonding interface name>: [<VALUE1>, <VALUE2>, ...]
310
311         ### Interface-subnet mapping
312         ### Any number of (name: value) pairs to map interfaces
313         ### (bonding or physical interface name) to subnets
314         ### Value is list of subnets
315         ### (e.g. bond0: [infra_internal, infra_storage_cluster] or
316         ###       eno3: [infra_external])
317         ### An interface can be mapped to at most one non-vlan subnet
318         interface_net_mapping:
319             #<interface_name>: [<VALUE1>, <VALUE2>, ...]
320
321         ### Optional provider network interface
322         #provider_network_interfaces:
323             ### Provider network physical interface.
324             ### Either Ethernet or bonding interface.
325             #<interface_name1>:
326                 ### Optional provider network type.
327                 ###
328                 ### Supported types:
329                 ###   caas:
330                 ###      Containers as a Service (CaaS) provider network
331                 ### Notes:
332                 ### CaaS bond interfaces are configured as a Linux bond interfaces.
333                 #type: <caas>
334
335                 ### Provider networks on this interface.
336                 ### Provider networks must be defined also in the networking:
337                 ### provider_networks: configuration.
338                 #provider_networks: [<VALUE1>,<VALUE2>,...]
339             ### Use above structure for all the provider network interfaces
340             ### in this profile
341             #<interface_name2>:
342             #...
343
344         ### Optional SR-IOV provider networks
345         #sriov_provider_networks:
346             ### Provider network name.
347             ### Must be defined also in the
348             ### networking: provider_networks: configuration.
349             #<provider_network_name1>:
350                 ### SR-IOV physical function interfaces
351                 ### Multiple Ethernet interfaces can be mapped to implement one
352                 ### logical network.
353                 ### SR-IOV interfaces can be used also for the infra networks
354                 ### but only if network card type supports that
355                 ### (for example Mellanox ConnectX-4 Lx
356                 ### does and Intel Niantic doesn't). Another restriction is that
357                 ### bond option cannot be "mode=lacp" if SR-IOV interfaces are
358                 ### also bonding slave interfaces.
359                 #interfaces: [<VALUE1>, <VALUE2>, ...]
360
361                 ### Optional VF count per physical PF interface
362                 ### If this parameter is not defined, default is to create
363                 ### maximum supported amount of VF interfaces. In case of
364                 ### Mellanox NIC (mlx5_core driver) given VF count will be
365                 ### configured to the NIC HW as a maximum VF count.
366                 #vf_count: <COUNT>
367
368                 ### Optional VF trusted mode setting
369                 ### If enabled, PF can accept some priviledged operations from
370                 ### the VF. See the NIC manufacturer documentation for more
371                 ### details.
372                 ### Default: false
373                 #trusted: [true|false]
374
375                 ### Optional provider network type
376                 ### - caas: configure as CaaS SR-IOV cluster network
377                 ### Default: caas
378                 #type: <caas>
379             ### Use above structure for all the SR-IOV provider networks in
380             ### this profile
381             #<provider_network_name2>
382             #...
383
384 ### Performance profiles
385 performance_profiles:
386     #<profile_name>:
387         ### The parameters specified here are affected by the type
388         ### of network profile selected for the node as follows:
389         ### The following types are supported:
390         ### SR-IOV: no mandatory parameters, but following can be used:
391         ###          - default_hugepagesz
392         ###          - hugepagesz
393         ###          - hugepages
394
395         ### Configuration for huge page usage.
396         ### Notice: Huge page values must be in balance with RAM available
397         ### in any node.
398         ###
399         ### Default huge page size. Valid values are 2M and 1G.
400         #default_hugepagesz: <VALUE>
401         ### Huge page size selection parameter. Valid values are 2M and 1G.
402         #hugepagesz: <VALUE>
403         ### The number of allocated persistent huge pages
404         #hugepages: <VALUE>
405
406         ### Host CPU allocations.
407         ### Any host CPUs that are not allocated for some specific purpose
408         ### here will be automatically assigned by the system:
409         ### - If the node contains 'caas' in its service_profiles remaining
410         ###   CPUs are allocated for CaaS CPU pools. Remainder CaaS CPU CPUs
411         ###   allocated for default container execution.
412         ### - Any CPUs that don't fall into the above categories are allocated
413         ###   for the host platform.
414
415         ### Optional. Allocate CPUs for the host platform.
416         ### The configured counts determine the number of full CPU cores to
417         ### allocate from each specified NUMA node. If hyperthreading is
418         ### enabled, all sibling threads are automatically grouped together
419         ### and counted as one CPU core. The actual configurable range
420         ### depends on target hardware CPU topology and desired performance
421         ### configuration.
422         ### Notice: The host platform must always have have at least one CPU
423         ### core from NUMA node 0.
424         #platform_cpus:
425             #numa0: <COUNT>
426             #numa1: <COUNT>
427
428         ### Optional. Create CPU pools in CaaS CPU manager.
429         ### Type of this parameter is dictionary, consisting of the following attributes:
430         ### - exclusive_pool_percentage
431         ### - shared_pool_percentage
432         ### Attributes are optional, but at least one of them shall be defined
433         ### if caas_cpu_pools is defined. The sum of values can't exceed 100.
434         ### Minimum allocation is 1 CPU, which means anything greater than 0
435         ### ensures 1 CPU allocation.
436         #caas_cpu_pools:
437             #exclusive_pool_percentage: <VALUE>
438             #shared_pool_percentage: <VALUE>
439
440 ### Storage profiles
441 storage_profiles:
442     ### The storage_profiles section name is part of mandatory configuration.
443     ###
444     ### There must always be at least one profile defined when ceph or lvm
445     ### have been configured and enabled as the backend in the storage section.
446     ### This profile represents the enabled backend in question.
447     ###
448     ### In addition the user can optionally configure storage instance profiles
449     ### in this section.
450
451     #<profile_name>:
452         ### Name of the storage backend. The allowed values for the backend are
453         ### - ceph
454         ### - bare_lvm
455         ###
456         #backend: <VALUE>
457
458         ### Backend specific attributes - see examples of supported backend
459         ### specific attributes in the following storage profile templates.
460         #...
461
462     #ceph_backend_profile:
463         ### Mandatory
464         ### A storage profile for ceph backend. This storage profile is linked
465         ### to all of the storage hosts. The ceph profile is possible only with
466         ### a multihost configuration with three (3) management hosts.
467         ###
468         #backend: ceph
469
470         ### Mandatory
471         ### Number of devices that should be used as osd disks in one node.
472         ### This is a mandatory attribute for ceph storage hosts.
473         ### Max number of ceph osd disks is 3.
474         #nr_of_ceph_osd_disks: <VALUE>
475
476         ### Optional
477         ### The share ratio between the Openstack & CaaS subsystems for
478         ### the available Ceph storage. Expected to be in ratio format (A:B),
479         ### where the first number is for Openstack, the second one is for CaaS subsystem.
480         ### Always quote the value! Default value is "1:0".
481         #ceph_pg_openstack_caas_share_ratio: "<VALUE>"
482
483     #bare_lvm_profile
484         ### Mandatory
485         ### A storage profile to create bare lvm volumes.
486         ###
487         ### This profile can be used to create an LVM volume that will be
488         ### available under the defined directory for any further use.
489         ###
490         ### This profile is mandatory for caas_worker hosts and should be
491         ### mounted to /var/lib/docker.
492         ###
493         #backend: bare_lvm
494
495         ### Mandatory
496         ### This paramater contains which partitions to be used
497         ### for instance volume group.
498         #lvm_instance_storage_partitions: [<VALUE1>, <VALUE2>, ...]
499
500         ### Mandatory
501         ### This paramater defines bare_lvm how much space should take
502         ### from LVM pool.
503         ### Note that this option left for compatibility reasons, actual value
504         ### dynamically calculated.
505         ### calculated.
506         #bare_lvm_storage_percentage: <VALUE>
507
508         ### Mandatory
509         ### This parameter contains the name for the created LVM volume.
510         #lv_name: <VALUE>
511
512 host_os:
513     ### The value of this parameter is used to protect the entire GRUB 2 menu structure of all the infrastructure nodes.
514     ### The configured value should be a properly salted PBKDF2 (Password-Based Key Derivation Function 2) hash.
515     ### Interactive tool "grub2-mkpasswd-pbkdf2" can be used to create the hash.
516     ### Operators will be only able to make changes in the GRUB menu, if the
517     ### hashed version of the typed-in password matches with the value of this parameter.
518     ###
519     #grub2_password: "<VALUE>"
520     ### User lockout parameters are set with failed_login_attempts (default is 5)
521     ### and lockout_time (default is 300 seconds (5 minutes))
522     #failed_login_attempts: <VALUE>
523     #lockout_time: <VALUE>
524
525 ### Cloud hosts
526 hosts:
527     #<node-name>:
528         ### The service profiles for this node. Valid values are the following:
529         ### management/base/storage/caas_master/caas_worker
530         ### Currently supported service profile combinations:
531         ###   1 Any permutations of: management/base/storage e.g: [ manangement, storage ]
532         ###   2 Either or both [management, caas_master] e.g.: [ management, caas_master ]
533         ###   3 caas_worker can't be combined with any other profile: e.g.: [ caas_worker ]
534         service_profiles: [<VALUE1>, <VALUE2>, ...]
535
536         ### The network profiles for this node, the value used in the list
537         ### should match a profile from the network_profiles section.
538         ### Only one network profile per host supported at the moment.
539         network_profiles: [profile1]
540
541         ### The storage profiles for this node, the value used in the list
542         ### should match a profile from the storage_profiles section.
543         #storage_profiles: [profile1]
544
545         ### The performance profiles for this node, the value used in the list
546         ### should match a profile from the performance_profiles section.
547         ### Only one performance profile per host supported at the moment.
548         #performance_profiles: [profile1]
549
550         ### The kubernetes label set of the node, you can define an arbitrary set of key-value pairs.
551         ### These key-value pairs will be provisioned to the corresponding
552         ### Kubernetes node object as kubernetes labels.
553         ### Optional parameter, only interpreted when the node has a CaaS subsystem related service profile.
554         ### For any other node this attribute will be silently ignored.
555         ### The keys under "labels" can be anything, except: 'name', 'nodetype', 'nodeindex', 'nodename'
556         ### These labels are reserved for infrastructure usage
557         #labels:
558         #  type: "performance"
559         #  cpu: "turboboost"
560         #  hyperthreading: "off"
561         #  ...
562
563         ### Network domain for this node
564         ### Value should match some network domain in networking section.
565         network_domain: rack-1
566
567         ### HW management (e.g. IPMI or iLO) address and credentials
568         hwmgmt:
569             address: <VALUE>
570             user: <VALUE>
571             password: <VALUE>
572             # Optional: the IPMI privilege level to request.
573             # Typical values include 'USER', 'OPERATOR', 'ADMINISTRATOR'
574             # default is 'ADMINISTRATOR' if unspecified.
575             # priv_level: <VALUE>
576         ### Optional parameter needed for virtual deployment to identify the
577         ### nodes the mac address for the provisioning interface
578         #mgmt_mac: [<VALUE1>, <VALUE2>, ...]
579
580 ...