Menu
1. CONFIGURATION SYSTEME
2. INSTALLATION DOCKER
A. INSTALLATION DU SERVICE NTP
B. CERTIFICAT
C. NGINX
3. INSTALLATION RANCHER
A. AJOUT D’HOTE
B. AJOUT DU CLUSTER MYSQL
C. AJOUT DU NFS
C-1. CONFIGURATION DES NAS
C-2. CONFIGURATION RANCHER
C. AJOUT DU NFS
D. LIAISON ACTIVE DIRECTORY
Nous connaissons tous Amazon avec AWS qui nous permet d’avoir rapidement des environnements docker.
Mais dans certains cas, nous avons besoin de mettre un environnement interne à l’entreprise.
Voici comment mettre un tel environnement en place avec une architecture répartie sur 2 salles pour garantire de la haute disponibilité.
Nous allons voir comment créer un cluster (HA) docker à base de Rancher 1.6.25, avec une base de données MySQL (Galera) hébergé en mode docker.
Il y aura aussi quelque service rajouté comme :
– GLPI (Lien https://glpi-project.org/fr/)
– Centreon (SNMP & NRPE) (Lien https://www.centreon.com/)
– NTP
– Une liaison avec un Active Directory Microsoft Serveur 2012
– Le mappage NFS avec 2 NAS qui repliqué pour de le HA
Schéma récapitulatif
Voici un tableau récapitulatif de l’infrastructure avec les fonctions et les adresses IP
Nom | Fonction/OS | Adresse IP | Domaine | |
Serveur DNS Salle A | Serveur 2016 standard | 10.59.1.10 | .EXEMPLE.LOCAL | |
Serveur Active Directory Salle A | Serveur 2016 standard | 10.59.1.10 | EXEMPLE.LOCAL | |
Serveur DNS Salle B | Serveur 2016 standard | 10.59.2.10 | .EXEMPLE.LOCAL | |
Serveur Active Directory Salle B | Serveur 2016 standard | 10.59.2.10 | EXEMPLE.LOCAL | |
supervision | Centreon | 10.59.1.11 | ||
inventaire | GLPI (CentOS Web Panel) | 10.59.1.12 | ||
Nom | Fonction/OS | Adresse IP Principal | Adresse IP Secondaire | |
rancher 01 | Centos 7 | 10.59.1.151 | 10.59.4.21 | |
rancher 02 | Centos 7 | 10.59.2.151 | 10.59.5.21 | |
rancher 03 | Centos 7 | 10.59.1.152 | 10.59.4.22 | |
rancher 04 | Centos 7 | 10.59.2.152 | 10.59.5.22 | |
Equipement | Fonction/OS | Adresse IP Principal | ||
Load Balancer | Load Balancer | 10.59.1.50 | ||
Switch 1 Front Salle A | Switch Zone A | 10.59.1.1 | ||
Switch 2 Front Salle B | Switch Zone B | 10.59.2.1 | ||
Switch 1 Back Salle A | Switch Zone A | 10.59.4.1 | ||
Switch 2 Back Salle B | Switch Zone B | 10.59.5.1 | ||
Equipement | Fonction/OS | Adresse IP Principal | ||
Nas Principal Salle A | Stokage | 10.59.4.10 | ||
Nas Secondaire Salle B | Stokage | 10.59.5.10 |
1. CONFIGURATION SYSTEME
A faire sur chaque nœud du cluster
Commençons par désactiver un niveau de restriction d’utilisation réseau.
<
setenforce 0
sed -i s/SELINUX=enforcing/SELINUX=disabled/g /etc/selinux/config
Mettons à jours l’ensemble des composants du système et nous installons les paquets manquants
<
yum install epel-release -y
yum update -y && yum upgrade -y
yum install -y httpd-tools mlocate openssh net-snmp yum-utils hstr hh nginx nano wget curl
yum install -y nrpe nagios-plugins-users nagios-plugins-load nagios-plugins-swap nagios-plugins-disk nagios-plugins-procs
yum install -y fusioninventory-agent fusioninventory-agent-task-inventory
yum update -y && yum upgrade -y
Nous faisons un reboot de chaque serveur pour une prise en compte correcte des mises à jours.
<
reboot
Si nous avons mal configuré le nom du serveur au moment de l’installation nous pouvons encore le modifier avec la commande suivante :
<
hostnamectl set-hostname rancher01.exemple.local
systemctl restart systemd-hostnamed
Si nous avons mal configuré le réseau au moment de l’installation nous pouvons encore le modifier avec la commande suivante :
<
nmtui
Nous allons configurer le SNMP
mv /etc/snmp/snmpd.conf /etc/snmp/snmpd.conf.bak
nano /etc/snmp/snmpd.conf
Nous collons l’ensemble des lignes suivantes:
#com2sec paranoid default EN-TETE-PUBLIC
com2sec readonly default EN-TETE-PRIVEE
#com2sec readwrite default EN-TETE-PRIVEE
#group MyRWGroup usm readwrite
group ROGroup v1 readonlyinformsink 10.59.1.11 EN-TETE-PRIVEE
# incl/excl subtree mask
view all included .1 80
view system included .iso.org.dod.internet.mgmt.mib-2.system
view system included .1.3.6.1.4.1.2021.11
view System included .1.3.6.1.2.1.1
view System included .1.3.6.1.2.1.25.1.1####
# Finally, grant the 2 groups access to the 1 view with different
# write permissions:# context sec.model sec.level match read write notif
access MyROSystem « » any noauth exact system none none
access MyROGroup « » any noauth exact all none none
access MyRWGroup « » any noauth exact all all none
access ROGroup « » v1 noauth exact all none none# —————————————————————————–
syslocation France (configure /etc/snmp/snmpd.local.conf)
syscontact Root <administrateur@tips-of-mine.fr> (configure /etc/snmp/snmpd.local.conf)# Check the / partition and make sure it contains at least 10 megs.
disk / 10000
# MUCH more can be done with the snmpd.conf than is shown as an
# example here.
exec .1.3.6.1.4.1.2021.54 hdNum /usr/local/bin/snmpdiskio hdNum
exec .1.3.6.1.4.1.2021.55 hdIndex /usr/local/bin/snmpdiskio hdIndex
exec .1.3.6.1.4.1.2021.56 hdDescr /usr/local/bin/snmpdiskio hdDescr
exec .1.3.6.1.4.1.2021.57 hdInBlocks /usr/local/bin/snmpdiskio hdInBlocks
exec .1.3.6.1.4.1.2021.58 hdOutBlocks /usr/local/bin/snmpdiskio hdOutBlocks
Nous éditons le fichier hosts pour y indiquer l’ensemble des autres serveurs important ainsi que leur adresse IP
<
nano /etc/hosts
Y rajouter
10.59.2.151 rancher01 rancher01.exemple.local
10.59.3.151 rancher02 rancher02.exemple.local
10.59.2.152 rancher03 rancher03.exemple.local
10.59.3.152 rancher04 rancher04.exemple.local
10.59.1.10 srv-ad-P srv-ad-P.exemple.local
10.59.2.10 srv-ad-S srv-ad-S.exemple.local
10.59.1.11 centreon centreon.exemple.local
10.59.1.12 glpi glpi.exemple.local
Nous allons configurer l’outil d’inventaire GLPI, pour cela nous devons ouvrir le fichier de configuration
<
nano /etc/fusioninventory/agent.cfg
Nous rajoutons la ligne suivante dans le fichier
server = http://glpi.EXEMPLE.LOCAL/plugins/fusioninventory/
Nous allons configurer l’outil de supervision
<
nano /etc/nrpe.d/centreon.cfg
Nous mettons l’ensemble des lignes suivantes dans le fichier
################################################################################
# COMMAND DEFINITIONS
# Syntax:
# command[]=
#
command[users]=/usr/lib64/nagios/plugins/check_users -w 5 -c 10
command[load]=/usr/lib64/nagios/plugins/check_load -w 15,10,5 -c 30,25,20
command[check_load]=/usr/lib64/nagios/plugins/check_load -w 15,10,5 -c 30,25,20
command[swap]=/usr/lib64/nagios/plugins/check_swap -w 20% -c 10%
command[root_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p / -m
command[usr_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p /usr -m
command[var_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p /var -m
command[zombie_procs]=/usr/lib64/nagios/plugins/check_procs -w 5 -c 10 -s Z
command[total_procs]=/usr/lib64/nagios/plugins/check_procs -w 190 -c 200
command[proc_named]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C named
command[proc_crond]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:5 -C crond
command[proc_syslogd]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C syslog-ng
command[proc_rsyslogd]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C rsyslogd
command[check_yum]=/usr/lib64/nagios/plugins/check_yum.py
<
hh –show-configuration >> ~/.bashrc
Nous modifions dans le fichier du NRPE l’autorisation pour notre supervision
<
nano /etc/nagios/nrpe.cfg
Nous modifions la ligne suivante
allowed_hosts=127.0.0.1,::1,10.59.1.11,centreon,centreon.exemple.local
Nous lançons l’ensemble des services que nous venons de configurer et faisons-en sorte qu’ils se lancent automatiquement en cas de redémarrage des serveurs
<
systemctl daemon-reload
systemctl start snmpd
systemctl enable snmpd
systemctl restart nrpe
systemctl enable nrpe
systemctl restart fusioninventory-agent
systemctl enable fusioninventory-agent
Nous ouvrons les services et ports firewall
<
firewall-cmd –zone=public –add-service=snmp –permanent
firewall-cmd –zone=public –add-service=ssh –permanent
firewall-cmd –zone=public –add-port=22/tcp –permanent
firewall-cmd –zone=public –add-port=5666/tcp –permanent
firewall-cmd –reload
2. INSTALLATION DOCKER
Nous pouvons donc procéder à l’installation du composant docker sur chacun des nœuds du cluster
<
curl https://releases.rancher.com/install-docker/18.03.sh | sh
Nous créons les groupes système
<
groupadd docker
usermod -aG docker root
<
getent group docker
Nous démarrons l’application
<
systemctl start docker
Nous faisons en sorte qu’elle se lance automatiquement à chaque redémarrage
<
systemctl enable docker
Nous controlons la version installée
<
docker –version
A. INSTALLATION DU SERVICE NTP
Nous lançons l’installation
<
yum install -y ntp
Nous lançons le service
<
systemctl start ntpd
Nous faisons en sorte que le service se lance automatiquement à chaque redémarrage
<
systemctl enable ntpd
Nous contrôlons le délais
<
ntpq -p
Nous contrôlons le délais
<
ntpdc -l
Nous redémarrons le service pour prise en compte
<
systemctl restart ntpd
B. CERTIFICAT
Nous créons le dossier ou nous allons stoker les certificats
<
mkdir /opt/rancher
Nous allons dans le dossier
<
cd /opt/rancher
Nous créons le fichier
<
nano csr_details.txt
[req]
default_bits = 2048
prompt = no
default_md = sha256
req_extensions = req_ext
distinguished_name = dn[ dn ]
C=FR
ST=Nord
L=Roubaix
O=Tips-of-mine
OU=admin
emailAddress=admin@tips-of-mine.fr
CN = rancher.exemple.local[ req_ext ]
subjectAltName = @alt_names[ alt_names ]
DNS.1 = rancher01.exemple.local
DNS.2 = rancher02.exemple.local
DNS.3 = rancher03.exemple.local
DNS.4 = rancher04.exemple.local
Nous exécutons la génération des certificats
<
openssl req -new -sha256 -nodes -out rancher.exemple.local.csr -newkey rsa:2048 -keyout rancher.exemple.local.key -config <( cat csr_details.txt )
Nous devons les copier pour Rancher, pour cela nous allons créer les dossiers suivant
<
mkdir /var/lib/rancher
mkdir /var/lib/rancher/etc
mkdir /var/lib/rancher/etc/ssl
Puis nous les copions
<
cp /opt/rancher/* /var/lib/rancher/etc/ssl/
Nous devons ouvrir le fichier
<
nano /var/lib/rancher/etc/ssl/ca.crt
Nous copions le contenu de celui-ci et le copions pour le valider dans une autoritée de certificat
C. NGINX
Créer le fichier de configuration associé à notre service
<
nano /etc/nginx/conf.d/rancher.conf
Rajouter le contenu du fichier
upstream rancher_ui {
server rancher01.exemple.local:880;
server rancher02.exemple.local:880;
server rancher03.exemple.local:880;
server rancher04.exemple.local:880;
}map $http_upgrade $connection_upgrade {
default Upgrade;
» close;
}server {
listen 443 ssl http2;
server_name rancher.exemple.local;
ssl_certificate /opt/rancher/nginx.crt;
ssl_certificate_key /opt/rancher/rancher.exemple.local.key;location / {
proxy_set_header Host $host;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Port $server_port;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://rancher;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection $connection_upgrade;
# This allows the ability for the execute shell window to remain open for up to 15 minutes. Without this parameter, the default is 1 minute and will automatically close.
proxy_read_timeout 900s;
}
}server {
listen 80;
server_name rancher.exemple.local;
return 301 https://$server_name$request_uri;
}
Démarrer le serveur
<
systemctl start nginx
Mettre le service en démarrage automatique du serveur
<
systemctl enable nginx
Nous contrôlons que le service fonctionne bien
<
systemctl status nginx
Nous ouvrons les ports du serveurs
<
firewall-cmd –permanent –zone=public –add-service=http
firewall-cmd –permanent –zone=public –add-service=https
firewall-cmd –zone=public –add-port=880/tcp –permanent
firewall-cmd –zone=public –add-port=80/tcp –permanent
firewall-cmd –reload
3. INSTALLATION RANCHER
Nous commençons par lancer l’utilisation de RANCHER en mode standalone
<
docker run –name RANCHER-SEUL -d -p 880:8080 -v /opt/rancher/ca.crt:/var/lib/rancher/etc/ssl/ca.crt rancher/server
Ne surtout par rajouter l’argument « strong>–restart=unless-stopped/strong> » car nous allons le stopper plus loin et il ne doit pas être relancé automatique à chaque reboot du serveur
Nous patientons que l’ensemble de l’image rancher soit installé et exécuté.
Une fois terminé
Nous devons patienter 1 minute et 30 secondes. (suivant le type d’équipement que vous utilisez)
Nous pouvons donc aller sur l’interface avec l’URL http://10.59.2.151:880
Nous commençons par accepter la connexion non-sécurisé.
Nous décochons la case et nous pouvons cliquer sur le bouton « Got »
A. AJOUT D’HOTE
ATTENTION : nous devons commencer avec 3 autres seulement pour correctement installer et utiliser la base de données MySQL Galera.
Une fois sur l’interface graphie, nous ajoutons les 4 serveurs en tant qu’hôte.
Pour cela nous allons dans Infrastructure > Hosts
Nous constatons qu’il n’y a pas de serveur en place.
Nous cliquons sur le bouton « Add Host »
Nous validons en cliquant sur le bouton « Save »
Nous copions le lien d’exécution d’installation
Nous devons rajouter le paramétre suivant adapté à chaque hôte
<
-e CATTLE_AGENT_IP=AAA.BBB.CCC.DDD
Ce qui va donner pour chaque hôte
Pour Rancher01
<
sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.1.151 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg
Pour Rancher02
<
sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.2.151 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg
Pour Rancher03
<
sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.1.152 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg
Pour Rancher04
<
sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.2.152 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg
Nous lançons la commande sur les serveurs qui vont former le cluster
Nous rajoutons un « Label » sur le serveur rancher01.exemple.local afin d’imposer l’entrée réseau
master = true
Pour les autre serveurs pour être sur qu’il n’ira jamais
master = false
Pour chaque hôte ajouté, nous les voyons s’ajouter dans la liste des hôtes disponibles.
B. AJOUT DU CLUSTER MYSQL (GALERA)
Nous cliquons sur le lien dans le menu pour accéder au « catalog »
Et nous choisissons d’installer MariaDB Galera Cluster
Dans la partie New Stack
* Name ——-: Galera-Cluster-Rancher
* Description ——-: Environnement dédié a Rancher Cluster
Dans la partie des paramétres, nous mettons
* MySQL Root Password ——-: Passw0rd
* MySQL Database Name ——-: cattle
* MySQL DB USser ——–: cattle
* MySQL DB Password ——–: cattle
Puis nous validons avec le bouton « Launch »
La composante s’installe et se lance.
Nous pouvons controler l’installation sur l’interface des hotes que tout les composants s’installent.
Une fois l’installation terminée, nous allons imposer l’exécution du Loadbalancer à l’hôte RANCHER01
Nous éditons le loadbalancer
Nous changeons l’access en mode Public
Nous mettons un Scheduling avec en Key master et en value true
Puis nous cliquons sur Upgrade
Nous pouvons voir que le composant se mets à jour.
Nous pouvons avancer dans le paramétrage HA, nous allons installer la repository de Mariadb
<
nano /etc/yum.repos.d/MariaDB.repo
Dans le fichier nous rajoutons les lignes suivantes :
[mariadb]
name = MariaDB
baseurl = http://yum.mariadb.org/10.1/centos7-amd64
gpgkey=https://yum.mariadb.org/RPM-GPG-KEY-MariaDB
gpgcheck=1
Puis nous lançons l’installation du client MySQL MariaDB
<
yum install -y MariaDB-client
Une fois installé, nous allons controler que nous nous connectons bien au cluster MySQL
Puis nous nous connectons à celui-ci
<
mysql -u cattle –password=cattle -h 10.59.1.151 cattle
Nous exécutons la commande suivante pour obtenir toute les variables du serveur
<
SHOW GLOBAL STATUS LIKE ‘wsrep_ready’;
Nous exécutons la commande suivante pour obtenir
<
SHOW STATUS LIKE ‘wsrep_%’;
![]() Et nous exécutons la commande suivante pour imposer le passage en Ready < SET GLOBAL wsrep_provider_options=’pc.bootstrap=YES’; |
Nous exécutons la commande suivante pour obtenir
<
SHOW GLOBAL STATUS LIKE ‘wsrep_ready’;
Nous pouvons sortir de l’agent MySQL
<
exit;
Nous allons exporter le contenu de la base actuelle
<
wget http://10.59.1.151:880/v1/haconfigs/haconfig/dbdump
Nous renommons le fichier pour le rendre extractible
<
mv dbdump dbdump.zip
Nous le décompressons
<
unzip dbdump.zip
Nous l’importons dans le Cluster MySQL
<
mysql -u cattle –password=cattle -h 10.59.1.151 cattle < rancher-db-dump
Nous nous reconnectons pour controler que l’importation est correcte
<
mysql -u cattle –password=cattle -h 10.59.1.151 cattle
<
show tables;
Nous pouvons sortir de l’agent MySQL
<
exit;
Nous allons passer en mode cluster, pour cela nous allons stopper le docker serveur actuel.
Pour cela nous allons déjà obtenir son ID
<
docker ps
Nous arrêtons le conteneur
<
docker stop RANCHER-SEUL
Nous pouvons enfin lancer sur l’ensemble des nœuds du HA le service rancher
<
docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.1.151
il faut changer pour chaque nœud l’adresse IP en fin de ligne en fonction de l’adresse IP du nœud
Pour Rancher02
<
docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.2.151
Pour Rancher03
<
docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.1.152
Pour Rancher04
<
docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.2.152
Nous pouvons aussi remplacer l’adresse IP 10.59.1.151 par son alias DNS Rancher01.EXEMPLE.LOCAL
Puis nous exécutons la commande sur les 2 serveurs faisant partie du nœud principal.
Nous ouvrons les services et ports firewall
<
firewall-cmd –zone=public –add-port=22/tcp –permanent
firewall-cmd –zone=public –add-port=18080/tcp –permanent
firewall-cmd –zone=public –add-port=500/udp –permanent
firewall-cmd –zone=public –add-port=4500/udp –permanent
firewall-cmd –zone=public –add-port=2181/tcp –permanent
firewall-cmd –zone=public –add-port=2376/tcp –permanent
firewall-cmd –zone=public –add-port=2888/tcp –permanent
firewall-cmd –zone=public –add-port=3888/tcp –permanent
firewall-cmd –zone=public –add-port=6379/tcp –permanent
firewall-cmd –zone=public –add-port=9345/tcp –permanent
firewall-cmd –reload
Puis nous contrôlons que l’interface Rancher se lance bien
http://10.59.1.151:880
Une fois que l’ensemble du cluster d’administration est monté nous pouvons voir tout les noeuds sont bien là-dedans ADMIN > High Availability
A partir d’ici, nous pouvons rajouter autant de hôte que nous voulons.
Et nous pouvons terminer d’importer les autres serveurs.
C. AJOUT DU NFS
C-1. CONFIGURATION DES NAS
Dans l’interface de NAS type QNAP ou Synology, nous pouvons configurer la création de volume, la configuration du service NFS et des réplications.
Ceux-ci sont propres à chaque interface éditeur et ce sujet ne sera pas traité ici.
C-2. CONFIGURATION RANCHER
Nous cliquons sur le lien dans le menu pour accéder au « catalog »
Nous choissions d’installer Rancher-NFS
Nous arrivons dans la partie configuration
Nous remplissons les champs comme ci-dessous
* NFS Server* ——-: 10.59.4.11
* Mount Directory ——-: /Docker
* Mount Options ——-: (vide)
* NFS Version* ——-: nfsvers=4
Dans la partie Infrastructure > Storage, nous pouvons voir la partie que tout semble bien fonctionner
Nous pouvons donc créer des volumes que nous allons rattacher aux applications
Nous pouvons donc éditer chaques applications qui va fonctionner dans notre ferme, le mappage des données se fera toujours au même endroid
D. LIAISON ACTIVE DIRECTORY
Pour permettre un bonne authentification, pour cela nous allons ADMIN > Access Control
Et nous cliquons sur Active Directory
Nous remplissons les champs
* Hostname or IP Address ——-: srv-ad-P.exemple.local
* Port ——-: 369
* Connection Timeout ——-: 5000
* Default Login Domain ——-:
* Service Account Username ——-:
* Service Account Password ——-:
* User Search Base ——-:
* Group Search Base ——-:
Pour mettre plus de paramétre nous cliquons sur le bouton SHOW ADVANCED