Docker : Cluster Rancher (1.6) + cluster MySQL (Galera) + Nginx (LoadBalancer)

Menu

1. CONFIGURATION SYSTEME
2. INSTALLATION DOCKER
A. INSTALLATION DU SERVICE NTP
B. CERTIFICAT
C. NGINX
3. INSTALLATION RANCHER
A. AJOUT D’HOTE
B. AJOUT DU CLUSTER MYSQL
C. AJOUT DU NFS
C-1. CONFIGURATION DES NAS
C-2. CONFIGURATION RANCHER
C. AJOUT DU NFS
D. LIAISON ACTIVE DIRECTORY


Nous connaissons tous Amazon avec AWS qui nous permet d’avoir rapidement des environnements docker.
Mais dans certains cas, nous avons besoin de mettre un environnement interne à l’entreprise.
Voici comment mettre un tel environnement en place avec une architecture répartie sur 2 salles pour garantire de la haute disponibilité.

Nous allons voir comment créer un cluster (HA) docker à base de Rancher 1.6.25, avec une base de données MySQL (Galera) hébergé en mode docker.
Il y aura aussi quelque service rajouté comme :
– GLPI (Lien https://glpi-project.org/fr/)
– Centreon (SNMP & NRPE) (Lien https://www.centreon.com/)
– NTP
– Une liaison avec un Active Directory Microsoft Serveur 2012
– Le mappage NFS avec 2 NAS qui repliqué pour de le HA

Schéma récapitulatif

Voici un tableau récapitulatif de l’infrastructure avec les fonctions et les adresses IP

Nom Fonction/OS Adresse IP Domaine
Serveur DNS Salle A Serveur 2016 standard 10.59.1.10 .EXEMPLE.LOCAL
Serveur Active Directory Salle A Serveur 2016 standard 10.59.1.10 EXEMPLE.LOCAL
Serveur DNS Salle B Serveur 2016 standard 10.59.2.10 .EXEMPLE.LOCAL
Serveur Active Directory Salle B Serveur 2016 standard 10.59.2.10 EXEMPLE.LOCAL
supervision Centreon 10.59.1.11
inventaire GLPI (CentOS Web Panel) 10.59.1.12
Nom Fonction/OS Adresse IP Principal Adresse IP Secondaire
rancher 01 Centos 7 10.59.1.151 10.59.4.21
rancher 02 Centos 7 10.59.2.151 10.59.5.21
rancher 03 Centos 7 10.59.1.152 10.59.4.22
rancher 04 Centos 7 10.59.2.152 10.59.5.22
Equipement Fonction/OS Adresse IP Principal
Load Balancer Load Balancer 10.59.1.50
Switch 1 Front Salle A Switch Zone A 10.59.1.1
Switch 2 Front Salle B Switch Zone B 10.59.2.1
Switch 1 Back Salle A Switch Zone A 10.59.4.1
Switch 2 Back Salle B Switch Zone B 10.59.5.1
Equipement Fonction/OS Adresse IP Principal
Nas Principal Salle A Stokage 10.59.4.10
Nas Secondaire Salle B Stokage 10.59.5.10

1. CONFIGURATION SYSTEME

A faire sur chaque nœud du cluster

Commençons par désactiver un niveau de restriction d’utilisation réseau.
<

setenforce 0
sed -i s/SELINUX=enforcing/SELINUX=disabled/g /etc/selinux/config

Mettons à jours l’ensemble des composants du système et nous installons les paquets manquants
<

yum install epel-release -y
yum update -y && yum upgrade -y
yum install -y httpd-tools mlocate openssh net-snmp yum-utils hstr hh nginx nano wget curl
yum install -y nrpe nagios-plugins-users nagios-plugins-load nagios-plugins-swap nagios-plugins-disk nagios-plugins-procs
yum install -y fusioninventory-agent fusioninventory-agent-task-inventory
yum update -y && yum upgrade -y

Nous faisons un reboot de chaque serveur pour une prise en compte correcte des mises à jours.
<

reboot

Si nous avons mal configuré le nom du serveur au moment de l’installation nous pouvons encore le modifier avec la commande suivante :
<

hostnamectl set-hostname rancher01.exemple.local
systemctl restart systemd-hostnamed

Si nous avons mal configuré le réseau au moment de l’installation nous pouvons encore le modifier avec la commande suivante :
<

nmtui

Nous allons configurer le SNMP

mv /etc/snmp/snmpd.conf /etc/snmp/snmpd.conf.bak
nano /etc/snmp/snmpd.conf

Nous collons l’ensemble des lignes suivantes:

#com2sec paranoid default EN-TETE-PUBLIC
com2sec readonly default EN-TETE-PRIVEE
#com2sec readwrite default EN-TETE-PRIVEE
#group MyRWGroup usm readwrite
group ROGroup v1 readonly

informsink 10.59.1.11 EN-TETE-PRIVEE

# incl/excl subtree mask
view all included .1 80
view system included .iso.org.dod.internet.mgmt.mib-2.system
view system included .1.3.6.1.4.1.2021.11
view System included .1.3.6.1.2.1.1
view System included .1.3.6.1.2.1.25.1.1

####
# Finally, grant the 2 groups access to the 1 view with different
# write permissions:

# context sec.model sec.level match read write notif
access MyROSystem «  » any noauth exact system none none
access MyROGroup «  » any noauth exact all none none
access MyRWGroup «  » any noauth exact all all none
access ROGroup «  » v1 noauth exact all none none

# —————————————————————————–

syslocation France (configure /etc/snmp/snmpd.local.conf)
syscontact Root <administrateur@tips-of-mine.fr> (configure /etc/snmp/snmpd.local.conf)

# Check the / partition and make sure it contains at least 10 megs.

disk / 10000

# MUCH more can be done with the snmpd.conf than is shown as an
# example here.
exec .1.3.6.1.4.1.2021.54 hdNum /usr/local/bin/snmpdiskio hdNum
exec .1.3.6.1.4.1.2021.55 hdIndex /usr/local/bin/snmpdiskio hdIndex
exec .1.3.6.1.4.1.2021.56 hdDescr /usr/local/bin/snmpdiskio hdDescr
exec .1.3.6.1.4.1.2021.57 hdInBlocks /usr/local/bin/snmpdiskio hdInBlocks
exec .1.3.6.1.4.1.2021.58 hdOutBlocks /usr/local/bin/snmpdiskio hdOutBlocks

Nous éditons le fichier hosts pour y indiquer l’ensemble des autres serveurs important ainsi que leur adresse IP
<

nano /etc/hosts

Y rajouter

10.59.2.151 rancher01 rancher01.exemple.local
10.59.3.151 rancher02 rancher02.exemple.local
10.59.2.152 rancher03 rancher03.exemple.local
10.59.3.152 rancher04 rancher04.exemple.local
10.59.1.10 srv-ad-P srv-ad-P.exemple.local
10.59.2.10 srv-ad-S srv-ad-S.exemple.local
10.59.1.11 centreon centreon.exemple.local
10.59.1.12 glpi glpi.exemple.local

Nous allons configurer l’outil d’inventaire GLPI, pour cela nous devons ouvrir le fichier de configuration
<

nano /etc/fusioninventory/agent.cfg

Nous rajoutons la ligne suivante dans le fichier

server = http://glpi.EXEMPLE.LOCAL/plugins/fusioninventory/

Nous allons configurer l’outil de supervision
<

nano /etc/nrpe.d/centreon.cfg

Nous mettons l’ensemble des lignes suivantes dans le fichier

################################################################################
# COMMAND DEFINITIONS
# Syntax:
# command[]=
#
command[users]=/usr/lib64/nagios/plugins/check_users -w 5 -c 10
command[load]=/usr/lib64/nagios/plugins/check_load -w 15,10,5 -c 30,25,20
command[check_load]=/usr/lib64/nagios/plugins/check_load -w 15,10,5 -c 30,25,20
command[swap]=/usr/lib64/nagios/plugins/check_swap -w 20% -c 10%
command[root_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p / -m
command[usr_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p /usr -m
command[var_disk]=/usr/lib64/nagios/plugins/check_disk -w 20% -c 10% -p /var -m
command[zombie_procs]=/usr/lib64/nagios/plugins/check_procs -w 5 -c 10 -s Z
command[total_procs]=/usr/lib64/nagios/plugins/check_procs -w 190 -c 200
command[proc_named]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C named
command[proc_crond]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:5 -C crond
command[proc_syslogd]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C syslog-ng
command[proc_rsyslogd]=/usr/lib64/nagios/plugins/check_procs -w 1: -c 1:2 -C rsyslogd
command[check_yum]=/usr/lib64/nagios/plugins/check_yum.py

<

hh –show-configuration >> ~/.bashrc

Nous modifions dans le fichier du NRPE l’autorisation pour notre supervision
<

nano /etc/nagios/nrpe.cfg

Nous modifions la ligne suivante

allowed_hosts=127.0.0.1,::1,10.59.1.11,centreon,centreon.exemple.local

Nous lançons l’ensemble des services que nous venons de configurer et faisons-en sorte qu’ils se lancent automatiquement en cas de redémarrage des serveurs
<

systemctl daemon-reload
systemctl start snmpd
systemctl enable snmpd
systemctl restart nrpe
systemctl enable nrpe
systemctl restart fusioninventory-agent
systemctl enable fusioninventory-agent

Nous ouvrons les services et ports firewall
<

firewall-cmd –zone=public –add-service=snmp –permanent
firewall-cmd –zone=public –add-service=ssh –permanent
firewall-cmd –zone=public –add-port=22/tcp –permanent
firewall-cmd –zone=public –add-port=5666/tcp –permanent
firewall-cmd –reload

2. INSTALLATION DOCKER

Nous pouvons donc procéder à l’installation du composant docker sur chacun des nœuds du cluster
<

curl https://releases.rancher.com/install-docker/18.03.sh | sh

Nous créons les groupes système
<

groupadd docker
usermod -aG docker root

<

getent group docker

Nous démarrons l’application
<

systemctl start docker

Nous faisons en sorte qu’elle se lance automatiquement à chaque redémarrage
<

systemctl enable docker

Nous controlons la version installée
<

docker –version

A. INSTALLATION DU SERVICE NTP

Nous lançons l’installation
<

yum install -y ntp

Nous lançons le service
<

systemctl start ntpd

Nous faisons en sorte que le service se lance automatiquement à chaque redémarrage
<

systemctl enable ntpd

Nous contrôlons le délais
<

ntpq -p

Nous contrôlons le délais
<

ntpdc -l

Nous redémarrons le service pour prise en compte
<

systemctl restart ntpd

B. CERTIFICAT

Nous créons le dossier ou nous allons stoker les certificats
<

mkdir /opt/rancher

Nous allons dans le dossier
<

cd /opt/rancher

Nous créons le fichier
<

nano csr_details.txt

[req]
default_bits = 2048
prompt = no
default_md = sha256
req_extensions = req_ext
distinguished_name = dn

[ dn ]
C=FR
ST=Nord
L=Roubaix
O=Tips-of-mine
OU=admin
emailAddress=admin@tips-of-mine.fr
CN = rancher.exemple.local

[ req_ext ]
subjectAltName = @alt_names

[ alt_names ]
DNS.1 = rancher01.exemple.local
DNS.2 = rancher02.exemple.local
DNS.3 = rancher03.exemple.local
DNS.4 = rancher04.exemple.local

Nous exécutons la génération des certificats
<

openssl req -new -sha256 -nodes -out rancher.exemple.local.csr -newkey rsa:2048 -keyout rancher.exemple.local.key -config <( cat csr_details.txt )

Nous devons les copier pour Rancher, pour cela nous allons créer les dossiers suivant
<

mkdir /var/lib/rancher
mkdir /var/lib/rancher/etc
mkdir /var/lib/rancher/etc/ssl

Puis nous les copions
<

cp /opt/rancher/* /var/lib/rancher/etc/ssl/

Nous devons ouvrir le fichier
<

nano /var/lib/rancher/etc/ssl/ca.crt

Nous copions le contenu de celui-ci et le copions pour le valider dans une autoritée de certificat

C. NGINX

Créer le fichier de configuration associé à notre service
<

nano /etc/nginx/conf.d/rancher.conf

Rajouter le contenu du fichier

upstream rancher_ui {
server rancher01.exemple.local:880;
server rancher02.exemple.local:880;
server rancher03.exemple.local:880;
server rancher04.exemple.local:880;
}

map $http_upgrade $connection_upgrade {
default Upgrade;
 » close;
}

server {
listen 443 ssl http2;
server_name rancher.exemple.local;
ssl_certificate /opt/rancher/nginx.crt;
ssl_certificate_key /opt/rancher/rancher.exemple.local.key;

location / {
proxy_set_header Host $host;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Port $server_port;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://rancher;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection $connection_upgrade;
# This allows the ability for the execute shell window to remain open for up to 15 minutes. Without this parameter, the default is 1 minute and will automatically close.
proxy_read_timeout 900s;
}
}

server {
listen 80;
server_name rancher.exemple.local;
return 301 https://$server_name$request_uri;
}

Démarrer le serveur
<

systemctl start nginx

Mettre le service en démarrage automatique du serveur
<

systemctl enable nginx

Nous contrôlons que le service fonctionne bien
<

systemctl status nginx

Nous ouvrons les ports du serveurs
<

firewall-cmd –permanent –zone=public –add-service=http
firewall-cmd –permanent –zone=public –add-service=https
firewall-cmd –zone=public –add-port=880/tcp –permanent
firewall-cmd –zone=public –add-port=80/tcp –permanent
firewall-cmd –reload

3. INSTALLATION RANCHER

Nous commençons par lancer l’utilisation de RANCHER en mode standalone
<

docker run –name RANCHER-SEUL -d -p 880:8080 -v /opt/rancher/ca.crt:/var/lib/rancher/etc/ssl/ca.crt rancher/server

Ne surtout par rajouter l’argument « strong>–restart=unless-stopped/strong> » car nous allons le stopper plus loin et il ne doit pas être relancé automatique à chaque reboot du serveur

Nous patientons que l’ensemble de l’image rancher soit installé et exécuté.
Une fois terminé

Nous devons patienter 1 minute et 30 secondes. (suivant le type d’équipement que vous utilisez)

Nous pouvons donc aller sur l’interface avec l’URL http://10.59.2.151:880

Nous commençons par accepter la connexion non-sécurisé.

Nous décochons la case et nous pouvons cliquer sur le bouton « Got »

A. AJOUT D’HOTE

ATTENTION : nous devons commencer avec 3 autres seulement pour correctement installer et utiliser la base de données MySQL Galera.

Une fois sur l’interface graphie, nous ajoutons les 4 serveurs en tant qu’hôte.
Pour cela nous allons dans Infrastructure > Hosts

Nous constatons qu’il n’y a pas de serveur en place.

Nous cliquons sur le bouton « Add Host »

Nous validons en cliquant sur le bouton « Save »

Nous copions le lien d’exécution d’installation

Nous devons rajouter le paramétre suivant adapté à chaque hôte
<

-e CATTLE_AGENT_IP=AAA.BBB.CCC.DDD

Ce qui va donner pour chaque hôte
Pour Rancher01
<

sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.1.151 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg

Pour Rancher02
<

sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.2.151 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg

Pour Rancher03
<

sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.1.152 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg

Pour Rancher04
<

sudo docker run –rm –privileged -e CATTLE_AGENT_IP=10.59.2.152 -v /var/run/docker.sock:/var/run/docker.sock -v /var/lib/rancher:/var/lib/rancher rancher/agent:v1.2.11 http://120.4.0.236:8080/v1/scripts/D2D985C8773927230F66:1546214400000:m9DdCGCP2WQ2Hv3f4CUrPpXZ7Bg

Nous lançons la commande sur les serveurs qui vont former le cluster

Nous rajoutons un « Label » sur le serveur rancher01.exemple.local afin d’imposer l’entrée réseau
master = true
Pour les autre serveurs pour être sur qu’il n’ira jamais
master = false

Pour chaque hôte ajouté, nous les voyons s’ajouter dans la liste des hôtes disponibles.

B. AJOUT DU CLUSTER MYSQL (GALERA)

Nous cliquons sur le lien dans le menu pour accéder au « catalog »

Et nous choisissons d’installer MariaDB Galera Cluster

Dans la partie New Stack
* Name ——-: Galera-Cluster-Rancher
* Description ——-: Environnement dédié a Rancher Cluster

Dans la partie des paramétres, nous mettons
* MySQL Root Password ——-: Passw0rd
* MySQL Database Name ——-: cattle
* MySQL DB USser ——–: cattle
* MySQL DB Password ——–: cattle

Puis nous validons avec le bouton « Launch »

La composante s’installe et se lance.

Nous pouvons controler l’installation sur l’interface des hotes que tout les composants s’installent.

Une fois l’installation terminée, nous allons imposer l’exécution du Loadbalancer à l’hôte RANCHER01
Nous éditons le loadbalancer

Nous changeons l’access en mode Public
Nous mettons un Scheduling avec en Key master et en value true
Puis nous cliquons sur Upgrade

Nous pouvons voir que le composant se mets à jour.

Nous pouvons avancer dans le paramétrage HA, nous allons installer la repository de Mariadb
<

nano /etc/yum.repos.d/MariaDB.repo

Dans le fichier nous rajoutons les lignes suivantes :

[mariadb]
name = MariaDB
baseurl = http://yum.mariadb.org/10.1/centos7-amd64
gpgkey=https://yum.mariadb.org/RPM-GPG-KEY-MariaDB
gpgcheck=1

Puis nous lançons l’installation du client MySQL MariaDB
<

yum install -y MariaDB-client

Une fois installé, nous allons controler que nous nous connectons bien au cluster MySQL
Puis nous nous connectons à celui-ci
<

mysql -u cattle –password=cattle -h 10.59.1.151 cattle

Nous exécutons la commande suivante pour obtenir toute les variables du serveur
<

SHOW GLOBAL STATUS LIKE ‘wsrep_ready’;

Nous exécutons la commande suivante pour obtenir
<

SHOW STATUS LIKE ‘wsrep_%’;

Si jamais le cluster n’est pas pret, nous devons nous connecter en ROOT
Et nous exécutons la commande suivante pour imposer le passage en Ready
<
SET GLOBAL wsrep_provider_options=’pc.bootstrap=YES’;

Nous exécutons la commande suivante pour obtenir
<

SHOW GLOBAL STATUS LIKE ‘wsrep_ready’;

Nous pouvons sortir de l’agent MySQL
<

exit;

Nous allons exporter le contenu de la base actuelle
<

wget http://10.59.1.151:880/v1/haconfigs/haconfig/dbdump

Nous renommons le fichier pour le rendre extractible
<

mv dbdump dbdump.zip

Nous le décompressons
<

unzip dbdump.zip

Nous l’importons dans le Cluster MySQL
<

mysql -u cattle –password=cattle -h 10.59.1.151 cattle < rancher-db-dump

Nous nous reconnectons pour controler que l’importation est correcte
<

mysql -u cattle –password=cattle -h 10.59.1.151 cattle

<

show tables;

Nous pouvons sortir de l’agent MySQL
<

exit;

Nous allons passer en mode cluster, pour cela nous allons stopper le docker serveur actuel.
Pour cela nous allons déjà obtenir son ID
<

docker ps

Nous arrêtons le conteneur
<

docker stop RANCHER-SEUL

Nous pouvons enfin lancer sur l’ensemble des nœuds du HA le service rancher
<

docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.1.151

il faut changer pour chaque nœud l’adresse IP en fin de ligne en fonction de l’adresse IP du nœud
Pour Rancher02
<

docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.2.151

Pour Rancher03
<

docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.1.152

Pour Rancher04
<

docker run -d –restart=unless-stopped -p 880:8080 -p 9345:9345 –name RANCHER-CLUSTER rancher/server –db-host 10.59.1.151 –db-port 3306 –db-user cattle –db-pass cattle –db-name cattle –advertise-address 10.59.2.152

Nous pouvons aussi remplacer l’adresse IP 10.59.1.151 par son alias DNS Rancher01.EXEMPLE.LOCAL

Puis nous exécutons la commande sur les 2 serveurs faisant partie du nœud principal.

Nous ouvrons les services et ports firewall
<

firewall-cmd –zone=public –add-port=22/tcp –permanent
firewall-cmd –zone=public –add-port=18080/tcp –permanent
firewall-cmd –zone=public –add-port=500/udp –permanent
firewall-cmd –zone=public –add-port=4500/udp –permanent
firewall-cmd –zone=public –add-port=2181/tcp –permanent
firewall-cmd –zone=public –add-port=2376/tcp –permanent
firewall-cmd –zone=public –add-port=2888/tcp –permanent
firewall-cmd –zone=public –add-port=3888/tcp –permanent
firewall-cmd –zone=public –add-port=6379/tcp –permanent
firewall-cmd –zone=public –add-port=9345/tcp –permanent
firewall-cmd –reload

Puis nous contrôlons que l’interface Rancher se lance bien
http://10.59.1.151:880

Une fois que l’ensemble du cluster d’administration est monté nous pouvons voir tout les noeuds sont bien là-dedans ADMIN > High Availability

A partir d’ici, nous pouvons rajouter autant de hôte que nous voulons.
Et nous pouvons terminer d’importer les autres serveurs.

C. AJOUT DU NFS

C-1. CONFIGURATION DES NAS

Dans l’interface de NAS type QNAP ou Synology, nous pouvons configurer la création de volume, la configuration du service NFS et des réplications.
Ceux-ci sont propres à chaque interface éditeur et ce sujet ne sera pas traité ici.

C-2. CONFIGURATION RANCHER

Nous cliquons sur le lien dans le menu pour accéder au « catalog »

Nous choissions d’installer Rancher-NFS

Nous arrivons dans la partie configuration

Nous remplissons les champs comme ci-dessous
* NFS Server* ——-: 10.59.4.11
* Mount Directory ——-: /Docker
* Mount Options ——-: (vide)
* NFS Version* ——-: nfsvers=4

Dans la partie Infrastructure > Storage, nous pouvons voir la partie que tout semble bien fonctionner

Nous pouvons donc créer des volumes que nous allons rattacher aux applications

Nous pouvons donc éditer chaques applications qui va fonctionner dans notre ferme, le mappage des données se fera toujours au même endroid

D. LIAISON ACTIVE DIRECTORY

Pour permettre un bonne authentification, pour cela nous allons ADMIN > Access Control
Et nous cliquons sur Active Directory

Nous remplissons les champs
* Hostname or IP Address ——-: srv-ad-P.exemple.local
* Port ——-: 369
* Connection Timeout ——-: 5000
* Default Login Domain ——-:
* Service Account Username ——-:
* Service Account Password ——-:
* User Search Base ——-:
* Group Search Base ——-:

Pour mettre plus de paramétre nous cliquons sur le bouton SHOW ADVANCED

Taggé , , , , , , , , , , , , , , .Mettre en favori le Permaliens.

Les commentaires sont fermés.