close

Système

FeaturedLinux/UnixSystème

syslog : La journalisation sous linux

La journalisation ( historique des événements) est un moyen que les systèmes d’exploitation utilise pour enregistrer toutes les actions d’un événement qui a eu lieu (exécution d’un processus, activité réseau etc ), permettant ainsi de localiser plus rapidement les défaillance d’un système.

Supposant que vous n’arrivez pas à démarrer le service http, ce dernier va envoyer un message vers un fichier log, il faut alors vérifier ce fichier pour connaitre la raison.

Ce processus est géré par un système de journalisation appelé syslog, c’est ce que nous allons découvrir dans cet article.

Syslog est un protocole développé dans les années 1980, qui permet de collecter les messages des services qui tournent sur linux et les enregistrer dans des fichiers appelés “fichiers log” ( logs files en anglais ), c’est fichiers sont placé dans /var/log.

Syslog permet de filtrer les messages et les stocke dans /var/log par type de message.
Voyons voir les les fichiers logs présents dans /var/log :

-/var/log/secure

-/var/log/maillog

-/var/log/cron

-/var/log/boot.log

-/var/log/messages

/var/log/secure :
Syslog stocke dans le fichier de log “secure” tous les messages liée à la sécurité y compris ceux de l’authentification.

/var/log/maillog:
Syslog stocke les message liée au messagerie.

/var/log/cron :
Contient tous les message liée au démarrage du système.

-/var/log/boot.log :
Contient tous les message liée au démarrage du système.

/var/log/messages :
La plupart des messages log sont enregistré dans le fichier /var/log/messages, sauf les type de messages qu’on a vu précédemment.

Je vous suggère de jeter un coup d’œil sur votre /var/log pour avoir une idée 😉 .

Voyons voir maintenant le fonctionnement de syslog.

Facility & priority :

Pour comprendre le fonctionnement de syslog nous allons étudier son fichier de configuration : /etc/syslog.conf, en voici un extrait :

# Log all kernel messages, authentication messages of
# level notice or higher and anything of level err or
# higher to the console.
# Don't log private authentication messages!
*.err;kern.*;auth.notice;authpriv.none /dev/console

# Log anything (except mail) of level info or higher.
# Don't log private authentication messages!
*.info;mail.none;authpriv.none         /var/log/messages

# The authpriv file has restricted access.
authpriv.*                             /var/log/secure

# Log all the mail messages in one place.
mail.*                                 /var/log/maillog

# Everybody gets emergency messages, plus log them on
# another machine.
*.emerg                    *
*.emerg                    @arpa.berkeley.edu

# Root and Eric get alert and higher messages.
*.alert                    root,eric

# Save mail and news errors of level err and higher in a
# special file.
uucp,news.crit             /var/log/spoolerr

Comme vous pouvez le constater, les lignes du fichier ‘syslog.conf’ est de cette forme : XXXX.YYYY, dont :   XXXX=Facility et YYYY=Priorité

Exemple :
authpriv.*          /var/log/secure
mail.*                 /var/log/maillog

Que signifie Facility et Priorité ?

Les programmes utilisent syslog pour enregistre leurs événements et ces éventement sont caractérisé par Facility et Priorité.

La Priorité indique la criticité du message généré par un programme, Le tableau ci-dessous présentes la liste des priorité syslog :

-La facilty indique le type de message généré par un programme, le tableau ci-dessous présente ces types de message :

NB :
Noter que Facility et Priority d’un message est déterminé par le programme qui génère le message et pas par syslog.

Devant chaque “Facility.Priority” est indiqué le fichier sur lequel syslog enregistre les messages.

NB : un wildcard ( * ) peut être utilisé pour indiquer toute les Facility ou Priority : mail.* 

Voyons voir des exemples pour que les choses soit bien claire :

authpriv.*            /var/log/secure     :   Ici toute les messages liée à l’authentification ( authpriv ) et quelque soient leur sévérité ( * )seront être enregistré sur /var/log/secure.

-cron.crit        /var/cron : Les messages critique ( crit ) de type Cron seront enregistrer sur /var/cron.

La rotation de log :

Comme nous avons vu précedement, le système et les application installés sur le serveur génèrent des logs et avec le temps vous pouvez vous retrouver avec des dizaines voir des centaines de gigaoctets de logs donc des partition satuées.

Pour éviter ce désagréments, une Rotation de log est effectuée.

Qu’est ce que la Rotation de log ?

Lorsqu’une rotation de log est effectuée, le fichier log est renommé avec une extention indiquant la date de la rotation, par exemple le fichier /var/log/messages devient /var/log/messages-20181018, cela veut dire que la rotation du fichier a été effectué le 2018-10-18. une fois la rotation est effectué un nouveau fichier log est créé (/var/log/messages) pour permettre au programme ou bien le système de continuer d’écrire sur le fichier.

Après un certain nombre de rotation, le fichier log le plus ancien est supprimé afin de libérer de l’espace et éviter ainsi la saturation du système du fichier.

La rotation de log est géré par un programe appelé Logrotate et un cron job exécute le programme Logrotate quotidiennement pour vérifier s’il y a besoin de faire la rotation.

Je vous invite à jeter un coup d’œil sur votre répertoire /var/log/, vous allez trouver plusieurs fichiers log auquels  la rotation de log a été effectué :

Analyser les enregistrements de syslog :

Tous les enregistrements sur les fichiers log gérés par syslog sont dans un format standard. Ci-dessous un extrait du fichier log /var/log/cron :

Les entrée sont dans le format suivant :

1Nov 14 12:01:23   2localhost   3run-parts(/etc/cron.daily)[1962] : 4starting logrotate
  1. L’horodatage : date et heure de l’entréé.
  2. Le host depuis lequel le message est envoyé ( ici la machine local ).
  3. Le programme ou le service qui a envoyé le message ( ici c’est Cron ).
  4. Le message envoyé.

Envoyer un message syslog avec “logger” :

Et ouii vous pouvez vous aussi envoyer vos propres message log vers syslog 🙂 .
C’est très utils lorsque vous dévoloppez du soft et tout simplement pour tester si le syslog fonctionne.

Pour envoyer un message syslog, on utlise la commande logger.
Par défaut logger envoie un message en utilisant la facility “user” avec la séverité “notice” mais vous pouvez spécifier ce que vous voulez avec l’option -p .

Je souhaite envoyer un message à syslog pour l’enregister dans le fichier log /var/log/boot.log :

logger -p local7.warning "mon message dans syslog"

Et voilâ c’est terminé, j’espère que c’est claire pour vous et noubliez pas : Votre premier réflexe est de regarder syslog quand quelque chose va mal sur votre serveur 😉 .

 

 

 

 

 

 

 

 

 

 

 

 

read more
Linux/UnixSystème

Virsh : La gestion des Vm en ligne de commande

Virsh est un utilitaire qui permet de gérer les machine virtuelle en ligne de commande et opère comme une alternative à l’outil graphique Virt-manager.

virsh est présent dans l’utilitaire libvirt ( Cliquer ici pour voir comment installer libvirt )

Dans l’article de KVM, nous avons vu comment créer une machine virtuelle avec virsh, dans cet article nous allons voir les commandes de virsh les plus utilisé pour gérer vos vm :

-Pour créer une nouvelle machine virtuelle à partir de la définition XML d’une machine déja installé :

# virsh create <Chemin du fichier XML>

-Pour se connectez à l’hyperviseur :

# virsh -c qemu:///system

-Pour voir la liste de toute les machines actives :

# virsh list 

-Pour voir la liste de toute les machines inactives :

# virsh list --inactive

-Pour voir la liste de toute les machines actives et inactives :

# virsh list --all

-Pour démarrer une machine virtuelle :

# virsh start nom_vm

-Pour redémarre une machine virtuelle :

# virsh shutdown nom_vm

-Pour forcer l’arrêt d’une VM :

# virsh destroy nom_vm

-Pour forcer l’arrêt d’une VM :

# virsh destroy nom_vm

-Pour mettre en pause une VM:

# virsh suspend nom_vm

-Pour reprendre une VM suspendue :

# virsh resume nom_vm

-Pour afficher les informations d’une machine virtuelle :

# virsh dominfo nom-vm

-Pour voir tous les réseau virtuels (actif et inactifs):

# virsh list-net --all

-Pour voir tous les réseau virtuels actif :

# virsh list-net 

-Pour voir les informations d’un réseau virtuel :

# virsh net-info nom_reseau

-Pour voir les informations du fichier xml d’un réseau virtuel :

#virsh net-dumpxml nom_reseau

-Pour désactiver un réseau virtuel :

# virsh net-destroy nom_reseau

-Pour activer un réseau virtuel :

# virsh net-start default 

 

 

 

 

 

 

 

read more
Linux/UnixSystème

Virt-manager : Gérer vos vm facilement

Nous avons vu dans l’article de KVM la création des Vm avec l’outils graphique virt-manager, dans cet article nous allons voir la partie réseau et stockage de virt-manager.

L’onglet réseau virtuel :

L’onglet Réseaux virtuels nous permet de configurer différents types de réseaux virtuels et de surveiller leur statut :

Ci-dessous les types de réseau virtuel que nous pourrons configurer :

  • NATed
  • Routed
  • Isolated

NATed virtual network :

Un réseau virtuel basé sur NAT fournit une connectivité réseau externe à la Machines virtuelles. Cela signifie que les machines virtuelles peuvent communiquer avec le réseau extérieur en fonction de la connectivité réseau disponible sur l’hôte, mais aucune des entités extérieures ne pourra communiquer avec les machines virtuelles. Dans cette configuration, les machines virtuelles et l’hôte doivent pouvoir communiquer entre eux via l’interface du pont Configuré sur l’hôte.

Routed virtual network :

Un réseau virtuel routé permet la connexion de machines virtuelles directement au réseau physique. Ici, les machines virtuelles envoient les paquets vers le réseau extérieur en fonction des règles de routage définies sur l’hyperviseur.

Isolated virtual network :

Comme son nom l’indique, cela fournit un réseau privé entre l’hyperviseur et les machines virtuelles.

Le réseau virtuel par défaut :

Le réseau virtuel par défaut créé est un NAT comme montre l’image ci-dessous :

Il permet aux machines virtuelles de communiquer avec les réseaux extérieurs indépendamment de l’interface réseau active (Ethernet, sans fil, VPN, etc.) disponible sur l’hyperviseur, Il fournit également un réseau privé avec IP et un serveur DHCP afin que les machines virtuelles obtiennent leurs adresses IP automatiquement.

Virt-manager nous fournit quelques information par rapport à ce réseau ;

Default est le nom du réseau virtuel. Ceci est fourni lorsque vous Créer un réseau virtuel.
Périphérique : Représente le nom du pont créé sur l’hôte. L’interface de pont est le composant principal pour créer des réseaux virtuels.
Etat :  Représente l’état du réseau virtuel. Il peut être actif ou inactif.
Démarrage automatique : Indique si le réseau virtuel doit être démarré lorsque vous activez le service libvirtd.
-IPv4 configuration : Fournit les détails du réseau privé, la plage DHCP qui sera fournie aux machines virtuelles et le mode de transfert. Le mode de transfert peut être NAT ou isolé.

Nous pouvons voir aussi tous les réseau virtuels créé avec virsh :

# virsh list-net --all

–all est utilisé pour lister les réseaux virtuels actifs et inactifs. Si –all n’est pas spécifié, seuls les réseaux virtuels actifs seront listés.

Vous pouvez également voir les détails d’un réseau à l’aide de virsh avec les commande ci-dessous :

# virsh net-info nom_réseau
# virsh net-dupxml nom_réseau

Vous pouvez arrêter le réseau par défaut à l’aide du bouton “Arrêter le réseau” rouge et le démarrer a nouveau à l’aide du bouton “Démarrer le réseau”. Le bouton + sert à créer les réseaux virtuels :

En ligne de commande :

-Pour désactiver Le réseau “default” :

# virsh net-destroy default

-Pour Activer Le réseau “default” :

# virsh net-start default 

Note :

Les fichiers de configuration du réseau virtuel sont stockés dans            /etc/libvirt/qemu/networks en tant que fichiers XML.

Onglet Stockage :

Cet onglet vous permet de configurer différents types de pools de stockage et de surveiller leur état. La capture d’écran suivante montre l’onglet Stockage:

Un pool de stockage est juste un stock pour les images de disque de machines virtuelles sauvegardées, et l’onglet Stockage fournit des détails sur les pools de stockage disponibles.

Default est le nom du pool de stockage de fichiers créé par libvirt pour stocker son fichier image de machine virtuelle. L’emplacement de ce pool de stockage se trouve dans /var/lib/libvirt/images.

Virt-manager nous permet de créer facilement de nouvelles machines virtuelles, les surveiller et effectuer des modifications de configuration en cas de besoin cependant il faux aussi maîtriser son alternative virsh qui vous sera très utile si vous travailler sur un environnement sans interface graphique.

Je vous invite alors de lire cet article qui présente les commandes de virsh les plus utilisé.

read more
FeaturedLinux/UnixSystème

KVM : Maîtriser la mis en place de l’hyperviseur KVM

KVM pour “Kernel Virtual Machine” est une Technologie de virtualisation Open Source qui permet de transformer un système linux à un Hyperviseur.
Nous allons voir dans cet article la mise en place d’un Hyperviseur KVM et comment vous pouvez créer et gérer vos machine virtuelle.
Croyez-moi Créer un Hyperviseur KVM n’est pas si compliqué, ils vous suffit de suivre cet article jusqu’à la fin 😉 .

NB : Dans cet article je vais utiliser la distribution Ubuntu, c’est presque la même pour toute les distribution.

Avant de commencer, Pour ceux qui ne savent pas ce que c’est un Hyperviseur, je leurs recommande de lire cet article ou bien pour ceux qui n’aime pas trop lire, je vous ai préparer ce vidéo :

KVM est d’un module de noyau linux, c-à-d qu’il s’installe au niveau du noyau d’un système linux et une fois installé il transforme ce noyau à un Hyperviseur.
KVM est intégré aux noyaux Linux supérieures ou égales au version 2.6.20 et distribuée sous licence GPLv2 ou LGPL.

La société israélienne Qumranet, une société israélienne spécialisée en technologies de virtualisation était à l’origine de la solution KVM. la société a été racheté par la suite par Red Hat Entreprise, Ainsi Red Hat deviens le principal contributeur de KVM.
 

Configuration requis pour l’hyperviseur KVM :

Pour que vous puissiez installer l’hyperviseur KVM, il faut que le processeur support la technologie de la virtualisation VT-x des processeur Intel ou SVM des processeur AMD. Cette technologie permet aux postes de travail équipés de processeurs Intel ou AMD d’exécuter de multiples systèmes d’exploitation et d’applications sur une seul machine unique.

Ainsi Avant de procéder à l’installation et créer notre Hyperviseur KVM,  il faut s’assurer  que le CPU supporte bien cette technologie de virtualisation.

 

C’est très simple, il suffit de rechercher les mots « vmx » ou « svm » dans le fichier /proc/cpuinfo qui contient toute les informations de votre CPU.

Voici la commande que je vous propose :

# grep -E 'vmx|svm' /proc/cpuinfo &>/dev/null && echo "La virtualisation est possible sur cette machine." || echo "Le microprocesseur de cette machine ne permet pas d'utiliser la virtualisation avec KVM."

Si le CPU support la virtualisation, le message “La virtualisation est possible sur cette machine ” s’affiche, sinon c’est le message “Le microprocesseur de cette machine ne permet pas d’utiliser la virtualisation avec KVM ” qui s’affiche.

Quelques Vérification avant de procéder à l’installation  :

J’ai mentionné que KVM est intégré aux noyaux Linux supérieures ou égales au version 2.6.20, donc pas besoin de l’installer ;).

-Vérifier la version de votre en tapant la commande :

# uname -a

-Vérifiez que les modules KVM sont bien disponibles sur votre distribution :

# find /lib/modules/`uname -r` -iname "*kvm*"

-Autre alternative est de faire la vérification depuis la configuration noyau ( l’emplacement du fichier noyau dépend de votre distribution ):

# grep KVM /boot/config-2.6.38-2-amd64

Libvirt :

Maintenant que nous avons vérifié que notre CPU support bien la technologie de la virtualisation, nous aurons besoin d’une bibliothèque excrément importante qui permet de gérer les machines virtuelles, c’est Libvirt.

 

Il s’agit d’un ensemble de logiciels qui permet de faciliter la gestion des machine virtuelle ( Création, modification, suppression, migration, etc ) de plusieurs hyperviseur, et oui plusieurs hyperviseur pas seulement KVM 🙂 .

Libvirt a été développé par Red Hat pour interagir avec plusieurs Hyperviseur comme KVM. En voici quelques un :

-KVM
-Hyperviseur Xen
-OpenVZ
-VMware ESX

Pour qu’on puisse gérer nos VMs ( Création, modification, Migration, etc ) Nous allons utiliser deux outils de gestion : Virsh et Virt-manager. (d’autre outils de gestion existent comme OpenStack et oVirt )

Ces deux outils de gestion utilise Libvirt pour gérer les VM d’un hyperviseur compatible avec libvirt. Pour comprendre La relation entra les outils de gestion,Libvirt et les hyperviseur je vous ai préparer l’image ci-dessous :

 

Comme vous pouvez le constater sur l’image, les outils de gestion comme ( Virsh, virt-manager ) utilise la bibliothèque Libvirt pour gérer les hyperviseurs comme KVM,LXC,Xen, ESX.

Tout est claire maintenant j’imagine 🙂 .

Maintenant que nous savons ce que c’est KVM et libvirt nous allons voir la procédure pour installer tous les packages nécessaires pour installer un Hyperviseur KVM.

Les packages requis pour la mise en place d’un environnement de virtualisation KVM sont : libvirt, qemu-kvm, et  virt-manager.

# apt-get install qemu-kvm libvirt-bin virt-manager

Libvirt et virt-manager vous les connaissez déjà mais qemu-kvm, ça c’est nouveau.

Qemu :

Pour comprendre à quoi sert le package qemu-kvm il faut comprendre ce que c’est l’émulateur Qemu.

C’est quoi déja un émulateur ?

Pour que vous puissiez jouer aux anciens jeux de Nintendo sur votre ordinateur il vous faut d’abord installer un émulateur sur votre PC.

Car les jeux de Nintendo ont été conçus pour tourner sur les architectures des consoles Nintendo et puisque cette architecture est différente de celle de votre PC, ils ne peuvent pas y tourner. C’est pour cela qu’il faut un émulateur installé sur votre PC pour créer un environnement similaire aux consoles Nintendo.

Et bien Qemu fait la même chose, il permet d’émuler plusieurs architecture comme x86 de Intel, ARM et PowerPC d’IBM pour que vous puissiez tourner différente système d’exploitation.

Qemu-KVM est un Qemu modifié qui permet accélérer les jeux instructions.

Maintenant que les chose sont claire, nous allons passer à la création de nos VM ;).

Création des machines virtuelles :

Avec Virt-manager :

Virt-manager (Virtual Machine Manager) est une application qui permet la gestion des machines virtuelle via libvirt.
Avec son interface graphique simple, on peut facilement créer de nouvelles machines virtuelles, les surveiller et effectuer des modifications de configuration en cas de besoin.

Avant de commencer de créer une VM, il faut s’assurer que Virt-manager est bien connecté au Qemu-KVM, pour cela, après avoir démarré l’application,  faut que
‘Qemu-kvm’ doit être affiché comme montre l’image ci-dessous :

Si ce n’est pas le cas, il faut cliquer sur ‘Ajouter une connexion’ et ensuite ajouter ‘QEMU/KVM’ dans la zone Hyperviseur :

Nous allons créer une machine virtuelle dont l’os est Debian .
Pour démarrer virt-manager, il suffi de taper la commande virt-manager :

et notre interface Virt-manager s’affiche :

-Cliquer sur fichier/Nouvelle VM et sélectionner le 1er choix ( car nous allons procéder à une installation via image ISO )  :

-Sélectionner votre image ISO :

-Ensuite vous choisissez les ressource de la VM, voici la configuration qu j’ai choisie :

-RAM = 1Go
-CPU = 1
-La taille du disque : 10GiB

-Le nom que j’ai donnée à la machine est Debian-vm

-Le réseau sélectionné est NAT ( C’est le réseau virtuel par défaut )

-Et enfin cliquer sur Terminer, Virt-manager vous indique que votre VM est en cours d’installation :

-On ouvre ensuite la console pour procéder à l’installation de l’OS :

-Notre Vm est maintenant fonctionnelle :

Avec virsh :

Si vous vous rappelez bien, on a déjà parler de virsh, qui est un utilitaire qui permet de gérer les machine virtuelle et opère comme une alternative à l’outil graphique Virt-manager.
Contrairement à Virt-manager, Il n’ y a pas un moyen pour installer une nouvelle Vm avec virsh, Vous pouvez créer une nouvelle machine virtuelle à partir de la définition XML d’une machine déja installé en utilisant la commande ci-dessous :
#virsh create <Chemin du fichier XML>

Mais nous vous inquiétez, pour installer une nouvelle vm en ligne de commande, autre alternative est à votre service :  Virt-install  😉

Avec Virt-install :

Virt-install est un outil de ligne de commande interactif qui permet  d’installer une Vm et puis lancez le processus d’installation.

Avant de démarrer l’installation du système d’exploitation à l’aide de la commande virt-install, il est nécessaire d’avoir un disque virtuel créé. Pour créer un disque virtuel, Nous allons utiliser la commande qemu-img.

Nous allons créer un disque de 10 Go avec le format du disque raw:

# qemu-img create -f raw -o size=10G /var/lib/libvirt/qemu/debian-vm.img

Ensuite on démarre virt-install avec la commande ci-dessous :

virt-install  --name Debian-vm   --ram 1024  --disk path=./var/lib/libvirt/qemu/debian-vm.img --vcpus 1 --os-type linux --network bridge=virbr0 --graphics vnc,port=5999 --console pty,target_type=serial --cdrom ./debian.iso

Tout comme avec le Virtual Machine Manager, après avoir créé la machine virtuel on doit lancé la console pour suivre l’installation avec la commande :

Félicitation, vous venez d’installer votre hyperviseur KVM avec une machine virtuelle 😉

Maintenant nous allons revenir à notre fameux gestionnaire graphique Virt-manager car nous en avons pas encore fini encore avec 😉 .

cliquer ici pour lire la suite.

 

 

read more
FeaturedSystème

Cloud computing

Qu’est ce que le cloud computing ?

Le cloud computing (L’informatique en nuage ) est un ensemble de services informatiques (stockage , application, serveur … etc ) accessible via internet. Ces services sont facturés selon l’utilisation et offre aux entreprise la flexibilité et réduction des coûts.

Le cloud computing est un service à la demande, c’est à dire qu’un client peut choisir les ressources dont il a besoin : la quantité de mémoire RAM ( 5Go, 10Go …. ), le  nombre de CPU, l’espace de stockage ( 120 Go, 50 Go ….. ), le nombre de machine virtuelle souhaitées. et toutes ces ressources  et les données de client sont hébergé chez le fournisseur cloud ainsi le client n’a pas besoin d’investir dans une infrastructure et la gérer.

Fonctionnent du cloud ?

D’un vue technique, le cloud n’a rien de nouveau, c’est le concept qui change. L’entreprise qui utilise le cloud  n’a plus à se soucier des équipements informatique et gérer l’infrastructure qui est souvent complexe ( L’installation, mis à jour, Entretiens des serveurs … ) car tout est hébergés chez le fournisseur cloud. Les entreprise n’a qu’accéder à ses services du cloud via l’internet.
L’accès aux services se fait par une application  installée sur les ordinateurs de client, généralement un navigateur.

Le fournisseur du cloud facturent en général ses services en fonction de l’utilisation, un peu comme votre facture d’eau ou d’électricité chez vous car le cloud est un service mesurable et le client paye la quantité des ressources qu’il a consommé.

 

Modèles de déploiement du cloud

Lorsque l’entreprise décide de bénéficier de cloud computing, elle doit faire le choix entre cloud privé (ou dédié), cloud public et cloud hybride.

Cloud privé :

Il s’agit d’une infrastructure (serveur, stockage et réseau… ) qui est totalement dédié à un seul client  en lui donnant ainsi davantage de contrôle, de protection et de confidentialité. les équipements du cloud privé peuvent être hébergé soit en interne ou hors de l’entreprise et accessible via un réseau privé ou avec un réseau public en utilisant des connexion cryptés sécurisé.

Cloud public :

Contrairement au cloud privé, le cloud public offre ses services à plusieurs client, L’infrastructure dans ce cas est mutualisé.

Voici les principaux fournisseurs de cloud public :

-Amazon Web Services ( AWS ) de Amazon 

Microsoft Azure de Microsoft

-Google Compute Engine de google.

-Bluemix de IBM

 

Cloud hybride :

Le cloud hybride permet de combiner le cloud privé et le cloud public permettant ainsi aux entreprise de répondre à 100% de leurs besoins en associant les 2 solutions.
Par exemple, une entreprise décide d’utiliser le cloud privé pour héberger des Workleads critique et recourir au cloud public pour héberger des ressources moins critique ( teste, développement ….).

Types de cloud computing :

Lorsqu’on parle des types de cloud, on parle de la responsabilité du fournisseur de cloud et du client.

Iaas : Infrastructure as a Service 

Ici Le client gère tous ce qui est application, OS, données , et services alors que le  fournisseur cloud est responsable de gérer la couche matériel, réseau et virtualisation. dans ce cas le client n’a pas à se soucier de l’infra par contre il est responsable de ses données installées sur les serveur virtuels en cas de perte.

Paas : Platform as a Service  :

Ici le fournisseur gère tout excepte l’application et les données de l’entreprise, il fournit l’infrastructure, l’OS et les services requise pour le bon fonctionnement de l’application du client.

Saas : Software as a Service

Ici tout est géré par le fournisseur, le client n’a besoin de contrôler quoique ce soit c’est le type de cloud le plus facile en terme de management.

On-Premise :

Le Client gère toute l’environnement, serveurs, OS, Réseau, Application, services c’est le type de cloud le plus flexible pour un client qui souhaite gérer son cloud comme il veut, par contre c’est le plus chère.

 

 

read more
FeaturedSystème

DNS round robin

Qu’est ce que le DNS round robin :

DNS round robin est une technique de load balancing des serveurs DNS permettant d’équilibrer la charge entre plusieurs serveurs ( serveurs web par exemple ). Cette technique utilise plusieurs adresses IP pour un même nom de domaine.

Fonctionnement  :

Un petit exemple pour que les choses soit plus claire :

-Sans DNS round robin :

Lorsqu’un utilisateur rentre l’adresse URL d’un site web dans un navigateur, le serveur DNS ( dont le rôle est de traduire l’url à l’adresse IP ) vous redirige vers le serveur Web correspondant :

Si plusieurs utilisateurs se connectent au serveur et que si ce dernier n’arrive plus à supporter la charge, le temps de repense commencera à se dégrader, par conséquent les utilisateurs commenceront à s’apercevoir des lenteurs car le serveur n’arrivent plus à répondre rapidement aux nombres importants des requêtes reçus et probablement il tombera en panne et le site web deviendra inaccessible.

-Avec DNS round robin :

Supposant qu’on a 2 serveurs web, chacun a sa propre adresse IP et qui hébergent le même contenu :

Avec DNS round robin, le serveur DNS  redirige les utilisateurs vers les différents serveurs web à tour de rôle :

-Le premier utilisateur qui rentre l’adresse web est redirigé vers le premier serveur web.

-Le deuxième utilisateur est redirigé vers le deuxième serveur.

-Le troisième utilisateur est redirigé vers le premier serveur et ainsi de suite.

 

Ainsi le DNS round robin distribue la charge entre plusieurs serveurs évitant ainsi la surcharge de ces derniers et garantie ainsi l’équilibrage de charge. Ces serveurs peuvent êtres placés à différentes endroits et donc vous pouvez accéder au même contenu depuis plusieurs endroits.

Le DNS round robin garantie également la disponibilité du contenu en cas de panne de l’un des serveurs, les requêtes dans ce cas sont redirigé uniquement vers le serveurs en bonne état.

Inconvénient :

Ce type de load balancing est facile à utiliser mais trop limité.

Cette méthode ne prend pas en considération les capacités des serveurs, elle peut donc congestionner un serveur avec de faible capacité par des requêtes lourdes alors des requêtes facile à traiter sont dirigé vers un serveur robuste.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

read more
Autres

Erreur 404

Il arrive par fois que lorsqu’on essaye d’accéder à un URL, une page blanche s’affiche avec le message “Erreur 404”. Pourquoi ce message s’affiche-t-il ? et comment faire pour résoudre ce problème ?

Pourquoi le message erreur 404 s’affiche ?

“Erreur 404” s’affiche lorsque la page auquel vous essayez d’y accéder n’existe pas et cela arrive lorsque vous n’avez pas bien saisi l’URL, ou bien la page a été déplacé ou supprimé du site Web.

Il y a différente façon dont le message “erreur 404” s’affiche:
404 Error
404 Not Found
Error 404
The requested URL [URL] was not found on this server
HTTP 404
Error 404 Not Found
404 File or Directory Not Found
HTTP 404 Not Found
404 Page Not Found

Comment résoudre l’erreur 404 ?

1-Rafraîchir la page avec la touche F5 ou bien cliquer sur le symbole d’actualisation de votre navigateur :  

Parfois l’erreur 404 s’affiche même s’il n’existe aucun souci, ainsi probablement une rafraîchissement de la page suffit pour résoudre le problème.

2-Vérifier s’il y des erreurs dans votre URL

3-Faites une recherche de la page souhaité sur un moteur de recherche comme google

4-Vérifier l’URL depuis une autre appareil ( Smartphone, Tablet .. ) s’il fonctionne, le problème pourrait être dans le cache de votre navigateur, videz-le et réessayez.

5- Changer le serveur DNS utilisé par votre ordinateur : utiliser cette solution si l’ensemble du site web vous donne l’erreur 404 et surtout si le site web est accessible depuis un autre réseau ( Réseaux 3G/4G de votre smartphone  par exemple ).

6-Si aucun des solutions décrit n’a abouti, contacter alors le site web, il est fort probable que la page été déplacé ou carrément supprimé

 

read more