close

Featured

Featured posts

FeaturedLinux/UnixSystème

syslog : La journalisation sous linux

La journalisation ( historique des événements) est un moyen que les systèmes d’exploitation utilise pour enregistrer toutes les actions d’un événement qui a eu lieu (exécution d’un processus, activité réseau etc ), permettant ainsi de localiser plus rapidement les défaillance d’un système.

Supposant que vous n’arrivez pas à démarrer le service http, ce dernier va envoyer un message vers un fichier log, il faut alors vérifier ce fichier pour connaitre la raison.

Ce processus est géré par un système de journalisation appelé syslog, c’est ce que nous allons découvrir dans cet article.

Syslog est un protocole développé dans les années 1980, qui permet de collecter les messages des services qui tournent sur linux et les enregistrer dans des fichiers appelés “fichiers log” ( logs files en anglais ), c’est fichiers sont placé dans /var/log.

Syslog permet de filtrer les messages et les stocke dans /var/log par type de message.
Voyons voir les les fichiers logs présents dans /var/log :

-/var/log/secure

-/var/log/maillog

-/var/log/cron

-/var/log/boot.log

-/var/log/messages

/var/log/secure :
Syslog stocke dans le fichier de log “secure” tous les messages liée à la sécurité y compris ceux de l’authentification.

/var/log/maillog:
Syslog stocke les message liée au messagerie.

/var/log/cron :
Contient tous les message liée au démarrage du système.

-/var/log/boot.log :
Contient tous les message liée au démarrage du système.

/var/log/messages :
La plupart des messages log sont enregistré dans le fichier /var/log/messages, sauf les type de messages qu’on a vu précédemment.

Je vous suggère de jeter un coup d’œil sur votre /var/log pour avoir une idée 😉 .

Voyons voir maintenant le fonctionnement de syslog.

Facility & priority :

Pour comprendre le fonctionnement de syslog nous allons étudier son fichier de configuration : /etc/syslog.conf, en voici un extrait :

# Log all kernel messages, authentication messages of
# level notice or higher and anything of level err or
# higher to the console.
# Don't log private authentication messages!
*.err;kern.*;auth.notice;authpriv.none /dev/console

# Log anything (except mail) of level info or higher.
# Don't log private authentication messages!
*.info;mail.none;authpriv.none         /var/log/messages

# The authpriv file has restricted access.
authpriv.*                             /var/log/secure

# Log all the mail messages in one place.
mail.*                                 /var/log/maillog

# Everybody gets emergency messages, plus log them on
# another machine.
*.emerg                    *
*.emerg                    @arpa.berkeley.edu

# Root and Eric get alert and higher messages.
*.alert                    root,eric

# Save mail and news errors of level err and higher in a
# special file.
uucp,news.crit             /var/log/spoolerr

Comme vous pouvez le constater, les lignes du fichier ‘syslog.conf’ est de cette forme : XXXX.YYYY, dont :   XXXX=Facility et YYYY=Priorité

Exemple :
authpriv.*          /var/log/secure
mail.*                 /var/log/maillog

Que signifie Facility et Priorité ?

Les programmes utilisent syslog pour enregistre leurs événements et ces éventement sont caractérisé par Facility et Priorité.

La Priorité indique la criticité du message généré par un programme, Le tableau ci-dessous présentes la liste des priorité syslog :

-La facilty indique le type de message généré par un programme, le tableau ci-dessous présente ces types de message :

NB :
Noter que Facility et Priority d’un message est déterminé par le programme qui génère le message et pas par syslog.

Devant chaque “Facility.Priority” est indiqué le fichier sur lequel syslog enregistre les messages.

NB : un wildcard ( * ) peut être utilisé pour indiquer toute les Facility ou Priority : mail.* 

Voyons voir des exemples pour que les choses soit bien claire :

authpriv.*            /var/log/secure     :   Ici toute les messages liée à l’authentification ( authpriv ) et quelque soient leur sévérité ( * )seront être enregistré sur /var/log/secure.

-cron.crit        /var/cron : Les messages critique ( crit ) de type Cron seront enregistrer sur /var/cron.

La rotation de log :

Comme nous avons vu précedement, le système et les application installés sur le serveur génèrent des logs et avec le temps vous pouvez vous retrouver avec des dizaines voir des centaines de gigaoctets de logs donc des partition satuées.

Pour éviter ce désagréments, une Rotation de log est effectuée.

Qu’est ce que la Rotation de log ?

Lorsqu’une rotation de log est effectuée, le fichier log est renommé avec une extention indiquant la date de la rotation, par exemple le fichier /var/log/messages devient /var/log/messages-20181018, cela veut dire que la rotation du fichier a été effectué le 2018-10-18. une fois la rotation est effectué un nouveau fichier log est créé (/var/log/messages) pour permettre au programme ou bien le système de continuer d’écrire sur le fichier.

Après un certain nombre de rotation, le fichier log le plus ancien est supprimé afin de libérer de l’espace et éviter ainsi la saturation du système du fichier.

La rotation de log est géré par un programe appelé Logrotate et un cron job exécute le programme Logrotate quotidiennement pour vérifier s’il y a besoin de faire la rotation.

Je vous invite à jeter un coup d’œil sur votre répertoire /var/log/, vous allez trouver plusieurs fichiers log auquels  la rotation de log a été effectué :

Analyser les enregistrements de syslog :

Tous les enregistrements sur les fichiers log gérés par syslog sont dans un format standard. Ci-dessous un extrait du fichier log /var/log/cron :

Les entrée sont dans le format suivant :

1Nov 14 12:01:23   2localhost   3run-parts(/etc/cron.daily)[1962] : 4starting logrotate
  1. L’horodatage : date et heure de l’entréé.
  2. Le host depuis lequel le message est envoyé ( ici la machine local ).
  3. Le programme ou le service qui a envoyé le message ( ici c’est Cron ).
  4. Le message envoyé.

Envoyer un message syslog avec “logger” :

Et ouii vous pouvez vous aussi envoyer vos propres message log vers syslog 🙂 .
C’est très utils lorsque vous dévoloppez du soft et tout simplement pour tester si le syslog fonctionne.

Pour envoyer un message syslog, on utlise la commande logger.
Par défaut logger envoie un message en utilisant la facility “user” avec la séverité “notice” mais vous pouvez spécifier ce que vous voulez avec l’option -p .

Je souhaite envoyer un message à syslog pour l’enregister dans le fichier log /var/log/boot.log :

logger -p local7.warning "mon message dans syslog"

Et voilâ c’est terminé, j’espère que c’est claire pour vous et noubliez pas : Votre premier réflexe est de regarder syslog quand quelque chose va mal sur votre serveur 😉 .

 

 

 

 

 

 

 

 

 

 

 

 

read more
FeaturedLinux/UnixSystème

KVM : Maîtriser la mis en place de l’hyperviseur KVM

KVM pour “Kernel Virtual Machine” est une Technologie de virtualisation Open Source qui permet de transformer un système linux à un Hyperviseur.
Nous allons voir dans cet article la mise en place d’un Hyperviseur KVM et comment vous pouvez créer et gérer vos machine virtuelle.
Croyez-moi Créer un Hyperviseur KVM n’est pas si compliqué, ils vous suffit de suivre cet article jusqu’à la fin 😉 .

NB : Dans cet article je vais utiliser la distribution Ubuntu, c’est presque la même pour toute les distribution.

Avant de commencer, Pour ceux qui ne savent pas ce que c’est un Hyperviseur, je leurs recommande de lire cet article ou bien pour ceux qui n’aime pas trop lire, je vous ai préparer ce vidéo :

KVM est d’un module de noyau linux, c-à-d qu’il s’installe au niveau du noyau d’un système linux et une fois installé il transforme ce noyau à un Hyperviseur.
KVM est intégré aux noyaux Linux supérieures ou égales au version 2.6.20 et distribuée sous licence GPLv2 ou LGPL.

La société israélienne Qumranet, une société israélienne spécialisée en technologies de virtualisation était à l’origine de la solution KVM. la société a été racheté par la suite par Red Hat Entreprise, Ainsi Red Hat deviens le principal contributeur de KVM.
 

Configuration requis pour l’hyperviseur KVM :

Pour que vous puissiez installer l’hyperviseur KVM, il faut que le processeur support la technologie de la virtualisation VT-x des processeur Intel ou SVM des processeur AMD. Cette technologie permet aux postes de travail équipés de processeurs Intel ou AMD d’exécuter de multiples systèmes d’exploitation et d’applications sur une seul machine unique.

Ainsi Avant de procéder à l’installation et créer notre Hyperviseur KVM,  il faut s’assurer  que le CPU supporte bien cette technologie de virtualisation.

 

C’est très simple, il suffit de rechercher les mots « vmx » ou « svm » dans le fichier /proc/cpuinfo qui contient toute les informations de votre CPU.

Voici la commande que je vous propose :

# grep -E 'vmx|svm' /proc/cpuinfo &>/dev/null && echo "La virtualisation est possible sur cette machine." || echo "Le microprocesseur de cette machine ne permet pas d'utiliser la virtualisation avec KVM."

Si le CPU support la virtualisation, le message “La virtualisation est possible sur cette machine ” s’affiche, sinon c’est le message “Le microprocesseur de cette machine ne permet pas d’utiliser la virtualisation avec KVM ” qui s’affiche.

Quelques Vérification avant de procéder à l’installation  :

J’ai mentionné que KVM est intégré aux noyaux Linux supérieures ou égales au version 2.6.20, donc pas besoin de l’installer ;).

-Vérifier la version de votre en tapant la commande :

# uname -a

-Vérifiez que les modules KVM sont bien disponibles sur votre distribution :

# find /lib/modules/`uname -r` -iname "*kvm*"

-Autre alternative est de faire la vérification depuis la configuration noyau ( l’emplacement du fichier noyau dépend de votre distribution ):

# grep KVM /boot/config-2.6.38-2-amd64

Libvirt :

Maintenant que nous avons vérifié que notre CPU support bien la technologie de la virtualisation, nous aurons besoin d’une bibliothèque excrément importante qui permet de gérer les machines virtuelles, c’est Libvirt.

 

Il s’agit d’un ensemble de logiciels qui permet de faciliter la gestion des machine virtuelle ( Création, modification, suppression, migration, etc ) de plusieurs hyperviseur, et oui plusieurs hyperviseur pas seulement KVM 🙂 .

Libvirt a été développé par Red Hat pour interagir avec plusieurs Hyperviseur comme KVM. En voici quelques un :

-KVM
-Hyperviseur Xen
-OpenVZ
-VMware ESX

Pour qu’on puisse gérer nos VMs ( Création, modification, Migration, etc ) Nous allons utiliser deux outils de gestion : Virsh et Virt-manager. (d’autre outils de gestion existent comme OpenStack et oVirt )

Ces deux outils de gestion utilise Libvirt pour gérer les VM d’un hyperviseur compatible avec libvirt. Pour comprendre La relation entra les outils de gestion,Libvirt et les hyperviseur je vous ai préparer l’image ci-dessous :

 

Comme vous pouvez le constater sur l’image, les outils de gestion comme ( Virsh, virt-manager ) utilise la bibliothèque Libvirt pour gérer les hyperviseurs comme KVM,LXC,Xen, ESX.

Tout est claire maintenant j’imagine 🙂 .

Maintenant que nous savons ce que c’est KVM et libvirt nous allons voir la procédure pour installer tous les packages nécessaires pour installer un Hyperviseur KVM.

Les packages requis pour la mise en place d’un environnement de virtualisation KVM sont : libvirt, qemu-kvm, et  virt-manager.

# apt-get install qemu-kvm libvirt-bin virt-manager

Libvirt et virt-manager vous les connaissez déjà mais qemu-kvm, ça c’est nouveau.

Qemu :

Pour comprendre à quoi sert le package qemu-kvm il faut comprendre ce que c’est l’émulateur Qemu.

C’est quoi déja un émulateur ?

Pour que vous puissiez jouer aux anciens jeux de Nintendo sur votre ordinateur il vous faut d’abord installer un émulateur sur votre PC.

Car les jeux de Nintendo ont été conçus pour tourner sur les architectures des consoles Nintendo et puisque cette architecture est différente de celle de votre PC, ils ne peuvent pas y tourner. C’est pour cela qu’il faut un émulateur installé sur votre PC pour créer un environnement similaire aux consoles Nintendo.

Et bien Qemu fait la même chose, il permet d’émuler plusieurs architecture comme x86 de Intel, ARM et PowerPC d’IBM pour que vous puissiez tourner différente système d’exploitation.

Qemu-KVM est un Qemu modifié qui permet accélérer les jeux instructions.

Maintenant que les chose sont claire, nous allons passer à la création de nos VM ;).

Création des machines virtuelles :

Avec Virt-manager :

Virt-manager (Virtual Machine Manager) est une application qui permet la gestion des machines virtuelle via libvirt.
Avec son interface graphique simple, on peut facilement créer de nouvelles machines virtuelles, les surveiller et effectuer des modifications de configuration en cas de besoin.

Avant de commencer de créer une VM, il faut s’assurer que Virt-manager est bien connecté au Qemu-KVM, pour cela, après avoir démarré l’application,  faut que
‘Qemu-kvm’ doit être affiché comme montre l’image ci-dessous :

Si ce n’est pas le cas, il faut cliquer sur ‘Ajouter une connexion’ et ensuite ajouter ‘QEMU/KVM’ dans la zone Hyperviseur :

Nous allons créer une machine virtuelle dont l’os est Debian .
Pour démarrer virt-manager, il suffi de taper la commande virt-manager :

et notre interface Virt-manager s’affiche :

-Cliquer sur fichier/Nouvelle VM et sélectionner le 1er choix ( car nous allons procéder à une installation via image ISO )  :

-Sélectionner votre image ISO :

-Ensuite vous choisissez les ressource de la VM, voici la configuration qu j’ai choisie :

-RAM = 1Go
-CPU = 1
-La taille du disque : 10GiB

-Le nom que j’ai donnée à la machine est Debian-vm

-Le réseau sélectionné est NAT ( C’est le réseau virtuel par défaut )

-Et enfin cliquer sur Terminer, Virt-manager vous indique que votre VM est en cours d’installation :

-On ouvre ensuite la console pour procéder à l’installation de l’OS :

-Notre Vm est maintenant fonctionnelle :

Avec virsh :

Si vous vous rappelez bien, on a déjà parler de virsh, qui est un utilitaire qui permet de gérer les machine virtuelle et opère comme une alternative à l’outil graphique Virt-manager.
Contrairement à Virt-manager, Il n’ y a pas un moyen pour installer une nouvelle Vm avec virsh, Vous pouvez créer une nouvelle machine virtuelle à partir de la définition XML d’une machine déja installé en utilisant la commande ci-dessous :
#virsh create <Chemin du fichier XML>

Mais nous vous inquiétez, pour installer une nouvelle vm en ligne de commande, autre alternative est à votre service :  Virt-install  😉

Avec Virt-install :

Virt-install est un outil de ligne de commande interactif qui permet  d’installer une Vm et puis lancez le processus d’installation.

Avant de démarrer l’installation du système d’exploitation à l’aide de la commande virt-install, il est nécessaire d’avoir un disque virtuel créé. Pour créer un disque virtuel, Nous allons utiliser la commande qemu-img.

Nous allons créer un disque de 10 Go avec le format du disque raw:

# qemu-img create -f raw -o size=10G /var/lib/libvirt/qemu/debian-vm.img

Ensuite on démarre virt-install avec la commande ci-dessous :

virt-install  --name Debian-vm   --ram 1024  --disk path=./var/lib/libvirt/qemu/debian-vm.img --vcpus 1 --os-type linux --network bridge=virbr0 --graphics vnc,port=5999 --console pty,target_type=serial --cdrom ./debian.iso

Tout comme avec le Virtual Machine Manager, après avoir créé la machine virtuel on doit lancé la console pour suivre l’installation avec la commande :

Félicitation, vous venez d’installer votre hyperviseur KVM avec une machine virtuelle 😉

Maintenant nous allons revenir à notre fameux gestionnaire graphique Virt-manager car nous en avons pas encore fini encore avec 😉 .

cliquer ici pour lire la suite.

 

 

read more
FeaturedSécurité

Protéger votre ordinateur contre les malware 5 étapes simples

Votre ordinateur est menacé à tout moment d’être infecté par un virus ou d’être victime d’une attaque des hackers. savoir protéger son ordinateur est donc indispensable.  L’internet constitue la voie principale par laquelle les logiciels malveillants attaquent le système.

Il existe plusieurs méthodes pour protéger votre ordinateur contre les Hackers et les Malware, voici  5 étapes simples:

1-Utiliser un Firewall :

Un pare-feu ( Firewall ) joue le rôle de gardien de sécurité, il constitue un barrière entre votre ordinateur et les logiciels malveillant essayant de s’infiltrer à votre ordinateur, il surveille le trafic entrant et sortant et en fonction d’un ensemble de règles de sécurité prédéfinies, il bloque ou autorise une partie de ce trafic. ll existe deux types de pare-feu, pare-feu physique et pare-feu logiciel.

Ci-dessous quelques pare-feu logiciel gratuit :

Zonealarme

Comodo Fairewall

2-Installer un Antivirus :

Il s’agit d’un programme informatique qui surveille votre ordinateur pour empêcher que des programmes malveillant tels que des virus et des vers  de s’infiltrer.  Ainsi l’installer sur son ordinateur est l’un des étapes requis pour protéger son ordinateur.

Ci-dessous quelques antivirus les plus connus :

-Avast

-Kaspersky

-BitDefender

-NOD32.

-Microsoft Security Essentials

3-Mettre à jour les systèmes et les programmes

Les logiciels malveillant évolue chaque, il est donc nécessaires de mettre à jours  vos programmes pour corriger leurs failles de sécurité qui peuvent êtres exploité par les virus. ainsi la prochaine fois qu’un programme ou votre système d’exploitation  vous demande de faire la mise à jours faites-les immédiatement.

4-Utiliser un mot de passe fort :

Lorsque vous décider de mettre un mot de passe pour votre session Windows, pour votre routeur , compte Gmail… etc, il faut éviter les mot de facile  car il sont facile à deviner par les hacker en utilisant des outils comme la méthode “Attaque par force brute” qui permet de tester toute les combinaison possible en quelques minutes simplement.  Ainsi des mots de passe comme 56983, des mots de passe lié à votre identité (votre nom, nom de votre société, votre nom, votre couleur préféré…) sont à éviter.

Il est donc nécessaire d’utiliser des mots de passe solide en respectant les points ci-dessous ;

-Le mot de passe doit contenir au moins 8 caractères.

-Il doit contenir des chiffres, des lettres et des symbole : Fr@H2018=P@ss

Ci-dessous quelques recommandations à prendre en compte :

-Ne jamais utiliser le même mot de passe pour tous vos connexion.

-Ne donnez jamais à personne votre mot de passe, sous aucun prétexte

-Eviter d’envoyer vos mots de passe par émail, sms..

-Modifiez les mots de passe par défaut de tous les comptes, par exemple quelques  routeurs sont livré avec comme nom d’utilisateur et mot de passe “admin”, il faut donc les changer dés que possible.

-Ne jamais tapez  vos mots de passe sur une machine dont vous n’être pas le propriétaire. Il existe des logiciels qui permet d’enregistrer les touches tapées au clavier.

5-Protégez votre réseau sans fil :

Même avec l’activation du protocole WPA, malheureusement le réseau Wifi reste vulnérable. Les Hacker utilise des outils pour exploiter les faille du routeur est ainsi trouver le mot de passe de connexion.

Je vous propose de jeter un coup d’œil sur cet article pour savoir comment bien protéger son réseau WIFI.

 

 

 

 

read more
FeaturedSystème

Cloud computing

Qu’est ce que le cloud computing ?

Le cloud computing (L’informatique en nuage ) est un ensemble de services informatiques (stockage , application, serveur … etc ) accessible via internet. Ces services sont facturés selon l’utilisation et offre aux entreprise la flexibilité et réduction des coûts.

Le cloud computing est un service à la demande, c’est à dire qu’un client peut choisir les ressources dont il a besoin : la quantité de mémoire RAM ( 5Go, 10Go …. ), le  nombre de CPU, l’espace de stockage ( 120 Go, 50 Go ….. ), le nombre de machine virtuelle souhaitées. et toutes ces ressources  et les données de client sont hébergé chez le fournisseur cloud ainsi le client n’a pas besoin d’investir dans une infrastructure et la gérer.

Fonctionnent du cloud ?

D’un vue technique, le cloud n’a rien de nouveau, c’est le concept qui change. L’entreprise qui utilise le cloud  n’a plus à se soucier des équipements informatique et gérer l’infrastructure qui est souvent complexe ( L’installation, mis à jour, Entretiens des serveurs … ) car tout est hébergés chez le fournisseur cloud. Les entreprise n’a qu’accéder à ses services du cloud via l’internet.
L’accès aux services se fait par une application  installée sur les ordinateurs de client, généralement un navigateur.

Le fournisseur du cloud facturent en général ses services en fonction de l’utilisation, un peu comme votre facture d’eau ou d’électricité chez vous car le cloud est un service mesurable et le client paye la quantité des ressources qu’il a consommé.

 

Modèles de déploiement du cloud

Lorsque l’entreprise décide de bénéficier de cloud computing, elle doit faire le choix entre cloud privé (ou dédié), cloud public et cloud hybride.

Cloud privé :

Il s’agit d’une infrastructure (serveur, stockage et réseau… ) qui est totalement dédié à un seul client  en lui donnant ainsi davantage de contrôle, de protection et de confidentialité. les équipements du cloud privé peuvent être hébergé soit en interne ou hors de l’entreprise et accessible via un réseau privé ou avec un réseau public en utilisant des connexion cryptés sécurisé.

Cloud public :

Contrairement au cloud privé, le cloud public offre ses services à plusieurs client, L’infrastructure dans ce cas est mutualisé.

Voici les principaux fournisseurs de cloud public :

-Amazon Web Services ( AWS ) de Amazon 

Microsoft Azure de Microsoft

-Google Compute Engine de google.

-Bluemix de IBM

 

Cloud hybride :

Le cloud hybride permet de combiner le cloud privé et le cloud public permettant ainsi aux entreprise de répondre à 100% de leurs besoins en associant les 2 solutions.
Par exemple, une entreprise décide d’utiliser le cloud privé pour héberger des Workleads critique et recourir au cloud public pour héberger des ressources moins critique ( teste, développement ….).

Types de cloud computing :

Lorsqu’on parle des types de cloud, on parle de la responsabilité du fournisseur de cloud et du client.

Iaas : Infrastructure as a Service 

Ici Le client gère tous ce qui est application, OS, données , et services alors que le  fournisseur cloud est responsable de gérer la couche matériel, réseau et virtualisation. dans ce cas le client n’a pas à se soucier de l’infra par contre il est responsable de ses données installées sur les serveur virtuels en cas de perte.

Paas : Platform as a Service  :

Ici le fournisseur gère tout excepte l’application et les données de l’entreprise, il fournit l’infrastructure, l’OS et les services requise pour le bon fonctionnement de l’application du client.

Saas : Software as a Service

Ici tout est géré par le fournisseur, le client n’a besoin de contrôler quoique ce soit c’est le type de cloud le plus facile en terme de management.

On-Premise :

Le Client gère toute l’environnement, serveurs, OS, Réseau, Application, services c’est le type de cloud le plus flexible pour un client qui souhaite gérer son cloud comme il veut, par contre c’est le plus chère.

 

 

read more
FeaturedSystème

DNS round robin

Qu’est ce que le DNS round robin :

DNS round robin est une technique de load balancing des serveurs DNS permettant d’équilibrer la charge entre plusieurs serveurs ( serveurs web par exemple ). Cette technique utilise plusieurs adresses IP pour un même nom de domaine.

Fonctionnement  :

Un petit exemple pour que les choses soit plus claire :

-Sans DNS round robin :

Lorsqu’un utilisateur rentre l’adresse URL d’un site web dans un navigateur, le serveur DNS ( dont le rôle est de traduire l’url à l’adresse IP ) vous redirige vers le serveur Web correspondant :

Si plusieurs utilisateurs se connectent au serveur et que si ce dernier n’arrive plus à supporter la charge, le temps de repense commencera à se dégrader, par conséquent les utilisateurs commenceront à s’apercevoir des lenteurs car le serveur n’arrivent plus à répondre rapidement aux nombres importants des requêtes reçus et probablement il tombera en panne et le site web deviendra inaccessible.

-Avec DNS round robin :

Supposant qu’on a 2 serveurs web, chacun a sa propre adresse IP et qui hébergent le même contenu :

Avec DNS round robin, le serveur DNS  redirige les utilisateurs vers les différents serveurs web à tour de rôle :

-Le premier utilisateur qui rentre l’adresse web est redirigé vers le premier serveur web.

-Le deuxième utilisateur est redirigé vers le deuxième serveur.

-Le troisième utilisateur est redirigé vers le premier serveur et ainsi de suite.

 

Ainsi le DNS round robin distribue la charge entre plusieurs serveurs évitant ainsi la surcharge de ces derniers et garantie ainsi l’équilibrage de charge. Ces serveurs peuvent êtres placés à différentes endroits et donc vous pouvez accéder au même contenu depuis plusieurs endroits.

Le DNS round robin garantie également la disponibilité du contenu en cas de panne de l’un des serveurs, les requêtes dans ce cas sont redirigé uniquement vers le serveurs en bonne état.

Inconvénient :

Ce type de load balancing est facile à utiliser mais trop limité.

Cette méthode ne prend pas en considération les capacités des serveurs, elle peut donc congestionner un serveur avec de faible capacité par des requêtes lourdes alors des requêtes facile à traiter sont dirigé vers un serveur robuste.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

read more
FeaturedRéseau Informatique

Le load balancing ( Répartition de charge )

Définition de load balancing :

Le load balancing ( Equilibrage de charge ) est une technique qui permet de distribuer une charge entres plusieurs serveurs appartenant au même groupe ou cluster ( appelé aussi ferme de serveur ). Il s’agit d’une technologie efficace pour optimiser la qualité de services.

Pourquoi un load balancer :

Pour bien comprendre l’utilité de la répartition de charge, nous allons étudier deux cas d’infrastructure avec ou sans load balancing :

Exemple 1 : Infrastructure Web sans load blancing :

Dans cet exemple, l’utilisateur se connecte directement au serveur web ( exemple.com ), si le serveur tombe en panne, l’utilisateur n’arrivera plus à y accéder.

Si plusieurs utilisateurs se connectent au serveur et que si ce dernier n’arrive plus à supporter la charge, le temps de repense commencera à se dégrader, par conséquent les utilisateurs commenceront à s’apercevoir des lenteurs car le serveur n’arrivent plus à répondre rapidement aux nombres importants des requêtes reçus et probablement il tombera en panne et le site web deviendra inaccessible.

Exemple 2 Infrastructure Web avec load blancing :

Dans cet exemple, les utilisateurs n’accèdent pas directement au serveur mais au load balancing qui redirige les requête au serveur web  disponible pour la traiter.

Ici si un serveur tombe en panne, pas de souci l’autre serveur prend le relais ainsi le site web reste accessible et cela de manière transparente sans que l’utilisateurs s’en rendre compte.

Fonctionnement du load balancing :

Comment le load balancer choisi le serveur ?

Un load balancer ne doit rediriger les requêtes que vers les serveurs en bonne état.pour cela un contrôle de l’état des serveurs est effectué régulièrement, c’est ce qu’on appel “Health Checks”. si le load balancer détecte qu’un serveur est incapable de traiter les requête, il le supprimer du pool.

La distribution des requêtes au serveurs dépend de l’algorithme choisi au niveau du load balancer, voici les plus connu :

-Round Robin
-Weighted Round Robin
-Least Connections
-Weighted Least Connections

 

-Round Robin : Ici le répartiteur de charge distribuer une requête à chaque serveur de la ferme puis recommence quand il a utilisé tous les serveurs, chaqu’un à son tour.

Weighted Round Robin (Round-Robin pondéré ) : Ici le load balancing envoie plus de requêtes au serveur le plus puissant.

Least Connections (Moins de connexion) : le répartiteur de charge choisit le serveur qui renvoi moins de requêtes.

Weighted Least Connections : le répartiteur de charge choisit le serveur qui renvoi moins de requêtes en prenant en compte sa puissance.

Les types de trafique qu’un load balancer peut répartir :

-HTTP

-HTTPS

-TCP

-UDP

La redondance de load balancer :

Il est impérativement de mettre en place un deuxième répartiteur de charge pour  assurer la disponibilité en cas de panne de l’un des load balancer :

 

read more
FeaturedTech News

Skygofree : L’espion le plus avancé

Kaspersky a récemment découvert un nouveau Malware baptisé Skygofree considéré comme l’un des logiciels
d’espion le plus avancé.

Selon Kaspersky Lab, société privée spécialisé dans la sécurité des d’information et fabricant d’antivirus,
Skygofree permet aux espions de surveiller d’une façon avancée les téléphone équipés d’Android.

La première version de ce Malware a été créé à la fin de 2014, et depuis, plusieurs fonctionnalités remarquables ont été ajoutées comme la possibilité d’activer l’enregistrement audio via le microphone quand l’appareille infectée est situé dans un endroit spécifique, voler les messages de whatsapp et les SMS et même connecter l’appareille infecté au réseau wifi contrôlé par l’attaquant.

Spygofree arrive à se propager via des pages web qui imitent les sites des opérateurs mobile et la plupart des appareils infectées sont situé à l’Italie.

Une fois lancé, skygofree démarre plusieurs services en tache de fond, non visibles par l’utilisateur, ci-dessous les services lancés et leurs objectifs :

L’attaquant peut contrôler l’appareille infectées en utilisant 48 commandes différentes, pour les voir cliquer ici.

“Vu de nombreux indices présents dans le code de Skygofree, Kaspersky est assez confiants que les développeur
de Skygofree est une société informatique italienne qui travaille sur des solutions de surveillance,
tout comme HackingTeam

Skygofree a des fonctionnalité d’espionnage inédites, il permet de n’activer l’enregistrement audio qu’il
s’il se trouve à certaine coordonnées GPS donc les espion peuvent écouter leur victimes partir du moment
où elle vont se trouver dans un certain lieu ainsi il s’agit d’une surveillance plus ciblé.

Kaspersky conseille de ne pas télécharger les applications que depuis des boutique officielles.

read more
FeaturedTech News

Spectre Meltdown CPU Checker : Savoir si votre système est vulnérable

L’outil Spectre Meltdown CPU Checker de ashampoo vous permet de détecter si votre système est vulnérable des fameux failles Spectre et Meltdwon en un seul Click.

Télécharger l’outil ( pas besoin de l’installer) est cliquer sur le bouton “Commencer la vérification de sécurité” :

Attendez jusqu’à ce que la vérification soit terminée :

Que faire si votre système est vulnérable ?

Rassurez-vous, aucune attaque Spectre et Meltdown n’a été reportée jusqu’à maintenant.

-Mettez à jour votre système d’exploitation :

Toujours soyez sûr que votre système est bien à jour, et si l’option “mis à jour automatique” est désactivé, activez-là.

-Mettez à jour votre navigateur :

La faille Spectre pourrait être exploité par les navigateurs, pour éviter cela, rassurez-vous de mettre à jour votre navigateur.

reportez vous à l’article pour savoir si votre navigateur est vulnérable.

 -Mettez à jour votre carte graphique :

La carte graphique pourrait également être exploitée, pour cela referez-vous au site du constructeur pour des éventuelles mis à jour.

-Fêtes attention aux pièces joints des émail et les liens inconnus :

Pour exploiter les vulnérabilité Spectre et Meltdwon, l’attaquant doit vous faire exécuter des codes de programmes sur votre ordinateur.

en vous faisant accepter des pièces joint ou bien vous faire visiter des site compromis. Ainsi faites attention aux sites web inconnu et quand vous voulez ouvrir des pièce joints.

read more
FeaturedTech News

Meltdown et Spectre : le désastre du nouvel an

Quand il s’agit d’une faille logiciel ou bien une faille sur un système d’exploitation comme Microsoft Windows , il suffit de le mettre à jour et vous être protégé, cependant s’il s’agit d’une  faille matériels c’est tout simplement une catastrophe : Spectre et Meltdown.

Spectre et Meltdown permet d’extraire les informations à partir des instructions exécutés par les processeur.

La quasi totalité des appareils sont concernés : les smartphones, tablettes, les ordinateurs, les serveurs … utilisant des architecture de processeur Intel, IBM, ARM et AMD.

La CERT ( Computer Emergency Response Team) conseille de mettre à jours les système d’exploitation et les logiciels, cependant cela va seulement atténuer la gravité de la situation et note que pour être totalement protégé il faut changer le processeur car la faille est matériel.

Ci-dessous une liste des fournisseurs impacté selon la CERT :

 

 

 

 

 

 

 

 

 

 

 

 

 

read more