> Tech > Redondance sur Internet

Redondance sur Internet

Tech - Par iTPro - Publié le 24 juin 2010
email

Etant donné que les utilisateurs sont de plus en plus tributaires des données fournies par le Web, il faut accroître la fiabilité du service. Ce point est moins important pour un intranet, où l'on maîtrise la totalité des composants du réseau, que quand les utilisateurs viennent de l'Internet. Si un

commutateur ou un câble
Ethernet est défaillant sur le LAN, on peut généralement l’identifier et le remplacer
rapidement. Quand on utilise des fonctions de haute disponibilité comme la protection
RAID des disques ou des processeurs redondants, l’AS/400 lui-même est généralement
le composant le plus fiable.

Sur Internet les risques de défaillance sont multiples, et presque tous
hors de votre champ d’intervention

Sur Internet en revanche, les risques de défaillance sont multiples, et presque
tous hors de votre champ d’intervention. En premier lieu, il peut y avoir une
interruption de la liaison à  l’ISP (Internet Service Provider). Ou bien, pour
des problèmes propres à  l’ISP, les utilisateurs peuvent être dans l’impossibilité
d’atteindre votre serveur dans de bonnes conditions. Enfin, des problèmes de backbone
Internet peuvent partitionner l’Internet en segments inatteignables, empêchant
du même coup la connexion de certains utilisateurs.

Face à  de tels problèmes, il faut disposer de moyens Internet redondants, capables
de prendre le relais automatiquement en cas de défaillance. C’est ce que l’on
appelle le  » fail-over  » automatique. Le premier moyen de redondance qui vient
à  l’esprit est une seconde liaison, de secours, à  l’ISP (figure 9). Généralement,
la liaison de secours est de même vitesse et de même type que la liaison principale,
si possible avec un opérateur local différent pour se prémunir contre un point
de défaillance unique en cas de difficulté de l’opérateur. En fonctionnement normal,
le trafic est réparti à  égalité entre les deux liaisons. Si l’une d’elles est
défaillante, l’autre assume aussitôt le trafic des deux. Cette technique donne
satisfaction tant que la charge de trafic normale ne dépasse pas 50 % sur les
deux liaisons. Au-delà , une seule liaison ne pourra pas acheminer tout le trafic
en cas de panne, et il y aura des paquets perdus et un temps de réponse médiocre.
De plus, cette technique ne peut rien contre les problèmes survenant chez l’ISP
ou sur le backbone Internet. Donc, si elle améliore la fiabilité, elle ne couvre
pas tous les cas de pannes possibles. Pour tirer la meilleure protection de cette
technique, il faut utiliser des routeurs distincts pour chaque connexion, afin
que le routeur ne constitue pas un point de défaillance unique.

Cette technique peut être améliorée par deux liaisons, ou plus, à  Internet en
provenance de providers différents, généralement avec deux routeurs locaux, ou
plus (figure 10). La mise en place de ce procédé, appelé multihoming, nécessite
un excellent technicien Internet. Si on peut obtenir un bloc complet d’adresses
IP Classe C, on pourra utiliser une adresse IP pour le serveur, avec routage sur
les deux liaisons. Un bloc Classe C (256 adresses) est le plus petit bloc dont
deux providers différents peuvent faire la publicité simultanément sur deux liaisons
Internet. En séparant des sous-réseaux plus petits provenant de chaque provider,
on peut attribuer une adresse IP de chaque sous-réseau au port Ethernet AS/400
(une fonction de la V4R4) et utiliser le DNS en mode circulaire (Round Robin)
pour répartir le trafic entre les deux liaisons.

Le DNS circulaire renvoie une adresse IP différente à  chaque visiteur successif
du site (figure 11). Chaque fois qu’un serveur DNS a plus d’une adresse IP pour
un nom donné, il fonctionne de cette manière circulaire, ce qui, dans de bonnes
conditions, peut être assimilé à  un équilibrage de charges. Certains serveurs
DNS circulaires (mais pas, malheureusement ceux de l’OS/400) peuvent détecter
l’utilisation des liaisons et équilibrer le trafic entre elles. En cas de défaillance
d’une liaison, cette mouture du serveur DNS est suffisamment intelligente pour
cesser de fournir des adresses IP concernant la liaison défaillante.

Une troisième méthode de redondance consiste à  utiliser deux serveurs ou plus,
situés chacun en un point différent de l’Internet (figure 12). On se protège ainsi
contre tout point de défaillance unique : routeur, liaison de communication ou
ISP. Et on se prémunit aussi contre de nombreux problèmes de backbone Internet;
il est peu probable que la défaillance d’un provider se répercute sur un second
provider indépendant du premier. Pour agencer ce type de service distribué, on
peut louer de l’espace dans ce qu’on appelle une  » ferme de serveurs Web « . Le
bon fonctionnement d’un service distribué passe aussi par un serveur DNS unique
enregistré sur Internet, à  chaque emplacement. Le système DNS utilise un serveur
de noms centralisé, appelé root name server, pour stocker la liste des serveurs
affectés à  la traduction des noms en nombres pour chaque nom de domaine.
Dans la technique DNS circulaire avec fail-over, chaque serveur DNS délégué ne
renvoie que l’adresse IP du serveur HTTP situé à  cet endroit. En donnant au paramètre
TTL (Time to Live) du nom DNS pour le serveur HTTP, une valeur plus basse (quelques
minutes), on obtient un fail-over automatique selon le principe suivant : si un
serveur donné devient inatteignable, son DNS subit le même sort et les utilisateurs
iront sur le prochain serveur DNS disponible répertorié sur Internet. La faible
valeur de TTL fait que les utilisateurs gardent une certaine adresse IP pendant
quelques minutes seulement, avant qu’elles ne soit rafraîchie, pour empêcher qu’un
utilisateur n’essaie d’accéder à  un serveur inatteignable. A l’expiration du timeout,
le système de l’utilisateur trouvera l’un des serveurs disponibles.

Voyons maintenant la dernière, et la plus récente, des méthodes de redondance,
qui consiste à  utiliser un service spécialisé en cache distribuée à  distance.
Deux de ces services sont Akamai (http://www.akamai.com) et Digital Island (http://www.digitalisland.com).
Ils utilisent un serveur DNS de distribution de trafic spécial qui collabore avec
votre propre serveur de contenu maître pour distribuer les objets Web fréquemment
demandés aux serveurs de cache à  proximité des utilisateurs demandant le contenu.
L’avantage est double : moins de dépendance vis-à -vis d’une connexion Internet
locale, et capacité à  traiter des pointes de trafic sporadiques. Comme chaque
utilisateur obtient la plupart de votre contenu depuis un serveur de cache situé
à  proximité, les temps de réponse sont plus homogènes. Les services de cache distribué
facturent au giga-octet (en général de 15 à  50 dollars par giga-octet servi)…
On paie donc proportionnellement à  l’utilisation. Mais de tels services permettent
de délivrer de fortes vagues de trafic sans investir dans de coûteuses connexions
Internet, qui resteraient sous-utilisées la plupart du temps. Comme le cache distribué
dépend de votre propre serveur comme source de données à  cacher, cette technique
accroît la fiabilité quand on a des serveurs d’origine redondants.

Il est possible d’optimiser les trois principaux facteurs de service Web,
fiabilité, performances et coût

Téléchargez gratuitement cette ressource

Endpoint Security : Guide de Mise en œuvre

Endpoint Security : Guide de Mise en œuvre

Détournement d’applications légitimes, élévation de privilèges, logiciels malveillants furtifs : comment les solutions de Endpoint Security permettent elles de faire face aux nouvelles techniques d'attaques complexes ? Découvrez, dans ce Guide Endpoint Security, les perspectives associées à leur mise en œuvre.

Tech - Par iTPro - Publié le 24 juin 2010