par Xavier Facélina
Cet article aborde le système Linux non pas par son histoire ou par son positionnement
philosophique, politique ou économique, mais par sa structure technique. En traitant
différents aspects de Linux, en allant du plus proche de la machine au plus éloigné,
nous devrions arriver à une compréhension globale de ce qu'est réellement Linux.
Au coeur du système : un noyau (kernel). Tout est là . Linux s'articule tout entier
autour de ce noyau dont le développement est réalisé par la communauté des kernel-developers,
sous l'oeil vigilant de Linus Torvald en personne.
Linux : anatomie

Le noyau est la couche la plus basse du système. Il gère donc le matériel. Le
noyau de Linux est monolithique, comme la plupart des noyaux Unix actuels. C’est
à dire que contrairement aux architectures à micro-noyaux, il est constitué d’un
seul bloc qui contient le code de toutes les fonctions concernant le scheduling,
la gestion des process, les interruptions matérielles et les drivers des périphériques.
Au démarrage, le noyau est entièrement chargé en mémoire d’où il exécute toutes
les tâches qui lui sont imparties, y compris l’exécution des fonctions partagées
(comme la lecture dans une socket par exemple). Notons au passage que la place
et l’emplacement qu’il prend en mémoire sont immuables jusqu’à l’extinction du
système. Le chargement et l’exécution des processus utilise une partie de la mémoire.
Le reste est utilisé par le noyau pour le cache-disque.
En effet, cette espace libre est dynamiquement alloué à l’enregistrement de toutes
les entrées/sorties sur les disques. En tout cas on l’aura compris, le fonctionnement
de Linux est régi par son noyau.
Si tous les drivers des périphériques sont contenus dans le code du noyau, alors
comment le configure-t-on en cas d’adjonction ou de retrait de matériel ?
C’est simple : On recompile le noyau. Cette technique laborieuse qui consiste
à configurer puis compiler son noyau a pour avantage d’avoir toujours un noyau
parfaitement optimisé pour le système, et par là même léger en mémoire (ce qui
accélère le fonctionnement du système).
A l’inverse, un noyau malconfiguré peut entraîner un fonctionnement médiocre du
système, comme par exemple n’utiliser qu’un seul des processeurs d’un serveur
quadri-processeurs si vous n’avez pas inclus la fonction SMP (Symetric Multi-Processing).
Les utilisateurs de Linux se sont vite rendus compte qu’il était pénible de recompiler
le noyau dès que l’on changeait une carte réseau. d’autant qu’à une époque, cette
compilation pouvait prendre plusieurs heures sur des 386 équipés de 4Mo de RAM.
C’est alors que sont apparus les modules. Les modules sont des morceaux de noyau
qui peuvent être compilés à part et chargés dans le noyau en fonctionnement.
Les utilisateurs de Linux se sont vite rendus compte qu’il était pénible
de recompiler le noyau dès que l’on changeait une carte réseau
Ces modules sont principalement utilisés pour les drivers. Ils offrent de plus
la possibilité d’être chargés et déchargés dynamiquement dans le noyau lorsque
l’on utilise ou l’on relâche une ressource matérielle. Le noyau s’en trouve optimisé
d’autant.
La gestion des protocoles réseau est elle-aussi une partie intégrante du noyau.
La pile TCP-IP y est implémentée dans la tradition BSD (même si elle n’égale pas
celle de FreeBSD). Evidemment Linux reconnaît aussi les protocoles UUCP, PPP et
SLIP.
Astuce Le noyau (kernel) de Linux est disponible au téléchargement sur kernel.org; et ce dans plusieurs versions, classées en deux familles : stable (2e chiffre pair) et en cours de développement (2e chiffre impair). Attention, la ruse du 2e chiffre n’est valable qu’à partir de la version 1.0. |
Téléchargez cette ressource

État des lieux de la réponse à incident de cybersécurité
Les experts de Palo Alto Networks, Unit 42 et Forrester Research livrent dans ce webinaire exclusif leurs éclairages et stratégies en matière de réponses aux incidents. Bénéficiez d'un panorama complet du paysage actuel de la réponse aux incidents et de sa relation avec la continuité de l'activité, des défis auxquels font face les entreprises et des tendances majeures qui modèlent ce domaine. Un état des lieux précieux pour les décideurs et professionnels IT.
Les articles les plus consultés
Les plus consultés sur iTPro.fr
- Les risques liés à l’essor fulgurant de l’IA générative
- Pourquoi est-il temps de repenser la gestion des vulnérabilités ?
- Reporting RSE : un levier d’innovation !
- De la 5G à la 6G : la France se positionne pour dominer les réseaux du futur
- Datanexions, acteur clé de la transformation numérique data-centric
