Un réseau de réseaux
L'Internet est un ensemble de moyens de communication qui permet à des ordinateurs d'être reliés entre eux. Les utilisateurs de ces ordinateurs peuvent proposer différents services sur ce réseau et utiliser l'ensemble des services offerts par la collectivité ainsi constituée.
L'Internet est donc un réseau gigantesque et mondial. Il est lui-même structuré en groupes plus petits. Il est courant et juste de dire que c'est un réseau de réseaux. Toute personne ou société peut ajouter ses propres ordinateurs à l'Internet. Au départ L'Internet était constitué seulement de quelques ordinateurs, puis il y en a eu plusieurs milliers, puis plusieurs millions, il est prévu pour en englober plusieurs milliards.
L'Internet est issu de l'Arpanet
L'Internet est né en 1969 sous l'impulsion de l'ARPA. Le gouvernement américain crée l'ARPA (Advanced Research Project Agency) en 1957. Cette agence, placée sous la tutelle du département de la défense (DoD) a pour mission de mettre à la disposition de l'armée américaine des technologies de pointe. La guerre froide fait rage il est nécessaire de mettre au point des techniques efficaces et robustes pour l'échange d'informations entre les ordinateurs de l'armée.
Les ordinateurs sont alors de grosses machines onéreuses et encombrantes. Les données issues des calculs ou de la mémoire de stockage d'un ordinateur doivent pouvoir être communiquées aux autres. Cet échange d'information est indispensable pour disposer du maximum de renseignements vitaux de toutes natures.
Une solution simple à mettre en place mais trop peu performante, aurait consisté à relier les ordinateurs deux à deux par des lignes de télécommunication fixes et réservées à cet usage. Cela constitue un réseau au sens propre du mot. Ces lignes permanentes peuvent être doublées pour des raisons de sécurité. Chaque paire d'ordinateurs doit utiliser un langage, un code pour permettre les échanges. D'autre part, si un utilisateur désire être connecté à un ordinateur, il doit lui-même être relié à cet ordinateur. S'il lui vient l'idée d'utiliser trois ordinateurs, il doit pouvoir accéder aux trois. Si les ordinateurs sont de marques ou de modèles différents, il se peut qu'il doive posséder trois terminaux (l'ensemble formé du clavier et de l'écran est appelé un terminal).
Une chaîne d'ordinateurs
L'Université de Californie à Los Angelès (UCLA) fournit à l'ARPA un modèle de réseau plus élaboré qui combinait un certain nombre d'avantages. Dans ce réseau, les ordinateurs étaient reliés entre eux selon un schéma qui pouvait varier. Chaque ordinateur pouvait être relié à un ou plusieurs autres. Dès l'instant qu'il existait un chemin entre deux ordinateurs, ceux-ci pouvaient échanger des informations. Ce chemin n'avait pas à être direct, il pouvait passer par un ou plusieurs ordinateurs intermédiaires. Chaque ordinateur intermédiaire était programmé pour faire passer les informations qui ne lui étaient pas destinées vers un ordinateur plus proche de la destination finale. De proche en proche, les données arrivaient au destinataire. Si plusieurs chemins existaient à un instant donné, ils constituaient autant de solutions pour acheminer les données en transit. Les liaisons pouvaient aussi tomber en panne. Le chemin le plus court n'était alors plus forcément utilisable entre deux ordinateurs donnés. Qu'à cela ne tienne, dès l'instant qu'il subsistait au moins un autre chemin, les données continuaient de passer.
Des chemins multiples
Pour que cela fonctionne, tous les ordinateurs devaient respecter certaines règles, par exemple parler un langage commun ou accepter de relayer les informations qu'ils recevaient mais qui ne leur étaient pas destinées. De plus, comme il existait plusieurs chemins possibles, les ordinateurs devaient être capables de choisir le plus adpaté en fonction des pannes en cours, de la performance des lignes, de la distance, du nombre d'ordinateurs intermédiaires, etc. Des données pouvaient être perdues en cours de route, devaient pouvoir être renvoyées. Sur l'ordinateur de destination, les données pouvaient arriver d'une ou plusieurs lignes selon les choix de chemins effectués par les ordinateurs intermédiaires.
De plus, pour améliorer le fonctionnement, les données à envoyer étaient découpées en petits paquets unitaires contenant un petit nombre d'informations. Chaque paquet était transmis l'un après l'autre. Chaque paquet pouvait emprunter un chemin différent du précédent, en particulier à cause de la charge de travail du réseau au moment de l'envoi. Si une ligne était trop occupée sur un tronçon du chemin entre la source et la destination finale, une autre ligne pouvait être utilisée sur ce tronçon. Cela supposait que l'ordinateur à l'arrivée soit capable de remettre les paquets dans le bon ordre au fur et à mesure qu'ils lui parvenaient de différentes directions et avec des temps de propagation variables selon le chemin emprunté.
Toutes les règles de fractionnement en paquets, d'envoi sur un tronçon donné, de choix du meilleur chemin, de retransmission à l'ordinateur suivant, de reconstitution à l'arrivée, etc, était regroupées par l'UCLA sous forme de protocoles. Tous les ordinateurs du réseau respectaient ces protocoles.
Ce réseau fut mis en oeuvre par l'ARPA en 1969. Chaque ordinateur dans un réseau de ce type est appelé un noeud. C'est la notion de maillage dans un filet, les noeuds sont reliés entre eux par les lignes de communication, les informations passent de noeuds en noeuds en partant de la source pour arriver à la destination finale. Il existe plusieurs chemins possibles pour aller d'un noeud au suivant. Dans la réalité d'un réseau, les noeuds et les liaisons ne sont pas disposés régulièrement comme dans un filet de pêcheur, cela serait trop onéreux. Certaines liaisons n'existent pas, d'autres sont doublées, certaines sont plus performantes que d'autres ou plus sûres.
Un réseau, des paquets
Cette technique de réseau est dite à commutation de paquets. Cela signifie que les données sont fractionnées en paquets et que chaque noeud oriente les paquets vers la destination indépendamment des paquets précédents. Cela s'oppose au cas ou tous les paquets sont obligés de passer par le même chemin. Un réseau où tous les paquets passent par un chemin fixé en début de transmission est dit à circuits virtuels. Le réseau téléphonique et le réseau Transpac fonctionnent de cette façon. Le chemin est fixé une fois pour toute, en début de communication. L'UCLA n'avait pas retenu cette solution.
Le premier réseau à commutation de paquets avait en fait été expérimenté par le National Physical Laboratories en Angleterre dès 1968.
L'ARPA pris possession de cette technique qui offrait l'avantage de résister à une destruction partielle du réseau. En effet, si un noeud ou une ligne tombait en panne, les paquets qui auraient transité par ces éléments pouvaient être envoyés sur des chemins, peut-être moins efficaces, mais qui étaient encore valables. Cette solution permettait par exemple de résister à une attaque nucléaire localisée des soviétiques. Cette utilisation, probablement médiatisée au delà de la vérité, fait partie de la légende d'Internet.
Un réseau simplificateur
L'ARPA utilisa le protocole de l'UCLA pour relier quelques ordinateurs (quatre au départ). Trois ans plus tard, l'agence faisait la démonstration du fonctionnement d'un réseau dix fois plus étendu. Dans ce réseau, un utilisateur situé sur l'un des ordinateurs pouvait accéder à distance aux autres depuis le même terminal. Le réseau dénommé Arpanet permettait deux choses : d'une part des données pouvaient être échangées d'ordinateur à ordinateur (fonction de transfert de fichiers), d'autre part, un utilisateur pouvait accéder avec son terminal aux programmes situés sur les ordinateurs auxquels il n'était pas connecté directement (fonction de connexion à distance). En fait, dans Arpanet, il n'y avait pas de point central prépondérant contrairement à beaucoup d'autres solutions. Chaque ordinateur était autonome dans son fonctionnement et dans ses choix de routage (l'opération qui consiste à relayer les informations qui sont destinées à un ordinateur situé plus loin). Chaque ordinateur fournissait un travail selon sa propre puissance, sa propre rapidité. Si un noeud était lent, les paquets lui étaient moins souvent envoyés, un certain équilibre se formait et se déplaçait à chaque panne ou redémarrage.
Des protocoles
Arpanet fonctionnait mais des améliorations étaient souhaitables. Il était nécessaire de développer de meilleurs protocoles pour le transfert de fichiers, la connexion à distance, le routage et dans d'autres domaines à inventer. L'ARPA créa alors un groupe pour produire ces protocoles : l'InterNetwork Working Group. Dans ce groupe se retrouvèrent Vint Cerf et Bob Kahn qui allaient devenir les pères de l'Internet. L'INWG produira le protocole IP pour Internet Protocol ainsi que le protocole TCP pour Transmission Control Protocol. Le premier était le coeur du fonctionnement du réseau. Il était utilisé par tous les noeuds qui traitaient les paquets émis par un ordinateur à destination d'un autre. TCP était utilisé par les ordinateurs de départ et d'arrivée. Il permettait de remettre les paquets dans l'ordre et de faire retransmettre ceux qui avaient été mal acheminés par les ordinateurs intermédiaires. L'ensemble des deux (auxquel d'autres viennent se rajouter) est toujours connu sous le nom de suite TCP/IP. Elle commença à être aboutie dès la fin des années 70.
En France, en 1973, un groupe de chercheurs travailla sur le concept de réseau à commutation de paquets et mit en oeuvre le réseau Cyclades. Ce projet allait être abandonné pour faire place au réseau Transpac, un réseau à circuits virtuels d'où découlerait le Minitel.
L'Arpanet devient l'Internet
En 1983, l'armée qui disposait d'un réseau Arpanet grandissant décida d'ouvrir cette technologie en la rendant publique. Pour cela, il fallait préserver la partie militaire et la séparer clairement du reste du réseau. Deux sous-réseaux furent créés. Milnet, le réseau militaire, fut confié à une autorité militaire, Arpanet formera la partie civile placée sous une autorité universitaire, celle de la National Science Foundation (NSF). La NSF possédait déjà un réseau similaire pour ses propres besoins. D'autres réseaux virent le jour parallèlement. Ces quelques réseaux rapidement interconnectés à l'aide de TCP/IP, constituèrent la base de développement du réseau mondial. Dans la première moitié des années 90, l'ensemble prend le nom d'Internet. Environ quatre millions de machines étaient déjà connectées. Ce nombre passera à dix millions en 1997. Et le nombre de noeuds ne cesse de croître !
Un réseau qui sait grandir
Le principe de progression du réseau est simple : quelques ordinateurs, deux, cent ou trois mille sont déjà reliés entre eux dans un réseau local mais sans faire partie de l'Internet. Ils peuvent échanger entre eux des informations mais pas avec la grande masse déjà présente dans l'Internet. Le réseau local peut utiliser les mêmes protocoles que l'Internet ou bien une technologie qui lui est propre, un autre standard que la suite TCP/IP. Un jour, le gestionnaire de ce réseau local décide de s'associer à l'Internet pour profiter des possibilités liées à cette mise en commun. Il met en place une passerelle à l'intérieur de ce réseau local.
La passerelle est un ordinateur qui aura accès à tous les ordinateurs situés sur le réseau local en utilisant les standards locaux. D'autre part, cette passerelle est capable de comprendre parfaitement les standards de l'Internet dont les principaux que sont IP et TCP. L'administrateur loue à un organisme de télécommunication ou met en place une liaison directe avec une passerelle déjà présente dans L'Internet. On appelle cela une liaison full-IP. Dans le même temps, les propriétaires des deux passerelles se mettent d'accord pour modifier leurs machines de façon que toute information reçue par une passerelle et qui n'est pas destinée au réseau local de la passerelle soit, gracieusement ou moyennant finances, transmise à l'autre passerelle en utilisant exclusivement les protocoles Internet. Et le tour est joué. Voilà le principe dans les grandes lignes. A partir de ce moment tous les réseaux locaux constituant L'Internet contribuent ensemble pour que tout ordinateur puisse parler à tout autre, quelle que soit sa localisation géographique. Il en découle que tout utilisateur d'un des ordinateurs de l'Internet peut accéder à tous les services offerts par les autres ordinateurs du réseau.
La démocratie directe
Pourquoi y a t-il eu un tel engouement pour ce réseau ? On peut se poser la question. Si l'armée américaine est à l'origine du réseau, on doit reconnaître que le développement de l'Internet s'est fait ensuite en dehors de toute volonté politique.
Au sein de l'Internet, personne ne souhaite réellement contrôler quoi que soit tant il y a à gagner en partageant efficacement. Chacun apporte ce qu'il souhaite pour des raisons qui lui sont propres. Quelquefois c'est totalement bénévole pour faire profiter les autres d'un travail personnel. Quelquefois c'est dans un but de promotion, si ce qui est proposé a du succès, il y aura de la demande et l'auteur deviendra un fournisseur. Si la solution est valable la demande perdurera, sinon quelqu'un d'autre l'emportera avec sa propre solution. Mais seules les solutions qui feront leurs preuves se généraliseront et elles deviendront une propriété standard du réseau. C'est ce qui se passe avec les protocoles. Un groupe prépare un nouveau protocole et propose son utilisation. Si la solution apporte réellement quelque chose, le protocole commencera à être utilisé. Des organisations commerciales développeront du matériel qui en tirera profit sur le plan technique. Des utilisateurs adopteront ce matériel et le protocole se généralisera. Dans tous les cas, le protocole sera publié et n'appartiendra à personne. Chacun sera libre de l'utiliser, commercialement ou non. Si le matériel utilisant le protocole pose des problèmes, chaque administrateur d'un des réseaux de l'Internet pourra refuser qu'il soit utilisé dans son réseau. Un mauvais protocole ne pourra être imposé et c'est la communauté qui décide librement de ce qui est bon.
Comme nous le verrons, le processus de publication des protocoles est facilité par une association ouverte à tous : l'Internet Society. Au sein de l'ISOC, il existe un comité dont le but est de regrouper les techniciens ou ingénieurs ayant quelque chose à proposer à la communauté, il s'agit de l'Internet Engineering Task Force (IETF) dont les travaux et les débats sont ouverts à tous, publics et accessibles à n'importe quel utilisateur connecté à l'Internet.
Le développement de l'Internet s'est fait selon deux étapes principales : une ère scientifique puis une ère commerciale.
Avant le Web
L'ère scientifique a perduré jusqu'à l'arrivée du World Wide Web (WWW ou le Web). Le Web a fourni au réseau un moyen d'accès convivial et riche. C'est une étape essentielle qui a facilité et suscité l'arrivée des utilisateurs non-spécialistes. Dans le passé, les services offerts, dont certains perdurent aujourd'hui sous une forme améliorée, étaient surtout tournés vers la communauté scientifique qui les avaient mis au point. Parmi les services disponibles on trouvait :
la messagerie électronique ou e-mail gérée à l'aide de Simple Mail Transfert Protocol (SMTP) et Post Office Protocol (POP). Ce service existe encore et est très utilisé. Il commence à concurrencer les services postaux (appelé par dérision le Snail Mail - courrier escargot) et le fax pour les échanges écrits ou picturaux,
Le Web
Un premier protocole de navigation fut mis au point en 1990. Gopher permettait la navigation dans le réseau pour consulter les documents stockés dans tous les ordinateurs, c'est l'ancêtre du Web sans le côté hypermédia. Gopher était prometteur et semblait voué à un avenir durable. Le Web le détrôna seulement un an plus tard avec le succès que l'on sait.
Le Web est une invention du Centre d'Etudes et de Recherches Nucléaire de Genève (CERN). Il n'est pas besoin de le présenter longuement puisque c'est celui que vous utilisez actuellement pour consulter ce serveur.
Sur un ordinateur est placée une page qui contient du texte, des images, des fichiers de sons, des fichiers vidéo, des appels à d'autres services comme FTP ou e-mail. C'est l'aspect multimédia. L'utilisateur peut charger cette page en se connectant à l'aide de Hyper Text Transmission Proctocol (HTTP) au travers d'un logiciel de navigation, il peut ainsi lire le texte ou accéder au contenu des autres modes de présentation en cliquant sur des symboles graphiques.
La page peut contenir des liens vers d'autres pages situées sur l'ordinateur local ou ailleurs. C'est la notion d'hyper document. En cliquant sur les symboles ou les textes matérialisant les liens, l'utilisateur déconnecte le logiciel de navigation (le browser) de la page en cours pour le reconnecter vers la page pointée par le lien. Il parcourt la planète sans même s'en rendre compte. Le logiciel qu'il utilise et les ordinateurs qu'il consulte fonctionnent de plus en plus intimement. Cela est possible à cause de l'utilisation de protocoles puissants à très grande échelle.
Il reste à comprendre comment la communauté Internet parvient à rendre standard tous ces fonctionnements pour que les matériels et les logiciels d'origines très variées soient compatibles entre eux. Cette tâche de fédération, parmi d'autres, est confiée à une organisation indépendante, à but non lucratif, ouverte à tout internaute quel qu'il soit (donc à vous même en particulier). Il s'agit de l'Internet Society (ISOC).
Le futur
La convivialité du Web permet aujourd'hui d'envisager des développements impensables il y a seulement dix ans. Ces mutations touchent la société en profondeur. L'Internet est sorti des universités et des centres de recherche pour toucher le consommateur, le citoyen, les entreprises, les administrations et les états. Il est désormais un outil de communication trop puissant pour être ignoré par ceux qui pensent la société de demain. Les américains furent, logiquement, les premiers à prendre conscience de cela.
Le candidat à la vice président Al Gore émet l'idée de super autoroutes de l'information (Information Super Highways) dès 1992. Cette idée fait son chemin en Europe et au Japon. Elle consiste à doter les états d'une infrastructure gigantesque en matière de réseaux. Cette infrastructure est basée sur la fibre optique à tout niveau des connexions. Le cuivre qui relie encore les immeubles aux centraux téléphoniques doit être abandonné car il ne permet pas d'atteindre des débits nécessaires pour véhiculer les images animées et les fichiers de grande taille. Des projets d'utilisation de liaisons par satellites sont également à l'étude (par Microsoft notamment). Le satellite possède le débit souhaité et permet de couvrir un territoire plus facilement que la fibre optique. Il n'est en définitive pas plus cher, mais il nécessite l'emploi de d'émetteurs/récepteurs à chaque extrémité de la liaison.
Vers les autoroutes de l'information
Le projet d'autoroutes de l'information passe par la facilité de connexion des utilisateurs, la puissance des réseaux ainsi que la fourniture de services d'intérêt réel. Différents secteurs sont mis à contribution et incités par les états à produire des offres valables. Ainsi l'accès aux autoroutes doit être possible comme pour le téléphone, le coût doit être bas. Le public accède à l'Internet et se raccordant par une ligne téléphonique à un ordinateur déjà relié au réseau. Celui qui se connecte devient alors temporairement, un utilisateur de cet ordinateur. Cet ordinateur appartient en général à un fournisseur commercial d'accès (ISP). La notion de service public minimum est étendue, en commençant par le réseau existant, c'est pourquoi les organismes privés ou public de télécommunications sont incités à fournir un accès au tarif d'une communication locale quelle que soit la situation géographique de l'utilisateur désirant se raccorder à un fournisseur d'accès Internet.
Dans le même temps, des projets sont soutenus par les états pour la création de services en ligne de haute valeur ajoutée. La loi est adaptée en conséquence. Le commerce électronique ne sera possible que si les textes concernant le cryptage des données sont assouplis. La France, très autoritaire dans ce domaine, n'autorisait, en 1996, ces techniques qu'au compte-gouttes. Nous nous dirigeons vers la liberté d'utiliser des clés d'encodage de messages (courrier, transactions, règlements en monnaie électronique). Pour des raisons de sécurité nationale, ces clés seraient déposée chez des tiers de confiance (des notaires électroniques) et pourraient toujours être mises à la disposition des autorités.
La voix et l'image
Parallèlement à l'infrastructure, les technologies de réseaux se perfectionnent. Aujourd'hui déjà, il est possible de transporter la voix en temps réel d'un bout à l'autre de la planète, sur l'Internet. Cela signifie que la fin du téléphone traditionnel est amorcée.
Il faut noter que l'Internet a apporté ce qu'aucun autre média n'avait pu offrir : la communication entre un individu quelconque et le reste de la planète. Cette forme d'échange s'oppose à la communication traditionnelle réservée à une élite triée sur des critères de notoriété, de richesse ou de pouvoir. C'est dans ce sens un moyen d'accéder à une citoyenneté planétaire réelle. L'essor de l'Internet met sur la place publique un certain nombre de débats de société à caractères philosophiques ou politiques.
Ce qui va se produire pour le téléphone est déjà expérimenté pour la télévision. Il sera possible d'accéder à des programmes individuels. Il suffira de se connecter à un site capable de transmettre des vidéos pour visualiser un film, un documentaire, une émission enregistrée. Le rôle de la chaîne de télévision sera plus un rôle de reportage et de production qu'un rôle de diffuseur.
Un changement de société ?
On peut imaginer que des bouleversements vont avoir lieu dans beaucoup de secteurs ; que seront demain (disons d'ici cinq ans) les bibliothèques, la presse, la vente par correspondance, les banques, la médecine générale, le syndicalisme, etc. ?
Les autoroutes de l'information dont l'Internet n'est qu'un précurseur qui en contient tous les principes, auront de grandes conséquences, bien malin qui peut savoir lesquelles, sur le travail, la monnaie, les loisirs, la citoyenneté, bref, sur la vie.
Chaque utilisateur, qui n'était jusqu'à présent bien souvent qu'un simple consommateur ou un simple électeur, se voit offrir l'accès à un outil qui le place potentiellement en situation d'acteur. Cette liberté va de paire avec une responsabilisation et une difficulté de choix plus grandes, auxquelles nous n'avons pas été préparés.
Ce qui nous ferons de cette chance ne reflétera finallement que notre intelligence individuelle et collective.
© 1998-2001 denoue.org