par Janet Perry, Perry janetp@napanet.net
Traduit de OnTheInternet, jan/fév 97, une publication interne de l'ISOC,
avec la permission de l'auteur et celle de l'éditeur.
L'Internet fut à une époque, comme chacun le sait,
l'arène des établissements universitaires et des centres de recherche. Aujourd'hui, c'est l'arène de tous le monde, du gamin d'à côté aux plus grandes entreprises mondiales. Quelle que soit la façon de le mesurer -
nombre de domaines, volume du traffic, nombre d'utilisateurs - L'Internet est devenu un succès extraordinaire après qu'il fut mis à la disposition du grand public. Cependant, pour les universités, ce succès a eu prix.
Aujourd'hui, les réseaux universitaires cohabitent avec les autres formes d'échanges sur l'Internet. Alors que certains abordent ce problème en disant "Bienvenue dans le monde réel", d'autres partagent une autre opinion. D'abord, les universités et les centres de recherche utilisent désormais l'Internet comme un moyen de communications de base, comme les entreprises s'appuient sur le téléphone et comme nos grands-parents comptaient sur le courrier. Les échanges d'idées, la publication des travaux, les recherches en collaboration, la revue par les pairs, entre autres, s'appuient sur l'Internet pour se dérouler facilement. Ensuite, les besoins des universités en services Internet sont plus importants que ceux d'autres groupes. Les universités, les chercheurs, les enseignants aujourd'hui, et chacun d'entre-nous demain, ont ou auront besoin d'une "nouvelle génération d'applications exploitant pleinement les possibilités des réseaux à large bande - intégration des médias, interactivité et collaboration en temps réel".
Si l'on se rapporte à l'histoire des universités et des techniques informatiques, on s'aperçoit que cette communauté est le promoteur de ces techniques pour le secteur commercial. De nombreux standards largement utilisés, comme TCP/IP ou Ethernet, ont été testés sur les réseaux universitaires. D'autres produits à succès comme Netscape Navigator ou Eudora, commencèrent par être des produits universitaires. Pour ces raisons, à l'intérieur de ces universités et de ces centres de recherche, nous avons une vision claire du futur de l'Internet.
Pour ceux qui exploitent les réseaux universitaires voient nettement les limitations actuelles des infrastructures existantes et le besoin vital de mise au point et de déploiement rapide de nouvelles techniques. Ressentant la nécessité de discuter du problème, un groupe représentatif a commencé à se réunir en septembre 1995 pour cerner le problème et envisager des solutions possibles. Le Monterey Futures Group (MFuG), qui est l'émanation de cette rencontre initiale, poursuit le développement d'un ensemble de spécifications techniques pour l'Internet de la prochaine génération.
Le MFuG a décrit un certains nombre de problèmes concernant la qualité du service offert par l'infrastructure actuelle. Le groupe en est arrivé à la conclusion que "l'Internet de base n'évoluera pas suffisamment rapidement pour couvrir les besoins immédiats de l'enseignement supérieur, ni les besoins prévisibles en réseaux à hautes performances des entreprises, pas plus que les besoins en capacité d'interconnexion et de service". Cependant, bien que ces problèmes puissent apparaître comme concernant uniquement la communauté universitaire, souvenons-nous des articles de presse concernant la congestion de la bande passante, les problèmes de routage et les signaux permanents de surcharge qui affectent l'Internet aujourd'hui. Ce n'est pas tant que ces problèmes n'existent pas en tout endroit, mais plutôt qu'ils sont ressentis de manière plus aiguë au sein de la communauté universitaire.
En août 1996, les membres du groupe initial ainsi que des représentants du gouvernement et de l'industrie se sont réunis à Cheyenne Mountain, Colorado, pour débattre du problème, de l'architecture de la solution et des conditions d'évolution vers ce futur. C'est ainsi qu'Internet 2 fut annoncé, dans la liesse des élections primaires. Ce projet de plusieurs millions de dollars est basé sur une participation des institutions éducatives, des entreprises privées et du gouvernement fédéral. L'aide proposée comprendra aussi bien une composante financière qu'un certain nombre de prestations et de projets de toute sorte, elle suivra le modèle des projets comme NSFnet, qui ont fait leurs preuves dans le passé. Le projet, dans les trois à cinq ans à venir, produira une architecture avancée d'Internet avec "mise à disposition de services Internet à la communauté universitaire toute entière". En gardant à l'esprit les problèmes futurs et présents de l'Internet comme un tout, Internet 2 a aussi comme but essentiel un transfert rapide de cette technique vers le reste du marché. La résultante sera, selon Mark Luker, directeur du projet NSFnet, un réseau qui non seulement offrira des communications mais également "étudiera et développera de nouvelles applications réseau permettant de déterminer le type de réseau dont nous avons besoin".
La coalition a apporté aussi son lot de critiques. Lors de l'annonce d'Internet 2, Mike Godwin de l'Electronic Frontier Foundation a exprimé à c|net son point de vue sur les recherches financées par le gouvernement : "Nous ne sommes plus dans un monde où nous devons aborder les réseaux comme des projets pilotes. Considérer [le développement des techniques] comme un projet de recherche est, de mon point de vue, mal venu. Je suis sûr que si le gouvernement offrait les mêmes subventions aux fournisseurs de services Internet, ils seraient en mesure de faire plus vite et mieux".
Mais cette critique ne tient pas compte de deux points importants. La plus grande partie de l'argent provient des centaines d'universités participantes, desquelles on attend une contribution individuelle de 500.000 dollars par an pour le projet, ainsi que d'entreprises comme IBM, MCI ou Sun Microsystems qui se sont aussi engagés à participer.
Les critiques ne prennent pas non plus en compte l'intérêt de voir au-delà des besoins actuels ou à court-terme du marché pour fixer les buts d'Internet 2. De la même façon que NSFnet a accéléré le développement de l'Internet actuel, ces recherches vont accélérer le développement de la prochaine génération de l'Internet. La communauté ressent que la technique n'est pas suffisamment mature. Les chercheurs et les universités réunis peuvent expérimenter plus spontanément, tester de nouvelles possibilités. Pendant qu'ils travaillent, nous pouvons transférer les techniques à l'Internet commercial pour en faire bénéficier les autres. Internet 2 n'est pas un aboutissement. "Il peut y avoir un Internet 21", dit Raman Khanna, directeur des systèmes distribués et des systèmes de communication à l'université de Stanford.
Ce type de recherche collective propre au monde universitaire n'est pas envisageable dans le monde des fournisseurs de services Internet ou des vendeurs. Ces groupes doivent concentrer leurs efforts sur les résultats financiers à court-terme, les retours sur investissement et la compétitivité. En préservant les recherches pour de meilleures solutions Internet de l'atmosphère de compétition attachée aux recherches privées, les idées vont aller dans le sens de l'amélioration des services, pas de l'amélioration des avantages compétitifs. De plus, le test des nouvelles solutions au sein des réseaux universitaires - imaginez les laboratoires d'informatique la semaine précédent la finalisation - offrira la garantie de solutions pouvant être effectivement implémentées.
"Au bout du compte, ce type de projet commun est une combinaison idéale entre la recherche collaborative et le test en grandeur nature", dit le Dr. Lee Caldwell, directeur stratégique pour les techniques Internet à la division Internet d'IBM. "Nous pouvons créer des modèles de travail qui amèneront l'Internet là où il est nécessaire qu'il aille".
Mais pourquoi, comme beaucoup le demandent, ne pouvons-nous pas laisser le marché trouver ses propres solutions ? M. Stuart Lynn, vice-président associé d'IRNC à l'université de Californie, a proposé un modèle commercial à la conférence de Cheyenne Mountain. Le modèle est une pyramide avec un accroissement d'utilisation de la technique en allant vers le bas. L'Internet d'aujourd'hui est essentiellement une base de marché. La communauté universitaire - et tout un chacun - s'appuie sur du matériel et du logiciel qui sont disponibles à grande échelle, peu coûteux et commun à tous. Les produits de la prochaine génération, aujourd'hui en cours de développement, seront dans les futurs étages les plus élevés de la pyramide : le marché restructuré. Ces solutions simplifieront les difficultés actuelles, il y aura aussi un effet cumulatif d'amélioration. Elles ne feront pas que solutionner les difficultés actuelles et anticipées qu'affrontent les réseaux universitaires. C'est là qu'intervient le troisième niveau de la pyramide. En créant un réseau pré-compétitif, Internet 2 sera en mesure de reprendre les idées et les prototypes des réseaux expérimentaux en haut de la pyramide, de les tester et de mettre rapidement sur le marché ceux qui fonctionnent. Ce rôle est joué traditionnellement par les chercheurs privés. Cependant, dans le cas de l'Internet, à cause de sa complexité et de son anarchie, ce rôle a toujours été joué par une collaboration entre les universités, le gouvernement et l'industrie.
La phase initiale du projet prévoit l'établissement d'un service de réseau large bande, de bout en bout, entre les universités membres. Dans le même temps, la conception des applications sera engagée par des équipes des facultés, les chercheurs, les personnels techniques et les experts de l'industrie. Vers la mi-98, un certain nombre de ces applications, en version béta, seront utilisées par les universités participantes.
L'architecture d'Internet 2 a été conçue par un groupe comprenant Scott Bradner de l'université d'Harvard, Scott Brim de l'université de Cornell, Steve Corbato de l'université de Washington, Russ Hobby de l'université Davis de Californie et David Wasley de l'université System de Californie. D'autres personnes - et spécialement Larry Landweber, président de l'Internet Society - ont été particulièrement utiles.
Les objectifs techniques d'Internet 2 peuvent être résumés en quatre points :
Dans le passé, lors des meetings et des ateliers, les membres des facultés et ainsi que d'autres de la communauté universitaire ont défini des applications qui "enrichiront l'enseignement des connaissances, la collaboration et la recherche". William Graves de l'université de Caroline du Nord définit ces applications comme étant essentielles pour l'évolution de l'université de son infrastructure existante vers une infrastructure tournée vers l'extérieur, pemettant d'atteindre les gens où qu'ils soient. La capacité de mettre au point les bases techniques permettant l'extension des opportunités d'éducation est un point critique pour le succès du projet. A titre d'exemple, les structures existantes ne permettent pas l'utilisation massive de l'enseignement à distance.
Pour pouvoir supporter ces applications, Internet 2 va nécessiter la sélection de la qualité de service et de l'efficacité, une couche transport un-vers-plusieurs supportant le multimédia et le traitement d'informations partagées. Pour qu'ils permettent réellement l'enseignement chez soi ou sur le lieu de travail, ces services doivent être disponibles simplement, permettant ainsi l'apprentissage actif, sur mesure ainsi que l'évaluation effective - le tout au travers du réseau.
Pour qu'elle puisse effectuer des recherches à l'échelle internationale, la communauté a besoin d'une qualité de service importante et pouvant être sélectionnée. Ces facteurs permettent en effet à la communauté d'utiliser efficacement les laboratoires nationaux, les ressources de calcul et les bases de données. Même si cela rappelle le but original de l'Internet, ce qui est naturel, les recherches de haut niveau continuent d'être une priorité pour les réseaux nationaux et internationaux de par le monde.
Internet 2 fournira une variété de services à la demande pour supporter ces activités. Grâce à la sélection dynamique des services, les utilisateurs auront des délais garantis, des pertes de données faibles et une grande capacité. Des applications différentes auront besoin de groupes de services différents. Par exemple, pour une conférence, l'infrastructure devra permettre la diffusion multicast, l'acheminement des données par une couche transport ayant un délai et un taux de perte garantis.
De nouveaux protocoles comme RSVP, RTP et IPv6 ont déjà prévu de fournir ces fonctions. En plus, Internet 2 devrait permettre l'accès à l'infrastructure réseau sous-jacente pour tirer parti de ses possibilités spécifiques.
On trouve au coeur d'Internet 2 une nouvelle technique pour fournir des services de communication avancés. Cette technique est appelée GigaPOP. C'est un point d'intercommunication entre un ou plusieurs membres institutionnels et un ou plusieurs fournisseurs de services. C'est une association de techniques de la première décade de l'Internet et de techniques nouvelles en train d'être développées par les vendeurs et les ingénieurs de la communauté Internet. Internet 2 fournira la preuve de la validité du concept - le réseau pré-compétitif - pour ces techniques qui deviendont par la suite la base des solutions commerciales.
La plus importante avancée représentée par le GigaPOP réside dans la possibilité de sélectionner dynamiquement la qualité de service qui supporte la plus large gamme d'applications. Les caractéristiques du service inclueront la possibilité pour l'utilisateur final de définir la capacité et la latence. Internet 2 comportera un aspect important, il permettra de déterminer le surcoût pour supporter un tel mode de délivrance ainsi que le développement de mécanismes pour la collecte des informations concernant son utilisation.
Dans la première phase du projet, 20 à 30 GigaPOPs seront créés. Ils supporteront les institutions membres ainsi que les consortiums régionaux ou basés dans l'état. Chaque institution se connectera au GigaPOP via des connexions ATM ou SONET à très grande bande passante. Les GigaPOPs seront conçus et gérés collectivement pour le compte de la communauté.
Chaque GigaPOP sera équipé d'un dispositif de commutation/routage des paquets de données avec des fonctions avancées et à très grande capacité. Ces dispositifs fonctionneront avec les protocoles existants et les nouveaux, les protocoles avancés et les protocoles à qualité de service, les multiplexeurs ATM et SONET ainsi qu'avec les équipements de mesure du traffic et de collecte des données.
Les GigaPOP seront connectés les uns aux autres et à l'Internet commercial par un ou
plusieurs fournisseurs de services commerciaux de taille nationale. Les institutions participantes pourront acquérir une grande variété de solutions commerciales ou pré-compétitives pour couvrir leurs besoins, y compris les techniques
large-bande émergeantes.
Les applications les plus avancées nécessiteront des routes empruntant les GigaPOPs conçues spécialement pour ce projet. Les Connexions Hautes Performances récemment annoncées par la National Science Foundation vont étendre les vBNS existants de façon à connecter jusqu'à 100 institutions au backbone existant. Cela pourrait aussi servir de plateforme de déploiement des techniques émergeantes.
Très clairement, les GigaPOPs auront à couvrir les demandes en termes de grande disponibilité et de grande fiabilité. Chaque site sera physiquement sécurisé et conditionné. Des centres de contrôle du réseau redondants surveilleront à distance le fonctionnement de tous les équipements et distribueront la résolution des problèmes au mieux.
L'architecture d'Internet 2 a été choisie pour démontrer l'efficacité des nouvelles techniques permettant de construire une nouvelle génération d'infrastructures de télécommunications et d'applications. Elle permettra aux membres participants de fournir des solutions de pointe tout en améliorant leurs niveaux de service actuels.
Lors de la rencontre d'août, William Graves résuma les fonctions du nouveau réseau. Internet 2 fournira la télé-conférence de bureau ou de salle, le support de la vidéo à haut débit, l'intégration de la voix, l'insertion de projets à grande capacité, la migration vers la commutation virtuelle et le contrôle des coûts.
Les efforts de la nature d'Internet 2 ne sont pas confinés aux Etats-Unis. Des projets similaires sont en cours dans un certain nombre d'autres pays, en vue de fournir des infrastructures aux chercheurs. C'est le cas en Europe (Projet 1034), dans la région Asie-Pacifique (APAN), au Canada (CANARIE) et au Brésil.
L'Internet, tel qu'il se présente aujourd'hui, est le témoignage des efforts faits par les chercheurs pour construire un réseau adpaté à leurs besoins et pour le transmettre à la sphère commerciale. Lorsque nous pourrons nous éduquer au travail ou à la maison, avoir une vraie vidéo depuis notre bureau à partir du réseau ou bien travailler aisément avec des gens à l'autre bout du monde, ce sera grâce à Internet 2 et aux projets similaires qui auront été le berceau et le lieu de mise au point de l'ensemble.
|
© 1998-2001 denoue.org