> Publications > Les grandes tendances de l'évolution de l'informatique 

Les grandes tendances de l'évolution de l'Informatique
 1950-2010

L'histoire de l'humanité s'accélère. Sur les quatre milliard d'années d'existence de notre planète, toutes les espèces connues datent de moins de cent million d'années, l'homme de moins d'un million d'années, le plus ancien dessin sur la paroi d'une caverne de 30 000 ans. Il y a tout juste 500 ans, l'invention de l'imprimerie accélérait la diffusion du savoir. 200 ans nous séparent de la machine à vapeur qui provoqua la révolution industrielle. Avec ses 50 ans, l'ordinateur fait figure de jeunot. Et pourtant quelle comparaison possible entre le premier ordinateur ( 50 tonnes, 25 kilowatts, quelques milliers de positions de mémoire, une centaine d'instructions par seconde ) avec le micro processeur Pentium ( quelques grammes, 25 watts, 8 à 32 Mega-octets de mémoire, 100 millions d'instructions par seconde). Et tout laisse à penser que dans 10 ans le Pentium apparaîtra aussi démodé que le premier ordinateur.

Lorsqu'il a été inventé, l'ordinateur était une curiosité de laboratoire. Au début des années 50, une étude de marché restée célèbre évaluait le marché mondial à une cinquantaine de machines. Aujourd'hui, les 200 millions d'ordinateurs installés démontrent qu'il serait inconcevable de s'en passer dans la civilisation industrielle contemporaine. Depuis 1995, il se vend dans le monde plus de P.C. que de téléviseurs. Pendant le temps mis à lire ce texte, le nombre d'ordinateurs connectés à l'Internet, le réseau des réseaux, a augmenté de plusieurs milliers. La manière dont l'informatique a révolutionné l'activité intellectuelle et économique n'a pas d'équivalent dans d'autres domaines. Une description purement statique des techniques et des résultats est donc totalement insuffisante pour comprendre l'informatique. Une vision dynamique s'appuyant sur les grandes tendances de l'évolution est indispensable pour comprendre ce qui va se passer même à très court terme.

L'évolution foudroyante du matériel

C'est l'évolution de la technologie des composants qui depuis plus de 40 ans joue un rôle moteur primordial dans le développement de l'informatique.

Deux phénomènes presque simultanés se sont produits vers la fin des années 40 : En 1945, l'invention par John von Neumann du calculateur à programme enregistré et, en 1948, l'invention du transistor par trois chercheurs des Bell Laboratories.

La synergie entre un nouveau composant et une nouvelle application a provoqué une croissance explosive des deux. En effet, les systèmes numériques demandent un nombre très élevé de composants : une simple calculette a besoin de 100 fois plus de transistors qu'un téléviseur. Le microprocesseur Pentium qui va servir d'exemple dans ce document comporte 7 millions de transistors. La mémoire nécessaire pour les données en contient plusieurs centaines de millions. Avec un tel nombre de composants, le problème clé à résoudre a été celui du nombre et du coût des connexions.

Le coût de la connexion

De 10 francs sur un connecteur, ce coût passe à 1 franc sur une carte et tombe à un millionième de franc à l'intérieur d'un circuit intégré. Depuis le début des années 60, la stratégie des ingénieurs a donc été extrêmement simple : mettre le maximum de composants et de connexions dans un circuit intégré pour diminuer les coûts. En 1995, on sait mettre 7 millions de transistors dans un Pentium ce qui représente environ 18 millions de connexions. Par des méthodes traditionnelles, il aurait fallu 40 ans à un câbleur pour réaliser ces 18 millions de connexions. Par la miniaturisation et par l'intégration dans un seul circuit intégré, on obtient ce résultat pour quelques centaines de francs.

La taille d'un circuit intégré a peu évolué. L'accroissement du nombre de composants est obtenu principalement par une réduction de la taille des gravures sur les circuits (actuellement environ 0.5 micron). Cette réduction entraîne deux conséquences sur les performances et sur les coûts :

A titre d'exemple au début des années 1980, le super ordinateur CRAY 1, capable de traiter 100 millions d'instructions par seconde était vendu 60 millions de francs. Il nécessitait une grande salle machine et des équipements de climatisation. En 1996, Un micro-ordinateur de cette puissance, à base de Pentium 100, avec la même capacité mémoire est la machine multimédia de base pour le grand public. Le prix est d'environ 10 000 francs soit 6000 fois moins que le CRAY 1. Ce micro-ordinateur fonctionne posé sur un bureau, sans précautions particulières.

Une évolution exponentielle

Le nombre de composants par circuit est passé, de manière très régulière, de quelques composants à la fin des années 50 à plusieurs millions aujourd'hui. Dès 1964, Gordon Moore, alors directeur de la recherche chez Fairchild avant de créer la société Intel en 1968, fût le premier à prédire que le nombre de composants par circuit continuerait à doubler tous les deux ans comme cela avait été le cas au cours des 5 années précédentes. Il n'y a pas eu depuis 30 ans de déviation significative par rapport à cette prédiction comme le montre la figure 1.

Vers le milliard de transistors par circuit ?

Quelles sont les limites à cette intégration toujours plus poussée ? En fait, quel est le nombre maximum de composants qui pourront être intégrés dans un circuit ? Pour avoir une idée de ce nombre, il suffit de diviser la surface maximum d'un circuit intégré par la surface minimum d'un transistor.

Le nombre maximum obtenu par ce calcul simplifié est donc d'environ 100 millions de transistors par circuit. En fait, certains raffinements sont possibles ce qui porterait cette limite aux environs d'un milliard de transistors par circuit. En 1995, on sait intégrer 5 millions de transistors. Il reste un rapport 200 à gagner soit environ 10 ans au rythme actuel qui se ralentira sans doute un peu vers la fin. Le milliard de transistors par circuit sera atteint vers 2005-2010. Cela veut dire que le processus d'intégration que nous connaissons depuis 35 ans va se poursuivre pendant encore au moins 10 ans. Tous les 18 mois, toutes choses étant égales par ailleurs, la puissance des microprocesseurs va doubler. La vraie révolution de l'Informatique reste à venir.

Et le stockage des données ?

Les puissants ordinateurs de demain ne seront utiles que dans la mesure où ils auront à leur disposition des volumes de données plus importants et plus rapidement accessibles. L'évolution des mémoires de masse est donc aussi déterminante que celle des unités centrales.

Sur les supports magnétiques, le coût du stockage de 10 000 caractères est passé de 150 000 francs en 1955, à 100 francs en 1980 puis à 1 centime en 1995. Comme pour la technologie des composants, la technologie de stockage des informations sous forme magnétique a fait des progrès fantastiques. L'ingénieur danois Valdemar Paulsen a présenté le premier enregistrement magnétique à l'exposition universelle de Paris en 1900. Depuis cette date, la corde à piano a été remplacée par des matériaux magnétiques enduits sur des bandes de plastiques ou des disques rigides, mais le principe de l'enregistrement des données est resté le même que dans l'appareil de Paulsen. Un courant électrique peut magnétiser une petite zone de matériau magnétique, ce qui enregistre les données.

La densité des enregistrements magnétique atteint plusieurs millions de caractères par cm2. Comme pour les transistors, la diminution de la taille des zones magnétiques améliore non seulement la densité mais aussi la vitesse de lecture des données. A vitesse de lecture constante, le nombre de données lues est plus grand. En revanche, la diminution de la taille des zones magnétiques diminue l'intensité du champ magnétique à lire. Les limites de l'enregistrement magnétique seront bientôt atteintes.

Heureusement, une autre technologie prend le relais. C'est l'enregistrement optique. L'énergie nécessaire à la lecture n'est plus stockée dans le support. Un rayon laser extérieur lit les données repoussant ainsi les limites de la taille des informations stockées. Cette technologie a été utilisée pour le compact disc audio introduit en 1983. Il a connu tout de suite un très grand succès et le disque analogique en vinyle a disparu en quelques années. Le son est numérisé et le compact disc enregistre donc une succession de bits. La capacité de ce support est de 600 millions de caractères avec un taux d'erreurs non corrigé extrêmement faible. Ce compact disc a été rapidement utilisé dans le monde de l'informatique sous le nom de CD-ROM par analogie avec les ROM (Read Only Memory ) car il n'est pas réinscriptible. Les images fixes et surtout la vidéo numérique nécessitent des capacités beaucoup plus importantes. Les principaux fabricants mondiaux se sont mis d'accord fin 1995 sur le futur standard de CD-ROM qui permettra de stocker 6.4 milliards de caractères soit une capacité dix fois supérieure pour la même surface.

Plus petit, plus vite et moins cher !

Figure 2 : Comparaison des prix des matériels

Les progrès continus réalisés depuis plus de trente ans se traduisent dans le tableau de la figure 2. L'écart de prix considérable constaté pour « la même chose » n'est pas seulement lié à l'intégration des composants. Il reflète aussi l'amortissement des études sur des volumes beaucoup plus élevés rendus possibles par le remplacement progressif des systèmes dits « propriétaires » par des standards de fait mondiaux dits « systèmes ouverts ». La concurrence entre les constructeurs différents qui fournissaient des systèmes complets incompatibles s'est progressivement transformée en une concurrence au niveau des composants sur les prix et les performances de systèmes interopérables.

Après 2010 ?

L'amélioration des performances des ordinateurs va donc se poursuivre au rythme exponentiel actuel pendant environ 10 ans. Au-delà de cette période le rythme du progrès, sans changer de technologie, se comparera à celui des autres technologies : quelques pour-cent par an. Pour améliorer le rapport performance prix de manière notable, il faudra trouver autre chose.

La première idée qui vient à l'esprit consiste à utiliser la lumière à la place de l'électricité, le photon à la place de l'électron. Un ordinateur à photons pourrait fonctionner au moins 1000 fois plus rapidement qu'un ordinateur à électrons. Cependant, nous ne savons pas encore amplifier la lumière sans passer par l'intermédiaire de l'électron. Il reste à inventer le « transistor à photons » pour espérer réaliser un jour des ordinateurs photoniques. Certains dispositifs existent et permettent d'espérer une solution mais comme il n'y a pas de piste très sérieuse pour une industrialisation, il est très probable que nous continuerons au-delà de l'an 2010 avec la technologie actuelle basée sur l'électron.

L'ordinateur biologique reste un rêve d'auteur de science-fiction.

Donc tôt ou tard, nous aurons besoin de puissance au-delà des capacités d'une seule machine. La solution réside dans les architectures parallèles. Les calculateurs conventionnels exécutent les instructions de manière séquentielle. Dans les microprocesseurs performants, un parallélisme est introduit dans l'exécution des instructions. A l'insu du programmeur, le processeur de calcul effectue le maximum de traitements en parallèle en respectant la nature séquentielle du programme. Dans les systèmes multi-micros, au contraire, le système se compose d'un réseau de calculateurs identiques capables de traiter des programmes différents en parallèle. Nous savons utiliser les systèmes parallèles lorsque le problème à résoudre s'y prête naturellement comme le calcul vectoriel ou les traitements sur les pixels d'une image. A part ces quelques cas particuliers, l'utilisation des multi-micros dans les applications traditionnelles n'est pas évidente.

Pourtant nous avons un excellent modèle à notre disposition : le cerveau humain. La vitesse de traitement des informations élémentaires dans le cerveau humain est très lente. L'information est transmise par une impulsion électrique à l'intérieur du neurone. Entre les neurones, ce sont des processus chimiques qui sont utilisés. La « vitesse de traitement » du cerveau est de quelques centaines de neurones par seconde. Cependant, ce cerveau est capable de réussir en moins d'une seconde des opérations extrêmement complexes par exemple la reconnaissance des visages. Les ordinateurs actuels parviennent péniblement à la reconnaissance des formes au prix de traitements informatiques très long. Nous sommes donc presque certains que le cerveau, composé d'environ 40 milliards de neurones reliés par une structure en réseau, utilise au maximum les traitements en parallèle. Cette analogie permet d'imaginer l'énorme réserve de puissance disponible lorsque nous saurons mieux utiliser les architectures parallèles.

L'essor des télécommunications

Il n'y a pas si longtemps, le téléphone était le seul moyen de communication entre les personnes. Depuis le début des années 70, les ordinateurs aussi échangent des données entre eux ou avec des terminaux. Les 7 millions de Minitel en France, les dizaines de millions de micro-ordinateurs dans le monde qui utilisent les centaines de milliers de serveurs connectés à l'Internet ont provoqué une explosion des besoins en télécommunications. Les échanges de données entre ordinateurs nécessitent des capacités et des vitesses de transmission beaucoup plus élevées que pour le téléphone. Il faut donc augmenter considérablement les capacités des réseaux de télécommunications.

Après l'invention fondamentale du transistor en 1948, une autre invention a eu lieu en 1958. C'est celle du Laser. En utilisant Laser et fibres optiques, les électrons sont remplacés par les photons pour transporter les bits d'information. Les progrès ont été très rapides et les fibres optiques ont rapidement supplanté le cuivre comme technologie des télécommunications. Le dernier câble transatlantique métallique posé en 1975 permettait l'établissement de 10 000 communications simultanées. Le premier câble transatlantique à fibre optiques posé en 1988 a une capacité de 40 000 communications simultanées. Le développement de la technologie des fibres optiques est très rapide. De 4 500 ans avant J.-C. aux années 60, la transparence du verre avait été améliorée dans un rapport 10 000. Depuis un autre rapport 10 000 a été gagné. Une fenêtre épaisse de 10 km, réalisée dans la meilleure fibre optique serait plus transparente qu'une fenêtre de verre traditionnel de 1 cm d'épaisseur.

Quelle est la réserve de progression pour la technologie optique ? La technologie actuelle peut encore progresser d'un facteur supérieur à 1000 à comparer au facteur 200 des microprocesseurs. Il faudra sans doute 25 ans pour y arriver, ce qui donne des possibilités d'amélioration considérable des capacités et des débits jusqu'en 2020. En particulier, il devrait être possible de traverser l'Atlantique en fibre optique sans répéteur.

Comme pour les circuits électronique, l'essentiel du coûts de systèmes n'est pas dans le coût des composants mais dans les coûts d'interconnexion. Les ingénieurs accroissent le nombre de composants par circuit non pas comme un objectif en soi mais pour diminuer les coûts de connexions. De même les performances des lasers et fibres optiques sont améliorées pour réduire les coûts d'interconnexion de ce qui ne peut pas être miniaturisé.

Le déploiement du logiciel

Les progrès de la miniaturisation fixent le rythme d'évolution de la technologie du matériel mais c'est la vitesse de déploiement du logiciel qui est déterminante pour la pénétration des ordinateurs dans toutes les activités industrielles ou intellectuelles. Le logiciel transforme l'ordinateur d'un outil qui peut théoriquement résoudre un problème en un outil qui le résout en pratique. Le matériel est au logiciel ce que les instruments sont à la musique. Léonard De Vinci définissait la musique comme le « modelage de l'invisible ». Cette définition est encore plus adaptée à la description du logiciel.

Si les progrès ont été foudroyants dans le domaine du matériel, ils ont été tout aussi impressionnant dans le domaine du logiciel. 15 ans après la définition de l'architecture des machines par Von Neuman en 1945, presque tout avait été inventé et les programmeurs attendaient déjà des machines plus puissantes pour progresser. Il suffit pour s'en convaincre de se souvenir des dates d'apparition des langages : FORTRAN né en 1957, LISP en 1959, COBOL en 1960 et BASIC en 1964. Il en est de même pour les systèmes d'exploitation. Les fonctions offertes à un programme développé en 1966 sous l'OS des IBM 360 étaient pratiquement les mêmes que celles disponibles aujourd'hui sous la toute dernière version OS/390. La première version d'UNIX a été développée à partir de 1969 et les bases de données relationnelles sont nées en 1970.

Les premiers programmes d'ordinateurs avaient été fabriqués par des mathématiciens et des scientifiques qui pensaient que le travail était simple et logique. Le logiciel s'est révélé plus difficile à développer qu'ils ne l'avaient supposé. Les ordinateurs étaient têtus. Ils s'obstinaient à faire ce qui était écrit plutôt que ce qui était voulu. Le résultat fut qu'une nouvelle race d'artisans prit le relais pour faire le travail. Ils n'étaient souvent ni mathématiciens, ni scientifiques mais ils étaient profondément engagés dans une aventure avec les ordinateurs, une aventure précurseur d'une nouvelle science.

L'évolution des langages de programmation

L'idée des langages de programmation est aussi vieille que celle du calculateur digital. Il suffit de programmer un ordinateur directement en code binaire pour comprendre immédiatement pourquoi. Les premiers programmeurs ont donc rapidement inventé des notations symboliques appelées « langage » traduites en code binaire par des programmes appelés « compilateur ». Parmi les premiers langages, celui dont l'influence a été la plus grande est sans nul doute le FORTRAN développé entre 1954 et 1957 par John Backus et ses collègues chez IBM. Il n'était pas sûr qu'à une époque où la puissance des machines était très limitée, un compilateur puisse produire du code efficace. Cet objectif avait été atteint et FORTRAN est encore utilisé aujourd'hui. Cependant, la version originale de FORTRAN comportait des contraintes inutiles, des structures de données limitées et surtout de sérieuses déficiences dans le contrôle de la logique du programme. Dans un certain sens, on peut dire que toutes les recherches dans la définition de nouveaux langages de programmation ont été motivées par des essais de correction des défauts du FORTRAN.

Que les langages aient été définis par un Comité comme COBOL, une organisation commerciale comme PL/I, un individu comme PASCAL ou par le Ministère de la Défense américain comme ADA, toutes les tentatives de définir le langage universel ont échoué, laissant la voie libre à des milliers de langages dont seulement une petite dizaine est largement répandue.

Contrairement au matériel, les progrès dans le logiciel ne viennent pas d'une seule technologie ou même d'une technologie dominante. Par exemple dans le domaine des langages, les progrès proviennent de meilleure structures de contrôle de programmes, de meilleurs environnements de programmation, d'outils de programmation plus puissants. L'évolution semble lente, mais il y a progrès. Après quelques années, ces progrès ne sont plus perçus comme des améliorations mais comme des nouveautés. Mais ce qui est surprenant, c'est que les vieilles techniques ne disparaissent pas. Certains continuent de programmer dans des langages qui datent de 30 ans comme FORTRAN ou même en écriture ancienne connue sous le nom d'assembleur alors que d'autres considèrent ces outils comme des fossiles vivants. Charles Quint disait « je parle en espagnol à Dieu, en italien aux femmes, en français aux hommes et en allemand à mon cheval ». Pour les hommes comme pour les machines, il n'y a pas de langage idéal.

Les interfaces utilisateurs

Un programme transforme l'ordinateur en un outil adapté à un usage particulier, que cet usage soit la fabrication d'un avion ou l'écriture d'un document. L'interface utilisateur, c'est la partie du logiciel qui sert d'intermédiaire entre l'utilisateur et le programme. Autrefois l'interface utilisateur était la dernière partie à être conçue. Maintenant, c'est devenu la première. En effet, pour le débutant comme pour l'utilisateur expérimenté, ce qu'il perçoit devient « son » ordinateur. Cette illusion est la métaphore simplifiée que chacun construit pour expliquer les actions du système ou pour provoquer de nouvelles actions. Il faut noer les travaux fondamentaux réalisés dès 1973 par les équipes du Xerox Palo Alto Research Center (XPARC) avec l'invention de la souris et des fenêtres qui ont donné naissance aux premiers produits commerciaux comme le STAR en 1978 ou la LISA en 1982. Coûteux et peu performants, ces produits ont été des échecs. En 1985, le Mac d'Apple a été le premier produit à réussir commercialement dans le monde propriétaire suivi en 1990 par Windows 3.0 de Microsoft dans le monde ouvert du PC.

La plupart des principes et des périphériques développés pour améliorer cette métaphore sont maintenant devenus très courants dans la conception des logiciels. Le principe le plus important a été le WYSIWYG (« What You See Is What You Get ») : l'image sur l'écran est toujours une représentation fidèle de la métaphore de l'utilisateur. Chaque manipulation de cette image entraîne une modification prévisible de l'état du système ou tout au moins tel que l'utilisateur l'imagine. Les éléments de cette métaphore qui se sont imposés actuellement sont les fenêtres (Windows), les menus, les icônes et un outil de pointage. Les fenêtres rendent possible la représentation simultanée sur l'écran de plusieurs activités. Les menus permettent de choisir les prochaines actions. Les icônes représentent des objets informatiques sous forme concrète. L'outil de pointage, généralement la souris, permet de sélectionner les fenêtres, menus et icônes.

Tout cela a donné naissance à une nouvelle génération de logiciels interactifs, à base de métaphores, qui utilisent cette réalité virtuelle pour simplifier la tâche de l'utilisateur et pour démultiplier ses capacités à simuler le fonctionnement du programme sans avoir à faire appel à des abstractions ou à des programmes cachés. Le concepteur de logiciel doit contrôler le contexte théâtral qui sert à créer l'illusion de la réalité pour améliorer la simplicité d'emploi pour l'utilisateur.

L'approche orientée objet

Dans les langages procéduraux (FORTRAN, COBOL,...), les instructions du langage sont impératives et s'adressent à une entité qui n'est pas désignée tout simplement parce qu'il n'y a qu'une seule possibilité : c'est l'ordinateur considéré comme un tout. Dans les langages orientés objets, l'ordinateur est virtuellement divisé en objets qui peuvent être adressés individuellement. Ces objets peuvent communiquer entre eux en envoyant des messages. Cette approche a été introduite pour la première fois par Ole-Johan Dahl et Kristen Nygaard dans Simula 67, un langage dérivé d'Algol 60. L'idée n'a pas suscité beaucoup d'intérêt jusqu'au développement de Smalltalk en 1970 par Alan Kay et ses collègues du Xerox Palo Alto Research Center. Cette approche s'est répandue progressivement dans les années 80 (Objective C, C++), au fur et à mesure que les performances des ordinateurs masquaient l'inévitable inefficacité du code.

Avec les langages procéduraux classiques, le logiciel est produit en enchaînant des procédures qui contiennent des types de données et des algorithmes. La programmation orientée objet généralise la notion de type, combine algorithmes et données en objets et supprime la décomposition fonctionnelle des langages procéduraux. Cette décomposition est remplacée par l'héritage, le polymorphisme et l'échange de messages. L'héritage permet de définir de nouveaux objets à partir d'objets existants. Le polymorphisme permet de définir des actions indépendantes des caractéristiques d'un objet particulier: IMPRIMER, par exemple peut être valide aussi bien pour du texte que pour des images, vers une imprimante noir et blanc ou couleur. A la place de gros blocs de programmes contenant des clauses « if-then-else », un programme orienté objet contient des fonctions polymorphes qui résolvent les « if-then-else » pendant l'exécution. Cette souplesse explique d'ailleurs la relative inefficacité de ces langages.

Toutefois, l'héritage et le polymorphisme sont aussi complexes et sujets à erreurs que la décomposition fonctionnelle traditionnelle. Ainsi l'approche orientée objet n'apporte guère de gains en terme de productivité des programmeurs. En revanche, cette approche a d'autres mérites : en particulier elle introduit la notion de réutilisation. Avec la réutilisation, l'ère des grands projets informatiques qui repartent de zéro sera révolue. Des objets seront développés par des artisans du logiciel qui les fourniront aux réalisateurs de systèmes plus importants.

Les principales tendances dans la fabrication du logiciel

Le logiciel est le combustible invisible de l'informatique. Sans lui, ni les ordinateurs, ni les matériels de communications ne fonctionneraient. Au début, les coûts de développement du logiciel, la productivité des programmeurs ou le temps de développement des programmes n'étaient pas considérés comme critiques. Après tout, si une machine coûtait 10 millions de francs, quelle importance si le logiciel coûtait 1 million ? De même si la durée de vie du matériel était de 10 ans, quelle importance si le développement du logiciel prenait de 2 à 5 ans ? Mais le déferlement des P.C. a tout changé . La réduction considérable des coûts des matériels a placé le coût des logiciels en première ligne et surtout l'évolution du matériel a été si rapide que le développement du logiciel ne pouvaient plus suivre. A la question : « est-ce que le logiciel suit le rythme de l'évolution du matériel, des techniques de télécommunications et de l'industrie informatique en général ? » la réponse est pour l'instant non.

La manière de mesurer la productivité du logiciel est une question très controversée. Si on utilise la méthode des points de fonction inventée par un chercheur d'IBM vers la fin des années 70, Allan Albrecht, on aboutit à la courbe suivante sur les 50 dernières années.

Figure 3. Évolution de la productivité depuis 50 ans.

Comme on le voit, la courbe d'apprentissage a été d'environ 80 % tous les 5 ans depuis 50 ans. Il y a donc peu de chances que la productivité progresse considérablement dans les années qui viennent. Les programmeurs ont produit 50 milliard de lignes en Cobol, ce qui représente 80% de l'ensemble du logiciel produit depuis 1960. Il y a encore au moins un million de programmeurs Cobol à temps plein dans le monde. Ces programmeurs sont trop occupés à maintenir la base installée de programmes Cobol pour innover. La prochaine avancée dans le domaine du logiciel va donc venir de petits groupes de programmeurs qui n'utilisent pas Cobol. Le volume des besoins en logiciel va créer de nombreuses opportunités pour les nouvelles idées, les nouvelles approches de la programmation et le génie logiciel en général.

Vers l'assemblage de composants ?

L'approche orientée objet n'a pas apporté les gains de productivité espérés. Cependant, elle va jouer un rôle de catalyseur dans les futures méthodes de développement du logiciel en permettant la réutilisation de composants. Un composant n'est pas forcément un objet mais un objet peut être un composant. Les composants sont des modules qui encapsulent des fonctions et des données. Créer une nouvelle application consistera alors à sélectionner une structure existante et à en modifier le comportement par l'assemblage de composants. Pour que cette technologie s'impose, il faudra créer un marché des composants. En effet, personne n'utilisera des composants s 'ils sont difficiles à trouver, cher et non fiables. Ces composants sont aujourd'hui connus sous le nom d'ActiveX successeur des VBX et OCX, d'Applets ou de Plugins. Il sont écrits en Visual Basic, C++ ou Java. La distribution électronique des composants jouera sûrement un grand rôle dans le développement de ces techniques au fur et à mesure de la montée en puissance d'Internet comme outil de commerce électronique.

Les outils de développement visuels

Tous les outils de développement visuels, depuis les interfaces graphiques jusqu'aux générateurs de programmes, permettent des accroissements de la productivité dans un rapport qui peut aller de 1 à 5, bien au delà de ce qui est prédit par la courbe de la figure 3. Ces outils avaient été initialement dédaignés par les « vrais programmeurs », adeptes de C ou de C++. Mais grâce aux accroissements de productivité et à une plus grande facilité de création ou de modification, les programmeurs « à la souris » gagnent du terrain si l'on en juge par la percée de Visual Basic y compris dans les développements d'applications professionnelles. Il ne serait donc pas étonnant que l'outillage de base du programmeur du futur s'appuie sur des outils visuels, des techniques objets et des bibliothèques de composants.

Les Autoroutes de l'Information

Avec un tour du monde en quatre ans, Magellan (1480-1521) avait pris la mesure du globe terrestre. L'invention du téléphone par Thomas Edison en 1877 puis de la télévision par satellite au début des années 60 ont contribué à faire rétrécir notre planète. Le réseau Internet permet maintenant en moins d'une seconde et presque gratuitement d'accéder à n'importe laquelle des informations contenues dans des dizaines de millions d'ordinateurs répartis dans le monde entier. Autoroutes de l'information, Multimédia, Cyberspace, Global village sont les mots qui essayent de décrire un phénomène dont les conséquences modifieront si profondément notre civilisation que certains n'hésitent plus à parler d'âge de l'information.

Au début des années 80, la convergence des technologies de l'informatique et des télécommunications a produit les grands réseaux publics d'ordinateurs comme Transpac avec le Minitel en France. Avec la numérisation des sons depuis le Compact disc, des images grâce au CD-ROM et bientôt de la télévision, une nouvelle convergence avec les techniques de l'audiovisuel est en cours : c'est le multimédia et ses énormes volumes d'informations numériques. La métaphore des « Autoroutes de l'Information » , forgée par Al Gore vice-président des Etats-Unis, assimile la circulation de ces informations numériques à celles des voitures sur des voies rapides de circulation.

 

Figure 4. La convergence des technologies

D'un point de vue technique, les autoroutes de l'Information constituent plus une évolution continue qu'une révolution. Mais le changement d'échelle en change la nature. Entre un film vu à 2 images par seconde ou à 20 images par seconde, il y a plus qu'un changement d'échelle d'un facteur 10, il y a la perception du mouvement.

Le micro-ordinateur, le CD-ROM et Internet symbolisent cette évolution : avec cet équipement, on peut dès aujourd'hui se connecter à de multiples services d'information en ligne dispersés dans le monde, consulter les bases de données et de connaissances, se procurer les informations de son choix, rédiger de nouveaux documents, les diffuser sans obstacle de distance ou de temps.

L'accroissement des performances des ordinateurs permet maintenant de transformer sous forme numérique tout signal écrit, sonore, visuel ou autre que le cerveau humain est en mesure d'assimiler. D'un seul coup, les différences de manipulation et de distribution entre les supports traditionnels disparaissent : papier, film photographique, ondes radiophoniques, cassettes audio ou bandes vidéo peuvent désormais être numérisés, traités de manière interactive et transmis simultanément sur un même support dit Multimédia. L'émergence des autoroutes est le prolongement naturel d'une diffusion large et rapide de ces technologies multimédia. Selon Vint Cerf, un des pères de l'Internet, « Au moins 300 millions de personnes utiliseront l'Internet en l'an 2000 ». Quelles sont les caractéristiques d'Internet et quelles seront les conséquences d'une meilleure exploitation des énormes gisements d'information et de savoir accumulés dans le monde dans cet espace tout électronique, ce « Cyberspace »?

Internet

Techniquement, Internet est un réseau mondial qui relie des réseaux d'ordinateurs entre eux. C'est en quelque sorte le réseau de tous les réseaux. Les ordinateurs de tout type peuvent communiquer et échanger des informations parce qu'ils utilisent un protocole de communication commun appelé TCP/IP (Transmission Control Protocol/Internet Protocol).

Internet peut être aussi décrit comme une communauté de communautés qui a généré ses propres règles : « la netiquette ». Dans la culture Internet, l'information est vue comme une ressource libre et gratuite qui ne doit pas supporter de contraintes. Chacun doit pouvoir dire ce qu'il veut en respectant une auto censure plutôt que des règles fixées par des autorités. En quelque sorte une démocratie électronique où chacun est libre et responsable.

Il y a quatre raisons principales au succès d'Internet : L'adresse unique, le protocole TCP/IP, des services de base universels et des coûts de communication très faibles.

L'adresse mondiale unique : individu@lieu

Le protocole IP affecte à chaque ordinateur une adresse unique sur 32 bits (bientôt 128 bits) qui est généralement écrite sous la forme de quatre nombres de 8 bits écrits en décimal et séparés par des points : 194.2.94.60 . Pour en simplifier l'emploi, ces adresses peuvent être écrites sous une forme symbolique comme celle bien connue pour le courrier électronique : individu@lieu.

Le protocole TCP/IP

Le succès du protocole TCP/IP tient à son universalité et à sa simplicité. Le protocole TCP/IP a été développé sous l'égide du DoD (Department of Defense des Etats -Unis) indépendamment de tout système ou fournisseur particulier. Ce protocole, associé à UNIX à ses débuts ce qui en a facilité la diffusion, est maintenant disponible sur tous les types d'ordinateurs et fournit une interopérabillité totale entre des fournisseurs différents. Il est à noter que cette interopérabilité a été obtenue en la vérifiant par l'expérimentation alors que la voie de la normalisation par comité (ISO) a subi un échec cuisant.

Alors que la plupart des protocoles de réseaux offrent un niveau de service élevé (adressage, garantie d'acheminement et de débit par exemple), le protocole TCP/IP ne fournit rien et laisse tout à la charge de l'utilisateur. Par exemple le protocole ne garantit ni l'ordre d'arrivée des paquets, ni même leur acheminement. La conséquence est un réseau très simple à installer avec de bonnes performances. Ce qui pouvait être considéré comme un inconvénient lorsque les ordinateurs étaient peu puissants, est devenu un avantage aujourd'hui. Le protocole ne consomme qu'une infime partie de la puissance des micro-ordinateurs modernes. L'infrastructure du réseau n'a qu'une fonction de commutation. Elle est donc indépendante de toute application et permet de supporter des applications aussi différentes que le transfert de fichiers ou la vidéoconférence.

Des services de base universels

Les services de base fournis avec TCP/IP ont contribué au succès d'Internet. Le premier service est bien sûr le courrier électronique (Email) qui grâce à l'adresse unique (individu@lieu) permet de communiquer plus simplement qu'avec le téléphone. Les services les plus connus sont l'émulation de terminal (Telnet qui permet de se connecter à distance à tout type d'ordinateur), le transfert de fichier (FTP), les newsgroups (Usenet), l'internet relay chat (IRC).

Des coûts de communication très faibles

Le réseau ne fournissant ni service ni facturation, son coût d'exploitation se résume à celui de l'installation de commutateurs appelés « routeurs » et des liaisons fixes entre ces routeurs. Les coûts fixes de l'infrastructure sont répartis entre les utilisateurs en fonction du débit d'accès demandé. Chaque utilisateur peut installer en fonction du niveau de service requis ses ordinateurs de supervision, de gestion des noms ou de contrôle d'accès. Cela explique la raison pour laquelle ce réseau peut supporter une croissance aussi rapide. Chaque utilisateur ajoute la capacité de traitement supplémentaire requise. Ce schéma, à l'opposé des pratiques habituelles des opérateurs de télécommunications, provoquera dans les années qui viennent des bouleversements considérables dans le monde des télécommunications.

Le World Wide Web (WWW)

Avec cet ensemble mondial d'ordinateurs interconnectés et accessibles en moins d'une seconde, des chercheurs du CERN à Genève ont imaginé un système destiné à simplifier l'accès aux informations. Ils ont construit un système hypertexte permettant d'associer des données textes et des données multimédia utilisant l'ensemble des ordinateurs interconnectés comme une seule base de données universelle. Chaque document a une adresse mondiale unique (Universal Resource Locator URL) qui peut être référencée dans n'importe quel document. Le succès a été foudroyant. En 1996, il y avait déjà plus de 30 millions de pages publiques d'information référencées dans les systèmes de recherche comme Yahoo, Lycos ou Altavista.

L'élément déterminant du succès a été l'intégration de l'hypertexte, du multimédia et de tous les services existants dans un seul logiciel de présentation graphique utilisable simplement avec des « clics » de souris, le navigateur (Browser). Ce sont les liens entre tous les documents qui tissent une toile d'araignée mondiale qui a donc donné son nom au World Wide Web. Le succès de ces navigateurs (Mosaïc, Netscape,...) est indissociable du succès d'Internet et du World Wide Web. Ce succès va sans doute s'amplifier. En effet, le langage de présentation traduit par ces navigateurs, le HTML (Hyper Text Markup Language), dopé par le succès du World Wide Web a de bonnes chances de devenir rapidement le langage de présentation universel.

Vers l'âge de l'information

Depuis longtemps, on en rêvait. L'augmentation régulière de la puissance des microprocesseurs, les progrès des développements du logiciel avec les techniques graphiques et orientées objets, la numérisation du son puis des images et les techniques de compression des signaux, le déploiement des réseaux accéléré par les fibres optiques et les satellites dessinaient les contours d'un nouveau paysage :la Société de l'Information. Cette société sera construite autour de voies électroniques ou réseaux chargés d'acheminer dans les maisons, les entreprise, les universités, les administrations, les écoles ou les hôpitaux une palette de services interactifs : messagerie, visiophonie, télé-enseignement, consultation de banques de données, télé-achat, télévision à la demande, médecine assistée à distance... bouleversant de manière radicale la vie des gens et des entreprises.

Les nouvelles technologies de l'information représentent aussi un bouleversement culturel des modes d'éducation et de communication dont les héritiers sont les enfants d'aujourd'hui. Accéder à des informations par l'intermédiaire d'un écran et d'un clavier est pour la jeune génération - la génération Nitendo - une deuxième nature alors que cette manipulation semble souvent difficile aux adultes. En matière d'éducation, les élèves utilisent de plus en plus souvent l'ordinateur comme un véritable assistant pédagogique qui leur permet de cultiver leurs connaissances à leur propre rythme dans toutes les disciplines.

Avec le multimédia se prépare sans doute la remise en cause de la communication écrite telle que nous la concevons depuis Gutenberg. Le terme n'est pas si loin où les lecteurs devront apprendre à naviguer dans un monde d'images et de textes, le simple « clic » sur un mot ou une image permettant un accès quasi instantané à n'importe laquelle des informations stockées dans l'un des ordinateurs de la Planète. Enfin, le développement des réseaux du futur va changer le fonctionnement même de la société, modifiant par exemple l'organisation du travail, l'accès des citoyens aux services de santé ou d'éducation, les relations administration/administré, voire les conditions d'exercice de la démocratie.

L'histoire enseigne que le progrès se propage par vagues. Il est donc raisonnable d'affirmer que la société du XXIème siècle sera façonnée par les technologies de l'Information. La large disponibilité d'ordinateurs à un nombre croissant d'utilisateurs augmentera la créativité qui sera génératrice de nouveaux progrès. Les ordinateurs actuels ne peuvent améliorer que des capacités mentales simples et relativement routinières mais un progrès continu est fait vers l'amélioration des capacités d'analyse et d'inférence. De même que les machines capables d'améliorer les capacités physiques de l'homme ont crée la révolution industrielle, de même les ordinateurs par leur faculté d'étendre les capacités mentales de l'homme, sont le moteur de l'actuelle et improprement nommée révolution informatique. L'Odyssée Informatique vient tout juste de commencer.

Ile d' Yeu, août 1996

Jean-Paul Figer
Copyright © 1996, Jean-Paul Figer

Retour en haut


Références
1. Ted Lewis, The Next 10,000 Years, Computers, 1996
2. John S. Mayo, Materials for Information and Communication, Scientific American, 1986
3. Alan Kay, Computer Software, Scientific American, 1984
4. Lawrence G. Tesler, Programming Languages, Scientific American, 1984