(1981) Articles divers (1978-1981) « Information n’est pas savoir (octobre 1981) » pp. 310-320

Information n’est pas savoir (octobre 1981)br

Avant-propos

Une des raisons principales du désarroi dans lequel nous jettent les récents développements de la technologie et, en général, des sciences physiques, chimiques et biologiques, consiste dans notre inaptitude à relier nos moyens et nos buts, à subordonner les premiers aux seconds et à les évaluer globalement par rapport aux fins dernières de l’homme.

C’est pourquoi je suggère d’envisager le problème de l’informatique dans des perspectives très différentes de celles des auteurs des articles qui précèdent. Je ne ferai pas référence à leur problématique immédiate — utilité certaine, nuisances possibles, aspects économiques et sociaux à court ou à moyen terme — mais à leurs relations avec les processus de pensée, les valeurs éthiques et spirituelles, la formation culturelle et l’éducation des générations à venir.

1. L’informatique, une révolution ?

Une rumeur s’élève dans le siècle : l’informatique serait une révolution ! Prenons garde à la métaphore ; il en est peu qui égarent davantage l’esprit de nos contemporains. Dans le domaine proprement scientifique, l’Europe n’a connu qu’une seule révolution au sens propre du terme : c’est la théorie de Copernic démontrant que la Terre tourne autour du Soleil.

Tout le reste est littérature. Toutes les autres découvertes de la Science ou les inventions de la Technologie n’ont été que par métaphore des « révolutions ». Par révolution, l’on voulait désigner des changements profonds et de portée générale, des mutations ou des chambardements soudains de la société, mais non pas du tout un retour à la position de départ, comme le disait le terme primitif. Or, toute « révolution » au sens métaphysique, devenu surtout politique depuis la fin du xviiie siècle français, peut être vue de deux manières contradictoires par ceux qui l’ont fomentée et par ceux qui l’ont subie. Aux yeux des premiers, elle apparaît comme un élan de libération de l’homme ou d’une classe opprimée ; aux yeux des seconds, elle se ramène au renforcement des contraintes publiques et du contrôle des personnes. Et il est vrai, comme l’écrivait Lénine en 1917, que les révolutions bourgeoises n’ont abouti qu’à renforcer l’État central et les pouvoirs de la police. Mais Lénine se trompait sur l’adjectif, en attribuant ces maux aux formes « bourgeoises » de la révolution, comme il allait le prouver dès octobre 1917, par sa propre révolution dite « prolétarienne ».

Voilà qui ne manquera pas d’évoquer les deux dangers majeurs qui semblent avoir frappé le grand public subitement confronté à la « révolution informatique » : les pouvoirs accrus de l’État central et de sa police, et par ce que le Conseil de l’Europe nomme « le traitement automatisé des données de caractère personnel », c’est-à-dire la mise en fiche de tous les citoyens.

On me dira que le grand public n’y entend rien, qu’il est mal informé, précisément. Sans doute, mais chacun de nous sait bien que toute innovation technique, qu’on la qualifie ou non de « révolutionnaire » pour les besoins de la « pub » ou de l’« intox », présente les mêmes caractères d’ambivalence, les mêmes potentialités antinomiques de libération ou de contraintes accrues, à doses variables selon l’ampleur de ses effets et leur correspondance ou non avec telle pente générale de l’esprit humain.

Si l’informatique mérite vraiment d’être présentée comme une révolution, nous avons le devoir absolu, et donc le droit, de poser à son sujet les grandes questions, et notamment la question des finalités réelles que l’on poursuit en développant l’informatique.

Le célèbre psychologue et pédiatre Bruno Bettelheim, auquel on avait demandé une conférence sur le cinéma pour l’American Film Institute, hésita beaucoup, finit par accepter, et lut ou parcourut — dit-il — environ 500 volumes sur le sujet, puis commença par cette phrase : « My starting point in preparing for the lecture is why should anybody go to the movies ? What do they do for the soul ? » Plus modeste, je dirai que ma question sur l’informatique n’est que celle-ci : « En quoi favorise-t-elle la liberté et la responsabilité — inséparables — de la personne ? »

2. Et d’abord, d’où vient l’informatique ?

Le premier ordinateur, l’ENIAC, a été construit et terminé en 1945 à l’Université de Pennsylvanie. Il avait été commandé par le laboratoire de recherches balistiques de l’armée américaine. Cette technique n’est pas née en vue de la sagesse, ni pour satisfaire un besoin humain. Elle est née, comme tant d’autres, de la guerre, et pour répondre à des besoins particuliers de l’armement.

Et ensuite ? Selon Simon Nora et Alain Minc71 : « l’histoire de l’informatique s’identifie à un enchaînement d’innovations techniques ». Il semble bien, à lire cette phrase, qu’à aucun des stades de son développement, l’informatique n’ait répondu à l’appel d’une finalité, fût-elle de paix, de bonheur, d’équilibre, de liberté et de responsabilité accrues de la personne. De là notre problème et le sujet que je souhaite aborder.

3. Ambivalence de la technologie

Il m’importe d’insister tout d’abord sur ce point : je ne suis pas et n’ai jamais été pour des raisons ou préjugés quelconques contre ce qu’on nomme aujourd’hui les techniques de pointe, telles que l’informatique, la télématique, et tous les iques qu’on en tire à la mode américaine. Je suis bien décidé à les utiliser au maximum pour mes recherches personnelles ; j’entends partout où cela me paraît « possible ». Un exemple à l’appui de mes dires : un jour, qu’avec Louis Armand nous discutions des complexités effarantes auxquelles une politique fédéraliste aurait à faire face — au niveau national ou paneuropéen, je lui dis (paraphrasant le mot célèbre de Lénine sur « les soviets plus l’électricité ») : « J’ai la solution : le fédéralisme, c’est l’autonomie des régions, plus les ordinateurs. » Et il me répondit, j’en suis très fier : « Celle-là, vous me rendez jaloux de ne pas l’avoir trouvée ! »

En premier lieu, n’oublions jamais l’ambivalence inévitable de toutes nos technologies :

la « révolution » technique de l’automation devait amener l’ère des loisirs et nous sommes dans l’ère du chômage ;

— la productivité sans cesse accrue de l’industrie annonçait l’abondance, et nous avons des pénuries multipliées en Occident, et des famines dans le tiers-monde ;

— l’informatique nous propose aujourd’hui de « penser pour nous », plus vite que nous, mais elle crée le risque d’atrophier nos facultés de mémoire, de jugement et de création, tout en multipliant une espèce prospère de débiles mentaux efficaces.

4. Refondement du problème des finalités

Disons tout de suite que ce n’est pas la technique que nous devons rendre responsable de ces progrès à contre-fins, mais bien une société qui refuse d’envisager les transformations radicales, dans la répartition des profits notamment, qui seraient sans nul doute nécessaires pour que l’innovation développe ses effets bénéfiques pour l’ensemble du genre humain.

À l’origine de nos problèmes présents de civilisation scientifico-technique, il y a, en Occident, quelque chose comme un refus d’envisager, avant toute application industrielle et commerciale d’une invention, ses conséquences trop facilement qualifiées de « révolutionnaires », alors qu’elles ne seront peut-être que bouleversantes, au hasard et aux dépens de l’homme. Je constate, par exemple, quelque chose comme un refus d’imaginer, de supputer, d’étudier sérieusement les régimes sociaux qui permettraient de transformer le chômage en loisirs, ou la productivité en moyens de faire vivre, et non de tuer, c’est-à-dire en aliments pour le corps et l’esprit plutôt qu’en armements. Mais il faut que je le précise ici très soigneusement : quand je parle d’un refus, je ne suppose pas le moins du monde qu’après concertation entre philosophes, scientifiques, industriels, éducateurs et technocrates, une décision négative, du type « la question ne sera pas posée », ait été prise en toute conscience. Bien plus que d’un refus délibéré, il s’agit d’un réflexe de fuite devant le problème, d’un refoulement au sens freudien du terme, d’une espèce de blocage des esprits devant ce qu’ils pressentent de l’effarante complexité du problème et de ses aspects possiblement sinistres.

Les Occidentaux de l’ère industrielle, scientifico-technique et censément rationaliste, me paraissent s’en tenir dans leur ensemble à une conduite typiquement infantile : devant les nouveaux jouets technologiques de pointe qu’on leur propose et dont on les persuade qu’ils doivent s’enorgueillir — « grâce à vous, nous nous sentons de nouveau des géants », disait le président Reagan aux cosmonautes de la fusée Columbia —, ils ne voient d’abord que les facilités et les pouvoirs que cela peut leur apporter, non les dangers et encore moins les responsabilités accrues que cela institue. Ils ne voient que l’innovation — éphémère par définition — mais refusent de prévoir les dommages, souvent irréversibles, qui pourraient en être le prix.

Il faut avouer que cela ne se comprend que trop, si l’on pense aux démentis en rafales que subissent les plus grands spécialistes de la futurologie dite scientifique dans leurs prévisions économiques et politiques. Qu’il s’agisse de l’auto, du pétrole ou de l’énergie, de la percée japonaise, de l’Iran, de l’Afghanistan ou de Lech Walesa, rien n’avait été correctement prévu, tout nous a pris au dépourvu dans les événements marquants de la dernière décennie.

Alors, devant cet avenir vertigineux d’imprévisibles en système, faut-il baisser les bras et continuer comme de coutume, c’est-à-dire : faire d’abord, quand il est trop tôt pour rien prévoir, et réfléchir ensuite, quand il est trop tard pour rien changer ?

C’est ce qui est arrivé avec l’énergie nucléaire : on a bâti des centrales, puis on s’est demandé comment réduire leurs déchets radioactifs. On ne le sait toujours pas, et même de moins en moins, s’il faut en croire le rapport américain Globe 200072. Les déchets s’accumulent inexorablement. Arrêter les centrales créerait, dit-on, une pénurie sans précédent d’énergie électrique, cependant que les méthodes de retraitement envisagées posent des problèmes de plus en plus inextricables, tant politiques que techniques.

La situation ne paraît pas encore aussi sérieuse dans le cas de l’informatique. Mais la prévisibilité des conséquences à long terme, directes, indirectes ou induites, et de leurs combinaisons, convergences ou conflits, nous inviterait à renoncer nous aussi à tout effort de prospective et même de réflexion sur l’avenir informatisé. Je refuse cette invitation.

J’ai toujours pensé que nous ne sommes pas sur la Terre pour essayer de deviner l’avenir, mais pour le faire. Voici le moment d’appliquer ma formule.

Faute de pouvoir connaître les conséquences lointaines sur l’homme, la société et la nature, de nos innovations technologiques, je propose donc le plan suivant :

1. comprendre la vraie nature de l’innovation et ses visées, en vérifiant la définition de ses termes de base ;

2. soumettre à un certain nombre de critères d’usage toute innovation technique qui réclame droit de cité, c’est-à-dire de production et de vente ;

3. évaluer, avec l’aide des critères d’usage, les avantages et les dangers qu’une exploitation « sauvage » de l’informatique laisserait prévoir dès maintenant, et que l’on peut encore prévenir.

Ce plan sera celui de la seconde partie de ma communication.

5. Un peu de sémantique

Pour une définition des termes relatifs à l’information en général et à l’informatique en particulier, il me semble que l’anglais se prête mieux que le français à un premier tri lexical. Il établit à première vue une distinction très nette entre

data news knowledge

les deux premiers termes désignant deux sortes d’informations, le troisième désignant les résultats ou résultantes dans un individu de ces informations. Cela correspond plus ou moins, en français, à

données (permanentes) — nouvelles (du jour) — savoir (intégré ou connaissance)

Pour le mot information, Littré donne cette définition : « Terme de philosophie. Action d’informer, de donner une forme. » Exemple : « L’homme est l’information suprême et comme la vivante synthèse des forces créatrices du globe. »73

Information signifiait traditionnellement, dès Aristote, formation par les données de fait observées et les expériences vécues, intégrées dans la mémoire de l’individu. Le sens de « nouvelles du jour » qu’a pris le mot, à l’époque des mass médias, est des plus contestables, mais s’est imposé.

Ce qui ressort de ce premier tri sémantique appelle les commentaires suivants :

a) l’information (data + news) n’est pas du tout synonyme de savoir ou de connaissance, que seule une personne peut intégrer. L’information ne nous dit pas ce qui est conforme ou non aux grands buts que les religions assignent à l’humanité : la paix, la liberté, l’amour. Informer au sens d’aujourd’hui (des médias) n’est pas former l’esprit, mais peut-être même le déformer. Information n’est pas savoir ; savoir n’est pas encore sagesse ; de même que sagesse n’est pas encore Amour (cet « amour qui nous rendra la liberté », comme le dit une chanson populaire et sublime) ;

b) quand quelqu’un dit : « Je sais maintenant ce que c’est que la peur ! » ou « Je sais maintenant ce que c’est que l’amour » il ne parle pas d’une information qu’il viendrait de recevoir, mais d’une expérience qu’il vient de vivre ;

c) Littré définit Savoir comme « connaissance acquise par l’étude, par l’expérience ». Il est remarquable que connaissance soit au singulier, c’est-à-dire représente une globalisation des connaissances ponctuelles des informations stockées dans les ordinateurs ou dans les cerveaux ;

d) je ferais volontiers entrer dans cette définition des mots tels que jugement, des expressions telles que : avoir du jugement, juger avec finesse, dont il est évident que l’ordinateur ne saurait que faire ;

e) mais si l’information (data + news) augmente nos pouvoirs physiques, il devient impératif et vital d’augmenter simultanément et à proportion notre sagesse morale et spirituelle, qui est le sens des fins dernières auxquelles doivent s’ordonner nos moyens. Principe de base : il est mortellement dangereux d’augmenter les pouvoirs matériels de l’homme, qu’il va mettre bien sûr au service de ses passions de puissance sur autrui et de destruction, si l’on n’augmente pas en même temps les pouvoirs de l’esprit au service des fins dernières de la personne, donc de sa liberté d’obéir à sa vocation particulière :

f) il faut se garder de céder à la tentation journalistique ou carrément publicitaire d’appliquer à l’ordinateur, par métaphore, des facultés spécifiquement humaines comme mémoire, pensée, intelligence. Je me bornerai ici au mot mémoire.

La prétendue mémoire d’un ordinateur se distingue radicalement de celle de l’homme en ceci qu’elle n’est pas l’histoire d’un individu enregistrée dans son cerveau, et encore moins celle de toute l’espèce, enregistrée dans ses gènes, mais un simple stockage d’informations ponctuelles et d’archives classées. S’il est un processus de la mémoire personnelle qu’un ordinateur ne pourra jamais reproduire, c’est bien celui décrit par Proust à propos de la petite madeleine trempée dans du thé74, dont la saveur lui restitue dans une lente montée d’émotion presque angoissée toute la magie sensuelle, sensible et sentimentale, de son enfance dans le bourg de Combray. Proclamer que la « mémoire » d’un ordinateur a « une capacité dix fois supérieure à la mémoire d’un homme » ne veut absolument rien dire, pour peu que l’on pense à Proust ou à sa propre enfance.

6. Quelques critères d’usage de toute innovation technique

Lorsque Henry Ford inaugura, en 1899, la première fabrique d’automobiles, personne n’eut l’idée de prévoir ce que serait l’avenir dans l’hypothèse — alors très peu probable — d’un succès total de cette machine. Personne n’imagina nos villes éclatées, embouteillées, irrespirables, nos campagnes bétonnées, les chars et l’aviation, les compagnies pétrolières et l’industrie automobile occupant régulièrement les premières places du palmarès mondial de Fortune, et le sort de toute l’industrie occidentale suspendu aux décisions de quelques émirs du golfe Persique. La première question à poser devant une invention technique est donc : en cas de succès total, quels pourront être ses effets ?

Le recours à des critères moraux respectés dans tout l’Occident eût induit à rejeter le travail à la chaîne, qui réduit la personne à l’état d’instrument, contrairement au précepte fondamental de Kant, et qui justifie la phrase de Marx sur l’ouvrier que le travail industriel réduit à n’être plus que « le complément vivant d’un mécanisme mort ». D’où un deuxième critère : écarter délibérément toute innovation dont l’une des conditions de succès s’annoncerait comme incompatible avec la liberté de la personne. Or, l’idée de créer de très grandes unités de production est née du seul souci de rationaliser pour augmenter le profit aux dépens de la main-d’œuvre.

Notre troisième critère sera le complément du second, comme la responsabilité l’est de la liberté : refuser toute innovation qui entraînerait nécessairement ou favoriserait par sa nature des entreprises de taille monstrueuse et des concentrations toujours croissantes de pouvoir, aux dépens de l’autonomie des communautés locales et régionales et de la participation des citoyens à leur gestion.

Le quatrième critère nous est devenu familier depuis quelques années seulement. Il nous commande d’éviter tout ce qui peut polluer notre milieu social ou naturel, et de même tout ce qui menace d’épuiser à court terme les ressources naturelles non renouvelables, en vertu d’une croissance exponentielle des besoins, artificiellement provoquée.

Plusieurs auteurs75 ont remarqué qu’il serait sage que l’industrie parte non pas des possibilités de la technologie, mais des besoins existants (contrairement à la phrase citée plus haut de Nora et Minc sur l’histoire de l’informatique qui « s’identifie à un enchaînement d’innovations techniques »). Ceci est notre cinquième critère.

Quand une technique nouvelle s’avère capable de changer ou de supprimer un rythme, une durée, une structure temporelle de la vie et de la création humaines, il ne s’agit pas nécessairement d’un progrès, mais peut-être d’une agression contre l’espèce ou contre ses élites créatrices. Ainsi, sixième critère, on doit s’abstenir d’appliquer cette technique tant que le doute n’est pas levé par une expérimentation très poussée.

Enfin, septième critère, il faut éviter tout ce qui risque d’entraîner une vulnérabilité excessive de l’industrie par une dépendance trop étroite soit de puissances politiques nationales, soit de ressources naturelles épuisables que l’on ne contrôle pas (pétrole et uranium dès aujourd’hui, mais demain eaux, forêts, aliments).

7. Avantages de l’informatique

Ils crèvent les yeux. Qui pourrait nier l’utilité de l’informatique dans les domaines sans cesse plus nombreux que peuvent traiter les ordinateurs : temps de calcul réduit de 12 mois à une semaine pour la construction d’un barrage ; services hospitaliers ; statistiques et recensements opérés presque sans papier, d’où le sauvetage de grandes forêts ; calcul des impôts ; lancement des fusées spatiales… Pour ne rien dire (bien que ce soit peut-être décisif) des « avantages » que les ordinateurs ont présentés dès leur apparition pour toutes les défenses nationales du monde. Je n’allonge pas. La cause est entendue et d’autres sont mieux placés que moi pour l’illustrer et la défendre.

Je serai un peu plus long sur les dangers, ou plutôt sur les risques probables que j’imagine et sur lesquels il me paraît encore possible d’alerter l’attention des responsables.

8. Les dangers ou plutôt les risques

La vitesse. L’argument le plus souvent invoqué en faveur de l’informatique est celui qui me paraît le plus inquiétant dès que l’on sort du numéral et du quantitatif pur : c’est l’argument de la rapidité fabuleuse des opérations de logique ou de calcul dont les ordinateurs sont capables. Dans tous les domaines que je viens de citer, où l’informatique est sans conteste avantageuse, la durée d’une opération est tenue pour une perte, soit de temps, soit d’argent, soit d’efficacité, à juste titre dans la plupart des cas.

Mais dans tous les autres domaines : biologique, affectif, artistique, pédagogique, éthique, spirituel, la durée joue un rôle positif, réel, existentiel, souvent constitutif du phénomène considéré, comme c’est évidemment le cas pour la musique.

On nous apprend que l’homme peut absorber normalement 80 000 informations par jour, alors qu’on l’en gave déjà de 200 00076. Cet « information overload » est négatif, inutile et devient même toxique. C’est un embouteillage de communication.

On nous dit que l’ordinateur, interrogé sur un problème psychologique, « pense » beaucoup plus vite que le cerveau humain. Mais cela n’est pas utile pour la personne qui interroge, car il lui faudra le même temps pour comprendre réellement la réponse, qu’elle n’en eût mis à trouver cette réponse, c’est-à-dire à vivre le processus de changement qui permet de la réaliser (au sens anglais). (Je suppose que la réponse est connue, comme dans la plupart des problèmes psychologiques ou éthiques, la difficulté n’étant pas de la connaître, mais de la vivre, jusqu’à la solution réelle.)

La solution quasi instantanée — calculée en « nanos » ou milliardièmes de seconde — d’un problème, n’est utile que dans les domaines où la durée n’est pas vécue, ne fait pas partie de la nature du problème et du processus même de sa solution. Mais dans tous les domaines où la personne humaine est impliquée, par sa biologie, sa psychologie ou son affectivité, la vitesse indéfiniment multipliée devient un facteur destructif de tout ce qui requiert un travail d’assimilation, de digestion, d’intégration ou d’appropriation. Il serait stupide de se nourrir le corps et l’esprit plus vite et plus souvent qu’ils ne peuvent digérer et assimiler. « Cuire le dîner de famille en une minute dans un four à ondes courtes »77 peut dépanner une ménagère, mais mitonner ou laisser mijoter est la condition de réussite des meilleurs plats. Réduire une méditation au temps d’un clin d’œil n’a aucun sens, et faire l’amour en deux nanosecondes paraît absolument dépourvu d’intérêt.

Dans la société entièrement informatisée qu’on nous prépare, c’est la saveur même de la vie que l’homme n’aura plus le temps de goûter et qu’on ne pourra lui rendre, même au prix de milliards de bits à la seconde. « Jusqu’au jour où l’humanité, sur les traces d’un grand spirituel, découvrira ce luxe inouï : la lenteur au sein du silence. »78

La réduction au rationnel technique, entrée dans la vie quotidienne des Occidentaux aux débuts de ce siècle par l’électricité, l’auto, l’avion, le téléphone et la télévision, nous prépare certes à penser ou à imaginer selon des schémas déduits de la seule réalité physique et de ses mécanismes, mais elle ne me paraît pas encore avoir modifié substantiellement nos modes de penser, de sentir, ni de croire. L’informatique peut aller beaucoup plus loin d’ici à l’an 2000. En permettant de calculer et combiner en lieu et place de nos cerveaux tout ce qui peut être exprimé en termes logiques et chiffrables, elle nous fait entrer dans un monde où les ordinateurs, ayant « traité » nos problèmes, nous restitueront une réalité toujours mieux réduite au rationnel, purifiée de tout mystère, de plus en plus dépersonnalisée et comme prédigérée pour établir plus facilement les connexions entre ordinateurs et cerveaux humains, ces derniers se trouvant progressivement intégrés au réseau des premiers. Ceci facilitera, sans aucun doute, les communications — mais de quoi ? De ce qui est rigoureusement pareil pour tous et en tous, et non pas de ce qui révélerait l’unicité d’une personne, de ce qui serait donc le plus intéressant à connaître.

En bref, la technique tend par sa nature même à favoriser et propager une forme de communication de ce qui est déjà commun à tous les hommes, de tout ce qui peut donc s’exprimer dans ses « langages » d’informatique, mais de rien de ce qui serait nouveauté radicale, créée, unique, à révéler… Elle tend donc à favoriser et propager une forme de pensée aseptisée, rationalisée, mise à l’abri des « troubles mentaux » et des « utopies délirantes » (c’est-à-dire du non-conformisme politique ou social dans certains régimes), mais aussi du lyrisme et de la poésie en général, le tout dans un langage que l’on aura rendu systématiquement incapable de communiquer l’inexprimable.

Dans ce sens, une certaine « robotisation » des esprits est à redouter ; on peut craindre un conformisme rationalo-matérialiste et la perte de tout esprit de résistance aux états-majors des puissances stato-nationales ou industrielles, commerciales ou bancaires qui auraient su monopoliser l’informatique et la télématique.

9. L’École sans maître : « Plato » ou le gourou ?

L’exemple de l’école à venir va me permettre d’illustrer en quelques mots l’essentiel de ce que je viens d’avancer.

On nous propose aujourd’hui, avec une insistance croissante, l’école sans maîtres. C’est une idée qui a germé dans le cerveau du PDG de Control Data, qui l’a baptisée Plato. Il s’agirait d’un apprentissage de données et de structures sur tous les sujets, au moyen d’ordinateurs remplaçant les manuels et le maître. Cela pourrait se passer au domicile de l’élève, s’il bénéficiait d’un terminal. Et dans ce cas, l’école sans maîtres ne serait même plus une école, et rappellerait le fameux couteau de Lichtenberg ; couteau sans lame dont on avait perdu le manche79.

Relevons tout de suite une erreur dans la définition du projet Plato : ce n’est pas une école sans maîtres, puisque ce sont en fait des maîtres qui ont programmé les ordinateurs. Simplement, ils ne sont pas là, c’est-à-dire qu’ils trahissent leur fonction principale.

Tout professeur — et je l’ai été dans différents pays et universités, pendant vingt ans — découvre un jour à sa plus grande surprise que ce qui reste de son enseignement, c’est ce qui n’était pas au « programme » ; c’est ce qu’il a communiqué à son insu à ses meilleurs étudiants. Jaurès l’a très bien dit (je viens de le lire après l’avoir vécu) : « On n’enseigne pas ce que l’on sait, mais ce que l’on est. » L’ordinateur sait beaucoup de choses, il peut même tout savoir, mais il n’est pas. Il est incapable de former les esprits, n’ayant pas de finalités à leur proposer. Par contre, il est très capable de les réduire au conformisme officiel. Voici ce que publiait Le Figaro en décembre 1980, à propos de l’école sans maîtres : « Les élèves s’adaptent de façon presque inconsciente à l’ordinateur… Ils acquièrent automatiquement l’esprit ordinateur. » « Déjà, ajoute-t-on, les résultats sont spectaculaires… Les élèves de troisième réalisent des programmes de recherche et d’enseignement dont la valeur et l’originalité ont permis leur utilisation (sic) à des fins pratiques. »

Les partisans de l’école sans maîtres nous assurent qu’elle pourra multiplier par 60 les possibilités du cerveau. Mais si l’on donne des facilités aux jeunes de moins de 18 ans (les synapses se développent jusqu’à cet âge) on les rend paresseux du cerveau, qui peut s’atrophier comme les jambes de ceux qui ne font plus 500 mètres à pied, mais prennent leur voiture ou leur moto.

Les élèves des ordinateurs seront devant l’appareil en état de passivité croissante, et disposeront de moins en moins des possibilités de doute, de questions au maître, de critique et des discussions avec les copains, qui constituaient, hier encore, l’essentiel de la formation par l’école.

Enfin, la prétention de Plato à remplacer la mémoire des élèves par des gadgets est en contradiction flagrante avec toutes les observations des psychologues, qui tendent à démontrer que la mémoire est une faculté qui se cultive, se développe et s’atrophie à la manière d’un muscle. « La mémoire se cultive par l’usage », nous rappelle opportunément le Petit Larousse. Ivan Illich, à l’Université de Kassel, oblige ses étudiants à apprendre par cœur des tranches d’écrits historiques. C’est lui qui est à la pointe du vrai progrès, non pas l’ordinateur avec sa prétendue mémoire indépendante des personnes — et du passé !

Au projet Plato, j’opposerai la formule de l’ashram hindouiste, où tout dépend de l’enseignement du gourou, imprévisible, personnel, directeur de méditation et médiateur de la transcendance. Je donnerai pour titre au problème de l’éducation de demain : Plato ou le Gourou ?

Et je conclus sur ce point de l’école par une déclaration de Georges Elgozy : « Il est certes utile d’apprendre à se servir d’un ordinateur ; il l’est davantage d’apprendre à ne plus s’en servir. »

10. Vulnérabilité

Ceci m’amène à ma dernière remarque — ces remarques dont je dois avouer qu’elles ne sont guère qu’introductives à des débats futurs et qui se bornent à poser, mais avec une urgence accrue, la question suivante : qu’en sera-t-il de la vulnérabilité d’une société informatisée ?

Nous sommes au seuil d’une civilisation rendue fragile par quantité de facteurs virtuellement anéantissant : explosions nucléaires, pollutions irréversibles des lacs, rivières et océans, et destruction des forêts de la planète (déjà à 40 %) pouvant entraîner une diminution catastrophique de la production d’oxygène dans l’atmosphère.

Les hommes adaptés depuis une ou deux décennies aux réseaux d’informations qui leur dictent leur conduite, sauront-ils encore se débrouiller s’il y a défaillances des réseaux ? De même qu’ils ne savent plus calculer sans calculette, ils ne se rappelleront rien sans les ordinateurs. Ils seront démunis devant tout imprévu.

Grâce à l’informatisation, la société court le risque d’être de plus en plus centralisée par les monopoles d’État ou de grandes sociétés. Je citerai là-dessus Joël de Rosnay : « Il est un fait que la complexité de plus en plus grande de la société, l’utilisation de la télématique, des télécommunications et de l’informatique, rendent le système de plus en plus vulnérable et facile à perturber. »80

Même prévision dans la Revue polytechnique 81 de Lausanne :

— en cas de panne, les solutions manuelles de secours sont impraticables ;

— la disponibilité et la validité de l’informatique sont incertaines ;

— on est à la merci de catastrophes potentielles : incendie, inondation, sabotage, indisponibilité des transmissions ;

— la complexité croissante des systèmes augmente la dépendance à l’égard des rares spécialistes.

De même que les calculettes permettent déjà à des millions de gens de faire des calculs sans faire eux-mêmes les opérations, sans les avoir assimilées, l’informatique remplacera de plus en plus l’apprentissage et l’exercice du savoir, en sorte que si une défaillance centrale ou générale réduisait au silence les réseaux d’information, l’homme se trouverait incapable de refaire l’industrie et serait désarmé devant la Nature.

Ce qu’on nomme déjà la criminalité électronique constitue un danger plus immédiat. Aux USA, quatre élèves âgés de 13 ans ont réussi à détruire 10 millions de bits, un cinquième de ce que l’ordinateur devait enregistrer. D’autres jeunes gens mettent des ordinateurs hors d’usage en déversant sur eux du miel, ou en leur tirant dessus à la mitrailleuse. Ce dernier exemple illustre opportunément le point que je voulais relever en conclusion.

La technique en soi est neutre, outillage au service de l’homme, de tout l’homme, du bon et du mauvais en lui. Mais en fait le mauvais a des chances de profiter un peu plus que le bon de cette neutralité. Car la technique a pour fonction de faciliter nos efforts et d’en multiplier les effets. Or le mal est en général plus facile à faire que le bien. Passé un certain seuil quantitatif, certains effets du mal peuvent devenir irréversibles, donc mortels (ce qui ne serait pas le cas de l’irréversibilité du bien, si elle existait). Faudra-t-il donc détruire ou freiner la technique, l’informatique dans notre cas ? Il est trop tard. On ne peut rien désinventer.

Si nous nous reportons à nos critères, nous constatons que l’informatique satisfait très bien aux numéros 1 et 4 (elle n’est pas polluante, elle ne contribue pas au gaspillage des ressources terrestres et de l’énergie) ; elle peut satisfaire assez bien, moyennant une vigilance déjà bien alertée, aux critères 2 et 3, c’est-à-dire : éviter ce qui est incompatible avec la liberté (juridique) des personnes et éviter ce qui conduit au gigantisme (quoique là encore, les illusions de vitesse folle et de chiffres fabuleux puissent être un équivalent des dangers du gigantisme). Mais nous constatons qu’en revanche, l’informatique fait mauvaise figure face aux critères 5, 6 et 7, parce qu’elle n’est pas partie de besoins existants mais de possibilités techniques et commerciales, parce qu’elle peut favoriser de véritables agressions psychologiques et culturelles contre la personne, et surtout parce qu’elle rend notre société terriblement vulnérable.

Si nous pouvons encore agir sur l’évolution de l’informatique (laquelle, livrée à son mouvement d’accélération paraît déjà hors de toute prise humaine), c’est sur ces derniers points que nous avons à le faire. Il faut refuser et réfuter activement l’approche impérialiste de l’informatisation générale de la société, et assigner à l’informatique les limites que lui posent en vérité sa définition scientifique et son utilité. Nous pouvons le faire encore, et nous le devons. C’est bien peu de choses, me dira-t-on : un effort non mesurable, une décision tout invisible de l’esprit. Mais il est bien probable que de ce peu, de ce très peu, dépende le sort de notre civilisation occidentale.