bibliothèque

Le moment cybernétique. La constitution de la notion d’information

“Le moment cybernétique. La constitution de la notion d’information”, Mathieu Triclot, 2008, Champ Vallon, 420p., 29€.

Normalien, agrégé de philosophie, Mathieu Triclot est maître de conférence en philosophie des sciences à l’Université de technologies de Belfort-Montbéliard. Ses recherches portent sur les rapports entre les technologies de l’information et la philosophie (présentation de l’éditeur).

“Le moment cybernétique” est un livre difficile mais il propose un voyage intellectuel fascinant au moment précis de l’histoire des sciences et des techniques où s’est forgée cette notion mathématique d’“information”, qui allait permettre la naissance des premiers ordinateurs.

Ce n’est pas un livre d’histoire de l’informatique, mais une étude d’“épistémologie historique” des concepts scientifiques, qui prend pour objet la tentative de création, dans les années 1940 et 1950, d’une nouvelle science : “la cybernétique”. Cette tentative sera un échec, quand bien même les concepts forgés par la cybernétique irriguent aujourd’hui en profondeur les sciences et la pensée contemporaines. Ils ont influencé en profondeur la formation des neuro-sciences et des sciences cognitives d’une part, le développement formidable de l’informatique et le projet singulier de l’Intelligence Artificielle de l’autre.

L’auteur repère l’émergence de cette notion d’information dans la sphère des ingénieurs en télécommunications, qui cherchaient à résoudre des problèmes de qualité des transmissions sur longue distance par télégraphe et téléphone, et dans celle des ingénieurs en automatismes, qui travaillaient, durant la Seconde guerre mondiale pour le compte de l’armée américaine, à l’amélioration des systèmes d’armes anti-aériens.

Les solutions mathématiques imaginées dans ce cadre se révéleront particulièrement fécondes et seront rapidement appliquées, en lien avec le projet Manhattan de fabrication des premières bombes nucléaires américaines, à la conception puis à la fabrication de calculateurs automatiques d’un type nouveau, qui ne se bornaient plus à calculer mais procédaient à un réel “traitement de l’information”. Il s’agissait des premiers ordinateurs.

Au-delà de “la théorie mathématique de l’information” de Claude Shannon, formulée en 1948, l’auteur s’intéresse en profondeur à l’oeuvre de deux autres mathématiciens, Norbert Wiener et John Von Neumann, dont le projet intellectuel fut bien de créer avec la cybernétique une nouvelle science du traitement de l’information, à la croisée des mathématiques et des sciences de la physique et de la physiologique, avec l’objectif, à terme, de rejoindre les sciences sociales. La démarche entendait mener de front, dès l’origine, l’étude parallèle de l’ordinateur et du cerveau humain. L’ambition était de parvenir à formuler une théorie générale de l’information valable tout à la fois pour le monde du vivant et pour celui de la machine, tous les deux appréhendés au moyen d’outils mathématiques comme des formes différentes d’automates.

Revenant avec précision au détail même des textes de ces auteurs jalonnant l’ensemble de cette entreprise, l’auteur entreprend une forme de réhabilitation du projet cybernétique, dans ses dimensions scientifiques mais également philosophiques et politiques, corrigeant certains malentendus, voire des caricatures, dont ce projet fera l’objet par la suite et jusqu’à aujourd’hui.

L’image de la cybernétique comme “paradigme d’une technoscience conquérante et déshumanisée” volontiers associée au “cyborg”, bien que très répandue, est pourtant “fausse” selon l’auteur. Celui-ci tente de restituer la dimension humaniste et sociale d’une cybernétique qui s’est voulue, notamment dans l’oeuvre de Norbert Wiener, comme une science authentiquement “de gauche”, réfléchissant en profondeur sur le rôle et la responsabilité politique des scientifiques dans la société et conduisant à un engagement pacifiste et internationaliste assumé, en plein déploiement de la Guerre froide et au début de la course aux armements atomiques.

La définition de la nature même de l’information, telle qu’elle apparaît chez les cybernéticiens, comme “signal”, c’est à dire une donnée réelle de la physique et de la physiologie, au même titre que l’énergie et la matière, et non comme “code”, c’est à dire une représentation purement symbolique dans le langage mathématique, constitue même pour Mathieu Triclot l’originalité profonde de la cybernétique dans son approche. Si cette approche “physicaliste”, “matérialiste”, a été par la suite repoussée, au profit de la définition “symbolique” et “idéaliste” qui triomphera dans la vision contemporaine de l’informatique, marquée par sa distinction fondamentale entre “matériel” et “logiciel”, “hardware” et “software”, peut-être mériterait-elle d’être revisitée de nos jours avec profit…

Plan de bataille

Présentation du plan de l’ouvrage par l’auteur :

(Je ne développerai pour ma part dans cette note que le contenu des parties une et deux, relatives à la naissance de la théorie mathématique de l’information et à l’invention des ordinateurs, avec quelques aperçus sur la quatrième partie, relative à une approche en termes sociologiques et politiques de la pensée cybernétique, en veillant à vous épargner les références aux mathématiques et aux débats philosophiques extrêmement pointus concernant l’épistémologie des sciences. 😉 )

Notre étude se divise en quatre parties. Les deux premières portent sur les conditions techniques d’émergence du vocabulaire de l’information, la troisième expose l’engagement philosophique de la discipline, la quatrième son engagement politique.

La première partie présente la façon dont la notion d’information a pu apparaître au sein de la théorie des télécommunications, dans les années de l’entre-deux guerres, en rapport avec les transformations matérielles du système américain, avant d’être réaménagée dans le cadre d’une théorie statistique par Shannon et Wiener. Les travaux de guerre de Wiener opèrent la synthèse entre les techniques de la communication et de la commande. On peut montrer que les théories de Shanon et Wiener, au niveau même du milieu technique, engagent déjà une représentation clivée de l’information, comme code et comme signal.

La deuxième partie expose les conditions techniques de l’émergence du vocabulaire de l’information en informatique. Comment passe-t-on de l’ordinateur comme un calculateur à des machines qui traitent de l’information ? Les représentations associées aux techniques informatiques présentent un clivage similaire à celui détecté en théorie des télécoms et du contrôle. L’étude des travaux d’Alan Turing, McCulloch, Pitts et Von Neuman sur la signification des calculateurs, sur les rapports entre ordinateur, esprit et cerveau, permet d’établir ce point.

La troisième partie analyse l’engagement philosophique de la discipline, fondée sur les lignes de clivage apparues au niveau technique. L’interprétation physicaliste de l’information défendue par les cybernéticiens repose, en particulier, sur la définition de l’information comme quantité opposée à l’entropie. Cette analogie est interprétée dans le cadre de la situation de pensée du démon de Maxwell. Elle connaît un grand succès, des années 1950 jusqu’aux années 1970, où elle est battue en brèche par les travaux en informatique théorique. L’étude montre cependant qu’il existe plusieurs versions irréconciliables de l’analogie information-entropie et que toutes ne sont pas touchées au même titre par la critique. Enfin, l’étude de la théorie des automates de Von Neuman, une des plus belles réalisations de la cybernétique, illustre la fécondité de l’approche physicaliste défendue par les cybernéticiens.

La quatrième partie présente une étude historique des conceptions politiques de Wiener, sur les trois grands domaines de son engagement, la lutte contre la course aux armements, la critique de la nouvelle politique de la science et la question de l’impact des machines automatiques. Elle montre en particulier que Wiener a conçu de manière extrêmement originale la façon dont les ressources scientifiques pouvaient être mobilisées dans l’engagement politique. Contrairement à la lecture ordinaire, on peut montrer que Wiener adopte une position non scientiste, qui s’oppose terme à terme aux nouvelles formes d’engagement technocratique des scientifiques offertes par l’appareil de la guerre froide.

Mathématiques de l’information

La “généalogie” du concept scientifique d’“information” remonte au déploiement du réseau téléphonique aux Etats-Unis au cours du XIXe et du début du XXe siècles. Face à une notion qui nous est devenue si familière aujourd’hui, il faut tenter de se replacer dans une situation antérieure, celle où cette notion n’existait pas, pour tenter de comprendre ce qu’elle désigne et pourquoi elle a été forgée.

Mathieu Triclot le souligne plus loin dans son livre (partie 2, chap. 1), mais autant aborder cette question dès maintenant : s’il nous paraît trivial de considérer aujourd’hui qu’un téléphone transporte de l’information comme les ordinateurs manipulent de l’information, comme l’humain lui-même traite de l’information et que les sociétés humaines en échangent elles-aussi, avant qu’on ne parle d’information au sujet du téléphone et des premiers ordinateurs, rien ni personne ne traitait de l’information, du moins dans ce sens :

Il faut des machines pour que certaines activités humaines, et même l’essentiel des activités humaines si l’on en croit la cybernétique, soient considérées comme des activités de traitement de l’information.

En bref, il n’y avait pas antérieurement un traitement naturel de l’information dans les activités humaines, qui aurait été transféré aux machines, mais le remplacement de certaines capacités humaines par des capacités mécaniques a autorisé à rebours l’analyse des capacités humaines en termes mécaniques, en termes de traitement de l’information. (…) (Il y a une illusion rétrospective) qui consiste à croire qu’il y avait de l’information avant qu’il y ait des machines à information. En réalité, il faut passer par les machines pour que l’on dise des humains qu’ils traitent de l’information.

Revenons donc à notre réseau téléphonique américain naissant, qui ne transportait pas… de l’information, mais tout simplement… la voix humaine, sous la forme… d’ondes électriques parcourant des câblages. La technique utilisée initialement présente une limite, atteinte dès le début du XXe siècle : les propriétés du support (le câblage) rendent inévitable une atténuation du signal électrique transportant la voix en fonction de l’augmentation de la distance. Au delà d’une certaine distance, on n’entendait plus rien.

Les ingénieurs en télécommunications tenteront de multiples approches pour tenter de résoudre ce problème radical qui empêchait l’extension du réseau télégraphique et téléphonique. Je passe les « détails » de cette grande aventure technique et industrielle pour en venir au premier « saut épistémologique », une « innovation conceptuelle radicale » des ingénieurs Nyquist et Hartley entre 1924 et 1928, qui les premiers proposeront de distinguer le message lui-même circulant sur un réseau électrique « qui peut être étudié sur un registre théorique spécifique, indifféremment de ses propriétés électriques », ce qui « autorise un ensemble de techniques inédites pour améliorer la transmission à longue distance des signaux ».

Les ingénieurs introduisent ainsi la notion de « quantité d’information » que l’on parvient à transmettre selon diverses méthodes de traitement du signal électrique. Jusque dans les années 50, on continuera d’ailleurs a appeler parfois l’« unité d’information », représentant la quantité la plus petite, un « Hartley », avant que ne s’impose la notion que nous connaissons aujourd’hui : le « bit ».

Au lieu de continuer à chercher à augmenter la puissance du signal électrique lui-même (ce qui présentait rapidement des limites techniques également), on en viendra ainsi à chercher, dans une autre direction, à mettre en forme le signal lui-même, selon diverses méthodes de « codage ». En codant le signal lui-même, on parvient à faire passer « plus d’information » à puissance égale :

Ainsi prend forme, dans le champs des télécommunications, l’objet information : il y a une dimension de l’activité des télécommunications qui n’est pas réductible au simple aspect énergétique de la transmission.

Le pas décisif dans cette voie ne sera effectué qu’en 1948, avec la publication de la “Théorie mathématique de la communication” de Claude Shannon, qui fera “l’effet d’une bombe” :

“Comment une source d’information peut-elle être décrite mathématiquement et combien d’information en bits par seconde est produite par une source donnée ? L’enjeu principal est que la connaissance statistique de la source permet de réduire la capacité du canal au moyen d’un codage approprié de l’information” expose Shannon.

Tout le principe repose sur le fait que des opérations de codage d’un message peuvent considérablement réduire sa taille en “quantité d’information”, c’est à dire en “bit”, sans toutefois altérer nullement sa signification. Ces opérations de codage, puis décodage, se déroulent même en faisant totalement “abstraction” de la signification du message.

Cette problématique suppose que l’information et le message ne soient définitivement plus considérés comme des phénomènes physiques, mais comme des ensembles structurés de symboles. (…) Certes, le message ou l’information existent nécessairement sur un support physique, mais ils ne sont tout simplement plus considérés sous cet aspect. On s’intéresse aux propriétés formelles des messages, dont l’information décrit la structure statistique. Le modèle de Shannon offre une première manière de spécifier ce que c’est que l’information.

Une première révolution se situe dans cette approche purement formelle de la structure du message, indépendamment de son support comme de sa signification. La seconde est que cette approche est de nature fondamentalement statistique. La puissance de cette approche est telle qu’elle débordera totalement le seul secteur des télécommunications pour s’étendre à un nombre considérable de domaines des sciences et des techniques, et notamment… à l’informatique.

Cette approche statistique de la structure formelle des messages découle directement des travaux effectués durant la seconde guerre mondiale en cryptographie. On dit d’ailleurs aussi… chiffrement, ou encore… codage.
Les techniques de codage basées sur les statistiques se révèlent en effet très “économiques” en “quantité d’information”. Un message textuel, par exemple, de 1000 signes, n’est formé que d’un certain nombre d’occurrences des 26 lettres de l’alphabet, plus l’espace. Un codage basé sur les stattistiques d’occurrences des mots se révèle même encore plus “économique”, dans la mesure où plus le message est long, plus les opérations statistiques sur les récurrences d’apparition d’une même séquence sont “productives” [les spécialistes me pardonneront ces raccourcis destinés à vulgariser une matière aussi complexe que la cryptographie… 😉 Je fais également l’impasse dans cette présentation sur la notion de “bruit”, qui est pourtant fondamentale dans la théorie… ].

Parallèlement aux travaux de Shannon et des ingénieurs en télécommunications, une avancée décisive se produit également durant la guerre chez les ingénieurs en automatisme, dans le domaine du contrôle – ou de l’auto-régulation – des automates et du rôle qu’y joue la notion centrale de “feedback”. La naissance des ordinateurs se situe à la rencontre de ces deux avancées.

On peut dire que dès septembre 1940, le mathématicien Norbert Wiener avait d’ailleurs couché sur le papier l’ensemble du programme visant à construire un ordinateur, comme “un calculateur digital, électronique, à grande vitesse, fondé sur l’usage des tubes à vide”. Sauf que le projet ne sera pas retenu à l’époque.

C’est à un autre travail que se consacrera Wiener durant la guerre, pour le compte des militaires, avec la mise au point d’un système de conduite de tir pour les canons de défense anti-aériens, couplant un dispositif d’observation de la position des avions à un calculateur, pour ajuster par approximations successives la précision des tirs effectués. Le projet d’appareil est appelé AA Predictor mais ne verra finalement jamais le jour.

Ces travaux durant la guerre amèneront Wiener à développer des outils mathématiques permettant d’améliorer les capacités de prédiction d’un état futur en fonction de l’étude statistique des états passés. Il étudiera ainsi en profondeur le rôle du “feedback” dans le contrôle des mécanismes :
(noir)Dès lors que la donnée de sortie d’un mécanisme est retournée (fed back) en entrée, le mécanisme accède à une possibilité d’adapter son comportement en fonction d’un but, en essayant de minimiser l’écart entre ce but et l’état actuel de la sortie.

Ce “feedback” consiste donc bien à apporter de l’information au mécanisme, ce qui l’amène à modifier son comportement. Pour Wiener, “les problèmes de l’ingénierie du contrôle et de la communication (sont) inséparables, et (ils ne se centrent) pas sur les techniques de l’ingénierie électrique, mais sur la notion bien plus fondamentale de message, que celui-ci soit transmis par des moyens électriques, mécaniques ou nerveux”.

La percée permise par l’introduction de ces procédures de “feedback”, qui “nourrissent” le mécanisme en “information” durant son propre fonctionnement, en vue d’améliorer celui-ci progressivement, est l’introduction de la notion de “but” dans le fonctionnement du mécanisme lui-même. La conséquence qu’en tirera la cybernétique est quasiment… métaphysique :

La conséquence naturelle est que la distinction entre les êtres vivants et les machines disparaît. Si les vivants ne se distinguaient des machines que par le fait qu’ils avaient seuls accès à des comportement finalisés, alors les nouvelles machines à feedback, dans la mesure où elles manifestent des comportement finalisés, abolissent la frontière entre machines et vivants.

Naissance des ordinateurs

Il est important de tenter de se replacer dans l’état d’esprit de ces chercheurs, ingénieurs et mathématiciens, quand ils ont imaginé et construit les premiers ordinateurs. Une dimension fondamentale de leur projet, à l’époque, était l’analogie, constamment présente à leur esprit, entre l’ordinateur et le cerveau humain :

Interpréter l’ordinateur comme un cerveau n’est pas une métaphore superflue, mais une des pièces du puzzle qui a permis de concevoir l’ordinateur comme un dispositif de traitement de l’information.

Mathieu Triclot insiste sur ce point :

Si nous étudions la façon dont les machines ou leurs performances ont pu être interprétées, nous constatons l’émergence d’un clivage analogue à celui décelé en théorie de l’information, entre le code et signal. Soit on considère que le traitement de l’information est l’équivalent au niveau des programmes et que la machine matérielle ne doit pas rentrer en ligne de compte, soit on considère que la logique du cerveau est profondément différente de celle de l’ordinateur et que les différences dans l’organisation matérielle influent sur les modalités du traitement de l’information. La cybernétique explore la seconde ligne de ce clivage, en rupture avec l’interprétation dominante des machines informatiques, sur laquelle peuvent s’appuyer les sciences cognitives.

La seconde position, celle de la cybernétique, est ainsi de nature matérialiste. Tandis que la première position revient à considérer que toute la “pensée” ou l'”intelligence” réside entièrement dans le “software” et que le projet de l’Intelligence Artificielle est totalement indépendant du “hardware”. Ce qui est la position dominante aujourd’hui dans l’informatique et qui est, philosophiquement, une position idéaliste.

C’est quasiment en parallèle avec la formalisation de la théorie de l’information, appréhendée de manière mathématique (et surtout statistique) indépendamment de son support matériel comme de sa signification, que des progrès décisifs sont réalisés dans le perfectionnement des calculateurs automatiques. Mathieu Triclot chercher à saisir ce moment précis où les conditions sont réunies pour permettre un nouveau saut épistémologique, “le moment où le monde clos des calculateurs bascule dans l’univers infini du traitement de l’information” : “Qu’est-ce qui permet de considérer un calculateur comme un dispositif de traitement de l’information ? Qu’est-ce qui autorise à appliquer l’idée de communication aux machines ?”

Le moment décisif n’interviendra finalement pas entre la réalisation de deux machines distinctes, mais entre la construction d’une première machine lancée en 1943, devenue célèbre, l’ENIAC, qui reste un calculateur, et le projet d’une seconde machine, lancé par John Von Neumann en 1945, mais qui ne verra réellement le jour que des années plus tard, l’EDVAC.

Le “design” de la machine est défini par Von Neumann dans un document fondateur, le “First Draft of a Report on the EDVAC”. Trois innovations techniques permettent de caractériser pour la première fois la machine comme une “machine à traitement de l’information”, même si Von Neumann n’utilise pas encore cette formulation :

Lorsqu’il est question d’information à propos de l’ordinateur, on désigne essentiellement deux innovations techniques et une innovation logique : le codage binaire, le programme enregistré en mémoire, et la machine universelle de Turing. L’adoption du codage binaire autorise une représentation de n’importe quel type de données, et non seulement des données numériques. Le programme enregistré permet de dégager un niveau symbolique qui apparait relativement indépendant des processus matériels. Le modèle de la machine universelle de Turing permet une extension de la notion de calcul, au-delà du domaine numérique.

Le choix d’une machine manipulant des données digitales codées en binaire, plutôt qu’analogiques permet que “l’information (soit) représentée sous forme symbolique, comme un code, qui permet désormais de représenter n’importe quelle quantité ou opération” : “des nombres, mais aussi des mots, des images, des sons, etc.”

Le choix du digital, plutôt que l’analogique, était déjà acquis depuis l’ENIAC, la nouveauté est dans le choix du codage binaire, qui simplifiera considérablement le fonctionnement de la machine, pour des raisons matérielles (les composants de la machine, les tubes à vide ou lampes, ancêtres des semi-conducteurs, “fonctionnent en quelque sorte nativement en binaire”), pour des raisons mathématiques (le binaire demande plus de calculs que le décimal, mais les calculs sont plus simples), mais aussi pour une raison “philosophique”, Von Neumann considérant que le cerveau humain semble, lui-aussi, fonctionner en binaire…

Ensuite, “l’adoption du principe du programme enregistré en mémoire, au même titre que les données, est l’innovation majeure du rapport de Von Neumann” :

Cette innovation technique présente une conséquence décisive du point de vue de la représentation de l’information : la machine physique s’efface devant la machine logique aux yeux de l’utilisateur final. (…) Le principe du programme enregistré fait ainsi émerger une partition qui n’avait pas de sens auparavant entre la machine physique et la machine logique. Auparavant la machine physique était la machine logique. Désormais, l’utilisateur peut opérer sur la machine logique exclusivement, sans avoir à se soucier de l’architecture matérielle.

Selon la formule d’Alan Turing, la programmation devient “un travail de papier”… Cette manière de considérer qu’un calculateur accomplissait essentiellement des fonctions logiques est ainsi formulée pour la première fois dans l’histoire par Von Neumann, et c’est pour les historiens des sciences “une percée majeure dans nos manières de penser” (H. Goldstine).

Troisième point enfin, “par machine universelle, il faut d’abord entendre une machine qui n’est pas restreinte à une classe de travaux computationnels particuliers, mais qui peut réaliser, comme le dit Turing, tout ce qu’un calculateur humain peut faire.” Cette expression de “machine universelle” est issue des mathématiques, elle représente la formulation en termes de logique, “sur le papier”, de tout problème, quel qu’il soit, qui admet une solution “décidable”.

Penser, c’est calculer

Dès ce moment, il apparaît d’ores et déjà clair aux chercheurs que “la notion d’information entre en relation avec des concepts voisins préexistants, qu’elle met en crise, qu’elle concurrence…” :

Comment va-t-on accorder la notion d’information avec les notions de signification, d’intelligence, avec ce que l’on sait des processus vivants, avec les données neurologiques dont on dispose, etc. ? Nous assistons à l’irruption d’un nouvel entrant dans le monde des concepts, qui remet en cause des relations préétablies, oblige à en concevoir de nouvelles ou, au moins, à repenser les relations existantes.

La question de l’“intelligence artificielle” associée aux machines informatiques est ainsi soulevée pour la première fois par Alan Turing, dès 1945. Il envisage ainsi déjà l’application de l’informatique à des questions qui dépassent le champ des mathématiques, comme… le jeu d’échecs. Il se demandera explicitement un peu plus tard, en 1950 : “les machines peuvent-elles penser ?” et inventera un test à faire passer aux machines “candidates” pour tenter d’y répondre, le fameux “test de Turing”. (Mathieu Triclot analyse en détail l’aspect philosophique du test de Turing, sur lequel je ne m’étends pas.)

A la suite des travaux MCCuloch et Pitts, Von Neumann s’interrogera en profondeur de son côté sur l’analogie entre l’ordinateur et le cerveau humain lui-même, ou comment l’ordinateur peut constituer une première approche du fonctionnement logique du cerveau, permettant de commencer à cerner ce que pourrait être la “réalité” de la pensée :

Nous sommes désormais en mesure de concevoir, de manière non triviale, une véritable “incarnation de l’esprit”. Le cerveau est une machine de Turing ; ajoutons à ce résultat que l’ordinateur et la pensée peuvent eux aussi être considérés comme des machines de Turing. On peut alors fonder, sur l’idée de calcul symbolique, une certaine identification entre pensée, calcul, machine logique, machine physique et machine biologique. Si penser c’est calculer, c’est à dire manipuler des symboles, au sens d’une machine de Turing, si le cerveau est capable d’un tel calcul, alors on peut concevoir pour la première fois de façon aussi nette que le cerveau possède les propriétés suffisantes pour incarner la pensée.

Le génie de ce “moment cybernétique” aura été de concevoir le premier ordinateur et d’ouvrir en même temps à travers lui l’immense perspective de la conceptualisation de la pensée comme calcul, permettant d’envisager une approche scientifique, formalisée par des modèles mathématiques, du fonctionnement du cerveau et de la pensée, et de la reproduction artificielle du phénomène dans la machine.

Les neuro-sciences et les sciences cognitives, comme le projet informatique de l’Intelligence Artificielle, sont bien des enfants de la cybernétique, même s’ils renient finalement cette filiation, car ils n’ont pu se développer qu’en rupture avec ce qui caractérisait l’approche cybernétique ou, du moins, de certains cybernéticiens.

Priorité des vivants sur la technique

Mathieu Triclot souligne en effet comment Von Neumann notamment tranchera pour une approche de l’analogie entre ordinateur et cerveau qui ne conduit pas vers la logique des sciences cognitives et de l’Intelligence Artificielle. La question de la reconnaissance des formes donne une illustration remarquable de ce point de rupture :

Si un ordinateur peut calculer n’importe quelle opération affreusement complexe beaucoup plus vite que le cerveau humain, et avec une fiabilité largement supérieure, ce cerveau dont la capacité de calcul est apparemment moindre est capable en un temps record de reconnaître par exemple un visage connu parmi une foule de visages, ce qui est une tâche particulièrement difficile pour un ordinateur. Il y a donc quelques fonctions, comme la reconnaissance visuelle, qui servent de paradigme pour l’idée que les opérations de l’ordinateur et du cerveau sont radicalement différentes.

Par rapport à la première approche, formulée par McCulloch, Von Neumann procède à un véritable renversement. La première approche, “descendante”, ouvre la voie à la “modélisation du cerveau”, en construisant un modèle de plus en plus approchant, par la spécification d’une certain nombre de règles a priori, au moyen des outils mathématiques et informatiques.

Von Neumann abandonne cette approche, qui ne lui semble pas être en mesure de rendre compte de l’activité effective du cerveau, au profit d’une “approche ascendante, qui part des réseaux complexes existants et qui cherche à en comprendre le mode de fonctionnement” :

Le problème n’est plus de démontrer le caractère logique des opérations neuronales, mais de parvenir à une description des opérations physiques effectives du traitement de l’information. (…) Ce n’est plus la machine qui modélise certaines fonctions psychiques, manifestant ainsi que celle-ci sont intégralement réductibles à l’ordre mécanique, mais le cerveau, ou l’organisme de manière générale, qui sert de modèle aux machines. Il y a une priorité des vivants sur la technique (…). Notre logique et les machines qui en découlent sont une version simplifiée à l’extrême de la logique du vivant.

Il découle de ce renversement l’adoption d’“un autre regard sur l’information” :

L’information, c’est la façon dont une matière est organisée, non plus le programme symbolique, mais le réseau des connexions neuronales. De ce fait, l’information n’est plus cette forme autonome qui surplombe une matière indifférente et des dispositifs d’implémentation équivalents, mais cette forme qui est l’expression singulière d’une organisation matérielle singulière. On passe d’une logique conventionnelle du symbole à une logique matérielle du signal. L’objet et sa description se confondent.

Von Neumann explorera cette approche jusqu’à sa mort, en 1957, à travers la formalisation de sa “théorie des automates”, (longuement développée par l’auteur et que je ne développe pas ici). Je signale seulement, que le programme de recherches cybernétique ne survivra finalement pas à ses inventeurs :

A l’évidence le matérialisme informationnel de la cybernétique n’a pas produit les bénéfices escomptés. Le programme s’est épuisé et n’a pas vraiment survécu à la génération des fondateurs. L’univers de l’information-matière, de l’information-automates s’est effacé devant le monde symbolique d’une information désincarnée.

Cybernétique et “société de l’information”

Sans détailler l’ensemble de la quatrième partie de l’ouvrage, consacrée à la “Politique de l’information”, retraçant les prises de position politique courageuses de Nobert Wiener dans l’Amérique de la Guerre froide, du McCarthysme et de la course aux armement atomiques, je relève quelques aspects intéressants des tentatives d’application de la cybernétique à une réflexion sur les sciences sociales et politiques.

On notera au passage que les cybernéticiens n’auront pas formé un groupe politique unifié : autant Norbert Wiener est un homme de gauche, internationaliste et pacifiste, autant John Von Neuman est un conservateur, extrêmement proche du lobby militaro-industriel américain.]

Pour Norbert Wiener, il est en effet “naturel” et “évident” de tirer des conséquences en matière sociale et politique de la cybernétique et de sa conception particulière de l’information :

L’information devient non seulement un objet central du discours politique, mais aussi le prisme par excellence à travers lequel les situations politiques doivent être analysées. Cette transformation du regard politique repose sur le postulat extrêmement fort selon lequel la société elle-même doit être étudiée comme un processus de traitement de l’information. (..) Il s’agit bien alors d’isoler le niveau formel des processus sociaux de traitement de l’information et de s’en servir comme un révélateur des véritables rapports de pouvoir. Autrement dit, et c’est le postulat de The Human Use of Human Beings, “la société ne peut être comprise qu’à travers une étude des messages et des moyens de commnication qui lui sont propres”.

Mais il faut souligner aussi immédiatement que cette application de la cybernétique aux faits sociaux et politiques n’entrera pas réellement dans le cadre d’une véritable démarche scientifique. Ce transfert est un procédé uniquement et purement “analogique”. La cybernétique n’a pas produit de théorie sociale scientifique de l’information.

Le transfert à l’ensemble de la société de certains concepts relevant de la cybernétique de l’informatique et des automates (le feedback, l’entropie, la régulation homéostatique des organismes…) peut même être parfois considéré parfois comme “spécieux”, car tirant d’une simple analogie des conséquences excessives ou, en tout cas, intellectuellement non fondées sur une démarche rigoureuse.

Si le projet d’une “sociologie cybernétique” est esquissé par Norbert Wiener, elle restera à l’état de programme. On relèvera même un paradoxe dans son refus de l’usage des modèles mathématiques dans les sciences humaines, alors qu’ils sont à l’origine de la constitution de la théorie de l’information de la cybernétique.

Mais même ainsi considérée comme essentiellement philosophique, et procédant par analogie, la réflexion politique et sociale de Wiener sur la place des machines dans la société de l’information reste très intéressante.

Norbert Wiener propose une réflexion de fond sur l’automatisation de la société, qu’il considère même comme “une seconde révolution industrielle”, et il s’interroge sur les limites du remplacement de l’homme par la machine dans l’“usine automatisée”.

Wiener propose une distinction entre trois registres d’actions réfléchies qui définissent trois types de rapport entre l’homme et la machine : le remplacement, l’extension et le couplage.

Le remplacement : au plus bas niveau des activités, qui relèvent de jugements simples et d’action répétitives, qui sont “intégralement mécanisables”, Wiener se prononce pour un remplacement de l’homme par la machine, dans l’usine notamment, qu’il voit comme une libération de l’homme, même si son approche sans complaisance du capitalisme l’amène à considérer que l’opération pourrait ouvrir une phase de crise et de conflit. “La perspective du remplacement vacille entre la perspective du loisir choisi et du chômage subi.”

L’extension des capacités humaines : dans le domaine des jugements analytiques de haut niveau, l’ordinateur ne pourra être pour Wiener qu’“une extension du cerveau des experts, qu’il ne remplace pas”. “La machine est incapable de faire face à des situations complexes qui requièrent une évaluation en fonction de critères vagues ou indéterminés, là où le cerveau humain est en revanche le plus à son aise.”

Le couplage homme-machine : dans les domaines de “traduction automatique, de transcription d’un discours oral à l’écrit ou d’indexation en bibliothèque”, Wiener estime (en 1952…) que les machines relèvent des “gadgets”, qui “prétendent remplacer une performance humaine alors que celle-ci est en réalité beaucoup trop complexe pour la machine. Ces derniers proposent un remplacement là où il devrait y avoir extension ou couplage”. Ce couplage pourrait être même profitable et déboucher, selon lui, sur une réelle “coopération homme-machine” pas tellement caractérisée par la supériorité de l’un par rapport à l’autre, que par la complémentarité de leurs capacités différentes respectives.

Un demi-siècle après Wiener et la cybernétique, l’imaginaire de notre société, qui accorde un tel succès à des films comme Terminator ou Matrix, semble opter pour une autre vision du futur des relations entre l’homme et la machine… Quant à la “société de l’information”, à travers Google, elle semble avoir pris une tournure également bien différente de ce qu’il avait pu envisager…

Il n’en reste pas moins que la conception de l’information que Mathieu Triclot met à jour dans la pensée cybernétique, comme un “signal” et non un “symbole”, comme une réalité matérielle que l’on ne doit pas abstraire du milieu et des conditions matérielles, techniques et sociales qui la produisent, et cela dès son approche la plus granulaire, comme simple bit élémentaire d’information, pourrait en effet être revisitée aujourd’hui et ouvrir – peut-être – des perspectives nouvelles et plus… humaines sur l’avenir de la société de l’information…

11 Comments

  1. Une question sur le contenu.

    Est-ce qu’il est fait aussi référence dans ce livre des célèbres conférences Macy, de Bateson, Erickson, de l’école de Palo Alto en sciences sociales, des théories qui sont à l’origine de la discipline nommée communication ?

  2. @ django

    Le livre, sur plus de 400 pages !, fait une analyse très poussée de l’ensemble du contenu exposé durant les conférences Macy (en rapport avec son sujet), qui ont été le point de convergence de l’ensemble de la cybernétique et de ceux qu’elle a intéressé.

    Il évoque dans ce livre les contacst entre les cybernéticiens et Gregory Bateson ou Margaret Mead, mais ne parle pas de l’école de Palo Alto.

    Son propos, extrêmement dense, se restreint à la seule question de la formation de la notion d’information dans la cybernétique. Il y a manifestement des tas d’autres choses à en dire, mais tout ce reste n’est pas le sujet de son livre, qui n’est pas une histoire de la cybernétique mais une thèse – assez ardue – d”épistémologie historique.. 😉

  3. À titre totalement anecdotique, je signale que le visuel de couverture est de Boris Artzybasheff et qu’il a servi à une couverture du magazine “Time” en janvier 1950. L’ordinateur qui a suivi ce traitement anthropomorphe est censé être le célèbre Harvard Mark III.

  4. Sur cette question, cet ouvrage s’inscrit dans la lignée des travaux de Jérôme Segal sur l’histoire de la notion d’information. (Le zéro et le un)

  5. Pour revenir au sujet 😉

    Passionnant billet sur un livre que je vais m’empresser d’acheter !

    Je suis chercheur dans le (vaste) domaine des systèmes d’information, c’est-à-dire les systèmes humains et automatisés de traitement et de stockage de l’information.

    J’ai l’impression que les deux notions que vous présentez ne sont pas si antagonistes. L’information-symbole et l’information-signal cohabitent dans ma discipline, il me semble. L’approche signal a été très féconde techniquement, elle est peut-être plus opérationnelle. L’approche symbolique est utile, elle s’intéresse plus au sens mais elle touche à des problèmes plus flous.

    On voit bien cette complémentarité / opposition entre d’une part Google (qui fait de l’indexation statistique, une approche mécaniste qui voit l’information comme un signal brut qu’on filtre) et d’autre part le web sémantique, qui veut annoter l’information avec des méta-concepts abstraits (plus proche de l’approche symbole).

    Je ne sais pas si je fais un contre-sens. Je connais les travaux de Von Neumann, Turing ou Wiener mais je n’avais jamais fait un tel rapprochement…

  6. Passionnant !
    Un des éléments qui manque dans l’approche cybernétique est peut-être le rapport à la conscience et aux mécanismes de traitement de l’information infra-conscients.
    Je pense à un exemple mentionné par le regretté Douglas Adams (on a les références que l’on peut) : si on me jette une balle, je peux calculer la vitesse du vent, la courbe parabolique, la rugosité de l’objet et sa pénétration dans l’air et… tendre la main 5 minutes plus tard. Ou bien faire confiance à mes « réflexes » (issus d’un long apprentissage et d’une forme d’intuition) pour l’attraper au vol. J’ai le sentiment que la différence fondamentale ne provient pas seulement du temps de traitement de l’information mais bien de la nature même de son traitement : conscient / inconscient.

  7. @ Olivier

    En effet, cet ouvrage de Segal est d’ailleurs référencé et cité par l’auteur. Je vais tâcher de le lire aussi. 😉

    @ Franc Belge

    Je ne sais pas trop quelle place accorder au web sémantique dans cette histoire. 😉

    Sinon, sur Google, il me semble qu’il est clairement du côté de l’information-symbole : un traitement mathématique, purement logiciel de l’information, qui fait abstraction de son support matériel (électrique) et de sa signification (sémantique ?).

    En fait, l’auteur considère que l’approche “signal” a été totalement abandonnée dans le domaine de l’informatique (mais elle tendrait plus ou moins à resurgir depuis les années 1980 dans les neurosciences).

    L’approche “signal” en informatique conduirait à aborder la question de l’information dans le software ET dans le hardware simultanément, et pas uniquement dans le software, comme actuellement. Ce serait une approche selon laquelle l’information dépendrait fondamentalement d’une association software/hardware, et qu’elle devrait toujours être appréhendée de cette manière. Sans être “abstraite”, “désincarnée” pour être exprimée uniquement par des symboles mathématiques.

    Je ne sais pas où ça conduirait. :o)

    @ (enikao)

    La question de la conscience est fascinante, car on est bien devant un “phénomène informationnelle” qui ne peut pas être détaché d’un couple software/hardware, la conscience ne peut pas être réduite à un algorithme, c’est à dire à une formulation symbolique dans un langage abstrait, un programme que l’on pourrait stocker sur n’importe quel support, un disque dur… ou une feuille de papier. Elle n’existe pas hors de son support spécifique qu’est le cerveau humain vivant.

    Je crois que c’est la raison pour laquelle des cybernéticiens comme Von Neumann refusaient d’appréhender l’information comme codage, car c’est bien le cerveau qui les intéressaient, plus que l’ordinateur.

    C’est pour maintenir l’espoir de cerner la pensée consciente qu’ils ont opté pour cette approche de l’information.

  8. L’idée c’est de pouvoir faire des calculs en ne prenant en compte qu’une quantité limitée d’informations dans cet exemple de la balle. Et il ne faut pas oublier que nous nous trompons aussi (jouer contre le n°1 de ping-pong peut rapidement donner l’impression que certains ne sont pas soumis aux même lois de la physique que les autres, ce n’est qu’une impression). Après il y a de nombreuses formes d’inconscient, mais même l’inconscient traite l’information. La conscience est sans doute un processus convoquant un trop grand nombre de ressources pour être utilisée sur des tâches répétitives ou un niveau d’erreur est acceptable (toucher une balle avec le tamis d’une raquette est plus facile qu’avec son manche). Une machine ne gaspillant pas d’énergie dans une quelconque conscience possède un meilleur rendement que nous quand tout lui est habituel… mais elle ne saurait pas se rendre compte de ses erreurs. C’est pour ça que nous avons aussi inventé des machines un peu conscientes.

  9. Vous en arrivez à la conclusion que la conscience n’existe pas hors du cerveau humain sans doute parce que vous posez cela comme un axiome. Le problème est de savoir reconnaître une conscience autre que la nôtre, disons inférieur pour être exact. Nous avons pris l’habitude par exemple de ne prêter aucune conscience aux animaux à partir du moment ou nous nous comparon à eux. Il suffit de comparer une laitue avec un chimpanzé pour relativiser un peu. Et c’est la même chose avec les machines: une machine qui apprend de ses propres erreurs est plus cosnciente qu’une qui n’a aucune réflexivité.

  10. @ ropib : loin de moi l’idée de dénier la conscience à tout ce qui n’est pas humain !
    Mon propos n’était peut-être pas clair mais l’inconscient traite de l’information, à notre insu, alors que le conscient en traite par notre volonté.
    Et de nombreux animaux on une conscience “primitive” (test du miroir par exemple : corvidés et grands primates, mammifères marins ; apprentissage chez le poulpe). Mais c’est là un tout autre débat 😉

  11. Ping : I like PM

Comments are closed.