Cybernétique ubique
Table des matières
WPCYBERN
CybernétiqueWPTHEINF
Théorie de l’informationLUND2021j
De la cybernétique à l’informatique ubiquitaireLUND2021m
La Cybernétique à l’assaut de l’HommeSEGA2020
Le zéro et le unTRIC2008a
Le moment cybernétiqueTRIC2008b
Le concept d’information chez Shannon et WienerLAFO2004
L’empire cybernétiqueMAYE1990
Pour une économie de l’informationDUPU2005
Aux origines des sciences cognitivesTOAM2018
Le paradigme communicationnelWIEN1961
La cybernétiqueWIEN1954
Cybernétique et sociétéWIEN1964
God and Golem, Inc.CASS2014a
Les rêves cybernétiques de Norbert WienerCASS2014b
L’homme télégraphiéNEUM1951
Théorie générale et logique des automatesVAL2006
Rencontres avec Heinz von FoersterFOER006
Éthique et Cybernétique du Second OrdreDUBA1948
Vers la machine à gouvernerRUYE1954
La cybernétique et l’origine de l’informationARSA1987
Les machines à penserQUER2000
Au juste, qu’est-ce que l’information ?SIMO1958
Du mode d’existence des objets techniquesSIMO2013
L’individuation à la lumière des notions de forme et d’informationCOMB1999
Simondon, individu et collectivitéDUHE2014
Penser le numérique avec SimondonFAUC2013
Metastasis and MetastabilityFLUS2019
Post-histoireFLUS2019b
ProgrammeFLUS2019d
Le vivant et l’artificielFLUS2019g
Critique, Critères, CriseDEGU1972
L’Anti-ŒdipeDEGU1980
Mille plateauxDELE1990
PourparlersDELE1979
Appareils d’États et machines de guerreCUSS2005
Cybernétique et “théorie française”TIQQ2003
Tout a failli, vive le communisme !COMI2014
À nos amisHUI2020
Produire des technologies alternativesCECO2020
Apocalypse et révolutionCESA2019
Manuel de survieBOUR2021
Internet, année zéroBRET1990
La tribu informatiqueMARC2018
État, plateforme et cybernétiquePARI2016
La raison instrumentale, le capitalisme algorithmique et l’incomputableHORL2008
La destinée cybernétique de l’occidentPATR2017a
Les perspectives philosophiques sur le numériqueLUND2020a
Quartiers vivantsLUND2020d
MonowheelLUND2021d
Sur la pandémie actuelleLUND2021f
Quel parti voulons-nous construire ?LUND2021i
Penser ce qui nous arrive avec Vilém FlusserLUND2021l
Quand l’humain rêve d’IALUND2022a
L’anarchéologie de Jean VioulacTUAL2019
L’intelligence artificielle, le grand malentenduSTEN1997d
La vie et l’artifice : visages de l’émergenceCHAT1998
Vivre et penser comme des porcsSUPI2015
La gouvernance par les nombresLATO1984
IrréductionsHARA2007
Manifeste cyborgALIZ2017
Informatique célesteCOUF1968
La cybernétiqueBELL2012
La Théorie de l’informationADAM1979
Le Guide du Routard GalactiquePIRO2018
L’occupation du mondeBHAT2021
The Man From The Future
WPCYBERN
Cybernétique
Cybernétique, Wikipédia, https://fr.wikipedia.org/wiki/Cybern%C3%A9tique.
WPCYBERN.1
Cf. Cybernétique, Wikipédia, op. cit. : La cybernétique est l’étude des mécanismes d’information des systèmes complexes, explorés en vue d’être standardisés lors des conférences Macy et décrits en 1947 par Norbert Wiener dans ce but. […] Les contours parfois flous de cet ensemble de recherches s’articulent toutefois autour du concept clé de rétroaction (en anglais feedback) ou mécanisme téléologique. Leur but était de donner une vision unifiée des domaines naissants de l’automatique, de l’électronique et de la théorie mathématique de l’information, en tant que “théorie entière de la commande et de la communication, aussi bien chez l’animal que dans la machine”. […] L’ambition développée par la cybernétique a pourtant constitué un creuset formidable pour l’élaboration des sciences cognitives, de l’intelligence artificielle, des thérapies systémiques de l’école de Palo Alto, ou encore des théories biologiques de l’auto-organisation.
WPCYBERN.2
Cf. Cybernétique, Wikipédia, op. cit. : La thermodynamique, souvent citée en référence par Wiener, est probablement la science préexistante qui s’apparente le plus à la cybernétique. On citera en particulier Rudolf Clausius qui développe le concept d’entropie de 1850 à 1865. En 1894, Ludwig Boltzmann fait le lien entre l’entropie et l’information en remarquant que l’entropie est liée à de l’information à laquelle on n’a pas accès.
WPCYBERN.3
Cf. Cybernétique, Wikipédia, op. cit. : La pensée atomiste, fille du structuralisme, va aussi faire son chemin dans le domaine des sciences et contribuer aux progrès de schématisation (réduction) de la diversité du monde à la combinatoire d’éléments simples, plus faciles à appréhender par les systèmes informatiques. On peut citer parmi les travaux importants le théorème d’incomplétude de Kurt Gödel (1931) et les travaux sur la Machine de Turing d’Alan Turing (1936).
WPCYBERN.4
Cf. Cybernétique, Wikipédia, op. cit. : La cybernétique est aussi une suite de la phénoménologie, en tant qu’elle ausculte les phénomènes pour en saisir l’autonomie et la particularité, notamment par la forme pour ensuite passer à un autre type d’analyse : modélisation, mécanique…
WPCYBERN.5
Cf. Cybernétique, Wikipédia, op. cit. : La première cybernétique s’établit dans le cadre des conférences Macy qui réunissent entre 1942 et 1953 un groupe interdisciplinaire de mathématiciens, logiciens, anthropologues, psychologues et économistes qui s’étaient donné pour objectif d’édifier une science générale du fonctionnement de l’esprit. Parmi les participants les plus illustres, on trouve le neurophysiologiste Arturo Rosenblueth, les mathématiciens John von Neumann et Norbert Wiener, l’ingénieur Julian Bigelow le neurophysiologiste Warren McCulloch, le logicien Walter Pitts, le psychanalyste Lawrence Kubie et les anthropologues Gregory Bateson et Margaret Mead. Ce qui rapproche les différents participants est leur intérêt commun pour les mécanismes de causalité circulaire (notamment le concept de feedback) qu’ils étudient dans leurs disciplines respectives.
WPCYBERN.6
Cf. Cybernétique, Wikipédia, op. cit. : En 1948, Wiener définit la cybernétique comme une science qui étudie exclusivement les communications et leurs régulations dans les systèmes naturels et artificiels.
WPCYBERN.7
Cf. Cybernétique, Wikipédia, op. cit. : À partir de 1949, un autre groupe interdisciplinaire, le Ratio Club, commence une série de rencontres informelles pour discuter de sujets ayant trait à la cybernétique. On compte parmi eux W. Ross Ashby, William Grey Walter, Alan Turing et Georges R. Boulanger, mathématicien qui fut président de l’Association internationale de cybernétique.
WPCYBERN.8
Cf. Cybernétique, Wikipédia, op. cit. : La cybernétique désigne d’abord un moyen de connaissance, qui étudie l’information au sens de la physique, dans la définition qu’en donne Norbert Wiener : “De même que l’entropie est une mesure de désorganisation, l’information fournie par une série de messages est une mesure d’organisation”. Dans cette acception première, la cybernétique est une approche phénoménologique qui étudie l’information, sa structure et sa fonction dans les interactions systémiques. Ce qui peut être traduit par la science générale de la régulation et des communications dans les systèmes naturels et artificiels. La cybernétique décrite par Norbert Wiener est un moyen d’expliquer et de comprendre tous les mécanismes rencontrés avec quelques briques logiques simples : La boîte noire : un élément relié à d’autres, dont on ne se soucie pas de savoir ce qu’il contient (ou son fonctionnement d’après sa structure interne, inaccessible de façon momentanée ou définitive), mais dont on déduit la fonction apparente à partir de l’étude de ses entrées/sorties. L’émetteur, qui agit sur l’environnement, donc envoie de l’information, sorte de porte de sortie. Le récepteur, qui en intègre depuis l’environnement, donc capte les informations, comme une porte d’entrée de la boîte noire. Le flux d’information : ce qui est transmis, donc envoyé et effectivement reçu, autrement dit l’information efficace. La rétroaction (feedback) : c’est l’information en retour de l’état. Le feedback est mis en évidence par cette approche car il est indispensable pour concevoir une logique d’autorégulation. On voit donc émerger des boucles de rétroaction, mécanismes circulaires qui mettent en évidence des systèmes. Si les systèmes sont mis en évidence par cette cybernétique (parfois dite du premier ordre), ils ne le sont d’abord que par voie de conséquence d’une étude strictement limitée aux échanges d’information et à l’évolution de ces échanges dans le temps. Plus tard se constituera un paradigme propre à l’étude des systèmes en tant que tels, la systémique. Portés par les participants du mouvement cybernétique, pour la plupart des auteurs majeurs dans leur discipline, les concepts de la cybernétique se diffusent rapidement. La cybernétique marque le moment d’une rupture épistémologique majeure qui a profondément influencé tous les domaines de la science et ses retombées sont innombrables.
WPCYBERN.9
Cf. Cybernétique, Wikipédia, op. cit. : Marvin Minsky présente la première cybernétique comme un tronc commun qui se serait divisé en trois branches : la “simulation cognitive” à la Allen Newell et Herbert Simon, l’“intelligence artificielle” et la “seconde cybernétique” ou théorie des systèmes auto-organisateurs. […] Alors que la première cybernétique étudie comment les systèmes maintiennent l’homéostasie (morphostase) par des mécanismes d’autorégulation, la “deuxième cybernétique” du psychiatre W. Ross Ashby et des biologistes Humberto Maturana et Francisco Varela étudie comment les systèmes évoluent et créent des nouvelles structures (morphogenèse). Ashby parle d’auto-organisation, Maturana et Varela d’autopoïèse. Cette étude des systèmes éloignés de leur point d’équilibre se rapproche des travaux sur les structures dissipatives du prix Nobel de chimie belge Ilya Prigogine. Au lieu de se demander comment se maintient un certain équilibre, on observe comment un nouvel équilibre peut émerger d’une situation de déséquilibre. Prigogine a montré que contrairement à ce que l’on croyait, dans certaines conditions, en s’éloignant de son point d’équilibre, le système ne va pas vers sa mort ou son éclatement mais vers la création d’un nouvel ordre, d’un nouvel état d’équilibre. Les situations extrêmes recèlent la possibilité de créer une nouvelle structure. On voit ici la possibilité de recréer du vivant, de l’organiser là où il n’y avait plus que du chaos. […] La cybernétique de deuxième ordre vise à l’élaboration d’une méthode de description “universelle” commune aux différents champs de la science. […] Pour W. Ross Ashby, “la cybernétique se situe comme une approche indépendante de la nature des éléments qu’elle étudie”.
WPCYBERN.10
Cf. Cybernétique, Wikipédia, op. cit. : Pourtant, au-delà des querelles d’école entre la cybernétique et la systémique issue des travaux de Ludwig von Bertalanffy, on peut, à la suite de Gregory Bateson, considérer ces deux mouvements de pensée comme faisant partie d’un ensemble d’idées relativement unifié. Ainsi, avec l’assimilation des théories cybernétiques par la systémique, on a été amené à comprendre les mécanismes d’autorégulation des systèmes comme des processus de feedback négatif visant à empêcher une déviation. Les systèmes cybernétiques visent à maintenir un état stable viable d’interaction au sein d’environnements changeants via un processus stochastique d’essais et erreurs.
WPCYBERN.11
Cf. Cybernétique, Wikipédia, op. cit. : Dans son champ d’application, la cybernétique peut signifier le moyen d’organiser les échanges pour les rendre efficaces, et poussée à l’extrême le moyen de contrôler plus efficacement.
WPTHEINF
Théorie de l’information
Théorie de l’information, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l%27information.
WPTHEINF.3
Cf. Théorie de l’information, Wikipédia, op. cit. : Très vite de multiples applications de la théorie de l’information de Shannon sont apparues dans le domaine des sciences humaines : les modèles mathématiques élaborés ont permis de préciser certains concepts utilisés couramment dans les analyses linguistiques structurales, en même temps qu’ils faisaient apparaître les limites inhérentes à ce type d’analyse et provoquaient des recherches nouvelles (en traduction automatique et en psycho-linguistique). Tandis que se développait un champ scientifique nouveau : la cybernétique. Cependant, une caractéristique majeure de la théorie de Shannon est de donner à la notion d’information (telle que définie par cette théorie) un statut physique à part entière. Effectivement, l’information acquiert les caractères fondamentaux de toute réalité physique organisée : abandonnée à elle-même, elle ne peut évoluer que dans le sens de sa désorganisation, c’est-à-dire l’accroissement d’entropie ; de fait, l’information subit, dans ses transformations (codage, transmission, décodage, etc.), l’effet irréversible et croissant de la dégradation. Par conséquent Shannon définit comme entropie d’information la mesure H (K = - K log p). De façon étonnante, l’équation par laquelle Shannon définit l’entropie de l’information coïncide, mais de signe inverse, avec l’équation de Boltzmann-Gibbs définissant l’entropie S en thermodynamique (S = - K log p). Cet épisode important a été abondamment commenté. Certains, comme Couffignal, ont soutenu que la coïncidence est sans signification : l’application de la fonction de Shannon à la thermodynamique et à l’information serait un hasard de rencontre de l’application d’une même formule mathématique, sans plus. Certes, il peut y avoir rencontre de deux équations de probabilité provenant d’univers différents. À l’inverse, Brillouin avait prétendu établir une relation logique entre le H de Shannon et le S de Boltzmann, ce que retiennent la plupart des chercheurs qui appliquent la théorie aux disciplines non mathématiques, la biologie en particulier. Selon ce point de vue, il est possible d’inscrire l’information telle que définie par Shannon dans la physique. En effet, il existe une dualité dans le concept d’information reliant l’information à la matière/énergie véhiculant cette information. L’information telle que définie par Shannon s’enracine ainsi dans la physique d’une part, dans les mathématiques d’autre part, mais sans qu’on puisse la réduire aux maîtres-concepts de la physique classique : masse et énergie. Comme le dit Wiener : “l’information n’est ni la masse, ni l’énergie, l’information est l’information”, ce qui laisse la porte ouverte à des conceptions diverses, à commencer par celle d’un troisième constituant de l’univers, après la matière et l’énergie précisément !
LUND2021j
De la cybernétique à l’informatique ubiquitaire
De la cybernétique à l’informatique ubiquitaire, in Lundi matin, #305, 20 septembre 2021, https://lundi.am/De-la-cybernetique-a-l-informatique-ubiquitaire
LUND2021j.1
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Pour remonter le cours de l’histoire de l’informatisation et des nouvelles technologies, on revient en guise de préambule aux premières machines à calculer de Pascal et Leibniz pour ensuite faire un tour par Babbage et Lady Lovelace avant d’arriver à Türing et à la Seconde Guerre mondiale. C’est cette dernière qui est considérée comme le vrai décollage de l’automatisation du traitement de l’information (informatique) puisque c’est au travers de l’effort de guerre que sont développés à la fois les premiers ordinateurs selon les principes de J. Von Neumann (qui donne toujours son nom à l’architecture des machines que nous utilisons aujourd’hui) mais également les concepts d’information (notamment chez Shannon en 1948) et de cybernétique (chez Wiener également en 1948). Après ces débuts militaires, on nous explique en général en quoi le développement de l’informatique s’est émancipé en étant réapproprié par toutes sortes de bricoleurs, artistes, libertaires, ingénieurs, de Steward Brand à Steve Jobs, prenant du LSD et s’essayant aux communautés dans le sillage du mouvement hippie. L’ordinateur devient alors un outil d’émancipation personnel. Puis, c’est la mise en réseau de tous les réseaux d’ordinateurs, le partage de l’information à l’échelle planétaire, qui va porter des utopies de connexion, d’horizontalité et de démocratie souvent associées à l’internet. Sans oublier les profits qui vont avec. Ce discours et cette histoire ont été faits, refaits et on vit aujourd’hui l’époque dans laquelle l’utopie s’effondre sur elle-même. Les années 2010 marquent à cet égard un retournement, au moins du point de vue de l’opinion au sens large : Snowden en 2013, Cambridge Analytica en 2016, l’émergence des GAFAM comme sujet historique et économique diabolisé autant que sacralisé, sans parler des conséquences écologiques désastreuses du numérique, etc. Cette tendance récente a aussi été largement documentée.
LUND2021j.2
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Notre ambition ici n’est pas de s’appesantir sur le présent numérique, ni de refaire l’histoire des nouvelles technologies de l’information en insistant sur la manière dont l’information et l’internet auraient pu nous libérer si on avait suivi tel chemin plutôt que tel autre. Il s’agit plutôt de tracer une autre ébauche de généalogie du monde numérique, en se focalisant sur des évolutions conceptuelles et techniques éclairées d’une lumière différente. On prendra pour point de départ la cybernétique et on suivra son évolution dans le programme de l’intelligence artificielle. On s’arrêtera ensuite sur les critiques philosophiques adressées à l’intelligence artificielle par un certain Hubert Dreyfus lecteur de Heidegger puis surtout à la manière dont elles ont été intégrées dans le champ même de l’informatique, notamment par Terry Winograd et Fernando Flores. On s’intéressera alors aux conséquences pratiques de cette critique de la tradition rationaliste, dont on verra qu’elle est à l’origine de certaines branches du design, puis de l’informatique ubiquitaire chez Mark Weiser mais aussi, indirectement, de Google. Nous devons à Alexandre Monnin et Harry Halpin d’avoir mis en lumière cette généalogie originale d’une des tendances importantes en informatique dans un article de 2016 sur Carnap et Heidegger duquel nous tirons la plupart des références exposées ici [Voir Harry Halpin et Alexandre Monnin, ‘The Decentralization of Knowledge’], First Monday, “Reclaiming the Internet” with distributed architectures, 21.12 (2016). L’article étant en anglais et destiné surtout à des spécialistes, il nous a semblé opportun de le reprendre (surtout la seconde partie) en insistant toutefois sur des points différents. L’idée principale qui guide cette généalogie est le passage d’une perspective centrée sur les machines (les ordinateurs) avec les fantasmes qui vont avec (notamment celui d’une intelligence artificielle) à la perspective de la relation entre humains et machines. Quoique plus éloignée des projecteurs médiatiques, les implications pratiques et politiques de cette perspective sont nombreuses et méritent d’être relevées.
LUND2021j.3
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : L’un des intérêts de ce parcours est de couper l’herbe sous le pied à une critique trop simpliste du rationalisme occidental, qui dirait “Voyez ce monde de machines et d’ordinateurs, entièrement gouverné par la froide raison calculatrice où l’esprit se sépare du corps, revenons plutôt à notre sensibilité animale, relions-nous aux autres espèces et au monde qui nous constitue et nous trouverons alors les clés de l’émancipation”. Malgré la caricature, on ne doute pas que de nombreux lecteurs se reconnaissent de près ou de loin dans ces mots. Nous essayons ici de montrer qu’à partir des années 70, plusieurs informaticiens ont déjà intégré cette critique du rationalisme et œuvrent justement à réinventer le rôle des machines et leur lien avec les humains. Nous faisons ainsi le pari qu’en percevant plus subtilement ce qui se joue derrière le déploiement technologique contemporain, on évite de tomber dans les critiques déjà largement incorporées par les ingénieurs qui le mettent en œuvre. Espérons que cela nous aide ensuite à faire d’autres usages de la technique et, pourquoi pas, faire dérailler les machines.
LUND2021j.4
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le mot “cybernétique” en lui-même aurait été pour la première fois utilisé par Ampère en 1834 pour désigner “la science du gouvernement des hommes” mais il semblerait que personne n’ait reconduit après lui cet usage. Néanmoins, en la définissant ainsi, il colle à la racine grecque du mot, qui désigne tantôt le gouvernail d’un navire, tantôt le fait de le piloter, ou de le gouverner. Mais c’est en général en 1948 qu’on fait remonter le début de la cybernétique telle qu’on la connaît aujourd’hui, dans un livre de Norbert Wiener intitulé Cybernetics, or Control and Communication in the Animal and the Machine (traduit par La cybernétique, information et régulation dans le vivant et la machine). Wiener précise d’emblée la racine technique (gouvernail) et gouvernementale du mot cybernétique, sans toutefois se référer à Ampère, qu’il n’avait pas lu. Au moins trois grandes notions sont importantes ici : le contrôle (ou régulation, commande ou rétroaction, feedback) ; la communication (ou l’information) ; le fait de prendre ensemble l’animal et la machine.
LUND2021j.5
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le contrôle d’abord. Il ne faut pas d’emblée y entendre le gouvernement des humains, mais plutôt le fait de pouvoir réguler, commander le fonctionnement d’une machine. L’idée fondatrice de Wiener et de ses collègues, c’est d’analyser le fonctionnement même du comportement (machinique, animal ou humain) en terme d’intention (ou de but) et de contrôle. Si l’on se demande par exemple comment une main se saisit d’un verre d’eau, il n’y a pas lieu selon lui de décortiquer l’ensemble des muscles et des mouvements mis en branle pour réussir l’opération : ce serait trop compliqué, voire impossible dans certains cas. Mieux vaut alors prendre en compte le but d’une part, ainsi qu’une mesure de la différence entre l’état présent et le but visé (la marge d’erreur en somme) d’autre part. C’est d’abord cela, le contrôle : la prise en compte et la minimisation de l’erreur en fonction d’un but. Tant que notre main n’a pas attrapé le verre d’eau, nous continuons notre mouvement. Ou, pour une machine, si elle ne va pas assez vite, des mécanismes sont censés l’accélérer, et inversement si elle va trop vite il faut trouver un moyen de la freiner. La “découverte” de cette façon particulière de raisonner s’est faite chez Wiener travaillant sur les canons anti-aériens durant la seconde guerre mondiale : il s’agissait alors de minimiser l’écart entre la prédiction de la position de l’avion ennemi et sa position réelle, afin de pouvoir l’abattre lorsque cet écart était nul. Cette approche peut sembler banale mais c’est de là que vient l’obsession de la cybernétique pour le feedback, autre nom du contrôle : a-t-on atteint les buts fixés ? Comment modifier notre action pour les atteindre ? Cette notion se répandra dans la suite du XXe siècle dans bien des domaines : économie, gestion, management, coaching personnel, ingénierie, publicité, réseaux de neurones, notation généralisée, etc. Évidemment, cela a lieu bien au-delà du domaine de la cybernétique : son rôle est d’avoir approché la rétroaction de manière technique et conceptuelle.
LUND2021j.6
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Vient ensuite l’information. La notion a de nombreuses racines, mais on peut se contenter de mentionner son émergence scientifique ou technique ainsi que son rapport avec le contrôle. L’article fondateur de la théorie de l’information, - ou plutôt, au départ, de la communication -, est celui de Claude Shannon en 1948 “Une théorie mathématique de la communication”. Sans rentrer dans les détails, la notion d’information, - en bonne partie issue des recherches en télécommunication et notamment en cryptographie lors de la Seconde Guerre mondiale -, désigne en gros la quantité d’ordre présent dans un message lorsqu’on connaît les propriétés de la source qui émet ce message. Ni sens ni matière ni énergie, l’information est une réalité originale, forgée théoriquement mais également au sein d’un univers technique. Une nouvelle unité est créée, le bit, pour binary digit, soit nombre binaire, pour pouvoir quantifier l’information (les fameux couples de 0 et de 1). L’enjeu pour la cybernétique, c’est que l’information et sa transmission sont justement les clés qui permettent de connaître l’état d’une situation, de le transmettre et ainsi d’activer ou non des mécanismes de contrôle, de feedback, dans un sens ou un autre, afin que tel système atteigne tel but. Pas de contrôle, donc, sans information.
LUND2021j.7
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Enfin, l’homogénéité entre l’animal et les machines. Toute la force de la cybernétique vient de là : des mécanismes qui traitent de l’information et minimisent les marges d’erreurs sont censés être présents partout dans la nature mais également dans les machines. L’important ici n’est pas tant que cela soit vrai ou non, mais le fait que l’on se mette à analyser de cette manière les comportements, aussi différents soient-ils. Peu de temps après les premiers succès de la cybernétique, la biologie moléculaire parlait de l’ADN comme d’un programme qui transmet des informations de génération en génération, informations qui déterminent une grande partie de notre constitution physique. Aujourd’hui, des outils informatiques permettent de reproduire des séquences génétiques pour ’coder’ telle protéine se trouvant sur tel virus afin de déclencher une réponse immunitaire en l’absence du virus en question.
LUND2021j.8
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Voici pour les choses les plus connues, jamais inutiles à rappeler. Reste que l’on s’intéresse souvent moins au fond métaphysique de l’affaire. Et ici, ce n’est pas chez Wiener, ni même chez Shannon, mais plutôt du côté de Warren McCulloch, un neurologue écrivant à la même époque qu’il faut aller chercher. Certains disent qu’il fut d’ailleurs l’éminence grise du mouvement cybernétique puisque c’est lui qui organise les conférences Macy (entre 42 et 53, elles regroupaient les principaux tenants de la cybernétique). Chez lui, il est très clair que cette dernière a une vocation philosophique : celle de mettre à jour les secrets de l’esprit humain, dont les religions et les philosophes n’ont jamais su dire quelque chose de solide jusqu’ici. Fini les arguties métaphysiques et les brouillards théologiques, la cybernétique est là pour indiquer que l’esprit se réduit au cerveau, que la pensée se réalise concrètement via des connexions entre neurones que l’on peut, moyennant quelques arrangements, reproduire à l’aide de circuits électriques. Il expliquait en 1961 : “La recherche du substrat physiologique de la connaissance se poursuivra tant qu’elle ne sera pas complètement achevée, tant, donc, que nous n’aurons pas obtenu de réponse satisfaisante dans le cadre de la physique, de la chimie, de l’anatomie et de la physiologie du système biologique à la question de savoir comment nous connaissons ce que nous connaissons.”. Selon le crédit que l’on y porte, la portée de l’argument est immense : finit les vieilles distinctions corps-esprit, place à un matérialisme d’un genre nouveau où la pensée, l’esprit, peuvent être expliqués et surtout matérialisés dans des circuits (de neurones et, si possible, des circuits électriques). Sachant cela, il conviendrait d’être prudent lorsqu’on s’aventure trop rapidement du côté d’une critique du dualisme propre à l’Occident, de la domination de l’abstraction sur le concret, de la raison sur la sensibilité, etc. : on voit ici combien les cybernéticiens ont œuvré à dépasser l’opposition entre le corps et l’esprit, et ce plutôt dans le sens d’un réductionnisme matérialiste qui voulait anéantir les prétentions de l’esprit à être une substance plus ou moins indéfinissable, immatérielle, séparée, etc.
LUND2021j.9
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Cela dit, il y a des raisons au fait d’associer l’informatique en général à une forme d’abstraction et de rationalisme. Peut-être la cybernétique historique n’en est-elle pas responsable, elle qui prétendait justement matérialiser la pensée. Ce n’est pas le cas du courant de recherche qui se fera connaître à partir de 1956 sous le nom d’intelligence artificielle. Ici, il faut exagérer un peu les distinctions, afin de ne pas tout confondre : les fondateurs de l’intelligence artificielle se dressent en partie contre la cybernétique, même si certains d’entre eux, comme Claude Shannon, ont participé aux fameuses conférences Macy. Certains d’entre eux considéraient que la cybernétique n’était arrivée à rien avec son approche en terme de feedback, et qu’il fallait tourner la page. La page de l’intelligence artificielle consiste à prendre l’ordinateur naissant comme le modèle de la pensée : penser, c’est traiter des informations, c’est calculer à partir de symboles. Surtout, on met alors en place une distinction très forte et désormais classique entre hardware (la partie matérielle, les circuits, les processeurs) et la partie software (le logiciel, la suite des instructions logiques, le programme). Et la spécificité de l’intelligence artificielle est de se concentrer sur la partie logicielle, en faisant l’hypothèse que la machine saura ensuite effectuer les instructions qu’on lui donne si différentes soient-elles. Autrement dit, tout l’effort à faire réside dans les montages logiques, les suites d’instructions et de programmes (le code) que l’on va construire par la force de l’esprit pour les faire réaliser ensuite par la machine. D’où une séparation très forte entre matière et pensée, puisqu’au fond la machine matérielle peut réaliser n’importe quelle instruction logique. Comme si le corps matériel se pliait à toutes les instructions issues du programme (et, de fait, on se mit à créer des programmes réalisant des opérations très différentes avec les mêmes machines). Comme l’écrit Jerry Fodor, “de même qu’un calcul mathématique peut être effectué sur des supports très différents (boulier, machine mécanique ou électronique), on peut dissocier l ’analyse des opérations effectuées des supports matériels (cerveau ou machine) qui le permettent.”
LUND2021j.10
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Les premiers résultats de cette tendance sont par exemple le GPS pour General Problem Solver – rien que ça – de Simon et Newell (1957), qui ambitionne de résoudre tous les problèmes d’une certaine forme ou encore le langage LISP de McCarthy (1958) qui permet de manipuler des listes d’objets très différents, les premiers programmes pour jouer aux échecs et aux dames ou encore Dendral, un système expert capable de déterminer la formule chimique d’une molécule (Feigenbaum, 1965). La plupart du temps, ces applications transforment un état du monde en un symbole, une donnée, à laquelle il font ensuite subir divers opérations de calcul qui aboutissent à de nouvelles données utilisables en fin de parcours. Plus largement, on entre avec les années 50 dans l’ère du cognitivisme, qui, en plus d’avoir trouvé en l’ordinateur le modèle de la pensée, étend son influence dans plusieurs domaines : l’informatique mais aussi les neurosciences, la linguistique, la psychologie, etc. Si ce courant a depuis été partiellement dépassé ou rattrapé par la vague du connexionnisme, cette approche ainsi que les sciences cognitives restent omniprésentes aujourd’hui, tant sur le plan de la recherche fondamentale que sur celui des applications pratiques et politiques. Il faudrait revenir plus longuement sur l’intelligence artificielle, les fantasmes qu’elle a généré, parfois sciemment, mais l’objet de cette généalogie est de voir comment l’informatique a su rebondir à partir des critiques adressées à cette approche.
LUND2021j.11
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Venons-en maintenant à notre point important : dès le départ, plusieurs critiques de la cybernétique puis de l’intelligence artificielle émergent, même si elles sont minoritaires et que la recherche avance sans trop s’en soucier. L’une des plus fameuse n’est autre que celle de Martin Heidegger, le philosophe allemand qui n’a cessé, vers la fin de sa vie, d’épingler la cybernétique comme étant le dernier avatar de la métaphysique occidentale, qui aurait carrément remplacé la philosophie. En plaçant le contrôle et le gouvernement à même les choses, au sein des dispositifs techniques, tout se passe comme si la cybernétique incarnait enfin techniquement un projet de contrôle de la nature et des humains - on reconnaît bien le projet de l’Occident. Autrement dit le pouvoir, autrefois logé dans la religion ou la politique, s’incarne désormais dans les dispositifs techniques, dans la matérialité du monde. Plus généralement, Heidegger attaque aussi la technique et son usage moderne qui aurait trahi sa vocation première, celle de prolonger notre rapport au monde, pour aller au contraire vers un arraisonnement du monde, une manière d’user de la nature comme un stock dans lequel puiser jusqu’à l’épuisement. Mais c’est encore un autre aspect qui nous interpelle dans les charges de Heidegger contre le déploiement technologique de son temps : il déplore l’omniprésence d’une vision du savoir et de la pensée en terme de représentation, de logique et de faits. La modernité occidentale, et notamment la science et la philosophie analytique de son temps, pèchent ainsi par excès de ce qu’il appelle “l’attitude théorétique”, qui désigne le fait de se rapporter au monde via des images censées représenter des collections de faits, puis de disséquer ces images, de les manipuler avec les outils de la logique et de revenir ensuite au monde, supposé tout à fait distinct de ces représentations, pour agir sur lui en agissant sur les faits en question. Tout cela est erroné selon Heidegger : nous sommes d’emblée des êtres-au-monde de telle manière qu’il est en fait impossible de nous en séparer et, pour comprendre quelque chose à nous-mêmes et à ce monde, il vaut mieux partir de notre activité, de l’engagement pratique de notre corps au quotidien, plutôt que de manipuler des catégories logiques.
LUND2021j.12
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Ce sont ces aspects, présents notamment dans Être et Temps et sa première section, que va reprendre un certain Hubert Dreyfus pour attaquer frontalement l’intelligence artificielle dans un livre qui a fait date, paru en 1972 : What computers can’t do (Ce que les ordinateurs ne peuvent pas faire). Avant ce livre désormais classique, le même Dreyfus avait rédigé en 1965 un rapport pour la RAND Corporation, une institution de Recherche et Développement alors au service de l’armée américaine. L’enjeu : plusieurs chercheurs devaient se prononcer pour savoir s’il fallait ou non continuer d’investir dans l’intelligence artificielle. Parmi les différents rapports, celui de Dreyfus marque les esprits d’abord par son titre “Alchimie et Intelligence artificielle”, ensuite par son contenu, qui expose de manière critique les prétentions orgueilleuses de l’IA ainsi que ses limites indépassables. On dit que durant ses années au MIT et suite à cet article, peu de gens oseront s’asseoir aux côtés de Dreyfus à la cantine. Pourtant, aux côtés du “ALPAC report” de 1966 et du “Lighthill report” de 1973, les travaux de Dreyfus font partie des raisons qui déterminent ce qu’on appelle aujourd’hui “l’hiver de l’IA” à partir des années 70, soit la période où les financements s’effondrent et où l’on prend conscience que les premiers espoirs véhiculés par les ordinateurs ne seront pas réalisés aussi vite que prévu. L’approche de Dreyfus, qui comparait donc l’IA à l’alchimie et ses prétentions fantasques de changer le métal (l’ordinateur) en or (l’intelligence), est originale car, avec What computers can’t do, elle se joue avant tout sur un terrain philosophique. Ce qu’il reproche à l’IA des premières années et au cognitivisme en général, c’est de prétendre à l’intelligence tout en se passant des notions de corps et de monde. Et pas seulement de ces notions, mais aussi des réalités qui vont avec. À force de penser qu’un logiciel peut être intelligent, que la logique règle des problèmes, on finit par oublier que l’humain n’est intelligent que parce qu’il a un corps et un monde, ce que n’ont pas les ordinateurs. À partir d’une lecture de Heidegger et Merleau-Ponty, Dreyfus met en évidence l’enchevêtrement entre le sujet humain et son monde : en fait, les deux se constituent mutuellement. Mieux : cette constitution réciproque du corps et du monde n’est pas une opération logique ou théorique, elle est le fruit de nos pratiques quotidiennes, en deçà de toute représentation. Plus techniquement, Dreyfus affirme que le corps est indispensable à l’intelligence, ne serait-ce que parce que c’est grâce à lui que l’on perçoit le contexte de toute situation, de manière plus ou moins instinctive ou inconsciente. Or, il est justement très difficile, voire impossible pour une machine de prendre en compte les éléments de contexte tant ils sont nombreux. Encore plus difficile, sans doute, de parvenir à prendre en compte le contexte tout en lui donnant un statut semi-conscient selon les situations (parfois, notre corps ’sait’ quelque chose, comme par exemple la température de l’air, et adapte sa conduite en conséquence, sans que cela se transforme forcément en une information consciente). Toutes choses que le corps humain apprend à faire sans plan pré-établi, en vivant simplement dans un monde. Ces critiques qui passent pour du bon sens furent d’abord l’objet de sévères attaques de la communauté de l’IA (voir ce que rétorque Seymour Papert, du MIT, à Licklider qui lui apportait son soutien : “I protest vehemently against crediting Dreyfus with any good”). Mais quelques années années plus tard, elles trouvèrent un public et des chercheurs réceptifs au sein même du champ de l’informatique.
LUND2021j.13
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : La reprise la plus connue des thèses de Dreyfus dans le champ de l’informatique est sans doute celle de Terry Winograd et Fernando Flores dans Understanding Computers and Cognition : A New Foundation For Design paru en 1987 (traduit en français par L’intelligence artificielle en question). Bien des choses sont intéressantes dans ce livre, à commencer par ses auteurs. Fernando Flores, d’abord. Ancien ministre de l’Économie sous Salvador Allende au Chili, il a piloté le projet Cybersyn aux côtés de Stafford Beer : un vaste réseau d’ordinateurs censés harmoniser et piloter en temps réel l’économie et la politique chilienne. Emprisonné en 73 après le coup d’État de Pinochet, il est libéré par Amnesty International en 76 et se réfugie aux États-Unis, où il lit Dreyfus, Merleau-Ponty, Heidegger, etc. Après une thèse sur la communication, il devient consultant dans les nouvelles technologies. Précisons également qu’en 2010, il est nommé par Sebastián Piñera, actuel président du Chili, à la tête du Conseil National de l’Innovation pour la Compétitivité. Drôle de retournement historique, si l’on sait que le frère de Piñera (Jose) est l’un des économistes libéraux, membre des Chicago Boys, qui a notamment mis en place la retraite par capitalisation au Chili sous Pinochet. Autant pour Fernando Flores, qui n’hésitait pas, à l’époque, à dédicacer son livre au peuple chilien “pour avoir ouvert de nouvelles perspectives et pour son courage en ces temps difficiles. Il nous a beaucoup appris sur le langage et sur le sens de la vie”. Terry Winograd, lui, est un chercheur américain de Stanford au parcours original. Très tôt surnommé le “Newton de l’informatique”, il a participé avec enthousiasme à la première vague de l’IA en créant le langage SHRDLU qui permettait de “communiquer” avec un petit robot virtuel en langage naturel, par le clavier d’un ordinateur, pour lui faire réaliser un certain nombre d’instructions dans un “micro-monde” composé de formes géométriques de différentes couleurs. Pionnier de l’IA, il ne s’en est pas moins détourné grâce à la lecture de Dreyfus et la rencontre de Flores pour aller vers ce qu’il est convenu d’appeler aujourd’hui l’interaction humain-machine (Human Machine Interaction, HMI) : autrement dit, se concentrer sur les usages pertinents que l’on peut faire des technologies en les prenant dans leur relation avec les humains plutôt que sur la recherche d’une intelligence autonome. Toute sa vie, il a ensuite tenté de réfléchir à la manière dont la technologie peut venir en aide aux humains et nous reviendrons plus tard sur la suite de sa carrière.
LUND2021j.14
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Venons-en au cœur du livre. La première partie est une critique philosophique de ce que les auteurs appellent la “tradition rationaliste occidentale”. Cette critique se fonde sur trois sources majeures. Heidegger d’abord, dont nous avons déjà parlé et d’où ils tirent, à la suite de Dreyfus, l’idée que la cognition ou la pensée n’est pas d’abord une affaire de logique et d’abstraction mais au contraire d’être-au-monde, de rapport pratique au monde qui passe avant tout par un corps capable de percevoir un contexte et de faire émerger du sens par son engagement charnel. La seconde inspiration vient de la biologie singulière de Humberto Maturana et Francisco Varela, deux chiliens, proches de Flores, qui ont fait partie du courant de la seconde cybernétique, dont la particularité est d’avoir insisté sur les systèmes auto-régulateurs en biologie. Selon eux, la cognition n’est pas un phénomène proprement humain et encore moins un calcul d’informations mais plutôt le propre du vivant, qui consiste à produire le monde par le fait même de vivre, de déployer son être en agissant. Vivre, en soi, ne signifie rien d’autre qu’ouvrir un monde. Ils abandonnent complètement la perspective “représentationelle” qui est celle du cognitivisme classique : il n’y a pas de monde qui pré-existe à notre action, c’est elle qui déploie le monde. Surtout, par le biais de ce qu’ils appellent “l’auto-poïèse”, ils tentent de penser l’émergence de règles, d’une vie pas complètement chaotique, sans présupposer le moindre “plan” au départ. Enfin, avec Austin et sa théorie des énoncés performatifs, Winograd et Flores mettent en avant une conception du langage qui ne soit pas pure communication mais acte de création. Non pas description d’un monde toujours à distance mais intervention et production de ce même monde (les exemples classiques d’énoncés performatifs sont ceux d’un juge qui profère sa sentence : “je vous condamne” ou encore la déclaration d’amour “je t’aime” qui ont des conséquences directes, qui produisent un état de fait différent après avoir été prononcés). Pour Winograd et Flores, il convient d’élargir cela au langage en général : chaque parole participe à l’élaboration toujours en cours du monde. Ce point est important puisque, par ailleurs, ils ont conscience que la programmation, en informatique, est l’invention et la manipulation de langages plus ou moins complexes : d’où l’idée que l’informatique est d’emblée la configuration d’un monde. “Les ordinateurs ont un impact particulièrement puissant, parce qu’ils sont des machines pour agir avec et dans le langage. En les utilisant nous nous engageons dans un discours dont les termes ont été définis par les programmeurs”.
LUND2021j.15
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Il faut reconnaître la subtilité de leur critique. Ils ne tombent à aucun moment dans un discours publicitaire sur les outils technologiques. Au contraire, ils s’en prennent même à l’usage à tout bout de champ du terme “intelligent” pour vendre de nouveaux produits aux propriétés très limitées. Ils attaquent fermement l’IA classique avec des arguments pertinents, mettent notamment en avant l’importance de l’invisible, c’est-à-dire du contexte, des intentions, des affects, qui permettent au langage de faire sens et de produire des opérations. Ils insistent aussi sur la dimension de ratage, de manque et de rupture qui permet de révéler notre rapport au monde : c’est quand un objet manque qu’il m’apparaît en tant qu’objet séparé ; c’est quand les choses ne marchent pas comme il faut qu’on doit les remettre en jeu – ici, en filigrane, se tisse une tendance qui a grandi aujourd’hui et qui fait de la crise un élément de progrès, via des concepts comme celui de résilience.
LUND2021j.16
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Après une critique assez large et plutôt subtile de la tradition rationaliste qui met en avant la raison et la représentation comme concepts phares pour intervenir sur le monde, les auteurs tentent de montrer quelques applications pratiques possibles de leur approche. Le lecteur touché par la dédicace liminaire au peuple chilien sera alors surpris de constater qu’ils s’adressent, en guise de peuple, aux managers. Puisque leur nouvelle approche, dans le fond, invite à réfléchir à l’action efficace plutôt qu’à la meilleure conception , il est logique pour eux de se tourner vers l’entreprise : “le problème n’est pas de choisir mais de produire” (p.227). Fidèles à une tradition libérale dans les études sur les institutions, ils définissent l’entreprise comme un “réseau de conversations” là où “les ordinateurs sont des outils pour diriger le réseau des conversations” (p.261). Pas d’illustration plus naïve et sincère de l’affirmation du CLODO (Comité pour la Liquidation ou le Détournement des Ordinateurs) selon laquelle “L’ordinateur est l’outil préféré des gouvernants”. Les informaticiens munis d’une solide philosophie du langage ont donc tout leur mot à dire sur la manière de gérer une entreprise et même une grande responsabilité puisque, selon leur mots, c’est la manière de nommer un problème qui décide de celui-ci. Dans cette optique, ils exposent les traits principaux d’un programme : le Coordinateur, lancé par Fernando Flores via son entreprise, Action Technologies, et permettant de fluidifier la communication et les interactions en entreprise. Ce programme organise la vie de bureau. L’enjeu est de faire mieux apparaître le contexte invisible du langage. Les emails doivent être labellisés comme des requêtes ou des offres ; certaines réunions doivent être étiquetées comme des “conversations pour l’action” ou des “conversations pour les possibilités”, etc. Un des enjeux était de faire voir tout ce qui normalement est invisible pour aider à la synchronisation des collaborateurs - on assiste en directe à la liquidation de l’analyse en terme de lutte de classe ou de rapports de forces, qui deviennent ici des “malentendus”. Ce programme s’est vendu à des milliers d’exemplaires et a inspiré des générations de start-upers.
LUND2021j.17
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Avant d’en venir à d’autres applications pratiques de cette approche, retenons qu’elle se base sur une vision du langage comme élément central dans la production d’un monde et, plus concrètement, dans le fonctionnement de l’action efficace, en particulier dans l’entreprise. L’ordinateur est alors logiquement mis à contribution puisqu’il est d’abord un outil pour diriger les conversations. Mais c’est via une approche relationnelle qu’il prend toute sa place : non comme une machine qui fera tout pour nous (une intelligence artificielle dans le sens publicitaire des mots), mais comme une machine avec laquelle nous interagissons et qui permet de meilleures interactions entre humains. “Dans tous les cas la question que l’on doit poser n’est pas une question abstraite du type ‘Quel est le système dont nous avons besoin ?’ mais très concrètement, ‘comment les différents outils nous mènent à des nouvelles conversations ainsi qu’à de nouveaux modes de travail et d’être ?’”. Trouver les nouveaux outils qui configurent le travail et l’être autrement, voilà ce que les auteurs entendent par le Design (traduit par “conception” dans la version française) et son usage ontologique (après eux, on parlera volontiers de design ontologique). Mais cette recherche de nouveaux outils ne doit pas être imposée brutalement, comme un plan qu’on appliquerait du haut : “Nous ne pouvons pas imposer directement une nouvelle structure à un individu, mais lorsque nous faisons des changements dans l’espace des interactions, nous déclenchons des changements dans l’horizon des préconditions de la compréhension” (p.270). C’est cet horizon des préconditions, invisible, contextuel, langagier, qui est leur cible, qu’il s’agit de toucher prudemment pour changer bientôt l’environnement des individus. Soit dit en passant, on reconnaît là une tendance à long terme de l’ère néo-libérale : éviter les plans préconçus que l’on applique d’un bloc à une situation et leur préférer des modifications de l’environnement, des conditions initiales, du contexte, afin que chacun évolue ensuite “naturellement” vers un nouvel état.
LUND2021j.18
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le livre de Winograd et Flores a été classé parmi les vingt livres les plus influents dans le domaine des technologies de la communication par le magazine Byte. Leur approche n’est donc pas passée inaperçue, et elle a même fait des émules. La filiation la plus célèbre est peut-être celle qui relie Terry Winograd à Larry Page, le fondateur de Google. H. Halpin et A. Monnin vont jusqu’à écrire que “Winograd et Flores avaient jeté les bases métaphysiques de Google”, qui consistent à se concentrer sur l’implication de l’utilisateur dans le monde (ce qu’il veut, ce qu’il cherche) plutôt que sur les classements logiques (par ordre alphabétique, par thème, etc) de l’information. C’est même l’expérience de cet utilisateur qui va permettre de rendre le moteur plus efficace, puisqu’on sait que sa pertinence vient en partie du fait qu’il nous redirige vers les pages les plus populaires d’abord, autrement dit celles que d’autres ont déjà visitées. Il se sert de l’expérience et des intentions plutôt que de la logique abstraite ; il repose sur une relation permanente avec l’utilisateur plutôt que sur une machine intelligente par elle-même. “Dans leur ré-interprétation radicale qui mélange ensemble Heidegger et la cybernétique, l’humain allait devenir une partie d’un système cognitif distribué d’un nouveau genre, qui apprend continuellement de ses erreurs. La technologie vise alors une intégration plus douce, voire invisible, avec l’humain.” (Halpin et Monnin, 2016).
LUND2021j.19
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Par ailleurs, Winograd a fait partie de l’équipe de Google à ses départs et c’est lui qui a conçu l’interface graphique de Caribou, l’ancien service de messagerie qui allait devenir Gmail, soit la messagerie la plus utilisée au monde. Au-delà de Google, il a influencé également Reid Hoffman, le fondateur de LinkedIn (2003). Ce dernier confie d’ailleurs l’importance de sa rencontre avec Winograd, qui l’a convaincu de l’importance d’étudier la philosophie. C’est notamment dans le champ de la communication et du travail qu’il a poursuivi les intuitions de Flores et Winograd : on comprend ici, avec LinkedIn, en quoi la technologie numérique accompagne les humains et transforme leur environnement, faisant au passage de chaque personne un entrepreneur connecté. Voila le sens de ’l’intégration douce’ des ’préconditions de la compréhension’ qui finissent par faire émerger ’de nouvelles manières d’être”.
LUND2021j.20
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Reprenant tous ces éléments de langage, une dernière filiation importante est celle qui relie Winograd et Flores à Mark Weiser et au Xerox Parc. Cette institution, aujourd’hui simplement dénommée le PARC pour Palo Alto Research Center, a été fondée en 1970 et se situe justement dans la droite lignée de la tendance qui a préféré se concentrer sur les relations humain-machine. On y retrouve par exemple Douglas Engelbart, inventeur de la souris ou encore Joseph Licklider, promoteur incessant de la “symbiose humain-machine”. C’est là-bas que sont développées parmi les premières interfaces graphiques afin de rendre l’usage de l’ordinateur plus commode pour un humain. Là-bas aussi que l’on conçoit les ordinateurs personnels et où Steve Jobs est venu faire un tour en 1979 avant de sortir le fameux Macintosh en 1984. Avec Mark Weiser, c’est l’étape d’après qu’il s’agit de penser.
LUND2021j.21
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Paru pour la première fois en 1988, l’article de Weiser intitulé “L’ordinateur pour le XXIe siècle” est fondateur de ce que l’on nomme parfois l’informatique ubiquitaire. Cette appellation a de quoi faire sursauter, et pour cause, elle désigne l’idée selon laquelle l’informatique doit investir l’ensemble des champs de la vie quotidienne sans que l’on se rende compte de son omniprésence. La première phrase de l’article visionnaire de Weiser est claire à ce sujet : “les technologies les plus abouties sont celles qui disparaissent. Elles se tissent dans la trame de notre quotidien jusqu’à s’y fondre complètement”. On retrouve exactement l’ambition de Winograd et Flores, celle d’occuper ou de viser “l’horizon des préconditions de la compréhension”, le contexte, la strate invisible qui conditionne le visible. Tout l’enjeu de l’article de Weiser est de décrire la troisième génération d’ordinateurs. La première était celle des grosses machines à calculer, chères et accessibles seulement à des chercheurs spécialisés et à l’armée. La deuxième génération, née dans les années 80, est celle de l’ordinateur personnel, qui est un pas important du côté de l’approche en terme de relation humain-machine : non plus construire des machines monstrueuses qui deviendront plus intelligentes que nous mais construire des appareils manipulables, pratiques, utiles dans notre quotidien. Mais Weiser voit l’étape d’après car, selon lui, l’ordinateur personnel est déjà quasi has been tant il requiert de l’attention et une fermeture de l’utilisateur à ce qui se passe autour de lui. Le monde fluctuant et interactif qui s’ouvre demande que l’on ne concentre pas toute son attention vers un seul objet. Il propose alors une vision dans laquelle l’informatique et les écrans disparaissent mais en un sens particulier : en se multipliant. C’est parce qu’ils deviennent omniprésents, partie intégrante de notre environnement immédiat, que les écrans peuvent « disparaître” dans la trame de notre quotidien. On le crédite parfois d’être à l’origine de l’Internet des objets et, plus généralement, de tout ce qui contribue à répandre l’usage de l’information sous ses multiples formes. Il rappelle par exemple que : “des ordinateurs servent déjà à activer le monde dans des interrupteurs lumineux, des thermostats, des autoradios, des fours. Ces machines et d’autres seront interconnectés dans un réseau ubiquitaire”. Cela est encore plus vrai aujourd’hui, d’ailleurs la filière automobile en subit les conséquences depuis la pénurie de micropuces présentes par centaines dans chaque véhicule. Mais en plus de répandre l’usage de l’information à tous les objets, il convient, selon Weiser, de repenser l’usage et la forme des ordinateurs eux-mêmes. Il propose alors trois tailles d’écrans, pour trois usages différents. Le plus petit écran (tab) doit faire la taille d’un post-it et on doit pouvoir l’emporter partout et l’utiliser rapidement. Vient ensuite un écran de la taille d’une feuille A4 (pad), également transportable, plus léger qu’un ordinateur mais qui peut servir de relais à ce dernier en y transférant toutes les données nécessaires. Enfin, un écran de la taille d’un tableau de classe (board) doit permettre d’effectuer des travaux collectifs au sein des entreprises. Le but de la manœuvre est de parvenir à ce qu’il y ait “des centaines d’ordinateurs dans chaque pièce”, avec le sens élargi qu’il a alors donné à la notion d’ordinateur. On laissera à chacun le loisir de constater à quel point ce Weiser avait, dès 1988, entrevu l’une des directions les plus importantes (et les plus lucratives) du développement technologique.
LUND2021j.22
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : La lignée philosophique présentée plus haut est également visible chez Weiser, qui cite même Heidegger et le concept de “ready-to-hand” ou objet sous-la-main, c’est-à-dire la manière dont notre appréhension d’une situation fait instinctivement ressortir ce qui peut ou non nous servir. L’important, souligne Weiser, c’est le fait que l’on puisse faire usage d’un tel objet sous-la-main sans avoir à y penser particulièrement afin de pouvoir se projeter sur de nouveaux objectifs. Il s’agit bien d’atteindre les conditions de possibilité d’expériences futures. Ce qu’il se garde de dire, c’est en quoi cette nouvelle technologie une fois devenue “naturelle” ou “invisible” transforme notre expérience des choses, des autres et du monde. Il n’a pas l’air de s’en soucier outre mesure, si ce n’est qu’il faut que les écrans arrêtent de faire écran, de confisquer notre attention démesurément. D’ailleurs, il théorisera par la suite ce qu’il appelle la “Calm technology”, soit la technologie douce, avec toujours la même idée : ne pas saturer l’attention des utilisateurs, offrir un environnement où les outils technologiques sont présents partout, en silence, jouant leur partition en attendant patiemment d’être sollicités.
LUND2021j.23
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : À cet égard, on pourrait dire que l’imposition du pass sanitaire ne relève pas franchement de la technologie douce et invisible. Sauf que l’argument de Weiser, on l’a vu, est plus brutal tout en étant plus subtil : la technologie devient douce non pas en s’effaçant mais par multiplication des dispositifs informatiques, par hypertrophie d’écrans et de capteurs, au point qu’on les oublie, qu’on n’y prend plus garde ; bref, on s’y habitue. Car derrière l’omniprésence technologique du pass, il y a la facilité d’usage, le bip qui nous permet depuis longtemps d’entrer dans un bus (on se demande d’ailleurs toujours pourquoi) ou une bibliothèque, le badge et bien sur le QR-code et les informations qu’il contient. Tout est là, à portée de main, en train de se fondre dans le décor à une vitesse ahurissante. Plus que le contrôle total qui effraie parfois, c’est ici sur les transformations insidieuses des modes de vie que nous insistons : il est souvent indispensable d’avoir son téléphone sur soi, on confie lentement nos vies à des appareils auxquels on ne comprend à peu près rien, on dépend de ces machines qui deviennent littéralement des prothèses. Celles-ci nous donnent en même temps accès à de nouvelles “manières d’êtres” qui seront, en retour, analysées puis converties en publicités personnalisées qui à leur tour généreront des pratiques, des données, des publicités, etc., dans un cercle sans fin que le schéma initial de la rétroaction indiquait partiellement.
LUND2021j.24
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Cela dit, que la technique devienne peu à peu notre environnement et non pas un simple moyen pour arriver à des fins, Leroi-Gourhan et d’autres s’étaient déjà chargés de le montrer et voilà maintenant quelques milliers d’années que ça dure. Reste que, dorénavant, cet environnement est d’un coté entièrement designé et maîtrisé alors qu’il est surtout subi du côté des utilisateurs. Se tourner alors du côté de la réappropriation de ces outils et de leur maîtrise “par le bas” est encore insuffisant puisque l’on sait les conséquences écologiques désastreuses du secteur numérique, plus polluant que l’aviation. Demeure alors la possibilité de cibler des dispositifs précis tout en s’attaquant au système qui les produit : c’est sans doute là une des raisons du mouvement en cours contre le pass sanitaire.
LUND2021m
La Cybernétique à l’assaut de l’Homme
La Cybernétique à l’assaut de l’Homme, Stéphane Zagdanski, in Lundi matin, #313, 22 novembre 2021, https://lundi.am/La-Cybernetique-a-l-assaut-de-l-Homme
LUND2021m.1
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Définie par son fondateur Norbert Wiener en 1948, dans son essai éponyme, comme : “Contrôle et communication dans l’animal et la machine”, la Cybernétique s’est déployée de manière si hégémonique qu’il n’est plus aujourd’hui un domaine intellectuel, social, politique, économique, scientifique, technologique ou idéologique qui n’y soit asservi. La crise pandémique contemporaine et sa réaction idéologique qu’est le sanitarisme même sont impensables sans la Cybernétique. Sans la Cybernétique, ni Finance contemporaine, ni Big Pharma, ni Statistique servant à la “gouvernance forte” des populations de la planète, ni bien entendu internet et les réseaux sociaux, ni l’informatique dont sont bourrés les écrans qui arraisonnent notre quotidien, ni l’Intelligence Artificielle, ni l’armement de défense et de destruction modernes, ni rien de ce qui fait la trame empoisonnée de l’existence du Numéricain en 2021 ne serait concevable. Ce que dissimule béatement la propagande néo-libérale, ce que sans doute elle n’a nullement les moyens de saisir, c’est qu’au parachèvement de la dichotomie entre l’“animal” et la “raison” correspond une mutation substantielle du Capitalisme, devenu intégralement algorithmisé sous l’espèce inédite de la “Finance”.
LUND2021m.2
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : La Cybernétique, donc, se fonde sur un nouage complexe entre le capitalisme algorithmique, le fantasme scientifique de l’auto-entreprise humaine, et l’atrophie universelle de la Parole en vue de mettre au pas toute Pensée créatrice.
LUND2021m.3
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le mot “cybernétique” est de la même étymologie grecque que “gouvernail” et “gouverner” : kubernetikè. La Domination planétaire tire ainsi le plus imparable parti de la Cybernétique, qui n’est pas tant la science des ordinateurs que la modalité moderne, mathématiquement assistée, de ce que Heidegger nomme la Führung, c’est-à-dire la direction impulsée par les “chefs” (les Führers), et de sa doublure d’animosité et d’annihilation à l’encontre de l’animal.
LUND2021m.4
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Dès son apparition, la Cybernétique était dotée de cette ombre dominatrice qu’elle feignit de feindre d’ignorer. Wiener prétendit en effet ne pas avoir su que le mot “cybernétique”, inventé par André-Marie Ampère en 1834 dans son Essai sur la philsophie des sciences, signifiait “l’étude des moyens de gouvernement”. Sa propre définition était : “We have decided to call the entire field of control and communication theory, whether in the machine or in the animal, by the name Cybernetics.” La première chose qui frappe est l’absence du mot “homme” dans ce beau programme éponyme. Wiener rectifiera le tir en 1950 dans son essai intitulé Cybernétique et société, sous-titré De l’usage humain des êtres humains. Voilà de quoi être rassuré…
LUND2021m.5
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : À la source de la Cybernétique est le désir de réguler automatiquement le fonctionnement d’une machine à vapeur, cette auto-régulation dépendant elle-même du principe de la rétro-action (une action dont l’effet soit aussi sa propre cause), autrement dit une action à laquelle la main de l’homme n’a plus de part.
LUND2021m.6
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Or, entre le principe de la rétro-action et celui de l’auto-régulation, s’insère un troisième principe sans lequel les deux premiers ne peuvent collaborer, qui est celui de l’information – lequel implique une certaine conception du langage.
LUND2021m.7
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Il faut comprendre que ce ne fut jamais la Technique qui prit modèle sur la Nature mais au contraire la Nature qui fut d’emblée comparée et conçue sur le modèle d’un dispositif technique. La navigation usuelle est ainsi confrontée à l’“irrégularité” naturelle des flots marins. Or cette irrégularité n’en est une que pour l’homme rationnel : pour le dauphin ou le phoque, cette irrégularité n’existe pas davantage que l’irrégularité des vents pour l’albatros : l’instinct animal improvise avec dextérité à chaque instant et jouit de ce qui, pour l’homme, n’est taxé d’“irrégularité” qu’en comparaison de la pure régularité circulaire de la logique. Le servomoteur est ainsi le fruit de cet idéal logique qui consisterait, davantage qu’à guérir cette “imperfection” naturelle, à la prévenir avant qu’elle ne surgisse. Et idéalement à l’annihiler.
LUND2021m.8
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Autre inspiration principale de la Cybernétique, de l’aveu de Wiener : la thermodynamique, où là encore il s’agit de faire fi du caractère singulièrement humain de l’observation – soit la relativité pour chacun du chaud et du froid –, et où l’information et la statistique jouent un rôle prépondérant. L’information parce que l’entropie, notion majeure en thermodynamique, est précisément associée à un défaut d’information : Le terme “‘entropie’ a été introduit en 1865 par Rudolf Clausius à partir d’un mot grec signifiant ‘transformation’. Il caractérise le degré de désorganisation, ou d’imprédictibilité, du contenu en information d’un système.” L’entropie est donc une notion commune à la thermodynamique (où elle exprime initialement “la quantité d’énergie qui ne peut se transformer en travail”, et plus généralement “le degré de désordre de la matière” – indexé sur quel hypothétique “ordre” de la matière ?) et à la théorie de l’information (où elle exprime “le degré d’incertitude où l’on est de l’apparition de chaque signal”). Quant à la statistique, elle est aussi au cœur du calcul thermodynamique, fondé sur la théorie atomique de la matière, puisque l’entropie est définie d’après une “variable d’état correpondant à une grandeur d’origine statistique”.
LUND2021m.9
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : C’est à New York, de 1942 à 1953 lors des conférences Macy, que naît la Weltanschauung cybernétique, laquelle correspond à un projet d’abord idéologique : il s’agit de créer un nouveau monde fondé sur une conception inquestionnable de l’humain. La probabilité d’une annihilation de l’humain supplanté par des machines n’est qu’une des conséquences, plausibles et revendiquées, de ce désir d’inquestionnabilité qui traverse toute l’histoire de la Cybernétique, depuis le régulateur à boules de Watt jusqu’à l’androïde “Atlas” de Boston Dynamics… Les conférences Macy élaborent ainsi le projet d’une collaboration interdisciplinaire de diverses expertises, mathématiques, anthropologie, psychologie, psychanalyse non freudiennne, économie, logique…, en vue d’édifier une “science générale du fonctionnement de l’esprit”. Les mathématiques et la logique sont bien entendu les références majeures de ces conférences. On y retrouve l’ancêtre auto-régulateur à boules de James Watt dans le concept principal qui nourrit leurs réflexions, et qui reste la part privilégiée de Wiener : “Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems”. La causalité circulaire, appréhendée dans le phénomène de feedback ou “rétroaction”, est définie comme “processus dans lequel un effet intervient aussi comme agent causal sur sa propre origine, la séquence des expressions de la cause principale et des effets successifs formant une boucle dite boucle de rétroaction”. Une autre formulation, par Heinz von Foerster à partir des années cinquante, est celle de “mécanismes qui produisent eux-mêmes leur unité (self-integrating mechanisms)”. C’est là, pendant ces conférences Macy que se formalise et se conceptualise l’idée littéralement folle d’un auto-entrepreneuriat de l’homme par l’homme. La 5e conférence, en 1948, qui porte le même intitulé que la 1re et la 4e : Circular Causal and Feedback Mechanisms in Biological and Social Systems, est consacrée à la structure du langage. Roman Jakobson y participe. C’est la même année que McCulloch déclare que “du point de vue de l’analyse qu’on peut en faire, ‘il n’y a pas de différence entre le système nerveux et une machine informatique’”. À partir de 1949, le terme “Cybernétique” est officiellement appliqué à la série des conférences, comme condensé de l’intitulé initial : Cybernetics: Circular Causal and Feedback Mechanisms in Biological and Social Systems. Comme d’habitude, le style de ces grands délirants les trahit d’avantage que toutes leurs équations. Deux participants à la 7e conférence en 1950, Pitts et Stroud, évoquent “l’immense perte d’information” entre les organes des sens et notre “computer” mental. C’est la dernière conférence à laquelle assistent Wiener et Von Neumann, qui passent la main au mathématicien Claude Shannon, père de la “théorie de l’information”. Psychiatres et psychologues, spécialistes de l’hypnose et Gestalt thérapistes accompagnent depuis le début cette aventure qui ressemble à s’y méprendre à l’Académie d’exaltés dingos de Lagado décrite par Swift dans ses Voyages de Gulliver. Voici par exemple comment Willard Rappleye, le président de la fondation Macy, résume en 1955 leurs découvertes : “Les conflits sociaux sont en réalité les symptômes de causes sous-jacentes : la psychiatrie nous enseigne la nature de ces causes. Par conséquent, les Insights et les méthodes de la psychiatrie, de la psychologie et de l’anthropologie culturelle élucident les perturbations émotionnelles du monde.” Une société qui va mal n’est donc pas une société où le riche exploite le pauvre, comme on l’imagine depuis la plus haute Antiquité jusqu’aux Gilets Jaunes. C’est une société “émotionnellement perturbée” dont la Psychiatrie est à même de résoudre tous les symptômes. Freud y est banni d’emblée. Lors de la conférence de 1946, toujours sous l’égide du même intitulé : “Mécanismes de rétroaction et Systèmes causaux circulaires dans les Systèmes biologiques et sociaux”, Norbert Wiener remet en cause le concept freudien de Libido, sous prétexte que “l’information est un concept de base plus approprié pour décrire des évènements psychologiques”. Pourquoi ? Comment ? Bien malin qui le dira. Lorsque les Conférences Macy s’interrompent, en 1953, le ver cybernétique est dans le fruit de la connaissance universelle. Dans le sillage des conférence de Macy a lieu en 1956 une conférence majeure au MIT, consacrée aux sciences cognitives, à laquelle participe le jeune Noam Chomsky, dont les Structures syntaxiques, parues en 1957, signeront le triomphe des théories cybernétiques made in MIT appliquées au langage. Une sorte de boucle est bouclée qui va de la circularité causale à la grammaire universelle, et dont il ne semble pas que les dingos swiftiens qui l’ont élaborée ne soient en mesure de percevoir les conséquences désastreuses sur le cours du monde ni la raison profonde de l’intérêt jamais démenti du Departement Of Defense et de la DARPA à leurs si mirobolantes inventions.
LUND2021m.10
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Très vite la Cybernétique se déploie comme science humaine – elle a son mot à dire sur l’homme en son entier – à visée de science exacte – elle naît d’un idéal de régularité logique (la “causalité circulaire”) et tend à y retourner sans cesse. L’irrégulier, l’incertain, le miracle et l’imprévisible sont ses pires ennemis. Et ce que cette science qui se veut exacte vise à son insu, c’est d’emblée ni plus ni moins ce qu’il y a de plus imprévisible au monde : l’inspiration, soit la vraie pensée créatrice qui n’a rien à voir avec l’intelligence, artificielle ou pas (relisez le Contre Sainte-Beuve de Proust), et qui par essence, comme le sable selon Pindare, “échappe au calcul”. “Le premier jour”, raconte Wiener à propos d’une réunion avec McCulloch datant de 1945, “Von Neumann parla de machines à calculer et moi d’ingénierie de la communication. Le deuxième jour, Lorente de Nó et McCulloch firent en commun une présentation très convaincante de l’état actuel du problème de l’organisation du cerveau. À la fin, nous étions tous convaincus du fait que les sujets portant sur l’ingénierie et sur la neurologie ne font qu’un, et que nous devrions réfléchir à créer un projet de recherche permanent dans lequel nous pourrions développer ces idées.”
LUND2021m.11
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Wiener est un enfant prodige, fils d’un spécialiste des langues condisciple de Zamenhof, l’inventeur polyglotte de l’espéranto, la langue universelle. Norbert sait lire à un an et demi et est éduqué (et un tantinet martyrisé) à domicile par son père jusqu’à l’âge de sept ans. Le père l’oblige à ingurgiter des centaines de livres jusqu’à la nausée, au point que Norbert souffre d’une myopie grave qui l’oblige à cesser toute lecture pendant six mois. Inutile de dire qu’on est, dans ces milieux juifs polyglottes complètement déjudaïsés, à mille lieues de l’éducation juive traditionnelle où ce qui se transmet par l’exemple (davantage que par la coercition) n’est pas tant le savoir en soi que sa jouissance, le plaisir d’étudier, vécu quotidiennement dans tous les détails par toute la famille. Elias Canetti, qui appartenait à un milieu comparable à celui de Wiener ou von Neumann de Juifs polyglottes déjudaïsés hyper-cultivés, raconte aussi dans Le flambeau dans l’oreille comment sa mère l’initia despotiquement et sadiquement à l’apprentissage de la langue allemande.
LUND2021m.12
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Rafael Lorente de Nó, dont il est aussi question dans l’anecdote précédemment citée, est un neurophysiologiste espagnol. Hormis ses travaux neurologiques, il a décrit avant même Turing le phénomène des “recurrent circuits” qui auront une importance majeure en cybernétique.
LUND2021m.13
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Waren McCulloch, neuro-psychiatre et mathématicien, fondateur des conférences de Macy, à New York (1942-1953), auxquelles participera d’emblée Norbert Wiener, et qui décrivant en 1943 le système neuronal selon le principe sans nuance du “tout ou rien”, “situe celui-ci dans la catégorie des modèles logiques (ceci l’amènera à la théorie des automates et ouvrira à l’élaboration d’automates ‘auto-régulés’ ). À l’instar d’Alan Turing, il considère les fonctions de l’esprit comme une fonction mathématique (un opérateur transformant des entrées en des sorties)”.
LUND2021m.14
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le plus représentatif de l’esprit cybernétique de la bande semble bien John von Neumann (1903-1957), mathématicien et physicien dont les contributions se retrouvent aussi bien en logique formelle qu’en mécanique quantique, en économie, en informatique, et last but not least dans l’arme atomique. Il est en effet un des participants actifs au projet Manhattan qui verra se développer et s’appliquer la bombe génocidaire américaine. Né en Hongrie d’une famille juive déjudaïsée, von Neumann était, comme Wiener, un enfant prodige. À six ans, il converse couramment avec son père en grec ancien et peut faire mentalement une division à huit chiffres. À huit ans, il aurait lu et intégralement mémorisés les 44 volumes de l’histoire universelle de la bibliothèque familiale. Gavé comme une oie d’un savoir universel artificiel, c’est le même homme qui, participant au projet Manhattan (ce que Wiener refusa, se consacrant exclusivement aux techniques de défense aérienne), découvrira qu’une bombe atomique fait d’autant plus de dégâts qu’elle explose non pas au sol mais à une certaine altitude optimale. Qu’il s’agisse de logique, de mécanique quantique, d’économie ou même de bombe, les problèmes qu’il s’agit de résoudre sont, au fond, les mêmes qui se posaient déjà en navigation (kubernétikè, “art de piloter un navire”) : l’imprédictibilité, l’indétermination, l’incalculable, l’imprévisible, bref ce que l’auto-régulation et la causalité circulaire sont censées contrecarrer, et qui revient toujours à la mise hors-jeu du facteur le moins prévisible qui soit – au point que son nom même n’est toujours pas arrêté et fluctue au gré des langues et des cultures… J’ai nommé, Mesdames Messieurs : l’être humain. Von Neumann ne le formule pas ainsi, mais cette répulsion pour l’imprévisible inventivité propre à l’âme humaine suinte de chaque fragment de sa rhétorique polytechnicienne. En logique formelle, par exemple, le “souci axiomatique qui caractérise” von Neumann selon sa fiche Wikipédia, le pousse à élaborer “une formulation mathématique unique, unificatrice et satisfaisante de la théorie”. Mais c’est dans le domaine militaire qu’éclate le plus clairement cet agacement de l’imprédictible facteur humain pour le prodigieux logicien soucieux d’axiomatique. Von Neumann collaborera activement au génocidaire programme Manhattan, mettant au point les “lentilles explosives” de la première bombe A, et procèdant aux calculs pour déterminer l’altitude d’explosion optimale des deux bombes lancées sur Hiroshima et Nagasaki afin de “maximiser l’étendue des dégats causés”. Il fait également partie du comité chargé de sélectionner les cibles de la bombe atomique (aucune des villes envisagées n’est un enjeu militaire). Il préconise le centre de Kyoto, soit l’ancienne capitale impériale, cultuelle et culturelle du Japon. Ce choix n’est pas plus objectif que les autres décisions axiomatiques de von Neumann. Il s’agit d’une furie revancharde de la part du triste gamin prodige à qui on a fait ingurgiter toute l’encyclopédie du savoir universel, de même que n’est pas neutre la décision américaine d’épargner Kyoto (à quoi sera substituée Nagasaki), due au secrétaire à la Guerre Henry Stimson, qui “affectionnait tout particulièrement Kyoto où il avait passé sa lune de miel 30 ans auparavant”. Chassez l’imprédictible facteur humain par la porte de la black box cybernétique, il revient par la fenêtre. La rationalité, par conséquent, n’avait rien à voir dans des décisions aussi cruciales que celle d’annihiler en quelques micro-secondes des milliers d’êtres humains. L’un des arguments de l’équipe du Projet Manhattan en faveur du bombardement de Kyoto était précisément qu’il s’agissait d’une ville universitaire, et qu’ils “pensaient que les habitants seraient plus à même de comprendre que la bombe atomique n’était pas juste une arme de plus – qu’elle constituait quasiment un tournant dans l’histoire de l’humanité”. L’argument semble délirant, il n’est en réalité qu’à la mesure de ce dont il s’agit : Vitrifiez-moi ces intellectuels pour bien leur faire comprendre que la Cybernétique est l’autre et nouveau nom du monde. Enfin, bien sûr, l’éclectique von Neumann contribua également au déploiement du domaine informatique, où la vitesse de calcul des ordinateurs jouait un rôle majeur dans le développement de l’arme atomique. Tout cela le mènera à envisager dans les années 50 l’hypothèse de la “singularité technologique”, qui couronne en quelque sorte sa carrière mentale. Selon cette hypothèse, “l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou ‘supraintelligence’ qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une ‘explosion d’intelligence’, créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine.”
LUND2021m.15
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le point aveugle de ces maniaques, c’est leur concept de base, ce qu’ils appellent “l’intelligence”. Car leur conception de l’“intelligence” n’est jamais remise en question par les promoteurs de l’IA, qui proviennent tous toujours du même sérail mathématico-scientifique (le MIT principalement), capable de bien des choses (ils envoient des hommes sur la lune et des drones sur Mars), mais de penser créativement, jamais. Plus exactement, ils ne remettent jamais en question l’axiome selon lequel l’intelligence se réduirait à une fonction gestionnaire et calculatrice, axiome qu’ils n’ont pas déniché dans l’étude des plus grands écrivains, ni des grands peintres ni des musiciens virtuoses, mais dans l’observation de leurs propres machines auto-régulées… Un célèbre génie du XXe siècle a formulé : “Les ordinateurs ne servent à rien, ils ne savent donner que des réponses”. De tels propos subversifs ne sont pas envisageables pour l’un des principaux spécialistes de l’IA, Marvin Minsky (1927-2016), collaborateur et disciple de McCulloch, qui avoua avoir songé à l’IA pour la première fois en observant un bras articulé connecté à une caméra manipuler des briquettes de jeux d’enfants.
LUND2021m.16
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le propre du génie, c’est qu’il est inspiré. “Je ne cherche pas, je trouve.” Le génie n’est pas un type qui calcule, qui ordonnance, qui hiérarchise, qui accumule du savoir ou quoi que ce soit d’autre. Le génie ne thésaurise pas, il fait des trouvailles. Cela est inenvisageable pour ces abrutis du MIT qui témoignent à l’égard de la génialité d’une forme de candeur, de bêtise perverse, y compris lorsqu’il s’agit de mathématiciens de haut niveau. Seuls les plus géniaux parmi les mathématiciens sont proches des philosophes et des artistes, et se montrent entièrement acquis à la trouvaille poétique. Qu’on songe à Wittgenstein. Un grand philosophe, disait Deleuze, est quelqu’un qui invente des concepts. Or la Cybernétique n’est pas un concept inventé. C’est un complexes de fantasmes dévorateurs appliqué à se jeter comme sur une proie à l’assaut de l’ensemble de la réalité : la nature, les animaux, les humains, les sociétés.
SEGA2020
Le zéro et le un
Jérôme SÉGAL, Le zéro et le un. Histoire de la notion scientifique d’information au XXe siècle, Paris, Éditions Matériologiques, 2020 [2003].
SEGA2020.1
Cf. Ségal, Le zéro et le un, op. cit., p. 20 : À partir du moment où l’information est définie comme notion scientifique, que ce soit avec des zéros et des uns ou sous des formes plus compliquées ou moins clairement définies, les attitudes oscillent entre rationalisme appliqué et fascination mystique.
SEGA2020.2
Cf. Ségal, Le zéro et le un, op. cit., p. 102-103 : Avec la parution en 1847, de Mathematical Analysis of Logic, la logique devient à la fois symbolique et mathématique puisque le calcul des propositions peut dès lors s’effectuer à partir d’une structure algébrique. En somme, pour rendre compte brièvement de ce développement on pourrait considérer, dans une interprétation positiviste, que la logique quitte l’herméneutique philosophique pour se ranger sous une discipline mathématique, la théorie des anneaux et des algèbres. Le raisonnement devient ”calcul” indépendamment de l’interprétation qu’on peut donner aux symboles. Si nous décrivons ici (à très grands traits) le cadre historique dans lequel se situent les travaux de Boole, c’est bien parce que Shannon s’intéresse directement aux écrits du logicien britannique tout le long de son mémoire intitulé “De l’analyse symbolique des circuits de relais et de commutateurs”.
SEGA2020.3
Cf. Ségal, Le zéro et le un, op. cit., p. 126 : Au sujet de ses recherches en DCA, Wiener écrit en 1958 : “J’avais en vue une méthode de prédiction basée sur des considérations mathématiques purement abstraites.”
SEGA2020.4
Cf. Ségal, Le zéro et le un, op. cit., p. 274-275 : Très schématiquement, il est possible de considérer que l’ingénieur des télécommunications (ou le cryptographe) dispose de données qu’il doit transmettre et qu’il doit d’abord caractériser. Le statisticien doit quant à lui trouver les données qui représentent une population, et, enfin, le physicien conçoit des expériences qui, grâce à des mesures, lui apportent des données. Ceci correspond au schéma général de MacKay dans lequel il est toujours question de création ou d’addition de représentation. Dans chaque cas, on peut définir des sélections qui permettent d’arriver à une expression mathématique de la notion d’information et c’est précisément la valeur heuristique de cette définition qui permet à un psychiatre qui n’est pas neurophysiologiste ou un mathématicien qui n’est pas ingénieur des communications (mais intéressé par la cryptographie) d’apporter des points de vue résolument novateurs dans des disciplines qui ne sont pas les siennes. C’est cette démarche qui est typique de la théorie de l’information plus que de la théorie mathématique de la communication.
SEGA2020.5
Cf. Ségal, Le zéro et le un, op. cit., p. 380 : L’automatisation qui y était rattachée [à la cybernétique] rappelait trop certains aspects du taylorisme et se présentait en opposition face à l’automatisation vue par les Soviétiques, à savoir un moyen de libérer l’ouvrier pour lui rendre possible un travail plus créatif [“Et voilà comment les mêmes données technologiques conduisent, selon la classe qui s’en empare, à la libération de l’homme comme en URSS ou à la mécanisation de l’homme comme aux USA” (LENTIN A., “La cybernétique : problèmes réels et mystification”, La Pensée, n° 47, mars-avril 1953, p. 59).]. Dans ce cadre, la définition même du travail à partir de la théorie de l’information (d’où seront issues des notions comme celle de capital humain) aurait pu pour le moins relativiser l’importance des rapports de classe et se serait heurtée à la variante soviétique du marxisme.
SEGA2020.6
Cf. Ségal, Le zéro et le un, op. cit., p. 381 : […] la cybernétique représentait un certain danger pour quelques disciplines : en économie, la cybernétique pouvait justifier avec la théorie des systèmes autorégulés le système capitaliste, tel qu’il était vulgarisé dans des règles comme “l’offre et la demande déterminent le marché”. En 1952, la revue de vulgarisation Scientific American avait déjà présenté le schéma de Keynes de l’économie à l’aide des représentations cybernétiques. Cette présentation prenait immanquablement l’apparence d’une justification [TUSTIN A., “Feedback”, Scientific American, 186, sept. 1952, p. 48-55. À une époque où les sciences dites exactes s’imposent en modèle de la connaissance, le simple fait de représenter une théorie économique suivant un formalisme éprouvé par les scientifiques suffit à certains pour y voir là une légitimation.].
SEGA2020.7
Cf. Ségal, Le zéro et le un, op. cit., p. 381 : […] de nombreux écrits des premiers cybernéticiens ou théoriciens de l’information amenaient à considérer l’argent comme une valeur essentielle. Le fait que l’information soit présentée comme une nouvelle grandeur, entre l’énergie et celles qui concernent la matière, conduisit quelques scientifiques à comparer l’information et la monnaie ou même à exprimer l’information en dollars. MacKay, qui définit l’information en rapport avec une expérimentation physique, écrit par exemple en 1950 que le but de sa publication est “d’isoler le concept abstrait qui représente la devise réelle des échanges scientifiques”. Lors de la discussion qui suit l’exposé de MacKay à la huitième conférence Macy, un an plus tard, nous avons signalé cette phrase quelque peu provocante de Savage, “la valeur de l’information c’est sa valeur cash, prenant ‘cash’ dans un sens métaphorique”. On conçoit que ce type de métaphore ne soit pas du goût des marxistes. De plus, toute une interprétation de la théorie des jeux faisait l’objet d’interprétations dans le même sens et plaçait de facto la cybernétique dans des enjeux idéologiques. Mandelbrot explique ainsi dans sa thèse que la théorie des jeux de stratégie de Borel s’applique à l’économie politique, car il s’agit dans les deux cas “d’organiser des mouvements en une stratégie en vue d’un gain” et que dans ce cas c’est “la mathématique du conflit” qui s’impose.
SEGA2020.8
Cf. Ségal, Le zéro et le un, op. cit., p. 391 : Les formations personnelles ont aussi leur importance. Shannon consacre une thèse de mathématiques à la création d’une algèbre applicable à la génétique mendélienne et, travaillant de plus sur des modes de cryptographie séquentiels, il en vient rapidement à penser tous les phénomènes de télécommunications selon des modèles mathématiques discrets. Il n’utilise que rarement les intégrales portant sur l’ensemble des nombres réels alors que Wiener qui avait travaillé depuis son analyse du mouvement brownien sur l’analyse harmonique aborde la notion d’information en partant de la théorie des filtres et de la théorie mathématique de la prédiction.
SEGA2020.9
Cf. Ségal, Le zéro et le un, op. cit., p. 481 : “Les physiciens décrivent le langage à l’aide de mathématiques continues comme l’analyse de Fourier ou la fonction d’autocorrélation. Au lieu de cela, les linguistes décrivent le langage en utilisant des mathématiques discontinues ou discrètes nommées ‘linguistiques’. La nature de ce calcul singulier est soulignée et justifiée ici. La communication par la parole est traitée comme ayant une structure télégraphique (les non-linguistes n’arrivent normalement pas à s’orienter dans cette discipline, car ils traitent la parole par analogie avec le téléphone). La structure code-télégraphe du langage est examinée de bas en haut et à chacun de ses niveaux de complexité (comparée au niveaux du code Morse) on montre comment sa structure est définie par les possibilités ou impossibilités de combinaison parmi les unités de son niveau. Au-dessus du niveau le plus haut, on trouve, à la place de telles restrictions absolues, des probabilités conditionnelles d’occurrence : c’est le champ sémantique, en dehors de la linguistique, où les sociologues peuvent travailler. En dessous du niveau le plus bas, on trouve, à la place de telles restrictions absolues, des probabilités conditionnelles de la qualité phonétique : c’est le champ phonétique, en dehors de la linguistique, où les physiciens peuvent travailler. Ainsi la linguistique est particulière parmi les systèmes mathématiques en ce sens qu’elle s’appuie sur la réalité en deux endroits à la place d’un. Cette déclaration équivaut à définir une langue comme un système symbolique ; c’est-à-dire comme un code.” [JOOS M., “Description of Language Design”, The Journal of the Acoustical Society of America, 22, 1, o. 701, nous soulignons.]
SEGA2020.10
Cf. Ségal, Le zéro et le un, op. cit., p. 560 : Dès 1949, Weaver avait signalé l’incapacité du modèle de Shannon à rendre compte de la dimension sémantique de l’information. Le sens de l’information n’apparaît que si l’on accorde un rôle actif au récepteur, ce que ne prévoit pas son schéma. En génétique moléculaire le message est un ordre, il est donc intrinsèquement lié à l’activité du récepteur et c’est ce qui fait dire à Keller qu’il y a un “abîme” entre les deux notions d’information, en génétique et dans la théorie mathématique de la communication.
SEGA2020.11
Cf. Ségal, Le zéro et le un, op. cit., p. 639 : L’informatique ne concerne pas tant la transmission d’information que son traitement dans plusieurs voies de communication. Là encore, la dimension sémantique de la notion commune d’information n’est pas prise en compte et si dans une voie de communication habituelle (du type de Shannon, concernant avant tout les télécommunications) ce sont l’émetteur et le récepteur qui “interprètent” l’information, la combinaison de plusieurs voies de communication dans l’ordinateur suscite une évolution conceptuelle importante que reflètent encore aujourd’hui des termes comme “interpréteur de commande” ou “langage machine”.
SEGA2020.12
Cf. Ségal, Le zéro et le un, op. cit., p. 642-643 : C’est parce que l’informatique ne peut traiter le sens des messages, activité éminemment “humaine”, que l’intelligence artificielle est condamnée à la simple réalisation d’objectifs qui pour l’Homme nécessiteraient une certaine forme d’intelligence (seulement logico-mathématique). Attribuer une “intelligence” à la machine relève alors d’une vision avant tout réductionniste et, là encore, fortement anthropomorphique.
SEGA2020.13
Cf. Ségal, Le zéro et le un, op. cit., p. 657 : On doit cesser selon [Licklider] de considérer l’ordinateur comme une calculatrice hyperrapide et l’utiliser davantage comme un outil de modélisation.
SEGA2020.14
Cf. Ségal, Le zéro et le un, op. cit., p. 676 : C’est cette déréalisation progressive des processus de connaissance qui donne naissance à ce “monde du virtuel” dont les publicitaires profitent aujourd’hui en lançant des expressions comme “cyberespace”, “cybersexe” ou encore “cyberpunk” dans lesquelles seul le préfixe “cyber” témoigne du rôle de la théorie de la communication et de la cybernétique.
SEGA2020.15
Cf. Ségal, Le zéro et le un, op. cit., p. 676-677 : Cette abstraction progressive de ce qui est au départ un acte profondément humain, la communication, s’inscrit dans un processus historique marqué par la mathématisation rendue possible par le modèle de Shannon (plus connu que ceux de Gabor, MacKay, etc.), par l’essor de l’informatique (l’ordinateur comme boîte noire chez Zemanek et le “collègue” pour Licklider), par l’automatisation introduite de façon résolument fondamentale par la cybernétique (appliquée dans des objectifs militaires comme le projet SAGE) et, enfin, par des techniques et des algorithmes qui confient à la machine le soin d’acheminer l’information par une voie quelconque. Telles sont, à partir de la théorie de l’information et du discours qu’elle engendre, les grandes modifications qui se dessinent dans l’évolution des rapports de l’Homme à la technique.
SEGA2020.16
Cf. Ségal, Le zéro et le un, op. cit., p. 696 : Une fonction portant sur une suite de chiffres binaires est dite calculable s’il existe une machine de Turing qui, partant de la même suite, donne le même résultat. La thèse de Church-Turing stipule que toute fonction calculable dans un sens intuitif (par un homme par exemple) l’est dans le sens formel ici exposé. La machine universelle de Turing est alors une machine sur laquelle on peut exécuter toutes les tâches qu’on accomplirait avec des machines de Turing particulières.
SEGA2020.17
Cf. Ségal, Le zéro et le un, op. cit., p. 725 : Définie dans un cadre probabiliste, l’information définie par Shannon est aussi un concept mathématique et au regard des études sur la calculabilité et l’algorithmique, l’information est au centre de toute réflexion sur la signification des résultats sortant d’un ordinateur.
SEGA2020.18
Cf. Ségal, Le zéro et le un, op. cit., p. 789 : Retenant généralement sous la dénomination “théorie de l’information” une théorie aux frontières mal définies regroupant la cybernétique et la théorie mathématique de la communication, nous avons déjà plusieurs fois été amenés à évoquer le thème de l’unité des sciences. Qu’il s’agisse des visées universalistes de Wiener lorsqu’il rédige Cybernetics, des recherches mathématiques de Schützenberger, Mandelbrot ou Kullak visant au début des années 1950 à démontrer “l’unité” sous-jacente aux différentes définitions de la notion scientifique d’information, ou encore de l’application “totale” de la cybernétique décrétée en RDA au cours des années 1960, l’unité des sciences apparaît souvent comme une motivation philosophique, comme la justification de nouvelles applications ou comme l’ambition d’un programme scientiste tendant à tout soumettre à une même procédure scientifique. La première étude historique sur la théorie de l’information permet déjà de cerner le cadre de notre propos. Cherry écrit en 1951 [CHERRY E.C., “A History of the Theory of Information”, The Proceedings of the Institution of Electrical Engineers, Part III, 1951, p. 389.] : “C’est apparemment pendant les années juste avant la Seconde Guerre mondiale que les idées, concepts de base et méthodes de l’ingénierie des communications devinrent largement applicables à d’autres domaines spécialisés de la science. Depuis 200 ans, aucun homme n’avait été capable de se repérer dans toute la science. L’intensité de la spécialisation a sans cesse augmenté et a été nécessairement accompagnée de la duplication de beaucoup de travaux. Aujourd’hui, s’aventurer hors de son propre domaine de recherche est se soumettre à l’accusation de dilettantisme. Le filon a été pris par Norbert Wiener qui, avec Rosenblueth, a appelé ce champ cybernétique.”
SEGA2020.19
Cf. Ségal, Le zéro et le un, op. cit., p. 826-827 : Sur le plan philosophique, c’est dans les écrits de Gilbert Simondon qu’on trouve, dix ans auparavant, en 1958, une distinction entre “forme” et “information” qui s’appuie également sur les caractéristiques du vivant. Il fait d’ailleurs le parallèle entre la théorie de l’information et l’énergétique pour mettre en avant une “nouvelle phase de la philosophie des techniques”, l’information étant, conformément à l’esprit du modèle de Shannon, “à mi-chemin entre le hasard et la régularité absolue”. Le philosophe de la technique écrit : “Un important hiatus existe en effet entre le vivant et la machine, et par conséquent entre l’homme et la machine, qui vient de ce que le vivant a besoin d’information, alors que la machine se sert essentiellement de formes, et est pour ainsi dire constituée avec des formes.” Ces formes sont pour Simondon des “conditions d’information” puisque l’information n’est que la variabilité des formes. La signification demeure une production humaine, le sens donné par le sujet à l’information. C’est l’homme qui découvre les significations : la signification est le sens que prend un événement par rapport à des formes qui existent déjà ; la signification est ce qui fait qu’un événement a valeur d’information. Ainsi, c’est immanquablement par une allusion au sens commun du mot “information” qu’il peut être question de sémantique.
SEGA2020.20
Cf. Ségal, Le zéro et le un, op. cit., p. 829-830 : Si Shannon s’est toujours gardé de vouloir appliquer sa théorie mathématique de la communication dans des domaines étrangers aux techniques de télécommunication, le fait d’avoir défini une “unité” dans une théorie mathématique (utilisant un néologisme) a suscité au moins la curiosité chez bon nombre de chercheurs. Bien que défini de façon très précise dans la publication de 1948 (sous les hypothèses rappelées plus haut), le bit fut parfois utilisé de façon très peu rigoureuse, un peu à la manière des monades de Leibniz censées représenter l’expression de la multiplicité dans l’unité. En ce sens, on peut considérer que la théorie de l’information a pu s’imposer comme un outil essentiel dans toute pensée du discret qui cherche à s’appuyer sur une théorie quantitative. La définition d’une nouvelle constante physique à partir de l’information, tel que Gilles Cohen-Tannoudji a pu le proposer, ne fait que renforcer cette thèse selon laquelle l’information serait une grandeur fondamentale discontinue. De plus, le fait de pouvoir “mesurer” l’information, grâce à la définition d’une unité, contribue à rendre cette grandeur réelle et objective, objet emblématique d’un ralliement traversant les disciplines. On voit donc comment les deux sens du mot “unité”, la “chose qui est une” et le “caractère qui est un” se répondent mutuellement, l’unité des sciences étant rendue possible par la définition d’une unité d’information.
SEGA2020.21
Cf. Ségal, Le zéro et le un, op. cit., p. 834 : Le sens technique de la théorie de l’information à laquelle on rattache ici l’automation pose de manière frontale le problème du rapport de l’Homme à la technique dans ses aspects éthiques. Le thème de la déresponsabilisation fait ainsi partie des questions de société qui mériteraient sans doute d’être davantage débattues. Notre analyse de la dimension sémantique de l’information nous a amené rapidement à nous pencher sur le sens non seulement de la notion d’information, mais aussi, à un niveau logique supérieur, de la théorie de l’information. Schématiquement, la théorie de l’information reflète trois tendances parfois contradictoires. La théorie de l’information peut premièrement se présenter comme une théorie en devenir visant à rendre compte de tous les phénomènes impliquant la notion d’information quel que soit le sens du mot “information” et le domaine d’étude envisagé. Deuxièmement, il peut être question d’un sens “mathématique”, l’application d’un formalisme mathématique lorsque les hypothèses nécessaires sont vérifiées. Enfin, la théorie de l’information peut relever d’un sens technique, tantôt simple expression de résultats limitatifs d’ordre général et tantôt emblématique de l’automation dans ce qu’elle implique dans la philosophie de la technique. Ainsi, s’il devait être question d’une “culture de l’information”, avec tous les risques de confusion inhérents au choix d’une expression concise et déjà figée pour décrire une idée encore protéiforme, cela pourrait correspondre à ce réseau dans lequel s’entrelacent les trois significations de la théorie de l’information que nous venons de décrire.
SEGA2020.22
Cf. Ségal, Le zéro et le un, op. cit., p. 876 : […] un article publié dès 1945 sur “le rôle des modèles dans la science” par Wiener et Rosenblueth mérite notre attention. Leur définition du modèle formel est la suivante : “L’abstraction consiste à remplacer une partie de l’univers en considération par un modèle de structure similaire, mais plus simple. […] Un modèle formel est une assertion symbolique en terme logiques d’une situation simple relativement idéalisée partageant les propriétés structurelles du système d’origine factuelle [ROSENBLUETH A. & WIENER N., “The Role of Models in Science”, Philosophy of Science, 12, 1945, p. 316, nous soulignons].” Si l’attention particulière portée à la structure ne suffit pas à qualifier ces propos de structuralistes (ce qui serait d’ailleurs anachronique et nous avons vu par exemple que l’étude comportementale menée par ces deux auteurs avec Bigelow, deux ans plus tôt n’a rien de “behavioriste”), on voit cependant comment la modélisation cybernétique sera amenée à privilégier une vision synchronique aux dépens d’une analyse diachronique prenant en compte l’historicité de la problématique scientifique.
SEGA2020.23
Cf. Ségal, Le zéro et le un, op. cit., p. 877 : Avec les recherches très pragmatiques menées pendant la Seconde Guerre mondiale, la modélisation a pris une place importante, même si les réflexions quant au “modèle” scientifique ont bien entendu une historicité propre. Amy Dahan-Dalmedico rappelle à bon escient cette phrase de von Neumann : “Les sciences n’essayent pas d’expliquer, elles essayent tout juste d’interpréter et font surtout des modèles [Von Neumann cité par DAHAN DALMEDICO A., “L’essor des mathématiques appliquées aux États-Unis : l’impact de la Seconde Guerre mondiale”, Revue d’histoire des mathématiques, 2, 1996, p. 179.].” L’approche synchronique qui caractérise les écrits de von Neumann, Rosenblueth ou Wiener explique dans une certaine mesure comment le modèle mathématique acquiert au sortir de la Seconde Guerre mondiale une valeur intrinsèque aux yeux des non-mathématiciens. […] Avec l’expansion de la théorie de l’information au-delà de son cadre de naissance, c’est l’information qui devient la grandeur de toute simulation et se fait ainsi l’outil d’abstraction.
TRIC2008a
Le moment cybernétique
Mathieu TRICLOT, Le moment cybernétique : la constitution de la notion d’information, Seyssel, Champ-Vallon, 2008.
TRIC2008a.1
Cf. Triclot, Le moment cybernétique, op. cit., p. 3 : Le discours contemporain de l’information prend sa source, majeure, dans un mouvement scientifique, qui s’est appelé la cybernétique, aux États-Unis, au tournant des années 1940-1950. La plupart des usages contemporains de l’information, ceux que nos citations illustraient, découlent en droite ligne de la cybernétique.
TRIC2008a.2
Cf. Triclot, Le moment cybernétique, op. cit., p. 3 : la cybernétique se distingue par l’extension qu’elle a su donner au concept d’une mesure mathématique de l’information, par la diversité des usages dont elle est à la source, et enfin par sa situation remarquable, à la croisée de trois champs techniques majeurs pour l’histoire de l’information, le champ de l’ingénierie des communications, du contrôle et de l’informatique. Le vocabulaire du traitement de l’information permet à la cybernétique d’opérer la synthèse de ces trois champs techniques. Cette synthèse autorise à son tour un mouvement de migration conceptuelle en direction des sciences du vivant, physiologie et neurologie en particulier, et, plus tard, des sciences humaines. La cybernétique se définit ainsi dans sa pleine extension comme “la science du contrôle et de la communication chez l’animal et la machine”.
TRIC2008a.3
Cf. Triclot, Le moment cybernétique, op. cit., p. 4 : La première singularité de la cybernétique réside sans doute dans sa dimension “phénoménotechnique”. La cybernétique est une discipline qui est issue de développements dans les milieux techniques des télécommunications et de l’informatique. Elle est donc représentative d’une forme d’engagement de la science contemporaine dans la technique, jusqu’à l’indistinction parfois. Mais, dans le même temps où la technique devient scientifique, elle impose à la réflexion des problèmes inédits. Sous le concept de phénoménotechnique, Gaston Bachelard nous invitait à concevoir les produits de la science comme des objets mixtes abstraits concrets, des relations mathématiques devenues choses [Gaston Bachelard, Le Rationalisme appliqué, Paris, P.U.F., 1998 (1949), p. 109.]. Les grands artefacts de la cybernétique, l’ordinateur, le canon automatique, la ligne de téléphone, relèvent de cette ontologie intermédiaire. Il s’agit d’objets qui n’existent que par un ensemble théorique qui les rend possibles, et qui questionnent en même temps cet ensemble, qui l’excèdent ou le mettent en crise par leurs comportements imprévisibles, leurs échecs, les frottements, les oscillations et les bugs.
TRIC2008a.4
Cf. Triclot, Le moment cybernétique, op. cit., p. 4 : La cybernétique n’est pas simplement affaire de discours, mais aussi de pratiques, de machines et de dispositifs. Si la question de la représentation associée à l’information est déterminante pour l’interprétation générale de la cybernétique, cette représentation est toujours investie dans une culture matérielle. Non que la représentation constitue un simple reflet du milieu technique ; la représentation théorique des capacités des machines, dire par exemple qu’un ordinateur traite de l’information et non seulement qu’il calcule, possède une signification technique. Elle engage d’autres rapports au matériel, elle invite à spécifier différemment l’architecture des machines à venir. La cybernétique illustre cette dimension performative des représentations scientifiques. Voici une science qui n’a jamais eu simplement pour objet de représenter le monde, mais de le transformer et de produire un monde à son image. La cybernétique manifeste un type d’alliance entre la théorie et la pratique, la représentation et l’intervention, qui ne peut être esquivé en ce cas, et qui est sans doute un des traits déterminants des sciences contemporaines.
TRIC2008a.5
Cf. Triclot, Le moment cybernétique, op. cit., p. 5 : Le deuxième trait qui distingue la cybernétique est sans doute que celle-ci se présente à nous comme une science qui a échoué, ou dont le travail a été présenté comme un échec par ses successeurs. Nous avons affaire là à ce qui peut bien apparaître comme une énigme. Par un côté, la cybernétique constitue une réussite extraordinaire, dans la mesure où ses concepts ont connu une diffusion inégalée. Nous vivons dans un monde qui a été façonné en partie par la cybernétique. Nous sommes les héritiers des cybernéticiens, chaque fois que nous prenons place devant un ordinateur, non seulement parce que nos machines doivent leur architecture à Von Neumann, mais aussi parce que la cybernétique a exprimé avec force l’idée d’une humanité vivant parmi les machines, dans un univers de communication généralisée. Nous devons donc à la cybernétique non seulement tout un ensemble d’artefacts, mais aussi des manières d’habiter en sujets au sein de ces mondes d’objets. Et pourtant, la cybernétique a, par un autre côté, échoué de a à z. Cette science, à qui nous devons tant, n’a jamais réussi à se stabiliser sous la forme d’une discipline autonome, possédant ses propres lieux institutionnels et programmes de recherche. Nous vivons dans un monde cybernétique, mais sans cybernétique, d’une cybernétique diffuse et dispersée, souvent fort éloignée du projet original.
TRIC2008a.6
Cf. Triclot, Le moment cybernétique, op. cit., p. 7 : Wiener a rêvé la cybernétique comme un contre-modèle de la pratique scientifique militarisée et technocratique, le modèle d’une science sans patron, démocratique dans ses finalités comme dans ses modes d’organisation.
TRIC2008a.7
Cf. Triclot, Le moment cybernétique, op. cit., p. 8 : Le discours philosophique des cybernéticiens possède une dimension effective, performative, qui apparaît particulièrement bien dans l’histoire de l’informatique. Les ordinateurs n’apparaissent pas naturellement comme des dispositifs de traitement de l’information. La cybernétique joue un rôle très net dans l’instauration de cette manière de se représenter le fonctionnement des machines, à travers la grande analogie entre l’ordinateur et le cerveau. La cybernétique nous entraîne dans une histoire qui reconnaît la dimension philosophique immanente à l’activité scientifique et technique.
TRIC2008a.8
Cf. Triclot, Le moment cybernétique, op. cit., p. 16 : Si les articles de Shannon, avec leur présentation limpide, contrastent avec le style débridé du Cybernetics de Wiener, le résultat est cependant le même. Nous disposons, à partir de 1948 d’une manière de quantifier l’information, de ramener l’information à une mesure.
TRIC2008a.9
Cf. Triclot, Le moment cybernétique, op. cit., p. 22 : Certes, le partage entre le signal et le code peut aisément être surmonté du point de vue technique. Un des premiers résultats de la théorie des télécommunications montre en effet comment représenter des quantités continues par des symboles discrets, convertir de l’information analogique en information digitale, et vice versa. Pour les techniques, le monde du code et le monde du signal s’échangent. Reste que la conception de l’information qui émerge du milieu technique n’est jamais totalement unifiée. Chez Wiener, l’information sera toujours regardée à la manière d’un signal comme l’expression d’un certain ordre matériel, alors que chez Shannon, l’information participe de l’ontologie fantomatique du signe.
TRIC2008a.10
Cf. Triclot, Le moment cybernétique, op. cit., p. 45 : La théorie de l’information est une théorie du code. La construction de la quantité d’information répond, chez Shannon, à la question : comment coder au mieux un message, en s’appuyant sur ce que l’on sait de la structure statistique de sa source, afin de minimiser la capacité de transmission nécessaire au niveau du canal ?
TRIC2008a.11
Cf. Triclot, Le moment cybernétique, op. cit., p. 52-53 : La construction de la définition de la quantité d’information chez Shannon relève d’une démarche épistémologique particulière. Shannon se donne une “axiomatique” abstraite, il ne cherche pas à construire un modèle de l’information telle qu’on la trouve dans le monde. Au lieu de partir de l’information comme objet complexe, existant, quitte à en construire des modèles partiels ou locaux, Shannon se donne un ensemble de définitions simples et puissantes, à partir desquelles reconstruire par approximation son objet. Cette construction “descendante” assure la généralité de la théorie, en même temps qu’elle lui impose d’importantes restrictions, car les postulats de départ sont fermés. En particulier, si on abandonne la condition d’ergodicité de la source, la théorie de Shannon devient muette.
TRIC2008a.12
Cf. Triclot, Le moment cybernétique, op. cit., p. 65 : La mesure de la quantité d’information a pour but d’améliorer le codage des messages, et a fortiori l’efficacité des transmissions. Cette approche introduit un biais caractéristique dans la définition de l’information. Les aspects signifiants, mais aussi les aspects matériels, des processus de communication sont systématiquement mis entre parenthèses. Un message se réduit à une suite de symboles. L’information nous donne une indication sur la quantité d’ordre ou de structure dans cette suite de symboles. La théorie de Shannon repose donc sur une double abstraction. Le symbole n’est plus relié (par le haut) à un concept ou à une signification. Il n’est plus relié (par le bas) à une matérialité. On ne considère plus dans le symbole que la pure relation de renvoi ou de référence dénuée de tout objet (plus de signification) et de tout fondement (plus d’inscription matérielle). Reste alors, comme résultat de ce processus d’abstraction, uniquement la forme des agencements symboliques, appréhendée de manière statistique. Ce processus d’abstraction, qui a lieu dans “la théorie mathématique de la communication”, joue un rôle décisif pour la représentation de l’information. Le monde des échanges de symboles, le monde du traitement de l’information et des algorithmes recouvre d’un voile blanc d’idéalité le monde des choses. L’information peut être considérée, à partir de ce qu’on lit chez Shannon, comme une nouvelle manière de décrire les choses du monde, non plus du point de vue de leur matérialité, mais de leur forme pure, abstraction faite de toute autre considération. La description informationnelle, qui ne s’intéresse qu’à la structure ou à la forme, permet de faire l’économie, d’une part, des aspects matériels et énergétiques de l’objet étudié, d’autre part, éventuellement de ses dimensions signifiantes. Restent la forme des agencements symboliques et leurs transformations. L’information apparaît alors comme un élément immatériel, une nouvelle quantité fondamentale aux côtés de la matière et de l’énergie.
TRIC2008a.13
Cf. Triclot, Le moment cybernétique, op. cit., p. 65-66 : La théorie de l’information donne lieu à une sorte de tour de passe-passe conceptuel : d’un côté la question du statut physique réel des lignes et des messages est escamotée au profit d’une problématique du codage, de l’autre côté la question du statut physique de l’information est réintroduite via une problématique du rapport entre information et entropie. La théorie de la communication ne s’engage pas sur le statut physique de l’information. Elle peut laisser cette question en attente ou la renvoyer au grand (et peut-être faux) problème du rapport entre information et entropie.
TRIC2008a.14
Cf. Triclot, Le moment cybernétique, op. cit., p. 66 : Derrière le concept mathématique de la quantité d’information, il y a l’idée d’un code pur fait de symboles dont la signification ou la matérialité ne doit pas rentrer en ligne de compte.
TRIC2008a.15
Cf. Triclot, Le moment cybernétique, op. cit., p. 68 : La mesure de Wiener s’intègre dans un ensemble théorique et technique plus vaste que celle de Shannon, débordant l’ingénierie des communications, pour former une théorie unifiée de la prédiction, des filtres, du contrôle par feedback, et en définitive des interactions homme-machine. […] Le clivage essentiel entre la représentation de l’information comme code, telle qu’on la trouve de manière exemplaire chez Shannon, et sa représentation comme signal, telle qu’on la trouve chez Wiener, constitue une des clés d’intelligibilité majeure de l’histoire de la cybernétique.
TRIC2008a.16
Cf. Triclot, Le moment cybernétique, op. cit., p. 69 : Cette transformation du regard qui nous fait voir de l’information là où il n’y avait précédemment que des échanges énergétiques, des formes là où il n’y avait que de la matière, n’est pas seulement une affaire de choix dans les représentations, mais aussi et conjointement une transformation, dans les choses, dans la culture matérielle du système technique. La cybernétique a donné un langage à ces expériences concrètes d’interaction avec la machine, d’inclusion des opérateurs humains dans des dispositifs de plus en plus complexes, qui se sont multipliées avec la guerre.
TRIC2008a.17
Cf. Triclot, Le moment cybernétique, op. cit., p. 93 : si l’analogique et le digital peuvent être considérés comme équivalents ou convertibles du point de vue technique, il faut néanmoins accorder une sorte de priorité ontologique au signal continu. L’idée de Wiener est que les états digitaux ou discrets correspondent aux états d’équilibre des systèmes dynamiques. La plupart du temps le système se trouve à l’état d’équilibre et demeure insensible aux petites variations continues. Mais si les variations dépassent un certain seuil, alors le système change brusquement d’état. Le comportement numérique d’un système est donc le résultat d’une dynamique sous-jacente d’ordre continu. Wiener propose ici rien moins que le projet d’une “physique des dispositifs numériques”.
TRIC2008a.18
Cf. Triclot, Le moment cybernétique, op. cit., p. 94 : Wiener part de situations concrètes et locales de traitement de l’information pour en construire un modèle ; il ne se donne pas une axiomatique a priori des télécommunications. Ce point est particulièrement sensible dans la mention de l’analogie entre le principe d’incertitude et les limitations pratiques du Predictor. Wiener conçoit sa démarche comme une démarche de physicien confronté aux limites réelles des situations informationnelles. Wiener privilégie une approche physicaliste des problèmes de l’information plutôt qu’il ne construit un modèle a priori.
TRIC2008a.19
Cf. Triclot, Le moment cybernétique, op. cit., p. 95 : Cependant, la représentation de l’information n’apparaît pas totalement homogène au sein du milieu technique lui-même, lorsque les ingénieurs et les scientifiques interrogent la signification des concepts qu’ils ont produits. Subsiste au sein du nouvel objet information une dichotomie philosophique qui exprime une désunion au sein du milieu technique, entre ce que l’on peut appeler une information-code et une information-signal. Ces tensions éclatent au grand jour dans les débats autour de la signification de l’informatique.
TRIC2008a.20
Cf. Triclot, Le moment cybernétique, op. cit., p. 100 : il n’y avait pas antérieurement un traitement naturel de l’information dans les activités humaines, qui aurait été transféré aux machines, mais le remplacement de certaines capacités humaines par des capacités mécaniques a autorisé à rebours l’analyse des activités humaines en termes mécaniques, en termes de traitement de l’information. Il y a dans le texte de Wiener une illusion rétrospective qui est nécessaire à la constitution du champ cybernétique. Cette illusion consiste à croire qu’il y avait de l’information avant qu’il y ait des machines à information. En réalité, il faut passer par les machines pour que l’on dise des humains qu’ils traitent de l’information.
TRIC2008a.21
Cf. Triclot, Le moment cybernétique, op. cit., p. 103 : Cette représentation est mobilisée dans le travail de Von Neumann sur l’architecture logique de l’ordinateur, avec un double effet : d’une part l’ordinateur apparaît comme une machine équivalente au cerveau, et en ce sens capable d’une performance bien plus étendue que le simple calcul numérique, d’autre part l’idée du cerveau comme un organe logique de traitement de l’information en sort considérablement renforcée. L’idée de traitement de l’information émerge à la jointure de l’ordinateur et du cerveau. Le développement et la discussion de cette analogie dans la cybernétique jouent donc un rôle non négligeable dans la formation de l’informatique. Interpréter l’ordinateur comme un cerveau n’est pas une métaphore superflue, mais une des pièces du puzzle qui a permis de concevoir l’ordinateur comme un dispositif de traitement de l’information. L’étude de la cybernétique peut apporter à l’histoire de l’informatique un éclairage décisif sur la façon dont les performances des machines ont pu être représentées ou conçues.
TRIC2008a.22
Cf. Triclot, Le moment cybernétique, op. cit., p. 104 : Les cybernéticiens ont résisté à cette pente naturelle en faveur d’une interprétation purement symbolique, qui domine l’informatique ou les sciences cognitives. Cette résistance s’appuie sur le clivage entre l’information code et l’information signal, issue du milieu des télécommunications. Elle a pris la forme d’une critique des analogies entre l’ordinateur, l’esprit et le cerveau, que nous pouvons maintenant interpréter, non comme un simple discours désincarné et philosophant, mais comme une manière d’interroger le fonctionnement même des machines, qui possède une signification technique. Il est d’autant plus remarquable que cette réflexion ait été conduite en grande partie par Von Neumann lui-même, qui, responsable des premiers designs des ordinateurs, n’a eu de cesse d’en interroger la signification, et de réfléchir à d’autres types de machines, à d’autres formes de traitement de l’information. Les cybernéticiens ont cherché à relativiser la place du code, à rendre compte du code en termes de signal, à ramener la logique discrète du software aux conditions réelles, statistiques, parallèles et analogiques du traitement physique de l’information. La cybernétique poursuit derrière le monde idéal des agencements symboliques une figure matérialiste de l’information.
TRIC2008a.23
Cf. Triclot, Le moment cybernétique, op. cit., p. 109-110 : Lorsqu’il est question d’information à propos de l’ordinateur, on désigne essentiellement deux innovations techniques et une innovation logique : le codage binaire, le programme enregistré en mémoire, et la machine universelle de Turing. L’adoption du codage binaire autorise une représentation de n’importe quel type de données, et non seulement des données numériques. Le programme enregistré permet de dégager un niveau symbolique qui apparaît relativement indépendant des processus matériels. Le modèle de la machine universelle de Turing permet une extension de la notion de calcul, au-delà du domaine numérique. La conjonction de ces trois éléments définit les conditions de possibilité techniques d’un authentique “traitement de l’information”. Ces trois éléments apparaissent, plus ou moins explicitement, au sein du rapport de Von Neumann.
TRIC2008a.24
Cf. Triclot, Le moment cybernétique, op. cit., p. 112 : Le principe de la représentation digitale autorise donc l’expression de n’importe quel type de données en machine, sous la forme d’un code qui peut ensuite être manipulé : des nombres, mais aussi des mots, des images, des sons, etc. Ce résultat est familier depuis la conceptualisation du principe d’échantillonnage en théorie des télécommunications qui autorise la traduction d’un signal continu sous forme digitale.
TRIC2008a.25
Cf. Triclot, Le moment cybernétique, op. cit., p. 113 : Le principe de la représentation binaire, et plus généralement digitale, ne prend son véritable sens technique que lorsqu’il est associé à l’enregistrement du programme en mémoire et à la conception de la machine comme une machine universelle.
TRIC2008a.26
Cf. Triclot, Le moment cybernétique, op. cit., p. 119 : Si on ne peut pas faire grand-chose avec un système inconsistant, car on y peut démontrer n’importe quoi, on peut en revanche parfaitement se satisfaire de systèmes incomplets ou indécidables.
TRIC2008a.27
Cf. Triclot, Le moment cybernétique, op. cit., p. 121 : l’information se présente comme un ensemble de symboles, à la fois données et programmes, sur lequel un nouveau genre de calcul est possible. Dans le traitement de l’information, le calcul n’est plus seulement une opération arithmétique portant sur des nombres, mais une opération portant sur n’importe quel ensemble de signes, considéré comme un système formel. Le programme s’encode comme les données et devient lui-même données pour d’autres programmes. C’est au fond sur cette idée du codage et de la manipulation des systèmes formels que s’établit le rapport le plus fructueux entre logique et informatique.
TRIC2008a.28
Cf. Triclot, Le moment cybernétique, op. cit., p. 121 : Avec le principe de la machine universelle et son implémentation dans les ordinateurs, le regard sur les machines change. On passe d’une problématique classique de l’inscription matérielle du signe comme aide au calcul – décharger le calculateur humain du fardeau des calculs – à un problème nouveau : tout peut être codé, tout ce qui est codé est susceptible d’être traité, modifié par une machine. Plus rien n’échappe à l’univers infini du code.
TRIC2008a.29
Cf. Triclot, Le moment cybernétique, op. cit., p. 127 : “Les serviteurs fourniront à la machine les cartes au fur et à mesure de ses besoins. Ils répareront les éléments qui tombent en panne. En réalité les serviteurs tiennent lieu de membres pour la machine. Mais avec le temps, l’ordinateur remplacera les fonctions des maîtres comme des serviteurs. […] Les maîtres sont susceptibles d’être remplacés parce que dès qu’une technique devient suffisamment stéréotypée, il devient possible de mettre en place un ensemble de tables d’instructions qui permettront au calculateur électronique de s’en charger par lui-même. […] Ce sujet nous amène naturellement à la question de savoir jusqu’où il est possible en principe pour une machine de calcul de simuler les activités humaines”[Alan Turing, Lecture on the Mathematical Society on 20 February 1947, in B. E. Carpenter and R.W. Doran (dir.), A. M Turing’s Ace Report of 1946 and Other Papers, Cambridge, MIT Press, 1986, p. 123.]
TRIC2008a.30
Cf. Triclot, Le moment cybernétique, op. cit., p. 127 : Si les machines devenaient capables d’apprendre, alors elles pourraient surmonter l’antinomie qui veut que mécanique signifie dénué de toute faculté d’adaptation ou dénué d’intelligence.
TRIC2008a.31
Cf. Triclot, Le moment cybernétique, op. cit., p. 132 : Plutôt que de poser une question sur la nature de l’esprit ou la définition de l’intelligence, Turing pose une question sur la manière de se représenter les machines. Comment faire pour que nous puissions donner sens à l’idée que les ordinateurs sont autre chose que des machines de calcul ordinaires ?
TRIC2008a.32
Cf. Triclot, Le moment cybernétique, op. cit., p. 139-140 : La réduction des machines aux opérations de traitement de l’information, et la réduction du traitement de l’information à un ensemble d’opérations sur des symboles, qui définit le test de Turing, conduit à deux grands types de problèmes. Premièrement, peut-on réellement réduire l’ensemble des opérations de la pensée, ou même la production d’un comportement linguistique, à des opérations de traitement symbolique de l’information ? Le modèle de Turing est manifestement le modèle du calcul numérique, mais toutes les opérations de la pensée peuvent-elles se traduire en tables d’instructions ? Deuxièmement, quel type de machine pourrait réussir le test de Turing ? Le principe du traitement symbolique de l’information est-il la seule voie possible pour la simulation de l’intelligence ?
TRIC2008a.33
Cf. Triclot, Le moment cybernétique, op. cit., p. 156 : Cependant, bien qu’elles diffèrent dans leurs finalités, ces critiques utilisent toutes le même point faible dans l’argumentation de Turing. C’est la dimension fonctionnaliste et symbolique du test qui sert de point d’appui à la critique. Cette notion de symbole, qui est omniprésente dans les descriptions de l’informatique, est décisive, comme l’ont vu Searle ou Harnad. En effet, cette notion présuppose une certaine configuration du rapport entre matière et forme. Décrire l’informatique sous le registre du symbole, c’est adopter quasiment automatiquement, un certain nombre de partis pris sur ses possibilités, ses réussites futures… Le symbole tient lieu d’ontologie pour l’informatique. On est en droit de se demander si l’informatique ne réactualise pas, avec l’idée d’un traitement symbolique de l’information en particulier, des problèmes aussi anciens que la philosophie. Il suffit parfois de gratter un peu sous le vernis des nouvelles formules pour reconnaître les anciennes antinomies sur le rapport entre la pensée et le langage, le signe et la signification.
TRIC2008a.34
Cf. Triclot, Le moment cybernétique, op. cit., p. 157-158 : La description idéaliste usuelle de l’informatique et de l’information est fondée sur cette propriété du symbole : forme indifférente à sa matière, mais qui ne peut se passer d’une inscription. […] La relation entre symbole, concept et matière sert de matrice pour toute une série de relations que l’on va trouver en informatique : la matière est au symbole ce que le hardware est au software, le cerveau à l’esprit… On dispose à ce moment-là de toute une métaphysique implicite du symbole et de la fonction qui sert de grille de lecture pour interpréter les opérations techniques. Il ne s’agit pas de dire que cette grille de lecture est absurde ou infondée, ou que l’on trouve autre chose dans les ordinateurs que des symboles et de la manipulation symbolique. Le but n’est pas d’introduire des concepts là où il n’y a que des symboles, mais on peut montrer deux choses : premièrement que l’informatique repose en général sur une ontologie implicite du symbole. Cette description des ordinateurs fonde une définition générale de l’information. Deuxièmement, cette description, cette problématique majoritaire de l’informatique, qui est une problématique largement idéaliste, n’est pas la seule, et on trouve, y compris au sein du champ technique informatique, sur un mode mineur, une autre définition de l’information, c’est-à-dire une autre façon d’envisager le rapport de la matière à la forme.
TRIC2008a.35
Cf. Triclot, Le moment cybernétique, op. cit., p. 170 : Le cerveau est une machine de Turing ; ajoutons à ce résultat, que l’ordinateur et la pensée peuvent eux aussi être considérés comme des machines de Turing. On peut alors fonder, sur l’idée de calcul symbolique, une certaine identification entre pensée, calcul, machine logique, machine physique et machine biologique. Si penser c’est calculer, c’est-à-dire manipuler des symboles au sens d’une machine de Turing, si le cerveau est capable d’un tel calcul, alors on peut concevoir pour la première fois de façon aussi nette que le cerveau possède les propriétés suffisantes pour incarner la pensée.
TRIC2008a.36
Cf. Triclot, Le moment cybernétique, op. cit., p. 179-180 : non seulement le hardware, la réalisation physique, compte, mais il n’est pas du tout indifférent pour le modèle formel. S’il y a des fonctions, celles-ci ne peuvent être détachées des composants physiques qui les implémentent et induisent des propriétés caractéristiques. La fonction n’est pas première, mais seconde, elle émerge d’un certain type concret d’organisation matérielle. Cette critique n’enlève pas toute validité à la procédure axiomatique, de laquelle Von Neumann continue à se réclamer, mais elle conduit à en relativiser la valeur, et à replacer la procédure axiomatique sous condition des données de la neurophysiologie. Dans l’esprit de la “Théorie générale et logique des automates”, une théorie désincarnée du traitement de l’information n’a pas spécialement d’intérêt. En définitive, la neurophysiologie tranche.
TRIC2008a.37
Cf. Triclot, Le moment cybernétique, op. cit., p. 181 : Ce n’est pas le fonctionnement normal qui révèle les modalités du traitement de l’information, dans l’ordinateur ou le cerveau, mais d’abord le fonctionnement pathologique, la panne ou l’erreur.
TRIC2008a.38
Cf. Triclot, Le moment cybernétique, op. cit., p. 184 : Le comportement digital est donc toujours le résultat d’un comportement analogique particulier.
TRIC2008a.39
Cf. Triclot, Le moment cybernétique, op. cit., p. 185 : Il y a du fonctionnel et du digital parce qu’il y a en dessous un fonctionnement analogique particulier, avec des effets de seuil. Ce second mouvement implique l’adoption d’une représentation de l’information autre que comme code ou symbole. Le code ou le symbole n’est qu’une réalité dérivée chez Von Neumann. L’information, ce n’est plus le symbole s’implémentant dans une matière, mais le signal qui émerge d’un comportement analogique bruité. La représentation standard de l’information dans les machines informatiques comme un ensemble de symboles sur lequel un calcul universel peut s’effectuer est ramenée à une réalité plus fondamentale du traitement de l’information au niveau du fonctionnement des composants. Le comportement digital qui justifie un traitement en termes de symboles et de fonctions n’est qu’un effet de processus non digitaux, qui relèvent des catégories du traitement du signal, à commencer par le rapport entre le signal et le bruit.
TRIC2008a.40
Cf. Triclot, Le moment cybernétique, op. cit., p. 188 : Ce faisant, Von Neumann remplace la définition fonctionnaliste de l’information comme symbole, par une définition en termes de signal. L’information n’est plus une forme qui domine une matière dans laquelle elle doit s’insérer, mais le résultat de certains processus matériels. De même que le comportement digital tout-ou-rien résulte d’un fonctionnement analogique particulier, le symbole dépend d’un signal. Il y a bien du symbole, mais le symbole est compris sous la dimension du signal. S’il y a de la forme, c’est en raison de certains processus matériels.
TRIC2008a.41
Cf. Triclot, Le moment cybernétique, op. cit., p. 189 : Il ne sert, en principe, plus à rien de dire : “les ordinateurs ne pourront jamais faire ceci ou cela”, puisque n’importe quelle fonction qui peut être décrite complètement et sans ambiguïté est réalisable par un réseau de neurones formels ou une machine de Turing.
TRIC2008a.42
Cf. Triclot, Le moment cybernétique, op. cit., p. 191-192 : Il y a donc à ce moment-là, de façon extraordinairement nette, une inversion complète du rôle de modèle. Ce n’est plus la machine qui modélise certaines fonctions psychiques, manifestant ainsi que celles-ci sont intégralement réductibles à l’ordre mécanique, mais le cerveau, ou l’organisme de manière générale, qui sert de modèle aux machines. Il y a une priorité des vivants sur la technique, qui était déjà sensible dans les remarques concernant le traitement des erreurs. Notre logique et les machines qui en découlent sont une version simplifiée à l’extrême de la logique du vivant.
TRIC2008a.43
Cf. Triclot, Le moment cybernétique, op. cit., p. 198-199 : Dans le champ technique de l’informatique, on trouve donc deux façons de considérer l’information. La définition de l’information comme symbole qui provient de la problématique hardware/software est concurrencée par une définition comme signal qui provient à la fois de la théorie de l’information et d’une attention aux données de la neurologie. Dans les deux cas, il s’agit de composer le triangle information, états mentaux, matière. Mais avec l’information signal, le niveau symbolique apparaît comme l’expression particulière des processus matériels. Cela donne la possibilité au signal d’englober le symbole. Le niveau de l’information défini par l’intelligence artificielle symbolique apparaît ainsi dans le dernier texte de Von Neumann comme un effet second, dérivé d’un fonctionnement alternatif, statistique, plutôt qu’algorithmique et séquentiel.
TRIC2008a.44
Cf. Triclot, Le moment cybernétique, op. cit., p. 203 : La cybernétique fait de l’information une nouvelle dimension du monde physique. Elle ajoute aux explications existantes, par la matière ou l’énergie, un nouveau type d’explication par l’information. Elle ajoute aux phénomènes existants une nouvelle classe de phénomènes, les processus de traitement de l’information. Le monde n’est pas “fait” uniquement de matière et d’énergie, mais aussi d’information, nous apprend la cybernétique. L’information circule, s’échange, se transforme, et, jusqu’à récemment, nous n’y avions pas prêté suffisamment d’attention. Tel est le credo de la discipline, que ce soit pour la connaissance du cerveau, lorsque le modèle informationnel et logique de McCulloch et Pitts supplante le vieux modèle énergétiste de Rashevsky, ou pour l’étude de l’organisme social, de la communication et des machines.
TRIC2008a.45
Cf. Triclot, Le moment cybernétique, op. cit., p. 210-211 : Il existe bien une hésitation structurelle au sein de la cybernétique entre deux représentations de l’information. Cette hésitation appartient à la fois au domaine de l’ontologie – comment interpréter une fonction d’état comme l’information – et de l’épistémologie – comment construire une discipline à partir d’un milieu technique qui soit capable de transcender ce milieu technique, qui ait une vocation universelle pour ce milieu technique, pour d’autres milieux techniques, et éventuellement pour d’autres sciences. La réponse à ce défi épistémologique, que la cybernétique a pour une large part surmonté au vu de la réussite des applications du concept d’information, a consisté à inscrire la cybernétique dans la physique et à faire de l’analogie information-entropie une pierre de touche du statut de la discipline. Si l’on doit dresser le portrait philosophique de la cybernétique, il apparaît qu’une de ses spécificités, par rapport aux disciplines qui vont la suivre et l’éclipser, en particulier l’intelligence artificielle, est d’avoir conservé la question du statut physique de l’information, de n’avoir pas cédé à la tentation du repli dans le domaine de la forme pure, du code et de l’algorithme.
TRIC2008a.46
Cf. Triclot, Le moment cybernétique, op. cit., p. 211 : “[…] dès le départ pour ce qui est de Wiener et de ceux qui le suivent en tout cas, ils ont fait de l’information une grandeur physique, l’arrachant au domaine des transmissions de signaux entre humains. Si tout organisme est environné d’informations, c’est tout simplement qu’il y a partout autour de lui de l’organisation, et que celle-ci, du fait même de sa différenciation, contient de l’information. L’information est dans la nature, et son existence est donc indépendante de l’activité de ces donneurs de sens que sont les interprètes humains.” [Jean-Pierre Dupuy, Aux origines des sciences cognitives, Paris, La Découverte, 1994, p. 126.]
TRIC2008a.47
Cf. Triclot, Le moment cybernétique, op. cit., p. 213 : “ La notion de quantité d’information se rattache très naturellement d’elle-même à une notion classique en mécanique statistique : celle d’entropie. Tout comme l’information est dans un système une mesure de son degré d’organisation, l’entropie est une mesure du degré de désorganisation d’un système. L’une est simplement l’inverse de l’autre.” [Norbert Wiener, Cybernetics, or control and communication in the animal and the machine, Cambridge, MIT Press, 1948, p. 11.]
TRIC2008a.48
Cf. Triclot, Le moment cybernétique, op. cit., p. 221-222 : un système dans lequel la quantité d’information est élevée est un système ordonné, présentant des formes significatives par opposition à un désordre indifférencié.
TRIC2008a.49
Cf. Triclot, Le moment cybernétique, op. cit., p. 222 : Les notions d’information et de communication sont donc fondamentalement inscrites dans un univers irréversible. Telle est la leçon du premier chapitre philosophique et cosmologique de Cybernetics qui situe la science des messages du côté du temps orienté de Bergson plutôt que de l’univers réversible de Newton. Sans irréversibilité et sans un temps orienté, il n’y aurait pas de communication, argumente Wiener en une expérience de pensée troublante qui imagine un démon solitaire.
TRIC2008a.50
Cf. Triclot, Le moment cybernétique, op. cit., p. 224 : Si on admet cette représentation de l’identité individuelle, conséquence du discours cosmologique sur l’information, alors, l’organisme se réduisant à un ensemble de formes maintenues par homéostasie, la forme se réduisant à un message, on peut imaginer extraire cette forme de l’organisme, la transmettre et la reconstituer par ailleurs. Wiener suggère sur le mode de la science-fiction un dispositif de téléportation qui consisterait à scanner l’ensemble de l’information d’un individu, la transmettre à l’autre bout de la ligne et à l’utiliser pour recombiner l’individu entier. Wiener invente “le voyage par télégraphe”.
TRIC2008a.51
Cf. Triclot, Le moment cybernétique, op. cit., p. 225 : Que l’identité ne soit pas du côté de la matière, mais de l’information, comme l’écrit Wiener, n’implique pas un renoncement au matérialisme au profit du monde éthéré des symboles. Toute la manœuvre consiste, au contraire, à placer la question de l’identité sous législation de la science physique. Ce chapitre exemplifie la thèse selon laquelle l’information doit être conçue comme l’expression de l’identité, de la singularité d’un agencement matériel.
TRIC2008a.52
Cf. Triclot, Le moment cybernétique, op. cit., p. 227 : En prenant pour point de départ une étude des enjeux techniques du transfert de l’information, Simondon met au jour les tensions que recèle la conception cybernétique, entre information, forme, ordre et probabilité. On attend d’un côté du canal d’information ou d’un amplificateur très fidèle une disponibilité absolue par rapport à toutes les modulations du signal qu’il achemine. L’information s’apparente alors aux phénomènes contingents, sans loi. Mais d’un autre côté, on attend aussi que l’information puisse se distinguer du bruit et du pur hasard. L’information s’apparente alors à un ordre ou à une forme.
TRIC2008a.53
Cf. Triclot, Le moment cybernétique, op. cit., p. 227-228 : Le concept d’information est donc pris entre deux exigences opposées : d’un côté un message hautement improbable est un message hautement informatif, selon l’axiomatique de la théorie des télécommunications, mais, de l’autre côté, on attend aussi de l’information qu’elle se distingue du bruit et du pur aléatoire. Un message bruité peut ainsi être considéré comme porteur de plus d’information, en fonction des modifications aléatoires introduites par le bruit, ou de moins d’information, car son contenu est, au moins partiellement, corrompu.
TRIC2008a.54
Cf. Triclot, Le moment cybernétique, op. cit., p. 228 : Simondon a choisi d’interpréter philosophiquement cette antinomie au sein du concept d’information en considérant l’information comme un terme intermédiaire entre la forme et le hasard, entre l’ordre et le désordre. “L’information n’est pas de la forme, ni un ensemble de formes, elle est la variabilité des formes, l’apport d’une variation par rapport à une forme. Elle est l’imprévisibilité d’une variation de forme et non la pure imprévisibilité de toute variation. Nous serions donc amenés à distinguer trois termes : le hasard pur, la forme et l’information.” [Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1958, p. 137.] Cette conception débouche dans l’individu et sa genèse physico-biologique sur une interprétation physique originale de l’information comme l’opérateur par lequel se résout un système métastable.
TRIC2008a.55
Cf. Triclot, Le moment cybernétique, op. cit., p. 272 : On peut en effet montrer que la mention du démon de Maxwell sert avant tout à assurer une passerelle entre la physique et les sciences du vivant. Le démon fonctionne chez Wiener comme une interface entre théorie de l’information, physique et physiologie. Il présente sous une forme incarnée les postulats fondamentaux qui gouvernent en cybernétique la théorie des automates naturels et artificiels. Le démon incarne à lui seul le choix d’une information incarnée.
TRIC2008a.56
Cf. Triclot, Le moment cybernétique, op. cit., p. 272 : la cybernétique se définit avant tout comme une entreprise d’extension des concepts de l’ingénierie des télécommunications et du traitement de l’information à la physiologie : science du contrôle et de la communication chez l’animal et la machine. La relation entre information et entropie, envisagée à partir de l’expérience de pensée du démon de Maxwell, prend donc sens à l’intersection de la physique et de la biologie, si l’on suit le texte de Wiener. À quoi sert l’analogie information-entropie pour la cybernétique ? À quoi sert le démon de Maxwell ? À étendre le royaume de la théorie de la communication, désormais considérée comme une branche de la mécanique statistique, aux phénomènes biologiques.
TRIC2008a.57
Cf. Triclot, Le moment cybernétique, op. cit., p. 274 : “Sur le long terme, le démon de Maxwell est sujet à un mouvement aléatoire fonction de la température de son environnement et comme Leibniz le dit de ses monades, il reçoit énormément de petites impressions qui le plongent dans ‘une sorte de vertige’, le rendant incapable de perceptions claires. Il cesse alors d’agir comme un démon de Maxwell.” [Norbert Wiener, Cybernetics, or control and communication in the animal and the machine, Cambridge, MIT Press, 1948, p. 58.]
TRIC2008a.58
Cf. Triclot, Le moment cybernétique, op. cit., p. 277 : l’usage des probabilités est certes fonction de notre connaissance insuffisante de l’ensemble des paramètres, mais il reflète en réalité pour Wiener la nature même de l’univers. […] L’usage des probabilités doit ainsi s’interpréter de manière réaliste chez Wiener. Toute sa philosophie de la physique s’oppose à une interprétation purement instrumentaliste des théories mathématiques. Les mathématiques n’ont pas seulement un rôle d’outil commode pour décrire les enchaînements phénoménologiques, elles nous font accéder à la réalité même des choses.
TRIC2008a.59
Cf. Triclot, Le moment cybernétique, op. cit., p. 277 : “Par leur prise de conscience d’un élément fondamental de hasard dans la texture de l’univers lui-même, ces hommes [Gibbs et Freud] sont proches les uns des autres et proches de la tradition de saint Augustin. Car cet élément de hasard, cette incomplétude organique, est ce que nous pouvons considérer, sans trop tordre le langage, comme le mal ; le mal négatif que saint Augustin considère comme incomplétude, plutôt que le mal positif et malicieux des Manichéens.” [Norbert Wiener, The Human Use of Human Beings, Londres, Eyre and Spottiswoode, 1950, p. 11.]
TRIC2008a.60
Cf. Triclot, Le moment cybernétique, op. cit., p. 277-278 : L’interprétation physicaliste de l’information repose essentiellement sur trois thèses, énoncées lors du premier chapitre de Cybernetics. Premièrement notre univers est fondamentalement contingent et se caractérise par des processus irréversibles. Le hasard est une partie de la chaîne et de la trame de l’univers. Deuxièmement, les processus de communication et de traitement de l’information ne peuvent exister que dans un tel univers. Ils en portent la marque. Le traitement statistique des notions associées à la communication n’est donc pas seulement affaire de commodité mathématique. Enfin, troisièmement, dans un tel univers on assiste à des phénomènes d’évolution ou d’émergence, le hasard génère des formes dont certaines peuvent persister. L’information désigne ces formes transitoires, précaires, gagnées sur le hasard. Le démon de Maxwell est l’image d’un tel dispositif. Il renverse pendant un temps pour des raisons purement physiques liées aux processus fondamentaux du traitement de l’information le cours de l’entropie.
TRIC2008a.61
Cf. Triclot, Le moment cybernétique, op. cit., p. 278 : “Dans la mesure où l’entropie s’accroît, l’univers et tous les systèmes clos de cet univers, tendent naturellement à se détériorer et à perdre leur caractère distinct, pour passer de l’état le moins probable à l’état le plus probable, d’un état d’organisation et de différenciation dans lequel des distinctions et des formes existent, à un état de chaos et d’indifférence. Dans l’univers de Gibbs l’ordre est le plus improbable et le chaos le plus probable. Mais alors que l’univers comme un tout, si tant est que l’univers forme un tout, tend à se détériorer, il y a des enclaves locales dont la direction semble opposée à celle de l’univers dans son ensemble et pour lesquelles il existe une tendance limitée et temporaire à l’accroissement de l’organisation. La vie trouve abri dans certaines de ces enclaves. Ce point de vue est le cœur de la cybernétique et c’est à partir de lui que la nouvelle science a commencé son développement.” [Norbert Wiener, The Human Use of Human Beings, Londres, Eyre and Spottiswoode, 1950, p. 12.]
TRIC2008a.62
Cf. Triclot, Le moment cybernétique, op. cit., p. 279 : Le démon n’est donc pas l’observateur, le démon c’est la cellule, l’enzyme, l’organisme. Le démon est à chasser du côté de ces systèmes biologiques métastables, capables de renverser pour un temps le cours de l’entropie, et de maintenir leur ordre ou homéostasie à travers le désordre et par le désordre.
TRIC2008a.63
Cf. Triclot, Le moment cybernétique, op. cit., p. 279 : Il n’en reste pas moins que l’idée que le bruit puisse agir comme un générateur de formes et d’information apparaît, certes sous une forme qui n’est jamais totalement thématisée, à quelques reprises dans les travaux des premiers cybernéticiens.
TRIC2008a.64
Cf. Triclot, Le moment cybernétique, op. cit., p. 280 : “Le concept de forme résiduelle est revenu sur le devant de la scène avec le travail du Dr. W. Ross Ashby. Celui-ci l’utilise pour expliquer le concept de machines apprenantes. Il montre qu’une machine dont la structure inclut un élément de hasard et de désordre aura certaines positions proches de l’équilibre et certaines positions éloignées de l’équilibre, et que les formes proches de l’équilibre dureront du fait de leur nature plus longtemps, alors que les autres n’apparaissent que de temps en temps. Le résultat est que dans la machine d’Ashby, comme dans la nature de Darwin, nous avons l’apparence d’une finalité dans un système qui n’est pas construit de manière finalisé, simplement parce que la finalité est par sa nature même transitoire. Bien entendu, sur le long terme, la grande finalité triviale du maximum d’entropie se révélera la plus résistante d’entre toutes.” [Norbert Wiener, The Human Use of Human Beings, Cybernetics and Society, Londres, Free Association Books, 1954, p. 37-38.]
TRIC2008a.65
Cf. Triclot, Le moment cybernétique, op. cit., p. 280 : Dans le même ordre d’idées, la théorie des automates autoreproducteurs de Von Neumann mentionne la possibilité que le bruit puisse être utilisé par les automates, à partir d’un certain niveau d’organisation et d’autonomie, de façon à augmenter leur complexité. Le bruit est conçu ici encore comme l’analogue des mutations dans le schème darwinien.
TRIC2008a.66
Cf. Triclot, Le moment cybernétique, op. cit., p. 280 : La cybernétique a donc choisi d’interpréter l’information de manière objectiviste et réaliste. Ce faisant, elle a pu anticiper sur les options théoriques de la physique du calcul et du principe d’ordre par le bruit, qui donnent corps à une représentation incarnée de l’information. On peut toujours discuter l’interprétation de la notion d’entropie comme expression du niveau d’organisation d’un système physique, telle qu’adoptée par la cybernétique. Toujours est-il qu’elle constitue une option clairement réaliste dans l’œuvre des cybernéticiens. On ne peut que mettre au crédit de ces derniers, contrairement à ce qu’affirment des lectures erronées comme celle de Hayles, de n’avoir pas cédé à la tentation de traiter l’information comme un terme purement logique, comme une affaire de symboles et de programme. Il est évident que les successeurs de la cybernétique, en particulier les tenants de l’intelligence artificielle, ont pu considérer cette position comme un défaut ; une position beaucoup trop lourde à assumer du point de vue théorique et qui devrait être éliminée au profit d’une interprétation uniquement symbolique de l’information. Cette dernière interprétation élimine toute une série de questions et autorise un programme de recherche à l’efficacité immédiate.
TRIC2008a.67
Cf. Triclot, Le moment cybernétique, op. cit., p. 298 : La première théorie des automates autoreproducteurs de Von Neumann suggère ainsi l’idée selon laquelle à partir d’un certain seuil de complexité le bruit peut être utilisé de manière positive comme un facteur de croissance et de complexification par des organisations capables de se maintenir ou de s’autoreproduire.
TRIC2008a.68
Cf. Triclot, Le moment cybernétique, op. cit., p. 304 : “Le but principal de toute cette étude du système nerveux est de pointer le fait qu’il est dangereux d’identifier le monde physique (ou biologique) réel avec les modèles que nous construisons pour l’expliquer.” [John Von Neumann, Probabilistic Logics and the Synthesis of Reliable Organisms from Unreliable Components, in William Aspray, Arthur Burks (dir.), Papers of John Von Neumann on Computing and Computer Theory, Cambridge, MIT Press, 1987, p. 600.]
TRIC2008a.69
Cf. Triclot, Le moment cybernétique, op. cit., p. 308 : “En axiomatisant les automates [autoréplicateurs] de cette manière, on a jeté la moitié du problème par la fenêtre et c’est peut-être la moitié la plus importante. On s’est résigné à ne pas expliquer comment ces éléments sont constitués de particules élémentaires ou même de molécules. […] On considérera simplement que des particules élémentaires dotées de certaines propriétés existent. La question à laquelle on espère répondre, ou au moins examiner, est : ‘Quels principes sont mis en œuvre dans l’organisation de ces molécules dans les êtres vivants fonctionnels ?’” [Arthur Burks, Theory of Self-Reproducing Automata, Urbana, University of Illinois Press, 1966, p. 77.]
TRIC2008a.70
Cf. Triclot, Le moment cybernétique, op. cit., p. 308-309 : La théorie des automates de Von Neumann est représentative de la conception cybernétique de l’information. La théorie demeure une théorie formelle et logique du traitement de l’information, et non une théorie physique à la manière de Landauer ou Bennett. Mais elle implémente ce qui est requis par une représentation physicaliste de l’information. Premièrement, elle reprend, avec l’autoreproduction, la question du démon de Maxwell telle que Wiener l’avait définie. Deuxièmement, elle cherche à rendre compte des possibilités du traitement biologique réel de l’information. Le modèle formel n’a ainsi d’intérêt que dans la mesure où il vient se frotter à ce que l’on sait de la réalité du traitement de l’information. Le traitement de l’information n’appartient pas au pur royaume des symboles, mais on peut au contraire comprendre comment la possibilité du traitement symbolique de l’information émerge à partir du comportement de composants simples, comme les neurones de McCulloch et Pitts ou les cellules d’un automate cellulaire. On a une théorie qui cherche à rendre compte des conditions physiques du traitement de l’information, qui partage l’idée que les conditions du traitement de l’information sont à chercher essentiellement du côté de la mécanique statistique, et, enfin, qui postule que l’information symbolique tout-ou-rien peut s’expliquer à partir d’un niveau sous-jacent dont les règles sont de nature probabiliste.
TRIC2008a.71
Cf. Triclot, Le moment cybernétique, op. cit., p. 309 : Au sein de la cybernétique, l’analogie information-entropie et la situation du démon de Maxwell servent principalement à mettre en lumière la possibilité d’une étude mécaniste des phénomènes biologiques à partir des catégories du traitement de l’information. La théorie des automates de Von Neumann met précisément en œuvre un tel programme, fondé sur la représentation originale de l’information au sein de la cybernétique. Rapportée à l’alternative entre le signe et le signal, considérée comme l’antinomie qui structure la construction du concept scientifique d’information, ces développements indiquent que la cybernétique a pris fait et cause pour une conception de l’information associée aux processus matériels ; autrement dit, pour une conception de l’information qui penche nettement du côté du signal, selon la terminologie proposée.
TRIC2008a.72
Cf. Triclot, Le moment cybernétique, op. cit., p. 310 : Lorsque Von Neumann, par exemple, choisit, dans la lettre à Wiener de novembre 1946, de faire retour sur la signification des concepts et des méthodes employés en cybernétique, nous assistons à un de ces moments philosophiques où se produit corrélativement une structuration du monde et des choses dites. Signe ou bien signal, ce seront des univers d’objets légèrement différents, des questions et des méthodes qui ne sont pas exactement les mêmes.
TRIC2008a.73
Cf. Triclot, Le moment cybernétique, op. cit., p. 315 : Or le concept d’information est intéressant comme concept nomade qui a pu fournir un schème pour investir une multiplicité de champs disciplinaires. Cela est manifeste pour un domaine en particulier, dont l’importance est considérable. La transformation du champ du calcul automatique en informatique n’est pas étrangère à l’évaluation de ses usages sociaux. On peut montrer par exemple que le discours de Wiener sur les impacts de l’usine automatisée participe de la détermination de la signification technologique de l’informatique naissante, comme instrument universel de contrôle et de commande.
TRIC2008a.74
Cf. Triclot, Le moment cybernétique, op. cit., p. 319 : Si on sait ce que c’est que de l’information, alors on se rend compte que l’idée de propriété intellectuelle est absurde. L’information n’est pas faite pour être une marchandise, comme le dit Wiener. Si on sait ce que c’est que de l’information, alors on se rend compte que le contrôle et le cloisonnement de l’information dans les recherches militaires sont désastreux. Si on connaît la nature des processus de communication, on se rend compte que le maccarthysme est non seulement moralement condamnable, mais aussi politiquement erroné, et ainsi de suite.
TRIC2008a.75
Cf. Triclot, Le moment cybernétique, op. cit., p. 321 : La cybernétique de Wiener appartient à l’histoire de ceux qui ont perdu, l’histoire d’une certaine gauche américaine, pacifiste et internationaliste, laminée par la guerre froide.
TRIC2008a.76
Cf. Triclot, Le moment cybernétique, op. cit., p. 329-330 : Restituer la dimension à la fois critique et progressiste de cette “politique cybernétique” est d’autant plus intéressant que le discours politique associé aujourd’hui à la notion d’information est aux antipodes de celui qu’a tenu Wiener. Le discours qui vise aujourd’hui à promouvoir “la société de l’information” n’est bien souvent que le masque de l’exigence de libéralisation totale des marchés. On se souvient que la première conférence internationale consacrée explicitement à la “société de l’information”, une initiative de la Commission Européenne, organisée dans le cadre du G7 à Bruxelles en février 1995, préconisait comme “principes de base susceptibles de faire de la vision commune de la société planétaire de l’information une réalité : la promotion d’une concurrence dynamique, l’encouragement à l’investissement privé, la définition d’un cadre réglementaire évolutif, l’assurance d’un accès ouvert aux réseaux”, toutes mesures destinées à accroître la rentabilité des capitaux sur fond de grande dérégulation du marché des télécommunications. Il y a donc quelque ironie à considérer que le discours critique de Wiener, dont la composante anticapitaliste est loin d’être négligeable, ait pu se retrouver ainsi converti en un discours d’accompagnement destiné à fournir le supplément d’âme dont les politiques libérales ont besoin. Il est bon de se souvenir aujourd’hui qu’il y a eu dans les années 1940-1950 une première “société de l’information” avant “la société de l’information” ; une société de l’information qui reposait sur l’idée que la communication est une valeur hors marché, une valeur qui ne peut être subordonnée à la loi du profit ou à ce que Wiener appelle la “liberté d’exploiter”.
TRIC2008a.77
Cf. Triclot, Le moment cybernétique, op. cit., p. 330 : “Nous avons pas mal d’expérience quant à la façon dont les industriels regardent les nouvelles potentialités en matière d’industrie. Toute leur propagande a pour seule fin que celles-ci ne soient pas considérées comme l’affaire de l’État mais laissées ouvertes pour n’importe quel entrepreneur qui souhaite y investir. Nous savons aussi que ceux-ci ont fort peu d’inhibitions quand il s’agit de prendre tous les profits qu’il y a à prendre dans un secteur industriel et laisser le public ramasser les miettes. C’est l’histoire de l’industrie du bois et des mines, et une partie de ce que nous avons appelé dans un autre chapitre la philosophie américaine traditionnelle du progrès [fondée sur le pillage à courte vue des ressources naturelles].”[Norbert Wiener, The Human Use of Human Beings, Londres, Eyre and Spottiswoode, 1950, p. 161.]
TRIC2008a.78
Cf. Triclot, Le moment cybernétique, op. cit., p. 331 : Au début des années 1950, Wiener s’engage dans une véritable campagne, rencontrant des syndicalistes ou des patrons, pour faire connaître de façon large les risques de la nouvelle automatisation promise par les machines cybernétiques. Wiener est particulièrement inquiet de la perspective d’un chômage de masse qui serait le résultat de ce qu’il décrit comme une “nouvelle révolution industrielle”.
TRIC2008a.79
Cf. Triclot, Le moment cybernétique, op. cit., p. 341 : On voit ici Wiener essayer de s’affranchir, au moyen des effets d’autorité permis par le recours à la cybernétique, de la fragilité d’une posture seulement morale. […] Il s’agit de réencoder la question de sorte qu’une réponse purement technique vienne saturer le problème politique qui en est à l’origine. […] l’information diffère de la matière et de l’énergie en ce qu’elle ne peut faire l’objet d’une appropriation privée ; l’information est toujours une affaire de durée. De là, se déduit la nécessité de changer de politique en matière nucléaire.
TRIC2008a.80
Cf. Triclot, Le moment cybernétique, op. cit., p. 342 : “Qu’est-ce qui fait d’une chose une bonne marchandise ? Essentiellement, le fait qu’elle puisse passer de main en main sans perte substantielle de sa valeur et que les parties de cette marchandise peuvent se combiner de façon additive tout comme l’argent qui permet de les acheter. … L’information ne peut se conserver aussi aisément [que la matière ou l’énergie], car comme nous l’avons vu la quantité d’information communiquée est liée à cette quantité non additive connue comme entropie dont elle diffère par son signe algébrique et probablement par un facteur numérique. De la même manière que l’entropie tend à croître spontanément dans un système clos, l’information tend à décroître, de la même manière que l’entropie est une mesure du désordre, l’information est une mesure d’ordre. L’information et l’entropie ne sont pas conservées et sont toutes deux mal adaptées pour être des marchandises.” [Norbert Wiener, The Human Use of Human Beings, Londres, Eyre and Spottiswoode, 1950, p. 116.]
TRIC2008a.81
Cf. Triclot, Le moment cybernétique, op. cit., p. 351 : L’idée que la société soit tout à la fois organisme et machine cybernétique forme ainsi la contrepartie des analyses sur le traitement social de l’information. Qu’il s’agisse d’un organisme, d’une machine ou d’une société, on a affaire à une forme d’organisation qui ne peut se maintenir qu’en récoltant, échangeant ou transformant de l’information. Quel que soit le cas, on peut étudier la structure du point de vue des circuits informationnels qui sont mis en jeu, en dégageant les différentes manières dont ceux-ci peuvent être configurés. Les propriétés cybernétiques de l’information servent alors à révéler l’organisation des pouvoirs au sein de la structure sociale et les différentes formes de domination. Plus que jamais contrôle et information s’échangent.
TRIC2008a.82
Cf. Triclot, Le moment cybernétique, op. cit., p. 359 : la cybernétique permet de réintégrer les comportements finalisés dans le royaume de la science normale. La finalité est une propriété de certaines organisations qui intègrent des dispositifs de feedback et de traitement de l’information. On peut donc décrire de façon intégralement mécaniste des comportements finalisés, comme le sont les comportements sociaux.
TRIC2008a.83
Cf. Triclot, Le moment cybernétique, op. cit., p. 363 : La mention de la théorie des jeux est donc profondément ironique : non seulement celle-ci peut être utilisée pour montrer le contraire de ce qu’on lui fait dire habituellement, c’est-à-dire montrer le caractère antihoméostatique des processus de marché, mais plus profondément, il convient de se méfier des applications de la science quantitative aux études sociales. Non seulement les modèles sont beaucoup trop abstraits et réductionnistes, mais leur usage est aussi motivé en premier lieu par le désir de maximiser le pouvoir de ceux qui sont en position d’exploiter les autres.
TRIC2008a.84
Cf. Triclot, Le moment cybernétique, op. cit., p. 389 : Affirmer que les artefacts ont par soi des propriétés politiques implique que l’on dépasse la simple question de la moralité ou non de leur usage. Il s’agit du problème, toujours renouvelé de la neutralité de la technique. Peut-on penser la technique sous le régime de la séparation entre le moyen (l’outil) et la fin (l’usage) ou bien faut-il accorder au moyen une sorte de finalité en propre ?
TRIC2008a.85
Cf. Triclot, Le moment cybernétique, op. cit., p. 390 : Ne risque-t-on pas de faire de manière abusive de la technique le déterminant en dernière instance du changement social, de faire de la technique un destin ? Sous le prétexte, louable, de débusquer les dimensions politiques du fait technique, est-ce que l’on ne masque pas les rapports de force qui structurent le champ social ?[…] On s’attendrait en effet à ce que, pour l’âge de l’information, Wiener suggère une causalité de même ordre entre la nature des machines et la structure sociale. Or, il n’en est rien, et on ne voit jamais Wiener affirmer que les machines informationnelles entraîneraient mécaniquement dans leur sillage une société ouverte et apaisée. Pas l’ombre d’un destin technique ici, informatique et communication ne sont pas encore devenues les symboles de cette intelligence collective démocratique qui se répandrait sur la planète via les technologies de l’information. Bien au contraire, la plupart des textes de Wiener traitant de la question s’achèvent sur des appels pathétiques à la responsabilité morale. Les nouvelles techniques nous laissent face à un choix éthique entre le bien et le mal. “The hour is very late and the choice of good and evil knocks at our door.” [Norbert Wiener, The Human Use of Human Beings, Londres, Eyre and Spottiswoode, 1950, p. 186.]
TRIC2008a.86
Cf. Triclot, Le moment cybernétique, op. cit., p. 398 : Le fait que le système prenne en apparence de façon automatique un certain nombre de décisions dissimule les choix qui sont faits en amont quant à ces décisions. Le robot masque sous l’apparence d’une domination par les choses et par les artefacts une domination qui s’exerce sur les hommes par les hommes.
TRIC2008a.87
Cf. Triclot, Le moment cybernétique, op. cit., p. 398-399 : La machine à gouverner, comme le robot, représente une organisation close sur elle-même, incapable d’affronter la contingence et l’imprévisibilité de l’information extérieure. Elle ne peut fonctionner qu’à la condition de produire un milieu technique à son image, caractérisé par un haut niveau d’entropie et d’indifférenciation ; exigence qui contredit celle d’un milieu ouvert dans la société des hommes et des machines que souhaite Wiener.
TRIC2008a.88
Cf. Triclot, Le moment cybernétique, op. cit., p. 401 : La mécanique statistique est le véritable instrument des prétentions impérialistes de la cybernétique envers les sciences du vivant ou les sciences de l’esprit.
TRIC2008a.89
Cf. Triclot, Le moment cybernétique, op. cit., p. 402 : l’information apparaît elle-même clivée le long de ces vecteurs technique, philosophique, épistémologique ou politique. Nous aurons ou bien le code ou bien le signal, le programme symbolique ou la théorie des automates, la simulation de l’esprit ou la réalisation d’un cerveau artificiel, la logique formelle ou la mécanique statistique, la société de l’information ou la guerre froide…
TRIC2008b
Le concept d’information chez Shannon et Wiener
Mathieu TRICLOT, Le concept d’information chez Shannon et Wiener, Séminaire sciences, légitimité, médiation, équipe Maaticah, Paris, juin 2008.
TRIC2008b.1
Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 5 : on trouve chez Von Neumann une proposition qui est constamment répétée : notre logique, symbolique, n’est – je cite – qu’un code court, métaphore informatique, exprimant de manière simplifiée un code long qui serait en quelque sorte le langage du cerveau, qui est lui massivement parallèle et stochastique. Autrement dit, l’information comme symbole n’est qu’une réalité dérivée par rapport à quelque chose de plus fondamental qui est le traitement de l’information tel qu’il s’opère au niveau physique de base.
TRIC2008b.2
Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 9 : On voit Shannon annoncer que “le cas continu peut être obtenu à partir du cas discret en divisant le continuum des messages et des signaux en un nombre important, mais cependant fini, de petites régions et en calculant les différents paramètres impliqué sur une base discrète. Plus la taille des régions diminue plus la valeur de ces paramètres approche celles du cas continu. […] Une étude préliminaire indique que la théorie peut être formulée de manière complètement axiomatique et rigoureuse incluant à la fois les cas continus et discrets et bien d’autres.” [Shannon, La Théorie mathématique de la communication, p. 81].
TRIC2008b.3
Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 9 : Ce qui me semble pouvoir être acquis à l’issue de ce premier parcours en examinant les mesures de l’information telles qu’elles sont énoncées en 1948, c’est qu’il y a manifestement deux voies d’approches de la mesure de l’information, selon que l’on privilégie le discret ou le continu… Ces voies ne sont pas exactement symétriques. Il est probablement vrai que l’une et l’autre doivent pouvoir être fondue dans une axiomatique plus générale, ce que Shannon affirme sans le réaliser ou ce que la démarche de simplification semble montrer chez Wiener. Reste cependant une différence, me semble-t-il, en dépit de ces passerelles, c’est que chacun des cas de référence se trouve articulé à un ensemble d’applications privilégiées. Le cas discret chez Shannon, quand bien même il se résumerait à une simplification du cas continu développé par Wiener, a d’abord pour fonction d’aborder un problème qui est celui du codage des messages et disons de la compression de l’information transmise ; problème que Wiener laisse totalement de côté, et lorsqu’il parle de codage, c’est pour en référer à Shannon. Il semble bien que la problématique du codage soit en un sens spécifique au cas discret. À l’inverse, la question des filtres et encore plus de la prévision des signaux, n’apparaît pas chez Shannon, alors qu’elle constitue le cœur du travail de Wiener.
TRIC2008b.4
Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 19 : Si au final, les travaux se rejoignent et que d’une manière ou d’une autre, par échantillonnage, par simplification, ou dans l’horizon d’une axiomatique à venir, le développement de la mesure de l’information dans le cas continu et celle dans le cas discret se rejoignent, on a à faire à des lignes qui sont largement parallèles et qui obéissent à des logiques et des démarches qui me semblent assez différentes. Ce n’est pas insensé de la part de Shannon de dire que Wiener n’a pas grand-chose à voir dans la théorie de l’information entendue comme théorie du codage. On trouve un point symétrique dans la déclaration de 1956 chez Wiener. Autrement dit, peut-être que la mesure est la même, au final, mais ce qui compte c’est aussi ce qu’on en fait. Et posséder la mesure de Wiener n’autorise pas à résoudre de manière automatique le problème du codage posé par Shannon… et vice et versa, posséder la mesure de Shannon ne nous donne pas en claquant des doigts un algorithme de prédiction optimal. Il faut distinguer la mesure et ce que l’on en fait.
TRIC2008b.5
Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 19-20 : la théorie des communications chez Wiener n’apparaît que comme un chapitre dans un projet plus vaste qui consiste à étendre le royaume de l’information du domaine des communications jusqu’à l’étude des organismes vivants voire des sociétés, en passant par les domaines du calcul mécanique ou du rétrocontrôle. Cette différence dans le projet se retrouve dans les textes. Shannon donne une sorte d’axiomatique des communications qui est en quelque sorte fermée sur elle-même et ses applications là où Wiener chercher à inclure la théorie des communications comme un cas particulier dans une approche plus vaste, qui est une physique statistique de l’information. Je crois que la différence se ressent par exemple pour ce qui est de l’usage des probabilités. Chez Shannon, nous avons une application stricte du calcul des probabilités aux problèmes du codage, qui découle sans doute des travaux en cryptographie. Chez Wiener la dimension statistique apparaît toujours en lien avec l’arrière-plan physicaliste de la théorie. Si Wiener utilise les outils statistiques c’est toujours en référence à sa théorie du mouvement brownien ; les séries temporelles qu’étudient la théorie des communications n’apparaissent plus que comme un cas particulier de ces séries statistiques qui s’observent dans un univers aléatoire et contingent, si on lit Wiener. Je crois que du coup on retrouve en dépit de l’identité entre les formules des représentations assez distinctes de ce que peut être la quantité d’information, au croisement entre deux paramètres : la distinction entre le cas continu et le cas discret, l’analogique et le numérique ; mais aussi le statut donné à la théorie de la communication qui conduit Wiener à n’en faire qu’un chapitre dans une théorie plus générale qui est une physique statistique de l’information. Ces deux différences : une axiomatique du code chez Shannon contre une physique statistique de l’information chez Wiener, avec priorité donnée au signal continu sur le symbole discret, sont manifestement ancrées dans les contextes de production de ces deux mesures de l’information.
LAFO2004
L’empire cybernétique
Céline LAFONTAINE, L’empire cybernétique. Des machines à penser à la pensée de la machine, Paris, Éditions du Seuil, 2015.
LAFO2004.1
Cf. Lafontaine, L’empire cybernétique, op. cit., p. 74 : Rejetant l’individualisme des théories modernes, Bateson fonde son approche de la communication sur l’interdépendance des individus à l’intérieur du système. Défini comme un être essentiellement social, l’individu s’efface alors devant les déterminations interpersonnelles relatives au système de communication.
LAFO2004.2
Cf. Lafontaine, L’empire cybernétique, op. cit., p. 114-116 : Lacan ramène donc, ni plus ni moins, la parole au code informatique. Conçu comme pure fiction, le sujet lacanien n’existe que dans l’horizon de l’ordre symbolique qui le détermine, à la manière d’un circuit cybernétique. C’est du moins ce que Lacan soutient lorsqu’il affirme que l’inconscient c’est le discours de l’autre, non pas un autre “abstrait”, mais plutôt “le discours du circuit dans lequel je suis intégré”. Ce circuit dans lequel le sujet est tout entier intégré correspond à celui des “portes cybernétisées” dont la chaîne combinatoire fonctionne indépendamment de toute subjectivité. Pour comprendre ce qui est en jeu ici, il faut savoir que Lacan définit la cybernétique comme “une science de la syntaxe”. Si l’on se souvient de la primauté accordée à la syntaxe par la linguistique structurale et, par le fait même, du rôle déterminant dévolu au signifiant, on comprend que le symbolique correspond chez Lacan à une transposition du modèle cybernétique. Nul doute, à ses yeux, que “par la cybernétique, le symbole s’incarne dans un appareil. Et il s’y incarne de façon littéralement transsubjective”. Ce que cette incarnation machinique du symbole met en valeur, c’est l’opposition radicale entre le symbolique et l’imaginaire. Alors que l’imaginaire est le lieu d’une illusion, d’un “leurre lié au clivage entre moi et je”, le symbolique constitue l’espace de médiation à l’intérieur duquel s’ordonne la culture humaine. En faisant ressortir, par le biais de combinaisons binaires, l’autonomie du symbolique, la cybernétique touche au fondement de la culture humaine voulant que “l’homme ne soit pas maître chez lui”. Ainsi, il semble que pour Lacan le symbolique s’impose de l’extérieur au sujet suivant les mêmes combinaisons mathématiques que celles révélées par Lévi-Strauss.
LAFO2004.3
Cf. Lafontaine, L’empire cybernétique, op. cit., p. 155 : Système, complexité et auto-organisation, autant de concepts que recoupe la seconde cybernétique et qui nous mènent à la convergence contemporaine entre le néo-libéralisme et le paradigme informationnel. Cette convergence passe d’abord et avant tout par le développement des nouvelles technologies de l’information, mais aussi par la diffusion d’une vision du monde axée sur l’adaptabilité.
MAYE1990
Pour une économie de l’information
Anne MAYÈRE, Pour une économie de l’information, Paris, CNRS Éditions, 1990.
MAYE1990.3
Cf. Mayère, Pour une économie de l’information, op. cit., p. 26 : C’est à ce passage du contenant au contenu, de la forme au sens de l’information que vont se consacrer certains biologistes affrontés à la notion d’information à partir des découvertes de la biologie moléculaire. L’angle d’approche, très différent, les amène à privilégier les deux niveaux non intégrés par la théorie de C.E. Shannon. Alors que la théorie de C.E. Shannon est centrée sur la question de la transmission de l’information – et plus précisément sur le problème de la transmission fidèle des signaux dans une voie – les questions premières deviennent celle de la signification et de l’efficacité des messages. L’apport des biologistes dans une théorie de l’information, nous l’aborderons à partir des travaux de Henri Atlan et Henri Laborit, soit deux auteurs qui ont plus particulièrement cherché à approfondir les perspectives ouvertes par les convergences entre théorie des systèmes, cybernétique et théorie de l’information. Le projet de Henri Atlan se veut être un dépassement de la théorie de C.E. Shannon à partir d’un changement de perspective. Une information non pas isolée mais insérée dans un système, ce dans une réflexion qui réintroduit l’observateur. Henri Laborit se situe quant à lui au niveau du rôle de l’information dans l’organisation des systèmes vivants.
MAYE1990.4
Cf. Mayère, Pour une économie de l’information, op. cit., p. 34 : H. Laborit se propose de fournir une vision dynamique de l’organisation des systèmes vivants à partir des théories de l’information, de la théorie des systèmes et de la cybernétique. Il se situe de ce point de vue en rupture totale avec la théorie mathématique de l’information avec laquelle il ne cherche pas à établir de liaison. L’angle d’approche est autre : la théorie de Shannon est une théorie des communications qui permet à l’ingénieur d’éviter que le bruit ne fasse perdre une partie de l’information transmise dans un message alors que ce qui intéresse le biologiste c’est la structure même du message. Seules la transcription, la traduction du message génétique présentent une certaine analogie avec l’information des informaticiens. L’apport fondammental pour H. Laborit de la théorie des systèmes, de la théorie de l’information et de la cybernétique tient à ce qu’elles ont permis de comprendre que ce que les systèmes vivants ajoutaient à la matière inerte n’était ni masse ni énergie mais seulement de l’information.
MAYE1990.5
Cf. Mayère, Pour une économie de l’information, op. cit., p. 41 : le troisième point soulignés par ces auteurs [les chercheurs de Palo Alto] dans l’apport de la cybernétique concerne la “découverte” de la rétroaction, c’est-à-dire la substitution de liaision circulaires complexes aux notions causales linéaires antérieurement dominantes. Rétroaction et circularité constituent le modèle de causalité qui convient le mieux à une théorie des systèmes en interaction. Elles remettent en cause le modèle classique “action-réaction” qui consiste en fait en une ponctuation subjective dans la séquence de faits, dont l’analogie peut être trouvée dans le concept de “suite infinie alternée” en mathématiques. Elles déplacent l’objet du questionnement, de l’étude de l’origine et du résultat, sur la nature spécifique du processus d’interaction. Ainsi pour la compréhension de l’interaction humaine, il s’agit non pas d’expliquer le comportement, de lui conférer un sens, mais plutôt d’identifier un modèle de cette interaction, ce modèle étant défini par la manifestation de redondances.
MAYE1990.12
Cf. Mayère, Pour une économie de l’information, op. cit., p. 48-49 : L’analyse précédente est centrée sur les caractéristiques de l’échange d’information et celles qui s’en dégagent sur l’information elle-même. C’est avec une approche du traitement de l’information que nous proposons de poursuivre cette réflexion sur la définition de l’information. Cette question est à l’origine des premiers développements de la cybernétique : il s’agissait bien en effet de l’analyse des mécanismes d’effet en retour fondés sur l’information de rétroaction. L’analyse du traitement de l’information a connu ensuite d’importants développements, en interrelation forte avec le développement de l’informatique et de l’intelligence artificielle. Pour Herbert A. Simon dont la participation à ces nouveaux champs de recherche a été déterminante (cf. infra), l’importance de cette interrelation tient au fait que l’ordinateur constitue un outil performant de simulation du fonctionnement de l’intelligence humaine. Tout en utilisant nombre de ses acquis, Herbert Simon se positionne en rupture avec la cybernétique en ce qu’il cherche à expliciter le fonctionnement même du traitement de l’information qui reste la “boîte noire” de la cybernétique. Son approche est centrée sur le traitement rationnel de l’information : celui de l’homo sapiens.
DUPU2005
Aux origines des sciences cognitives
Jean-Pierre DUPUY, Aux origines des sciences cognitives, Paris, La Découverte, 2005.
DUPU2005.1
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 19 : De bonnes anthologies d’intelligence artificielle font de Thomas Hobbes le précurseur de la discipline et consacrent leur premier chapitre à un extrait du Léviathan. L’imputation est loin d’être absurde ou anachronique. Hobbes conçoit l’État ou Commonwealth sur le modèle d’un “automate qui se meut par ressorts et rouages comme une horloge”. Qu’est-ce que le Léviathan ? Un immense “homme (ou animal) artificiel”. Les sciences cognitives se reconnaissent volontiers dans la formule : “Thinking is reckoning” (Penser, c’est calculer). Or derrière cette communauté de mots, il y a une véritable parenté philosophique.
DUPU2005.2
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 22 : Connaître, c’est produire un modèle du phénomène et effectuer sur lui des manipulations réglées. Toute connaissance est reproduction, représentation, répétition, simulation. Cela, nous l’avons vu, caractérise le mode scientifique, rationnel de connaissance. Les sciences cognitives font de ce mode le mode unique de toute connaissance. Pour elles, tout “système cognitif” se rapporte au monde comme le savant à son objet. On ne s’étonne pas que la notion de représentation occupe une place centrale dans la science de la cognition. L’analogie, cependant, est encore plus profonde. Soit un système cognitif matériel : savant, homme, animal, organisme, organe, machine. Ce qui fait que ce système connaît par modèles et représentations doit pouvoir lui-même être modélisé en abstrayant du substrat matériel chaque fois différent le système de relations fonctionnelles responsable de la faculté de connaître. Le fonctionnalisme de la science de la cognition se situe donc à (au moins) deux niveaux logiquement emboîtés : celui de la représentation élémentaire ; et celui de la représentation de la faculté de représentation. C’est à ce second niveau qu’une science de la cognition peut tout à la fois se déclarer matérialiste ou physicaliste et revendiquer son autonomie par rapport aux sciences de la nature (et de la vie). L’esprit, compris comme le modèle de la faculté de modéliser, a retrouvé sa place dans l’univers matériel. Ou, pour le dire en d’autres termes, aujourd’hui plus familiers, il y a de l’information (et même du sens) dans le monde physique. Les facultés de l’esprit ne sont jamais que des propriétés de systèmes à traiter de l’information. Connaître, c’est effectuer, sur des représentations, des manipulations réglées. Cette proposition est fidèle à l’esprit du paradigme dominant en sciences cognitives et cependant, il lui manque l’essentiel. L’essentiel, c’est la nature logique des manipulations et des règles en question Le modèle scientifique, avons-nous dit, prend le plus souvent une forme mathématique – et, plus précisément encore, il se ramène à un système d’équations différentielles reliant des grandeurs. L’époque qui précède immédiatement l’histoire que nous allons conter a produit des modèles mathématiques tant du système nerveux que des circuits électriques. Il aura cependant fallu le génie de McCulloch et Pitts d’un côté, de Shannon de l’autre, pour comprendre que la modélisation pertinente était en fait de type logique – donc que l’on pouvait décrire en termes logiques le fonctionnement de certaines systèmes matériels, mais qu’inversement ces systèmes matériels pouvaient se représenter comme réalisant, voire incarnant la logique, cette forme supérieure de la pensée.
DUPU2005.3
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 31 : On a oublié que la cybernétique, dans ses beaux jours, suscita les plus grands enthousiasmes et les plus folles espérances. Son projet théorique, idéologique et technique a façonné notre époque comme nul autre. Il ne faut donc pas s’étonner que sa lignée soit aussi nombreuse et variée. Elle aura, en vrac et sans souci d’exhaustivité : introduit la conceptualisation et le formalisme logico-mathématiques dans les sciences du cerveau et du système nerveux ; conçu l’organisation des machines à traiter de l’information et jeté les fondements de l’intelligence artificielle ; produit la “métascience” des systèmes, laquelle a laissé son empreinte sur l’ensemble des sciences humaines et sociales, de la thérapie familiale à l’anthropologie culturelle ; fortement inspiré des innovations conceptuelles en économie, recherche opérationnelle, théorie de la décision et du choix rationnel, théorie des jeux, sociologie, sciences du politique et bien d’autres disciplines ; fourni à point nommé à plusieurs “révolutions scientifiques” du XXe siècle, très diverse puisqu’elles vont de la biologie moléculaire à la relecture de Freud par Lacan, les métaphores dont elles avaient besoin pour marquer leur rupture par rapport à des paradigmes établis.
DUPU2005.4
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 36 : L’article de McCulloch et Pitts radicalise la démarche de Wiener et de ses collaborateurs sur deux plans. Alors que ceux-ci dénient toute réalité à l’esprit et réduisent l’évocation de ses facultés à de simple commodités de langage, McCulloch part en quête des mécanismes matériels et logiques qui incarnent l’esprit […]. McCulloch en vérité, introduit l’“étude comportementale des phénomènes naturels”, chère à Wiener, Rosenblueth et Bigelow, à l’intérieur du cerveau. Certes le “contenu” de cela même qui est capable de comportement est maintenant considéré comme justifiable d’une démarche scientifique, mais ce contenu se décrit lui-même en termes de comportements d’unités plus petites, à l’“intérieur” desquelles il n’est pas question de pénétrer et que l’on n’envisage que dans leurs relations avec leur environnement, c’est-à-dire comme opérateurs transformant des Inputs en Outputs : les neurones. Ce n’est donc pas d’opposition qu’il faut parler, mais bien de radicalisation puisque l’approche comportementale et communicationnelle est transposée à un niveau logique inférieur. L’autre élément de radicalisation concerne les rapports entre organismes et machines. La cybernétique telle que l’a popularisé Wiener se présente comme la science des analogies maîtrisées entre organismes et machines. On peut résumer la position de McCulloch par cette citation, extraite d’un texte de 1955 : “Plus nous apprenons de choses au sujet des organismes, plus nous sommes amenés à conclure qu’ils ne sont pas simplement analogues aux machines, mais qu’ils sont machines.” La différence est double. Elle est d’abord de point de vue. Wiener raisonne en mathématicien appliqué, il lui suffit d’établir un isomorphisme mathématique pour conclure à l’analogie. C’est une prise de position ontologique qu’en regard défend McCulloch. Par ailleurs – mais les deux choses évidemment sont liées – les machines dont parle Wiener sont de “vraies” machines, des artefacts, des machines artificielles, des objets techniques. Pour McCulloch, la machine est un être logico-mathématique incarné dans la matière de l’organisme : c’est, si l’on veut, une “machine naturelle”, ou bien une “machine logique”, nature et logique étant ici parfaitement équivalentes l’une à l’autre. C’est donc sans incohérence aucune que McCulloch prendra fréquemment ses distances par rapport aux analogies parfois légères établies par ses collègues entre automates artificiels et automates naturels – ces analogies qui feront tant pour discréditer la cybernétique aux yeux des scientifiques “sérieux”, c’est-à-dire disciplinaires.
DUPU2005.5
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 43-44 : Sa démarche [à McCulloch] était donc fonctionnaliste – un fonctionnalisme certes fort éloignés de ce que sera le fonctionnalisme computationnel et représentationnel de l’esprit comme machine de Turing, qui constituera la marque distinctive de l’intelligence artificielle et du courant dominant de la science cognitive à venir. […] Voilà pourquoi McCulloch insistait sur le fait que les mécanismes matériels qu’il proposait pour rendre compte des facultés de l’esprit étaient suffisants, mais en rien nécessaires. Ils étaient tout à la fois possibles, comme le montraient les connaissances anatomiques et physiologiques de l’époque, et capables de manifester ces facultés. Mais d’autres “incarnations” ou d’autres théories de ce incarnations, eussent été concevables. C’est déjà l’idée de “réalité multiple”, dont nous avons vu qu’elle est solidaire de la pratique de la modélisation. Or cette idée assure l’émancipation du modèle, lequel peut dès lors voler de ses propres ailes… Si quelqu’un comprit fort bien cela à l’époque, c’est von Neumann. Parlant de l’article de McCulloch et Pitts de 1943, il écrit : “Ils voulaient traiter des neurones. Il décidèrent qu’ils ne souhaitaient pas s’attacher aux caractéristiques physiologiques et chimiques d’un neurone réel dans toutes leurs complexité. Ils ont eu recours à ce que l’on nomme en mathématique la méthode axiomatique, qui consiste à énoncer un certain nombre de postulats simples et à ne pas se préoccuper des moyens dont la nature se sert pour réaliser l’objet en question.”
DUPU2005.6
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 44 : Une comparaison vient à l’esprit, qui est d’autant moins hors de propos que la Théorie des jeux de von Neumann et Morgenstern, achevé en cette même année 1943 et publiée l’année suivante, va fournir un ingrédient appréciable au débat cybernétique. C’est la représentation de l’acteur par la théorie économique. Un économiste pur et dur peut s’intéresser à titre personnel aux connaissances accumulées par la psychologie dans son exploration des profondeurs de l’âme humaine, cela ne l’incitera en rien à renoncer à son modèle de l’homo œconomicus, ce calculateur “input-output” qui est à l’homme complet ce que le neurone formel est au neurone réel. Il y a une profonde communauté d’esprit entre la modélisation cybernétique et la modélisation en économie mathématique, et l’on ne s’étonne pas que les nombreux avatars de la première (théorie des systèmes, recherche opérationnelle, théorie du contrôle optimal, théorie de la décision, etc.) aient procuré à la seconde maints de ses outils.
DUPU2005.7
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 49 : L’ENIAC était une machine parallèle, comme celle de McCulloch. La machine conçue par von Neumann allait s’appeler l’EDVAC et fonctionner de façon séquentielle. C’est en comparant automates naturels et automates artificiels que von Neumann devait théoriser cette innovation. Les neurones sont extrêmement nombreux dans le cerveau et ils fonctionnent lentement : c’est l’organisation en parallèle qui optimise le traitement de l’information. En revanche, les composants d’un calculateur artificiel peuvent atteindre de très grandes vitesses et ils sont relativement peu nombreux : il faut les monter en série. Aujourd’hui encore, presque tous les ordinateurs – on les appelle pardois “machines de von Neumann” – sont des machines séquentielles. Cette domination est si forte que même les réseaux neuronaux du connexionnisme, ces machines hautement parallèles, sont simulés sur des machines de von Neumann.
DUPU2005.8
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 49-50 : Norbert Wiener, Arturo Rosenblueth, Julien Bigelow, Warren McCulloch et Walter Pitts : les auteurs des deux articles fondateurs parus en 1943 sont ceux qu’à l’instar de Steve Heims nous nommerons les “cybernéticiens”. Mais, de même que les trois mousquetaires étaient quatre, les cinq cybernéticiens étaient six. Du d’Artagnan de l’équipe, certes plus juif d’Europe centrale que gascon, mais doté de la même faconde et rayonnant du même panache, nous avons par la force des choses déjà beaucoup parlé. Il n’est cependant pas possible d’enfermer la personnalité de John von Neumann à l’intérieur de la seule cybernétique. Ses travaux, qui ont, pour le meilleur ou pour le pire, ouvert à la science et aux techniques des chemins nouveaux dans un nombre impressionnant de domaines, recoupent cette dernière en deux points au moins. C’est d’abord sa Theory of Games and Economic Behavior, publiée en 1944 en collaboration avec l’économiste autrichien Oskar Morgenstern. C’est surtout son élaboration d’une théorie générale des automates, naturels et artificiels, dont nous avons déjà dit qu’elle avait trouvé son impulsion initiale dans la lecture de McCulloch et Pitts. Nous venons de rappeler le rôle décisif que von Neumann allait jouer dans la conception des ces automates artificiels que sont les ordinateurs actuels. On connaît moins, en général, sa contribution au problème même qui tourmentait McCulloch : les rapports circulaires entre logique et cerveau. Von Neumann dut apprendre beaucoup de neurophysiologie pour pouvoir élaborer une comparaison systématique du cerveau et de l’ordinateur. Il en présenta les prolégomènes lors de sa conférence historique au symposium Hixon, en 1948, sous le titre “The General and Logical Thery of Automata”. Plus tard, il allait aborder deux problèmes qu’il jugeait essentiels pour la compréhension de la logique des organismes : comment des composants non fiables peuvent constituer un automate fiable ; et quels principes d’organisation sont suffisants pour donner à un automate la capacité d’autoreproduction. Sa mort prématurée, en 1957, devait interrompre ces recherches. Mais en 1948, tout en rendant hommage à la découverte de McCulloch et Pitts, il prend ses distances par rapport à elle, de façon fort intéressante. Il commence par évoquer la question de la taille du cerveau capable d’incarner telle ou telle fonction, ou propriété de l’esprit. Comme nous avons déjà eu l’occasion de le voir, aux conférences Macy et ailleurs, il conjecturera que le nombre de neurones formels nécessaires à la production de ces propriétés risque fort d’être très nettement supérieur au nombre de neurones réels. Puis vient sa critique essentielle. Tout comportement descriptible sans ambiguïté en un nombre fini de mots est computable par un réseau de neurones formels, c’est là un résultat remarquable, reconnaît-il – trop rapidement, pour la raison que nous avons expliquée. Mais nos comportements les plus complexes – et par “comportements”, von Neumann entend ici, en bon cybernéticien, les facultés de l’esprit : pensée, formation des concepts, mémoire, apprentissage, etc. – sont-ils descriptibles, en pratique, totalement et sans ambiguïté, au moyen de mots ? Localement, c’est toujours possible, par exemple s’il s’agit de décrire notre capacité à reconnaître la même forme triangulaire derrière deux triangles empiriques, de tracés, de tailles et de positions différents. Mais s’il s’agit de caractériser globalement notre capacité à établir des “analogies visuelles” ? Alors, conjecture von Neumann, on peut être dans un cas où le moyen le plus simple de décrire un comportement est de décrire la structure qui l’engendre – le gain en complexité de description pouvant tendre vers l’infini. Il est, dans ces conditions, dépourvu de sens de “découvrir” que tel comportement peut être incarné dans un réseau de neurones puiqu’il n’est pas possible de définir le comportement autrement qu’en décrivant le réseau. La morale de l’affaire, von Neumann ne fait que l’esquisser, car il est assez paradoxal pour lui, mathématicien, de la défendre face au neurophysiologiste McCulloch : celui-ci expliquait la neurophysiologie au moyen de la logique ; il est plus fécond, suggère von Neumann, d’enrichir notre logique sur le modèle de la neurophysiologie. Il répétera souvent que la logique formelle, dans son état présent, est trop rigide, trop combinatoire pour pouvoir se poser comme la logique des automates, qu’ils soient artificiels ou naturels ; il cherchera lui-même à édifier une logique plus complexe, plus proche du continu, s’inspirant dans ses méthodes de la théorie de probabilités, de la thermodynamique, de la théorie de l’information et de l’analyse mathématique. Von Neumann osait ainsi la question de la complexité, en prévoyant qu’elle deviendrait la grande question de la science à venir. La complexité, cela impliquait pour lui la futilité de la démarche constructive à la McCulloch et Pitts, qui réduit une fonction à une structure ; cela imposait à la place la question de savoir de quoi une structure complexe est capable. Il est significatif que Marvin Minsky, qui passait sa thèse sous la direction de von Neumann, ait jugé que la critique de son patron à l’encontre de la démarche de McCulloch était une aberration, un aveu de faiblesse, un manque de foi dans ce que lui-même, John von Neumann, avait réussi à édifier. Il reste à se demander si cette critique assez radicale eut une fécondité sur le mouvement cybernétique. Nous savons que McCulloch en fut ébranlé et qu’il consacra les dernières années de sa vie à des recherches sur des logiques alternatives, mais sans beaucoup de succès, semble-t-il. Ross Ashby, Frank Rosenblatt et, plus tard, le néoconnexionnisme allaient, en sens inverse de l’intelligence artificielle orthodoxe, poser la question dans les termes de von Neumann, se donnant une classe de structures définies seulement en partie et de façon statistique, et cherchant à en explorer les possibilités générales ou “génériques”. On note cependant avec amusement que dans la carte qu’il dresse en 1984 des sciences cognitives, Dan Denett range le modèle de McCulloch du même côté que l’orthodoxie cognitiviste, l’autre côté étant représenté par le “néoconnexionnisme”. Comme si l’incarnation par celui-ci du paradigme de la complexité pouvait justifier non seulement de couper le lien de paternité avec la cybernétique de McCulloch, mais encore de confondre celle-ci avec ce qui, dans l’ensemble des sciences cognitives, lui ressemble le moins : le cognitivisme orthodoxe. Comme si la cybernétique était vouée à jamais à se voir rejetée par ses enfants.
DUPU2005.9
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 83 : S’il est cependant possible de soutenir que McCulloch, mieux que Wiener, incarne, tant dans sa personne que dans son œuvre, ce qui se joue dans le projet cybernétique, c’est que l’on trouve chez le premier, mais non chez le second, une profonde cohérence entre le message idéologique et l’œuvre scientifique. L’un comme l’autre auront, en fin de compte, bien servi la “déconstruction” de la conception leibnizienne et cartésienne du sujet ; Wiener en soutenant que la volonté est de l’ordre du mécanisme, McCulloch en faisant de même avec la perception, la pensée et la conscience. Grâce à eux, il est désormais possible de donner des représentations rigoureuses de la notion de processus (comportement ou pensée) sans sujet. Or, même s’il ne recourait pas à cette terminologie heideggérienne, McCulloch, lui, savait ce qu’il faisait. Ce n’était manifestement pas le cas de Wiener. Lorsque, après sa rupture publique avec l’establishment scientifiques et militaro-industriel, il se met à déployer une activité d’intellectuel qui va occuper une portion croissante de son temps, c’est un message humaniste qu’il délivre, une philosophie de la technique généreuse et quelque peu naïve, où l’on reconnaît les thèmes de la neutralité de la technique, du mal qu’elle peut faire si on ne la maîtrise pas, de la responsabilité du scientifique et de l’ingénieur, de l’aide décisive que peuvent apporter les machines à l’avènement d’une société rationnelle – bref, un discours de maîtrise, qui fait de la technique un instrument que l’on peut et doit dominer, et qui, donc, passe “à côté de son essence”. Tout à fait symboliques à cet égard sont les recherches que Wiener réalise à la même époque, et dont il entretient volontiers ses collègues des conférences de Macy, pour mettre au point des prothèses médicales au service des handicapés, en recourant aux techniques de traitement du signal. Nul doute que si beaucoup se méprennent sur la nature philosophique de la cybernétique, c’est parce qu’ils s’arrêtent au discours de Wiener, sans voir qu’il est en contradiction avec le sens de l’œuvre scientifique effectivement accomplie. C’est une raison pour mettre au premier plan la figure de Warren McCulloch.
DUPU2005.10
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 84-85 : Notons d’abord que la notion d’information, dans l’esprit des cybernéticiens, et en tout cas dans celui de Wiener, appartient au domaine de la physique, et plus précisément de la thermodynamique. Dès le symposium de 1946 sur les “Mécanismes téléologiques”, Wiener propose de considérer l’information comme étant de l’entropie négative – l’idée avait été avancée par L. Szilard dès 1929, et elle allait être développée de façon rigoureuse par L. Brillouin, en 1956, dans son livre La science et la Théorie de l’information –, et ajoute : “De fait, il n’est guère surprenant que l’entropie et l’information soient de signes opposés : l’information mesure l’ordre et l’entropie mesure le désordre. Il est en vérité possible de concevoir tout ordre en terme de messages”. C’est dire que d’emblée, par le fait même qu’il traite l’information comme une notion physique, Wiener la fait échapper au strict domaine de l’ingénierie des communications, à quoi la limitera Shannon, pour la faire entrer dans celui de l’étude des systèmes organisés, qu’ils soient biologiques, techniques ou sociaux. C’est une physique de l’information qu’il prétend établir. C’est la notion d’information qui lui sert à ramener les questions biologiques ou même sociales à des considérations de physique. Ainsi peut-il dire : “La caractéristique la plus importante d’un organisme vivant est son ouverture au monde extérieur. Cela signifie qu’il est doté d’organes de couplage qui lui permettent de recueillir des messages du monde extérieur, lesquels messages décident de sa conduite à venir. Il est instructif de considérer cela à la lumière de la thermodynamique et de la mécanique statistique.”
DUPU2005.11
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 85-86 : Le “physicalisme” de Wiener par rapport à la question de l’information apparaît spécialement lors des nombreuses discussions qui portèrent sur les catégories, chères aux cybernéticiens, de “numérique” (digital) et d’“analogique”. Les participants aux conférences Macy semblaient avoir beaucoup de mal à percevoir la nature de la distinction, tout en la jugeant fondamentale, puisque beaucoup pensaient que les dispositifs “numériques”, de par leur caractère discontinu, étaient davantage porteurs d’information que les dispositifs “analogiques”, ou en tout cas qu’ils transmettaient une information plus noble, parce que “codée”. Pitts conjecture que c’est à une étape tardive de l’évolution que les systèmes nerveux sont devenus numériques, “probablement dans le but de traiter de plus grandes quantités d’informations”. Von Neumann distingue entre les messages “codés“ parce que discrets (comme l’influx nerveux) et les messages continus, de type hormonal. Il conjecture que les premiers se propagent le long de chemins bien précis et spécialisés, ce qui n’est pas le cas des seconds. Certains même, tel McCulloch, doutent que l’“analogique” — comprendre le continu – puisse avoir d’autre fonction informationnelle que celle que remplit la différence de potentiels aux bornes d’un poste de radio. Si les discussions sur ce sujet étaient si vives, c’est que l’enjeu en était la sempiternelle question de savoir quelle est l’approche la plus féconde du système nerveux : la “discontinuiste” en termes de réseaux de neurones et d’impulsions nerveuses, ou la “continuiste”, en termes de champs électriques et de variables continues, de type chimique et hormonal. Le neurobiologiste Ralph Gerard se faisait régulièrement l’avocat de ces thèses “holistes” et “gestaltistes”, allant même jusqu’à conjecturer que le caractère discret de l’influx nerveux n’est qu’une donnée contingente. C’est dans ce contexte que Wiener dut expliquer que l’opposition entre numérique et analogique n’est qu’une distinction de degré et non pas de nature. Il le fit dans des termes très modernes, ceux de la théorie des systèmes dynamiques, dans un langage qui préfigure celui de la théorie des bifurcations, ou des “catastrophes”. Soit un système physique dont les états d’équilibre sont peu nombreux, et les bassins d’attraction – c’est-à-dire les régions de conditions initiales qui conduisent à un même équilibre – bien séparés. La plupart du temps, le système se trouvera en l’un ou l’autre de ses états d’équilibre. La dynamique sous-jacente est continue, mais la phénoménologie est discrète. En général, une petite variation des conditions initiales n’a pas d’effet sur l’équilibre atteint, mais si l’on se trouve en un point de bifurcation, le système saute brusquement, “catastrophiquement”, d’un état d’équilibre à un autre, jouant alors le rôle d’amplificateur. Or, continue Wiener, plus les équilibres sont attractifs, plus le temps que le système passe hors de ses états d’équilibre est faible et plus il se comporte comme un dispositif “numérique”. Un système est donc plus ou moins numérique, plus ou moins analogique. Si son identité, et donc le “paysage de ses attracteurs“, varie régulièrement en fonction de certains paramètres, on peut même lui faire parcourir toutes les étapes intermédiaires entre le “pur” numérique et le “pur” analogique. Wiener concluait son explication en affirmant la nécessiter d’élaborer une “physique des dispositifs numériques”. De façon consistante avec ces développements remarquables, Wiener jugeait vain de prendre parti dans la querelle qui opposait Ralph Gerard à Warren McCulloch, les renvoyant, de fait, dos à dos. Contre le premier, il affirmait que la canalisation des messages le long de sentiers bien précis est une caractéristique essentielle du système nerveux ; contre le second, il conjecturait que les variables continues, d’ordre chimique et hormonal, sont bien porteuse d’information. Pour concilier ces deux positions, il suffit de poser que ces variables “analogiques” modifient continûment les seuils d’excitation des neurones, donc de concevoir un système numérique commandé analogiquement. Il faut cette complexité, pensait Wiener, pour que le système soit capable d’apprendre.
DUPU2005.12
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 94-95 : Parce qu’elle s’est institué comme la science des “mécanismes téléologiques”, et qu’elle a pris les êtres finalisés pour objets d’étude, on considère souvent la cybernétique comme le fruit de l’union d’une philosophie “holiste” et de la science moderne. Cette image est aussi fausse que les autres […]. [Le] véritable projet cybernétique : produire, comme l’art, des simulacres, c’est-à-dire des imitations d’imitation, des modèles de modèle. La totalisation cybernétique n’est pas holiste, c’est un holisme artificiel, une simulation de holisme qui agit comme démystification. […] Les totalités cybernétiques sont toujours des totalités artificielles, dans lesquelles les parties sont antérieure au tout ; des totalités nominales, que seule la conscience organisatrice d’un tiers, en l’occurrence le cybernéticien, vient achever en les percevant et les concevant ; des agrégats dont l’unité est accidentelle, et jamais des monades dont l’unité soit substantielle, pour reprendre la célèbre distinction de Leibniz.
DUPU2005.13
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 101-102 : Comme l’a bien vu Gilbert Simondon, les limites de la cybernétique ont surtout tenu à ce qu’elle est restée jusqu’au bout prisonnière de son postulat initial : “l’identité des êtres vivants et des objets techniques auto-régulés”. Ce n’est pas, contrairement à ce qu’on affirme parfois, que les cybernéticiens aient été principalement des techniciens ou des ingénieurs. S’ils s’intéressaient tant aux machines, ce n’était pas en tant qu’applications utiles d’un savoir scientifique déjà constitué, c’est qu’elles représentaient à leurs yeux l’incarnation dans la matière d’hypothèses ou de théories de type logico-mathématique.
DUPU2005.14
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 102-103 : Cette évolution, que l’on peut décrire comme l’émancipation progressive par rapport au réel de l’outil par lequel le savant recrée le monde, était en un sens annoncée dans un texte de 1945 que Wiener et Rosenblueth publièrent dans la revue qui avait accueilli leur article fondateur de 1943. Intitulé “The Role of Models in Science“, ce texte commençait par rappeler l’importance qu’a toujours eue l’activité de modélisation dans la science moderne. À défaut de pouvoir se rendre maître et possesseur d’une portion du monde, le savant en construit une image plus simple et aussi fidèle que possible dont, comme un fétiche, il s’assure la maîtrise. Or, tout au long de l’article, les auteurs traitent non seulement des modèles formels, pures constructions intellectuelles, mais aussi des modèles matériels, qui sont des objets du monde, comme l’objet qu’ils représentent. Pour finir, ils considèrent le “cas limite” de la modélisation : un objet dont le seul modèle matériel satisfaisant serait cet objet lui-même. Il se trouve que cette figure, que Wiener a peut-être empruntée à Josiah Royce dont il suivait le séminaire à Harvard dans les années 1911-1913, va hanter les conférences Macy, parfois de façon très explicite. En témoigne l’échange entre Ralph Gerard et McCulloch à la neuvième conférence. Ironie ou fausse modestie, le premier explique que ce que le groupe, au fond, semble attendre des neurophysiologistes, c’est qu’ils fournissent aux mathématiciens des données pour que ceux-ci puissent bâtir leurs modèles sans perdre trop le sens du réel. Le réel est devenu le moyen, et le modèle la fin. À quoi McCulloch réplique : “Le meilleur modèle du comportement du cerveau, c’est le comportement du cerveau lui-même.” Mais c’est le plus souvent de façon non réfléchie que l’objet et le modèle éprouvent une fâcheuse tendance à constamment inverser leurs rôles. Oscillation que le mot même de modèle, comme nous l’avons dit, recèle dans son ambivalence : est modèle ce qui imite, mais aussi ce qui est, ou mérite d’être imité.
DUPU2005.15
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 103 : Typique à cet égard est, dans son extrême confusion qui mit certains participants hors d’eux, la discussion de la septième conférence sur le numérique et l’analogique. Nous l’avons déjà évoquée comme l’un des moments chauds où s’affrontèrent les partisans d’une conception “continuiste” du système nerveux et leurs adversaires “neuronistes”. À ce niveau, analogique veut dire continu et numérique, discret. Plus précisément, comme l’expliquent von Neumann et Pitts, si l’action d’une variable continue sur la dynamique d’un système dépend seulement du fait que sa valeur dépasse ou non un certain seuil, alors on peut décrire le rôle qu’elle joue dans l’économie du système comme étant celui d’une variable “numérique”, du type oui ou non, 0 ou 1 ; sinon, cette variable sera dite “analogique”. Dans ce premier sens, on peut donc dire d’une réalité naturelle qu’elle est analogique. Cependant, puisqu’on parle aussi et surtout de machines, il est inévitable que le mot “analogique” évoque non plus un rapport interne au système de la machine, mais un rapport entre celle-ci et l’objet naturel qu’elle est censée représenter. Rien n’interdit dès lors à une machine d’être analogique dans ce second sens et numérique dans le premier. Mais il s’agit du système nerveux, qui est un objet naturel bien particulier, puisqu’il est l’organe même de toute représentation. À son sujet, les deux sens viennent en coalescence , et l’on ne sait bientôt plus ce que l’on dit lorsqu’on traite des représentations artificielles, matérialisées, du cerveau. C’est la notion même de modèle qui, dans la discussion, s’estompe progressivement, dans la mesure où elle suppose une relation hiérarchique entre une origine et une reproduction. Entre les faits et leurs descriptions, il n’y a bientôt plus de différence, la hiérarchie fait place à une relation d’équivalence, qui est l’adéquation à un même modèle formel. C’est la logique qui met à plat le monde et ses représentations. Les modèles de la cybernétique sont déjà poststructuralistes, ils ne sont modèles que d’eux-mêmes, ou bien d’autres modèles, miroirs de miroirs, spéculums ne réfléchissant aucune réalité.
DUPU2005.16
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 103-104 : Ce renversement de l’idée de modèle est contemporain du mouvement par lequel la science se concentre sur l’étude des objets “complexes”, au sens que von Neumann a donné à ce mot. Le modèle mathématique, artificiel, perd son statut d’instrument de maîtrise, puisqu’on ne sait pas le résoudre. La complexité de l’objet réel est irréductible et seule l’histoire de cet objet dans le monde peut nous dire ce dont il est capable. Cette idée révolutionnaire, que les sciences de la nature (et de l’artificiel) découvrent à cette époque, est en réalité une vieille connaissance de la pensée du social. On ne devrait peut-être pas s’en étonner, tant il est vrai qu’aucun objet du monde physique ou mécanique n’atteint la complexité d’une société. Ce n’est pas un hasard – nous y reviendrons – si un Friedrich von Hayek se réfère à la fin des années trente au passage suivant du Manuel d’économie politique de Vilfredo Pareto. Celui-ci écrit en 1906 que le modèle de l’équilibre économique général, mis au point par Léon Walras et par lui-même, et qui formalise le mécanisme de la formation des prix sur un marché concurrentiel, “ne vise nullement à un calcul numérique des prix. Faisons en effet l’hypothèse la plus favorable pour un tel calcul, supposons que nous ayons triomphé de toutes les difficultés consistant à trouver les données du problème et que nous connaissions les ophélimités [c’est-à-dire les “utilités” ou “désirabilités”, JPD] de tous les différents produits pour chaque individu, et toutes les conditions de production de tous les produits, etc. Cela est déjà une hypothèse absurde. Pourtant elle n’est pas suffisante pour rendre la solution du problème possible. Nous avons vu que dans le cas de 100 personnes et de 700 produits il y aura 70 699 conditions (en fait, un grand nombre de circonstances que nous avons négligées jusqu’ici augmenteront ce nombre) ; nous devons donc résoudre un système de 70 699 équations. Cela excède en pratique les pouvoirs de l’analyse algébrique, et cela est plus vrai encore si l’on songe au nombre fabuleux d’équations que l’on obtient pour une population de quarante millions d’habitants et plusieurs milliers de produits. Dans ce cas, les rôles s’inverseraient : ce ne seraient plus les mathématiques qui viendraient au secours de l’économie politique, mais l’économie politique qui viendrait au secours des mathématiques. En d’autres termes, si l’on pouvait réellement connaître toutes ces équations, le seul moyen pour les résoudre qui soit accessible aux pouvoirs de l’homme serait d’observer la solution pratique qui leur est donnée par le marché.” Le contexte idéologique, en tout cas pour ce qui est de Hayek, est clair : seul le marché peut nous dire ce dont il est capable. Le meilleur modèle, et le plus simple, du comportement du marché, c’est le comportement du marché lui-même. L’information que le marché mobilise et met au service de ceux qui se laissent porter par sa dynamique, n’est pas “compressible”. Nul, donc, ne peut s’en dire le détenteur, ni prétendre commander “aux forces aveugles du processus social” – aveugles, mais bénéfiques. La crise hayékienne du “rationalisme constructiviste” en philosophie sociale anticipe la critique adressée par von Neumann à la philosophie artificialiste de McCulloch.
DUPU2005.17
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 104-105 : Le modèle mathématique qui décrit un objet complexe est lui-même un objet complexe. Un de ses “modèles” possibles, nous venons de le voir, c’est l’objet lui-même. Mais grâce à von Neumann, l’apparition de l’ordinateur ouvre une nouvelle possibilité : la simulation numérique. À son tour, l’objet mathématique est traité comme un objet naturel. Sa définition n’est pas “génétique”, c’est-à-dire que l’on ne peut déduire de la définition toutes les propriétés de l’objet. Pour connaître celui-ci, il est donc indispensable de recourir à l’expérimentation, sur la représentation matérialisée dans l’ordinateur. Très tôt, von Neumann fut donc sensible à l’idée que nos constructions intellectuelles, dès lors qu’elles sont “complexes”, ne sont pas d’une nature radicalement différente de celle des objets du monde physique. Cela ne pouvait que le préparer à “déconstruire” la relation hiérarchique inhérente à la notion de modèle. C’est en tout cas cette position philosophique qui fournit à von Neumann la motivation et l’énergie nécessaires à la conception et au développement des calculateurs électroniques.
DUPU2005.18
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 107 : Pour celui qui écrit, avec une attitude faite a priori de sympathie et même de gratitude – comme c’est le cas de l’auteur de ces lignes –, l’histoire de la cybernétique, le sentiment qui finalement prévaut est celui d’une grande déception. La nouvelle discipline se voulait l’avant-garde de la démarche scientifique, tant par son projet – l’esprit, ce chef-d’œuvre de la création – que par ses concepts, ignorés jusque là de la physique – la téléologie, l’information, la causalité circulaire, le feedback, etc. – et son style – réflexif, c’est-à-dire réfléchissant l’emploi de ses outils conceptuels. Est-ce l’arrogance liée à la certitude de faire franchir à la science une étape décisive, ou simplement le type de fermeture d’esprit que tout “paradigme” scientifique, nouveau ou ancien, requiert de ses membres ? Toujours est-il que la cybernétique aura – quel gâchis ! – raté l’essentiel de ses rendez-vous. J’ai décrit et analysé l’échec de ses rencontres avec la biologie ; qu’il s’agisse de la biologie moléculaire, de l’embryologie ou de la neurophysiologie ; avec la psychologie, traitée au mieux comme un territoire à conquérir ; avec la phénoménologie, dont la “philosophie de l’esprit” eût mieux convenu à son modèle que cette branche de la philosophie analytique qui porte aujourd’hui ce nom. On peut aussi mentionner l’absence de contact avec la physique des systèmes désordonnés qui pourtant, mais bien plus tard, allait contribuer à fonder le néo-connexionnisme. Je voudrais conclure cette étude par l’analyse brève de deux échecs supplémentaires et, historiquement, très importants : l’échec à se saisir des perspectives ouvertes par la notion de complexité ; la fermeture à peu près totale aux ressources offertes par les sciences de l’homme et du social. Nul ne peut cependant nier le lien de parenté entre le projet cybernétique et les nombreuses et révolutionnaires entreprises scientifiques et philosophiques qui lui succéderont, parfois en se recommandant de son nom, souvent en préférant le taire, de la théorie générale des systèmes aux sciences cognitives en passant par la biologie moléculaire. Que ces entreprises aient parfois affirmé leur identité contre la cybernétique ne saurait faire oublier qu’elles doivent en définitive la vie à l’initiative que prirent les hommes et les femmes qui constituèrent le groupe cybernétique de se réunir régulièrement à l’hôtel Beekman, Park Avenue, à New York City, pour tenter de bâtir ensemble une nouvelle science de l’esprit.
DUPU2005.19
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 112-113 : C’est avec Ashby que le principe du verum factum atteint véritablement son point d’aboutissement dans l’histoire de la science. Des concepts comme “cerveau”, “esprit”, “vie”, “organisme”, “évolution”, “intelligence” perdent tout contact et tout rapport avec un quelconque donné, ils sont entièrement reconstruits dans le cadre d’un modèle mathématique axiomatisé. La forme s’arrache totalement et définitivement à la matière. McCulloch cherchait les conditions formelles et matérielles du jugement synthétique a priori. Il se posait les questions que se posent les biologistes et les psychologues, même s’il avait recours à l’outil logico-mathématique. La même chose peut être dite au sujet de Herbert Simon et de ses systèmes symboliques physiques, c’est-à-dire matériels. Avec Ashby, on est dans le pur a priori mathématique. Le projet interdisciplinaire de la cybernétique, l’interaction avec ceux qui, concrètement, interrogent le vivant ou l’esprit et entre en “conversation” avec les objets du monde, de difficile et limité qu’il était, est maintenant devenu radicalement impossible. […] Même si elle n’en avait pas toujours conscience, la première cybernétique participait de la déconstruction de la vision métaphysique du monde. Avec Ashby, on y replonge à pieds joints. Le seul point de vue légitime est celui de l’omniscience. Les seules propriétés pertinentes sont celles qui résistent au regard de Dieu. On établit parfois un lien entre la cybernétique et le système de Leibniz : ceci, qui aurait peu de sens appliqué à un Wiener, par exemple, se trouve parfaitement justifié dans le cas d’Ashby. Ce dernier a décrété une fois pour toutes que le comportement d’un “système” (cerveau, organisme, etc.) avait pour seule définition rationnelle une application ou une fonction qui, à tout couple état du système-état de l’environnement, fait correspondre univoquement l’état du système à l’instant suivant. Par déduction logique, Ashby en déduit que l’auto-organisation est une notion contradictoire, qui ne participe que du domaine des apparences. Pour qu’il y ait auto-organisation, il faudrait en effet que le système puisse, de par son propre fonctionnement, déterminer le changement de la fonction qui le régit. Mais on devrait pour cela imaginer une autre fonction, d’un niveau logique supérieur à la première, qui modifierait celle-ci. Le nouveau, la liberté, la spontanéité sont relégués au statut d’illusions ou d’erreurs. Ils sont relatifs à un observateur qui n’est surpris que parce qu’il s’est cantonné dans le point de vue fini de celui qui choisit de “ne pas soulever le couvercle du système”. Ce théorème d’Ashby sur l’impossibilité de l’auto-organisation fut formulé en 1962. Il devait exercer une influence considérable. Et tout d’abord sur la seconde cybernétique, qui dut s’employer à penser l’auto-organisation en contournant l’obstacle qu’il constituait. Certain des travaux les plus connus de Heinz von Foerster et de Henri Atlan s’inscrivent dans ce cadre.
DUPU2005.20
Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 115-116 : Nous avons décrit la cybernétique comme une tentative physicaliste de conquérir les sciences de l’esprit, c’est-à-dire de supplanter les psychologies existantes. Il faut regretter maintenant qu’elle ait manqué totalement d’ambition en ce qui concerne les sciences de l’homme et du social en général. […] La rencontre aurait cependant pu et dû se faire, et de façon beaucoup plus ambitieuse. J’ai insisté sur le fait que la cybernétique nous donne les moyens formels de penser la catégorie de processus sans sujet. Or dans cette catégorie, que l’on trouve aussi bien dans la philosophie sociale libérale d’un Friedrich von Hayek qu’au cœur du structuralisme marxiste de Louis Althusser, structure ce qui s’est fait de plus novateur dans la pensée du social et de l’homme de l’après-guerre. On peut en vérité distinguer deux formes contrastées de cette figure clé. La première est celle de la “main invisible” ou encore de la “ruse de la Raison“, qui domine entre autres la tradition libérale et économique. La question de la complexification y est centrale. On y enseigne en effet à la fois que ce sont les hommes qui font leur société, mais que celle-ci leur échappe, de la même façon qu’un véritable automate échappe à son constructeur. Or dans ce cadre, le débat qui opposa Weiss et von Neumann à McCulloch au symposium Hixon a depuis longtemps son équivalent. L’atomisme de McCulloch s’y nomme “individualisme méthodologique“, et l’on pourrait montrer que la théorie économique de l’équilibre général présente, comme le modèle du cybernéticien, cette réversibilité entre un mouvement ascendant et un mouvement descendant. Quant à la conception des totalités proposée par Weiss, ni atomiste, ni holiste, on lui trouverait aisément des équivalents, et d’abord dans l’œuvre du premier penseur de la “main invisible”, Adam Smith. Si les animateurs des conférences Macy avaient pris vraiment au sérieux leur projet interdisciplinaire, la mise en scène de ce débat interne aux sciences sociales eût pu les éclairer sur leur propre débat. Certes, cette occasion manquée fut plus tard rattrapée, mais l’initiative en revint aux sciences de l’homme elles-mêmes. Le grand nom est ici Friedrich von Hayek […]. De fait, Hayek n’avait nul besoin de chercher ailleurs que dans la tradition libérale des “lumières écossaises” de quoi penser ce qui est l’équivalent, dans l’ordre du social, de la conjecture de von Neumann sur la complexité. Cette tradition tient en effet pour non contradictoire les deux propositions suivantes (configuration analogue à celle que nous avons présentée plus haut au sujet de la vie et des processus physico-chimiques qui la produisent) : 1) ce sont les hommes qui “agissent” leur société ; 2) la société leur échappe, parce qu’elle est (infiniment) plus complexe qu’eux. On peut sans incohérence être non réductionniste sans avoir à accepter le holisme. S’il est vrai qu’il s’agit encore d’un individualisme méthodologique, il s’oppose à ce que l’on entend habituellement par là, précisément par le refus du réductionnisme. On parlera d’individualisme méthodologique complexe. Pour Hayek, l’“ordre social spontané” constitue un troisième type d’ordre, à côté de l’ordre naturel et de l’ordre artificiel. C’est une émergence, un effet de composition, un effet de système. Le “système” n’est évidemment pas un sujet doué de conscience et de volonté. Le savoir qu’il mobilise est irréductiblement distribué sur l’ensemble de ses éléments constitutifs, il ne saurait être synthétisé en un lieu qui serait celui du “savoir absolu” du système sur lui-même. Ce savoir collectif est porté par l’ordre social en tant qu’il est le “produit de l’action des hommes mais non de leurs desseins”, et n’est récapitulable par aucune conscience individuelle. C’est un savoir sans sujet. Il s’incarne dans des normes, des règles, des conventions, des institutions, lesquelles s’incorporent dans les esprits individuels sous la forme de schèmes abstraits. Comme l’écrit Hayek : “L’esprit ne fabrique point tant des règles qu’il ne se compose de règles pour l’action […]. Nous avons à notre service une si riche expérience, non parce que nous possédons cette expérience mais parce que, sans que nous le sachions, elle s’est incorporée dans les schémas de pensée qui nous conduisent”.
TOAM2018
Le paradigme communicationnel
Sara TOUIZA-AMBROGGIANI, Le paradigme communicationnel : de la cybernétique de Norbert Wiener à l’avènement du posthumain, Thèse de philosophie soutenue le 10 novembre 2018 à l’université Paris 8 sous la direction de Pierre CASSOU-NOGUÈS, https://www.theses.fr/2018PA080121.
TOAM2018.1
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 62 : Le Roux prend le parti d’une définition restrictive de la cybernétique partant de ce que faisaient effectivement ceux qui s’en réclamaient, elle consiste alors en “l’élaboration de modèles de rétroaction dans les sciences biologiques ou humaines”. Selon Segal, “l’originalité de la cybernétique sera d’associer au concept de rétrocontrôle, celui d’information, issu aux États-Unis des recherches dans le domaine des télécommunications”. Pour reprendre des définitions plus anciennes, Simondon et Guilbaud en faisaient, selon Xavier Guchet, “une étape décisive de la mécanologie”, c’est-à-dire une théorie générale des machines ; Couffignal l’avait définie comme l’“art de rendre l’action efficace” selon sa formule devenue célèbre. Ashby, quant à lui, affirme que son “principal sujet est le domaine de toutes les machines possibles”.
TOAM2018.2
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 65 : [Mathieu Triclot] soutient, à bon droit selon nous, que “nous ne percevons nos activités de communication sur le mode de l’échange et du traitement de l’information que depuis que nous avons appris à considérer les machines de cette manière”.
TOAM2018.3
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 95 : Wiener oscillera toute sa vie entre ces deux pôles : espoir et désespoir, condamnation et rédemption. Sa pensée les intègre tous deux, sans choisir entre l’un et l’autre, sans même les opposer : le monde est condamné donc il faut le sauver.
TOAM2018.4
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 102 : L’usine automatisée peut être une chance pour l’humanité, elle peut nous libérer du travail et nous offrir la possibilité de faire des choses plus intéressantes. Mais pour cela il faut transformer notre acception de ce qu’est un “travail”. Cela implique de sortir de la logique du marché et de la concurrence : “La solution, bien sûr, est une société basée sur des valeurs humaines autre que l’achat ou la vente.”
TOAM2018.5
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 107-108 : Nous y voyons surtout la marque de la tension, que nous évoquions plus haut, caractérisant la pensée de Wiener. D’un côté, le scientifique cherche à comprendre rationnellement le monde et la place de l’humain en son sein en évitant tout anthropomorphisme, tout “favoritisme”, cela donne une ontologie continuiste, communicationnelle, où les êtres sont définis par leur classe de comportement, leur capacité à traiter de l’information, leur niveau de régulation. D’un autre côté, Wiener le philosophe est mû par une puissante estime pour ses semblables, un immense respect pour la condition humaine, ce qui le mène parfois à sacraliser la personne humaine, à la hisser au-delà de toute autre considération. C’est la marque de son profond et vibrant humanisme. Le souci est que sa cybernétique sape en permanence les moyens intellectuels de penser cet humanisme, il en devient un sentimentalisme sans fondement autre que réactionnaire.
TOAM2018.6
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 110 : Wiener lui-même au sein d’un même texte prend différentes positions sur le sujet : “La cybernétique tente de trouver les éléments communs dans le fonctionnement des machines automatiques et du système nerveux humain et de développer une théorie qui couvrira l’ensemble du champ du contrôle et de la communication dans les machines et les organismes vivants.” [Norbert Wiener, “Cybernetics”, Scientific American, n° 179, 1948, p. 14-18]
TOAM2018.7
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 122 : Contrairement à [McCulloch], Wiener est un grand humaniste qui cherche à préserver l’être humain et son identité. Il semble que la peur du cyborg, chez Wiener, découle précisément d’une peur de la perte d’identité. Son humain augmenté de prothèses est placé au sein d’une métaphysique cybernétique où l’Entropie, l’augmentation inéluctable du désordre, de la désorganisation menant à l’indistinction, à la dissolution, est vue comme le Mal absolu. C’est le destin tragique de l’humanité vouée à disparaître, de l’univers voué à mourir. Dans ce contexte, nous avons vu que l’information est l’exacte opposée de l’entropie, elle est une mesure de la quantité d’ordre dans un système, elle est le Bien. Ce manichéisme cybernétique explique bien le rejet de la figure protéiforme du cyborg : il incarne l’indistinction, que Wiener abhorre.
TOAM2018.8
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 130 : Une angoisse profonde étreint l’être humain face au monde, il se sent seul et exclu face à sa froide objectivité. Pour “combler l’abîme”, Günther identifie trois stratégies : celle de l’église chrétienne à travers la résurrection de la chair dans le corps glorieux, participant à la fois de la matérialité et de la spiritualité ; celle des spiritualités orientales, dans le parinirvana ou “l’extinction complète de la réflexion”, et donc de toute individualité subjective ; et enfin celle de la cybernétique, où se rencontre “[… ] une nouvelle vision du monde, dans laquelle l’âme ne cherche pas sa patrie dans un au-delà mais dans ce monde-ci, qui, par un processus de réflexion, doit être déshabillé de son étrangeté et reforgé dans une image de l’homme. Dans la machine douée de ‘pensée’ et de ‘conscience’, l’homme réalise une analogie de son propre Je.”
TOAM2018.9
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 150 : Pourtant, il est aisé de comprendre ce qui a pu l’attirer malgré la vague connaissance qu’il pouvait avoir de la cybernétique. L’intérêt pour les relations entretenues entre les objets et leur environnement plutôt que pour l’objet en lui-même, la remise en cause de la prétendue inaccessibilité de l’intériorité subjective, la volonté d’étudier les processus communicationnels et de poser leur existence comme des faits mesurables et donc objectivables, sont autant d’intuitions partagées par l’anthropologue.
TOAM2018.10
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 153 : Lévi-Strauss met l’accent sur la découverte fondamentale de Wiener : il s’échange quelque chose entre les êtres humains, ce quelque chose qui circule d’émetteur à récepteur cesse de relever d’une quelconque intériorité pendant sa transmission. Il est alors un objet – à l’ontologie indéfinie, inclassable, comme nous avons pu le constater avec Günther – dont l’étude relève d’une “physique” capable d’en déterminer les propriétés et lois de fonctionnement
TOAM2018.11
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 156-157 : La cybernétique, fille de la guerre, s’intéresse dès ses balbutiements au fonctionnement du cerveau. Wiener travaille avec Rosenblueth, un physiologiste spécialiste du système nerveux. Les autres grands noms de la cybernétique sont directement intéressés par ce champ de recherche à divers égards. Von Neumann s’y intéresse en logicien et cherche à formaliser les raisonnements, qu’ils soient économiques ou qu’ils portent sur des opérations logiques effectuables par un calculateur électronique. Bateson, après ses recherches anthropologiques, s’oriente vers la psychiatrie et publie, en 1951, Communication: The Social Matrix of Psychiatry avec le psychiatre Jurgen Ruesch. McCulloch est psychiatre de formation, il exerce pendant deux ans au Rockland State Hospital. Son but, constamment répété, est d’édifier, grâce à la cybernétique, une “science du fonctionnement de l’esprit” sur des bases neurophysiologiques. De plus, nombreux sont les psychologues à participer aux conférences Macy et la première d’entre elles, celle de 1942, donne le ton : on y entendra Von Neumann et Lorente de No présenter un état de l’art dans le domaine des calculateurs électroniques et de la neurophysiologie ; Wiener rédigera une note sur les mécanismes automatiques d’autorégulation, qui sera présentée par Rosenblueth et complétée par ses propres vues sur les mécanismes téléologiques et les comportements finalisés ; le psychologue Heinrich Klüver présente “la dernière énigme du gestaltisme”, à savoir, percer le secret de la reconnaissance des formes par le cerveau humain ; la psychologue Molly Harrower y parlera des différences perceptuelles entre les personnes “normales” et les personnes présentant des lésions cérébrales ; le psychanalyste Lawrence Kubie abordera les névroses et proposera, plus particulièrement, une interprétation remarquable des comportements obsessionnels expliquant ces derniers par l’action de circuits neuronaux réverbérants.
TOAM2018.12
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 178 : l’information circule, et cela s’arrête là. La découverte philosophique de cette entité peut se lire comme l’abolition des pôles hypostasiés que furent longtemps le sujet et l’objet. L’information ne va pas d’un point à un autre, elle circule au sein d’un environnement où il n’y a plus de substances, seulement des processus, du mouvement incessant. La cybernétique cristalise ces idées en rapprochant humains et non-humains, elle mène à un bouleversement des catégories canoniques et une reconfiguration des relations entre eux.
TOAM2018.13
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 193 : le rapport au monde qu’instaure la conception cybernétique n’est pas le seul possible, nous pouvons en élaborer d’autres. Mais c’est là aussi toute la difficulté soulevée par la cybernétique : elle ne laisse pas de place pour penser un autre rapport possible, elle nie toute possibilité d’une alternative à elle-même. Elle est en cela à la fois l’achèvement complet de la métaphysique moderne et en même temps la “fin” de la philosophie elle-même.
TOAM2018.14
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 194 : La rencontre avec les cybernéticiens va l’aider à surmonter ce problème grâce au concept de causalité circulaire. Ce dernier est un dépassement de la causalité linéaire qui ne serait pas apte à rendre compte du fonctionnement des êtres (vivants ou techniques) autorégulés. Les données reçues du monde extérieur (inputs) ne permettent pas d’expliquer un comportement finalisé, pour cela il faut accepter l’idée que la réaction (ou les données qui “sortent” de l’être étudié, ses outputs) devient elle-même une nouvelle donnée en entrée. La cause (input) a un effet (output), puis l’effet est réinjecté en tant que cause. C’est le mécanisme des boucles rétroactives théorisé par Bigelow, Rosenblueth et Wiener, dans leur article de 1943.
TOAM2018.15
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 209 : L’époque de la fin de la philosophie est celle de la cybernétique, définie dans Langue de tradition et langue technique (1962) comme : “technique de la régulation et du guidage”. La commande et le guidage – deux termes qui conviennent parfaitement à l’origine militaire de la cybernétique – ne sont que l’autre nom du calcul appliqué à l’ensemble des étants. La pensée calculante tire son origine du besoin métaphysique d’identifier une cause pour tout étant. Ce besoin métaphysique a été clairement formulé par Leibniz au XVIIe siècle avec le principe de raison suffisante, il s’énonce ainsi : “[J]amais rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est-à-dire qui puisse servir à rendre raison a priori, pourquoi cela est existant plutôt que non existant, et pourquoi cela est ainsi plutôt que de toute autre façon.”
TOAM2018.16
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 213 : la théorie du management, pénétrée des vues cybernétiques, étendant de plus en plus ces domaines d’application (entreprises, États, institutions, associations, mais aussi vie personnelle avec le coaching, le développement personnel, etc.), est, en fait, une vaste “opération de dressage” des êtres humains. Le fonctionnalisme intégral mis en place par la pensée cybernétique ne laisserait aucune place à la recherche du sens (que ce soit dans le langage, dans la société ou au cœur une vie humaine).
TOAM2018.17
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 214 : McCulloch a une conscience aigüe du bouleversement opéré par la cybernétique quant à la définition de l’humain. “Notre aventure est une grande hérésie” dit-il en 1948, précisant que les cybernéticiens sont sur le point de “concevoir le connaissant comme une machine à calculer.”
TOAM2018.18
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 215 : Pour Heidegger, la cybernétique procède à une nouvelle unité des sciences, une unité sans fondement, une unité s’appuyant sur l’injonction de fonctionnement sans autre finalité que le fonctionnement lui-même.
TOAM2018.19
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 249 : Warren Weaver doit vulgariser les idées de Shannon, il le fait en traduisant information par communication et en étendant le champ d’application de la théorie de Shannon à toute forme de communication. Pourquoi ? Selon Weaver, “la théorie mathématique de Shannon est si générale et si profonde que les relations qu’elle établit s’appliquent sans discrimination à toutes les formes de communication” (nous soulignons). Les raisons avancées par Weaver d’un tel élargissement de la notion de communication hors du champ de la transmission télégraphique semblent confirmer l’hypothèse d’une foi dans le pouvoir unificateur du paradigme cybernétique. La communication est alors entendue comme transmission d’information d’un émetteur A vers un récepteur B. Cette conception devient un modèle pour penser toute forme de communication, y compris la communication humaine. Le modèle développé par Jakobson, reprend très exactement le schéma de Shannon et Weaver pour l’appliquer à la communication humaine.
TOAM2018.20
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 262 : Nous souhaitons montrer que la cybernétique a peut-être été la science qui a le plus œuvré au brouillage des frontières canoniques entre science et imaginaire, art, croyance ou fantasme.
TOAM2018.21
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267 : Ses travaux mathématiques sont très importants pour la cybernétique parce qu’ils forment la matrice qui a engendré l’architecture logique de l’ordinateur telle que la présente formellement pour la première fois von Neumann dans son important article de 1945, “First Draft of a Report on the EDVAC”. Avant cet article, il n’y avait que des calculateurs, de grosses machines capables de faire des calculs compliqués. Après cet article, il y a des ordinateurs capables d’effectuer diverses tâches (stocker des informations, exécuter des instructions, vérifier l’exécution des instructions). La différence est essentielle : elle autorise des fusions, des déplacements, des glissements de sens qui font insensiblement passer du calcul au traitement de l’information, du calculateur à l’ordinateur, de la pensée au traitement de l’information.
TOAM2018.22
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267-268 : L’article de Rosenblueth, Wiener et Bigelow avait déjà, en 1943, opéré un premier déplacement : il n’y était plus question d’êtres vivants ou non vivants, les deux catégories étaient rassemblées dans un concept unique, celui de système organisé avec un comportement dirigé vers un but. L’analogie humain-machine, déjà dotée d’une longue histoire, connaît alors un tournant dans le champ scientifique. L’article de von Neumann opère un second déplacement en passant du calcul au traitement de l’information, sur la base d’une théorie de l’information et de la communication qui décontextualise complètement la notion d’information. Désormais, tout peut être information à condition de passer par les fourches caudines de la digitalisation, c’est-à-dire d’une mise en code binaire. Il faut noter que von Neumann n’utilise jamais la notion de “traitement de l’information” dans son article mais, comme le rappelle Mathieu Triclot, il s’appuie sur l’autre article fondateur de la cybernétique, celui de McCulloch et Pitts, pour étayer sa démonstration : “Il faut bien avoir conscience que le modèle de McCulloch et Pitts ne joue pas un rôle périphérique dans le rapport. Les neurones formels de McCulloch et Pitts sont utilisés pour ce qui est considéré comme le chef d’œuvre de von Neumann : la définition de la structure logique de l’ordinateur et la mise au point des circuits de calcul au sein de l’unité arithmétique.” McCulloch et Pitts proposent de concevoir le cerveau comme un centre de traitement de l’information. Nous croyions penser ? Non, nous disent les auteurs, nous traitons de l’information : “La nouvelle théorie logique de McCulloch et Pitts rend possible de considérer le cerveau comme un organe de traitement de l’information. Cette représentation est mobilisée dans le travail de Von Neumann […], avec un double effet : d’une part l’ordinateur apparaît comme une machine équivalente (nous soulignons) au cerveau […], d’autre part l’idée du cerveau comme un organe logique de traitement de l’information en sort considérablement renforcée.” Tous ces travaux ont été fortement inspirés et rendus possibles par un article de Turing rédigé en 1936, “On Computable Numbers, with an Application to the Entscheidungsproblem”. Turing y présente un concept de machine universelle, la machine de Turing, une machine abstraite, “machine de papier”, capable d’effectuer n’importe quel calcul si l’on entend par calcul l’application mécanique d’une suite de règles explicites. Von Neumann ne fait aucune référence à cet article mais il est évident qu’il l’a lu avec attention : “Dans le ‘First Draft of a Report on the EDVAC’, l’article [de Turing, de 1936] n’est pas cité, mais le seul texte cité, l’article de McCulloch et Pitts de 1943, joue quasiment le même rôle, dans la mesure où McCulloch et Pitts présentent explicitement leur modèle comme équivalent au modèle de la machine de Turing.”
TOAM2018.23
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267 : Turing n’extrapole pas à partir de résultats obtenus “sur le papier” pour mieux faire comprendre leur portée. Il écrit, au contraire, une véritable “profession de foi”, et il le dit explicitement. Le fait que les machines puissent penser est une “croyance” forte chez lui, il tente par cet article de convertir les esprits à cette croyance.
TOAM2018.24
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 300 : nous avons toujours été posthumains. Nous comprenons le terme posthumain dans ce contexte comme un monstre potentiel, une entité inclassable, un être constamment ailleurs. Certes, cette idée n’est pas née avec la cybernétique, mais il y a une nouveauté : une puissante technologie au service de ce fantasme, une technologie numérique qui entend faire de ses fictions une réalité et qui comprend la réalité comme une de ses fictions. Ces technologies numériques sont bien plus efficaces, bien plus présentes dans nos vies que ce que l’humanité a connu jusque-là. Elles viennent se glisser entre nos corps représentés et nos corps de chair et les redéfinir tous les deux d’une manière neuve
TOAM2018.25
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 303 : La pensée cybernétique, à partir de son avènement à la fin des années 1940, se diffuse très largement et rapidement. Elle pénètre tous les milieux. Différentes disciplines scientifiques s’emparent de ses concepts : rétroaction, information, code, circularité, homéostasie, système. Elle devient même “à la mode” : l’architecture, la littérature, l’art, le théâtre, la psychanalyse, pas un domaine ne semble lui résister. La cybernétique voyage et, avec elle, le paradigme communicationnel se propage. La distinction sujet/objet entre en crise, l’entité “information” creuse un sillon profond dans le langage courant (en anglais comme en français) et l’identité humaine se voit redéfinie comme une instance, parmi d’autres, des dispositifs communicationnels possibles.
TOAM2018.26
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 329 : La rationalisation fait perdre le contact avec le réel puisqu’il n’est plus le mètre-étalon. Au contraire, c’est le modèle qu’elle élabore qui devient la norme que le réel doit suivre. Dupuy rapporte un échange révélateur de cette tendance lors de la 9e conférence Macy, où sont présents, entre autres Ashby, McCulloch, Mc Kay et le biologiste Ralph Gerard qui “vient d’expliquer que la tâche des neurophysiologistes du groupe est de fournir aux mathématiciens des données pour qu’ils puissent construire leurs modèles sans trop perdre le sens du réel. Le réel est devenu le moyen, et le modèle la fin”. Or, que fait Perdrizet si ce n’est, lui aussi, perdre le sens du réel pour s’abandonner aux exigences propres de ses modèles ? Il perd le sens du réel quand il croit obstinément pouvoir construire un “oui-ja électrique” ou un “filet à fantômes”, certes, mais ne le perd-il pas déjà quand il se plonge dans la lecture des cybernéticiens qui proposent, à travers livres et revues, de penser l’humain dans le cadre d’un réductionnisme absolu mais ambigu ? La cybernétique ne perd-elle pas le sens du réel quand elle réduit l’humain à la machine, la machine à un système autorégulé grâce à une mystérieuse substance : l’information, le tout rendu possible grâce à un mystérieux phénomène : la communication ?
TOAM2018.27
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 330 : Wiener souhaite retrouver une physis, une unité fondamentale du monde dont l’ontologie ne se distribuerait plus de façon binaire sur les catégories du sujet et de l’objet. Cette communication devenue “éther des évènements” a toutes les caractéristiques du principe divin.
TOAM2018.28
Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 349 : La pensée cybernétique est emplie de paradoxe. C’est là sa marque de fabrique si l’on en croit le voyage intellectuel que nous venons de faire. Wiener a cherché à redéfinir l’idée même d’humain, il a cherché à réintégrer cette entité au sein d’un nouveau cosmos. Cependant, il ne s’agit nullement du cosmos des Anciens dans lequel à chaque être échoit une place déterminée. C’est un cosmos régi par deux forces : l’information et l’entropie. Ni matérialiste au sens classique, ni idéaliste, Wiener nous enjoint à envisager le monde comme un champ infini de communication. Ainsi, “[l]e monde est de nouveau un. Et nous avec”. En son sein, quelques îlots d’organisation luttent temporairement contre la force d’érosion de l’entropie, ce sont les êtres vivants et les machines. Tout le reste n’est que lente désorganisation. Cette vision conjugue un fantasme de maîtrise absolu du monde par la théorie (comme un regard qui embrasserait le monde dans sa totalité) et un aveu d’humilité tragique devant les forces incommensurables qui nous gouvernent. La vie même de Wiener reflète ces deux tendances, les moments d’exaltation euphorique et de grande créativité alternant avec les moments de dépression teintée de pessimisme et de manque cruel d’estime de soi. Le mathématicien a produit une philosophie à son image, délirante dans sa prétention à la connaissance absolue et touchante par la reconnaissance de la faiblesse de l’humaine condition. Mais les idées, une fois lancées au vent, mènent leur vie de manière autonome et ne se contentent pas de délivrer les messages dont les investissent l’émetteur. Dans ce vaste champ de communication, les idées de Wiener ont circulé, ont rencontré du bruit, des déformations, des interférences. Ses idées en ont généré d’autres, et, de proche en proche, toutes ont renversé l’édifice humaniste. Le monde qui en est sorti est le nôtre, un monde “cyborgien”, paradoxal s’il en est[…]
WIEN1961
La cybernétique
Norbert WIENER, La cybernétique : Information et régulation dans le vivant et la machine, Paris, Éditions du Seuil, 2014, traduction Ronan LE ROUX, Robert VALLÉE et Nicole VALLÉE-LÉVI, présentation Ronan LE ROUX, seconde édition originale 1961.
WIEN1961.1
Cf. Wiener, La cybernétique, op. cit., p. 74-76 : Cela fait longtemps que le calculateur moderne ultrarapide m’a clairement semblé être dans son principe un système nerveux central idéal pour un dispositif de commande automatique ; et que ses entrées et sorties n’ont pas besoin de prendre la forme de nombres ou de diagrammes, mais pourraient très bien être, respectivement, les indications d’organes sensoriels artificiels, tels des cellules photoélectriques ou des thermomètres, et les performances de moteurs ou de solénoïdes. À l’aide de jauges de tension ou d’appareils similaires, lisant la performance de ces organes moteurs et les rapportant par rétroaction au système de contrôle central tel un sens kinesthésique artificiel, on est déjà en mesure de construire des machines d’à peu près n’importe quel degré d’élaboration. Bien avant Nagasaki et les inquiétudes soulevées par la bombe atomique, il m’était apparu que nous nous trouvions en présence d’un autre potentiel d’une importance sociale inédite pour le meilleur et pour le pire. L’usine automatique et la chaîne de montage dépourvues d’agents humains ne sont éloignées de nous qu’autant que se trouve limitée notre volonté d’investir un tel degré d’effort dans leur conception, comme cela a été fait, par exemple, pour le développement de la technique du radar pendant la Seconde Guerre mondiale. J’ai dit que ce développement nouveau ouvre des possibilités illimitées pour le meilleur et pour le pire. Pour une part, il fait de la domination métaphorique des machines, telle que l’imaginait Samuel Butler, un problème très immédiat et pas du tout métaphorique. Il fournit à l’espèce humaine une collection nouvelle et opérationnelle d’esclaves mécaniques pour accomplir son labeur. Un tel travail mécanique présente l’essentiel des propriétés économiques d’un travail d’esclave, bien que, à l’inverse de celui-ci, il n’implique pas les effets démoralisants directs de la cruauté humaine. Toutefois, tout travail qui accepte les conditions d’une compétition avec du travail d’esclave accepte les conditions du travail d’esclave, et est essentiellement du travail d’esclave. Le mot-clef de cet énoncé est compétition. Il se pourrait très bien que ce soit une bonne chose pour l’humanité que la machine la préserve des tâches ingrates et désagréables, il se pourrait très bien que non. Je l’ignore. Il ne peut être bon pour ces nouvelles potentialités d’être établies dans les termes du marché, de l’argent qu’elles permettent d’économiser ; et ce sont précisément ces termes du marché ouvert, la “cinquième liberté”, qui sont devenus l’étendard de cette partie de l’opinion américaine représentée par la National Association of Manufacturers et le Saturday Evening Post. Je dis l’opinion américaine car c’est celle que je connais en tant qu’Américain, mais les profiteurs ignorent les frontières. Peut-être serai-je en mesure d’éclaircir l’arrière-plan historique de la situation présente si je dis que la première révolution industrielle, celle des dark satanic mills, fut la dévaluation du bras humain par la concurrence de la machine. Le gagne-pain minimum d’un prolétaire américain ne sera jamais assez bas pour faire face au travail d’une excavatrice à vapeur. La révolution industrielle moderne est pareillement à même de dévaluer le cerveau humain, au moins dans ses décisions les plus simples et les plus routinières. Évidemment, tout comme le charpentier, le mécanicien et le tailleur qualifiés ont jusqu’à un certain point survécu à la première révolution industrielle, le scientifique et l’administrateur qualifiés devraient survivre à la seconde. Cependant, celle-ci accomplie, l’être humain moyen aux connaissances médiocres n’a plus rien à vendre qui vaille d’être rémunéré. La solution, bien sûr, est une société basée sur des valeurs humaines autres que l’achat ou la vente. Pour y parvenir, nous avons besoin de beaucoup de planification et de beaucoup de lutte, ce qui, dans le meilleur des cas, demeure sur le plan des idées, et pour le reste – qui sait ? J’ai donc ressenti le devoir de transmettre ma connaissance et ma compréhension de la situation à ceux qui conservent un intérêt actif pour les conditions et pour l’avenir du travail, c’est-à-dire les syndicats.
WIEN1961.2
Cf. Wiener, La cybernétique, op. cit., p. 93-94 : l’étude contemporaine des automates, tant de métal que de chair, est une branche de l’ingénierie de la communication, ses notions cardinales sont celles de message, de degré de perturbation ou “bruit” – terme emprunté au domaine du téléphone –, de quantité d’information, de technique de codage, etc. Cette théorie s’occupe d’automates effectivement couplés au monde extérieur, pas seulement par leur flux d’énergie, leur métabolisme, mais aussi par un flux d’impressions, de messages entrants, et par l’action de messages sortants. Les organes par lesquels sont reçues les impressions sont les équivalents des organes sensoriels des humains et des animaux. Ils comprennent des cellules photoélectriques et autres récepteurs de lumière ; des systèmes radar, recevant leurs propres ondes courtes ; des enregistreurs de pH, comparables au goût ; des thermomètres ; des jauges de pression en tout genre ; des microphones ; et ainsi de suite. Les effecteurs peuvent être des moteurs électriques, solénoïdes, bobines chauffantes, ou toutes sortes d’instruments très variés. Entre le récepteur, ou l’organe sensoriel, et l’effecteur, prend place un ensemble intermédiaire d’éléments, dont la fonction est de recombiner les impressions entrantes sous une forme telle que soit produit un type de réponse désiré au niveau des effecteurs. L’information introduite dans ce centre de contrôle contiendra très souvent des données relatives au fonctionnement des effecteurs eux-mêmes. Ceux-ci correspondent, entre autres, aux organes kinesthésiques et autres propriocepteurs du système humain, puisque nous-mêmes possédons des organes qui enregistrent la position d’une articulation ou le degré de contraction d’un muscle, etc. En outre, l’information reçue par l’automate n’a pas besoin d’être employée immédiatement, elle peut être ajournée ou conservée afin de devenir disponible à un moment futur. C’est l’analogue de la mémoire. Enfin, tant que l’automate est en état de marche, ses règles d’opération sont susceptibles de se modifier sur la base des données passées précédemment par ses récepteurs, ce qui n’est pas sans ressemblance avec l’apprentissage.
WIEN1961.3
Cf. Wiener, La cybernétique, op. cit., p. 94-95 : En résumé : les nombreux automates d’aujourd’hui sont couplés au monde extérieur pour recevoir des impressions comme pour accomplir des actions. Ils contiennent des organes sensoriels, des effecteurs, et l’équivalent d’un système nerveux destiné à transférer les informations des uns aux autres. Ils se prêtent très bien à une description en termes physiologiques. Ce n’est guère un miracle qu’ils puissent être subsumés sous une même théorie que les mécanismes de la physiologie. Ces mécanismes ont une relation au temps qui exige une étude attentive. Il est évident que la relation entrée-sortie est une relation de succession dans le temps, et qu’elle implique un ordre passé-avenir défini. Moins évident, peut-être, est le fait que la théorie des automates sensibles est une théorie statistique. On s’intéresse peu à la performance d’une machine à communication pour une seule entrée. Pour fonctionner adéquatement, elle doit se comporter de manière satisfaisante pour toute une classe d’entrées, ce qui veut dire une performance satisfaisante statistiquement au regard de la classe des entrées qu’elle doit recevoir statistiquement. Cette théorie appartient donc davantage à la mécanique statistique gibbsienne qu’à la mécanique classique newtonienne. […] Ainsi donc, l’automate moderne existe dans la même sorte de temps bergsonien que l’organisme vivant ; et partant, il n’y a dans les considérations de Bergson aucune raison pour que le mode de fonctionnement essentiel des organismes vivants ne soit pas le même que celui des automates de ce type.
WIEN1961.4
Cf. Wiener, La cybernétique, op. cit., p. 111-112 : Dans un grand nombre de phénomènes, ce que l’on observe est une quantité numérique, ou une séquence de quantités numériques distribuées dans le temps. La température enregistrée en continu par un thermomètre, ou bien les cours de clôture d’une action en Bourse, pris jour après jour, ou encore l’ensemble complet des données publiées chaque jour par les services météorologiques, sont tous des séries temporelles, continues ou discrètes, simples ou multiples. Ces séries changent relativement lentement, et se prêtent bien à un traitement faisant appel au calcul manuel ou à des outils numériques ordinaires comme la règle à calcul et la machine à calculer. Leur étude appartient aux domaines les plus traditionnels de la théorie statistique. Ce qu’on ne réalise pas en général, c’est que les variations brusques des séquences de voltages dans une ligne téléphonique, un circuit de télévision, un appareil radar appartiennent tout aussi pleinement à ce champ de la statistique et des séries temporelles, bien que l’appareil au moyen duquel on les combine et les modifie doive être en général très rapide dans son action, et en mesure de donner des résultats pari passu malgré les variations très rapides du signal entrant. Ces appareils – récepteurs téléphoniques, filtres, systèmes de codage sonore comme le Vocoder des laboratoires Bell, circuits de modulation de fréquence avec leurs récepteurs – sont tous dans leur essence des systèmes arithmétiques rapides, comparables à l’ensemble des machines à calculer, du plan de travail et de l’équipe de calcul d’un bureau de statistique. L’ingéniosité requise pour leur utilisation y a été intégrée d’avance, comme pour les télémètres automatiques et les pointeurs de canon des systèmes de conduite de tir antiaérien, et pour les mêmes raisons. La chaîne des opérations s’effectue trop rapidement pour admettre un intermédiaire humain. Les séries temporelles et les appareils qui s’en occupent, qu’ils soient dans un laboratoire de calcul ou un réseau téléphonique, ont tous sans exception affaire à l’enregistrement, la préservation, la transmission et l’utilisation de l’information. Qu’est-ce que cette information, et comment la mesure-t-on ? Une des formes les plus simples et les plus universelles d’information est l’enregistrement d’un choix entre les deux termes, également probables, l’un devant se produire, d’une alternative – par exemple, un choix entre pile et face lorsqu’on lance une pièce de monnaie. On appellera un tel choix une décision.
WIEN1961.5
Cf. Wiener, La cybernétique, op. cit., p. 200-201 : Ces petites communautés étroitement soudées sont très homéostatiques, qu’elles prennent la forme de groupes hautement lettrés dans un pays civilisé ou celle de villages de sauvages primitifs. Aussi étranges et même barbares que puissent paraître nombre de coutumes, elles ont généralement une valeur homéostatique très définie, qu’il revient à l’anthropologue de déchiffrer. C’est seulement dans les sociétés élargies, où les maîtres du monde se protègent de la faim par la richesse, de l’opinion publique par la vie privée et l’anonymat, des critiques personnelles par les lois contre la diffamation et par la détention des moyens de communication, que l’absence de scrupules peut atteindre son zénith. Parmi tous les facteurs anti-homéostatiques que comporte la société, le contrôle des moyens de communication est le plus efficace et le plus important.
WIEN1961.6
Cf. Wiener, La cybernétique, op. cit., p. 202 : De tous côtés se produit donc un triple rétrécissement des moyens de communication : l’élimination des moins rentables en faveur des plus rentables ; leur détention par une classe très réduite de gens fortunés, dont ils expriment du coup l’opinion ; et leur tendance, en tant que voie royale vers le pouvoir politique et personnel, à attirer essentiellement ceux qui ambitionnent un tel pouvoir. Ce système, qui devrait plus que tout autre contribuer à l’homéostasie sociale, est mis directement entre les mains des plus concernés par le jeu du pouvoir et de l’argent, que nous avons déjà désignés comme l’un des principaux éléments anti-homéostatiques dans la communauté. Il n’est donc guère surprenant que les sociétés plus vastes, sujettes à ces influences perturbatrices, contiennent bien moins d’information partagée que les petites sociétés, sans parler des éléments humains dont sont construites toutes les communautés. Comme la meute de loups, un peu moins espérons-le, l’État est plus stupide que chacune de ses composantes.
WIEN1954
Cybernétique et société
Norbert WIENER, Cybernétique et société : L’usage humain des êtres humains, Paris, Éditions du Seuil, 2014, traduction Pierre-Yves MISTOULON, préface de Ronan LE ROUX, seconde édition originale 1954.
WIEN1954.1
Cf. Wiener, Cybernétique et société, op. cit., p. 36 : Toutefois, parce qu’ils ont reconnu l’existence d’un élément fondamental de la structure de l’univers, le hasard, ces hommes, proches les uns des autres, ne sont pas éloignés de la tradition augustinienne. Ce caractère contingent, cette imperfection organique, nous pouvons, en usant d’une formule un peu violente, le considérer comme le diable. Non le démon malicieux, positif, des Manichéens, mais le démon négatif de saint Augustin, celui qu’il appelle l’Imperfection.
WIEN1954.2
Cf. Wiener, Cybernétique et société, op. cit., p. 39 : Le but de la cybernétique est de développer un langage et des techniques qui nous permettent effectivement de nous attaquer au problème de la régulation des communications en général, et aussi de trouver le répertoire convenable d’idées et de techniques pour classer leurs manifestations particulières selon certains concepts.
WIEN1954.3
Cf. Wiener, Cybernétique et société, op. cit., p. 40 : Information est un nom pour désigner le contenu de ce qui est échangé avec le monde extérieur à mesure que nous nous y adaptons et que nous lui appliquons les résultats de notre adaptation. Le processus consistant à recevoir et à utiliser l’information est le processus que nous suivons pour nous adapter aux contingences du milieu ambiant et vivre dans ce milieu. Les besoins et la complexité de la vie moderne rendent plus nécessaire que jamais ce processus d’information et notre presse, nos musées, nos laboratoires scientifiques, nos universités, nos bibliothèques et nos manuels sont obligés de satisfaire les besoins de ce processus, ou, sinon, n’atteignent pas leur but. Vivre, c’est vivre avec une information adéquate. Ainsi, la communication et la régulation concernent l’essence de la vie intérieure de l’Homme, même si elles concernent sa vie en société.
WIEN1954.4
Cf. Wiener, Cybernétique et société, op. cit., p. 41 : Leibniz, entre temps, conçut le monde tout entier comme un assemblage d’êtres appelés “monades” dont l’activité consistait en la perception réciproque sur la base d’une harmonie pré-établie, œuvre de Dieu, et il est parfaitement clair qu’il conçut cette interaction largement en termes d’optique. À part cette perception, les “monades” n’avaient aucune “fenêtre”, de sorte que dans sa conception toute interaction mécanique ne devenait en fait rien de plus qu’une conséquence subtile d’une interaction optique. Un intérêt marqué pour l’optique et les messages est apparent dans cette partie de la philosophie de Leibniz et se trouve sensible dans l’ensemble de sa philosophie. Il joue un rôle important dans deux de ses idées les plus originales : celle de la “Characteristica Universalis”, ou langage scientifique universel, et celle du “Calculus Ratiocinator”, ou calcul par la logique. Ce “Calculus Ratiocinator”, quoique imparfait, fut l’ancêtre direct de la logique mathématique moderne.
WIEN1954.5
Cf. Wiener, Cybernétique et société, op. cit., p. 43 : Leibniz voyait, dans la concordance de l’heure par des horloges réglées simultanément, le modèle de l’harmonie pré-établie de ses “monades”.
WIEN1954.6
Cf. Wiener, Cybernétique et société, op. cit., p. 45-46 : Les données dont on alimente les machines, et qui indiquent le mode d’opération pour combiner les informations, sont généralement appelées le “programme”.
WIEN1954.7
Cf. Wiener, Cybernétique et société, op. cit., p. 46 : Cette régulation d’une machine sur la base de son fonctionnement réel plutôt que sur celle de son fonctionnement prévu s’appelle “rétroaction”” : des membres sensoriels sont actionnés par des membres moteurs et jouent le rôle de mouchards et de moniteurs – c’est-à-dire d’éléments qui renseignent quant au déroulement d’un fonctionnement. La fonction de ces mécanismes est de contrôler la tendance de la machine au dérèglement, en d’autres termes de produire une inversion temporaire et locale du sens normal de l’entropie.
WIEN1954.8
Cf. Wiener, Cybernétique et société, op. cit., p. 48 : Ma thèse est que le fonctionnement physique de l’individu vivant et les opérations de certaines des machines à communiquer les plus récentes sont exactement parallèles dans leurs efforts analogues pour contrôler l’entropie par l’intermédiaire de la rétroaction.
WIEN1954.9
Cf. Wiener, Cybernétique et société, op. cit., p. 49 : le démon de Maxwell semble vaincre le phénomène de l’entropie.
WIEN1954.10
Cf. Wiener, Cybernétique et société, op. cit., p. 54 : La machine, de même que l’organisme vivant, peut être considérée, nous l’avons vu plus haut, comme un dispositif qui semble, localement et temporairement, résister à la tendance générale à l’accroissement de l’entropie. Par sa capacité à prendre des décisions, elle peut produire autour d’elle une zone d’organisation dans un monde dont la tendance générale est de se désorganiser. Le savant est toujours au travail pour découvrir l’ordre et l’organisation de l’univers : aussi doit-il lutter contre l’ennemi par excellence qu’est la désorganisation.
WIEN1954.11
Cf. Wiener, Cybernétique et société, op. cit., p. 75 : la rétroaction est la commande d’un système au moyen de la réintroduction, dans ce système, des résultats de son action. Si ces résultats ne sont utilisés que comme données numériques pour l’examen et le réglage du système, nous obtenons la rétroaction simple que connaissent bien les automaticiens. Si, par contre, l’information portant sur l’action effectuée est capable de modifier la méthode générale et le modèle de celle-ci, nous disposons d’un processus que l’on peut bien nommer apprentissage.
WIEN1954.12
Cf. Wiener, Cybernétique et société, op. cit., p. 77-78 : Le système nerveux a traditionnellement été assimilé à ce genre de machines constituées par une suite de connexions où l’ouverture d’un commutateur “en aval” dépend des combinaisons d’ouverture des commutateurs “en amont”. Cette machine, fondée sur le principe du “tout ou rien”, est appelée machine digitale. Elle est extrêmement commode pour les problèmes de communication et de commande. En particulier la netteté de la décision entre le “Oui” et le “Non” crée la possibilité d’accumuler ces décisions de manière à nous permettre de déceler des différences très petites dans des nombres très grands. Outre ces machines qui fonctionnent sur un principe binaire, il existe d’autres machines à calculer et à contrôler où les quantités sont mesurées plutôt que comptées. Ce sont les machines analogiques, qui opèrent sur la base de rapports d’analogie entre les quantités mesurées et les quantités qu’elles sont censées représenter.
WIEN1954.13
Cf. Wiener, Cybernétique et société, op. cit., p. 78-79 : Ainsi, dans de nombreux cas, les machines mathématiques sont plus précises lorsqu’elles comptent ou prennent des décisions en binaire que sur la base de mesures. En raison du préjugé favorable du physiologiste envers le principe du tout ou rien, on comprend pourquoi la majeure partie du travail qui a été fait sur les machines dont le fonctionnement est analogue à celui du cerveau l’a généralement été sur des machines à base numérique.
WIEN1954.14
Cf. Wiener, Cybernétique et société, op. cit., p. 83 : Quant à la nature de ces messages “à tous les intéressés”, en supposant que ces derniers existent, ceci appartient encore plus au domaine de la conjecture. La nature de ces messages pourrait en effet être d’origine nerveuse ; cependant j’incline plutôt à les attribuer à l’aspect non numérique, mais analogique, du mécanisme responsable des réflexes et de la pensée.
WIEN1954.15
Cf. Wiener, Cybernétique et société, op. cit., p. 85 : Langage, en fait, est en un sens un autre nom pour “communication”, mais c’est aussi le nom des modes de communication, c’est-à-dire des codes.
WIEN1954.16
Cf. Wiener, Cybernétique et société, op. cit., p. 104 : Il [Kipling] ne semble pas comprendre que là où portent la parole et le pouvoir de perception de l’homme, s’étendent aussi le contrôle et, en un sens, l’existence physique de l’homme. Voir le monde entier et lui donner des ordres équivaut presque à l’ubiquité.
WIEN1954.17
Cf. Wiener, Cybernétique et société, op. cit., p. 150 : Il est possible de traduire la totalité des mathématiques en effectuant une suite d’opérations purement logiques. Si on incorpore dans l’appareil cette représentation des mathématiques, celui-ci sera une machine à calculer au sens ordinaire. Néanmoins cette dernière, outre les opérations habituelles, saura mener la tâche logique de canaliser une série d’ordres concernant les opérations mathématiques. Comme les calculateurs ultra-rapides actuels, elle contiendra au moins un grand ensemble purement logique. Les instructions adressées à une telle machine, comme on le fait actuellement dans la pratique, sont données par ce que l’on a appelé le programme. Les ordres donnés à la machine peuvent l’alimenter par un programme complètement prédéterminé. Il est également possible que les contingences effectives rencontrées dans le fonctionnement de la machine soient remises, en tant que bases d’un nouveau réglage, à un nouveau programme élaboré par la machine elle-même, ou bien à une modification de l’ancien programme. J’ai déjà expliqué de quelle manière ces processus sont, à mon avis, analogues à ceux de l’apprentissage.
WIEN1964
God and Golem, Inc.
Norbert WIENER, God and Golem, Inc. : A Comment on Certain Points where Cybernetics Impinges on Religion, Cambridge, MIT Press, 1964.
WIEN1964.1
Cf. Wiener, God and Golem, Inc., op. cit., p. 5 : I have been working for several years on problems of communication and control, whether in machines or in living organisms; on the new engineering and physiological techniques attaching to these notions; and on the study of the consequences of these techniques for the achievement of human purposes. Knowledge is inextricably intertwined with communication, power with control, and the evaluation of human purposes with ethics and the whole normative side of religion.
WIEN1964.2
Cf. Wiener, God and Golem, Inc., op. cit., p. 39-40 : From the very beginning of my interest in cybernetics, I have been well aware that the considerations of control and of communication which I have found applicable in engineering and in physiology were also applicable in sociology and in economics. However, I have deliberately refrained from emphasizing these fields as much as the others, and here are my reasons for this course. Cybernetics is nothing if it is not mathematical, if not in esse then in posse. I have found mathematical sociology and mathematical economics or econometrics suffering under a misapprehension of what is the proper use of mathematics in the social sciences and of what is to be expected from mathematical techniques, and I have deliberately refrained from giving advice that, as I was convinced, would be bound to lead to a flood of superficial and ill-considered work.
CASS2014a
Les rêves cybernétiques de Norbert Wiener
Pierre CASSOU-NOGUÈS, Les rêves cybernétiques de Norbert Wiener, Paris, Éditions du Seuil, 2014.
CASS2014a.1
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 23 : Kurt Gödel publie en 1931 (il a alors vingt-six ans) l’un des plus célèbres théorèmes de logique, le théorème d’incomplétude. Celui-ci implique (pourvu que l’arithmétique élémentaire soit non contradictoire) que si l’esprit est une machine, ou se comporte comme une machine à calculer, alors il existe des problèmes d’arithmétique élémentaire qui resteront absolument indécidables : des problèmes de théorie des nombres (des équations polynomiales dont il faut trouver les solutions sur l’ensemble des entiers) ne pourront jamais être résolus. Gödel donne différentes interprétations de son théorème. Il y voit la preuve de l’immortalité de l’âme, un signe de l’existence du diable, qui est toujours susceptible de nous tromper, de nous donner de fausses évidences et contre lequel nous ne pouvons pas absolument nous prémunir. Le sens que Gödel donne à ses théorèmes peut nous sembler aberrant. C’est pourtant dans cette perspective qu’il choisit de nouvelles directions de travail.
CASS2014a.2
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 55-56 : Tandis que la cybernétique et l’usine automatique n’étaient pas d’un point de vue scientifique aussi révolutionnaires que la bombe atomique, leur potentialité sociale, pour le bien ou pour le mal, était énorme. J’ai essayé de comprendre dans quelle direction mon devoir me conduisait et si, par hasard, je ne devais pas exercer sur moi-même un droit au secret personnel, parallèle à ce droit au secret défense que se donne le gouvernement, bref supprimer mes idées et le travail que j’avais accompli …. J’en vins à la conclusion que c’était impossible …. Je décidai donc de passer du plus grand secret à la plus grande publicité et d’attirer l’attention sur les possibilités et les dangers liés à ces nouveaux développements. [“Moral Reflections of a Mathematician” (1956), Collected Works, P. Masani et al. (éd.), Cambridge, MIT Press, 1985, t. IV, p. 756.]
CASS2014a.3
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 56 : Dans le récit que donne Wiener des origines de la cybernétique, ce sont ses recherches sur le canon aérien durant la guerre qui le conduisent à l’idée de rétroaction [Laquelle est développée dans un article de 1943 écrit en collaboration avec J. Bigelow et A. Rosenblueth, “Behavior, Purpose, and Teleology”.], l’idée donc qu’une machine peut corriger ses processus au vu de leurs résultats, de sorte qu’elle semble s’approcher peu à peu d’un but, ou d’un état d’équilibre, et adopter un comportement téléologique comparable à celui de l’animal. L’idée de rétroaction, à son tour, conduit Wiener à l’image de l’usine automatique : une usine qui tournerait d’elle-même sans ouvriers. Cette usine automatique peut représenter aussi bien la libération du travailleur, qui se consacrerait à autre chose qu’au travail, que son obsolescence, sa mort, le travailleur restant déterminé par sa fonction, le travail, et celle-ci devenant inutile. Que faire ? Wiener doit-il détruire ses recherches, cacher les plans de l’usine automatique et, à nouveau, disparaître ? Ou bien peut-il espérer que l’usine automatique soit un instrument de libération et, dans ce cas, continuer à travailler, développer ses idées sur les possibilités techniques et morales des nouvelles machines, machines à rétroaction mais aussi machines à calculer, ordinateurs, et prévenir enfin le monde du travail de ce qui se prépare, dans des ouvrages populaires et pas seulement techniques ? Le champ de la cybernétique est ouvert : Wiener s’y lance.
CASS2014a.4
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 57 : Dès l’introduction de Cybernétique, Wiener annonce que cette nouvelle discipline appartient “au monde qui existe autour de nous, et ce monde est celui de Bergen-Belsen et d’Hiroshima”. Et, en effet, la cybernétique suppose la guerre, les camps nazis et la bombe atomique. Ou, plus exactement, elle est leur autre. Elle ouvre un autre plan sur lequel la question de la science peut être rejouée.
CASS2014a.5
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 59 : Cependant, la question porte bien sur la cybernétique : savoir s’il y a danger et si Wiener n’aurait pas dû s’enfuir devant ses machines ou, mieux, ne pas les lâcher dans la nature. C’est de la cybernétique que vient le danger. Et il y a plusieurs façons de mettre en danger l’humain. Sur le plan du réel, les machines peuvent prendre le travail et le salaire des humains, ou de certains humains, les remplacer donc et, ce faisant, les éliminer : c’est l’automatisation de l’usine qui rend inutile le travail ouvrier. Mais les machines peuvent agir aussi sur d’autres plans, théoriques, juridiques, imaginaires : modifier la façon dont nous nous voyons, les théories que nous pouvons nous appliquer ou les lois que nous nous donnons, concernant l’usage que nous pouvons faire de nos corps par exemple. Les modifier à tel point que nos descendants mêlés à ces machines ne se considéreraient plus comme, et ne seraient en effet plus, “humains”. C’est une autre voie pour éliminer l’humain, non plus en supprimant physiquement les humains mais en rendant caduque la notion même d’humain.
CASS2014a.6
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 124 : Une machine pourrait-elle nous gouverner ? Nous gouvernerait-elle mieux que nous ne le faisons nous-mêmes ? Devrions-nous remplacer le gouvernement par un ordinateur, qui prendrait les décisions à sa place ? La machine risquerait-elle de se détraquer ou tenterait-elle de nous asservir ? La question, le danger, pour Wiener, n’est pas tout à fait là. Il est plutôt que “de telles machines, bien qu’inoffensives par elles-mêmes, soient utilisées par un être humain, ou un groupe d’êtres humains, pour gagner le contrôle sur la race humaine”.
CASS2014a.7
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 177 : l’une des opérations, sinon l’opération essentielle, qui sous-tend l’idée du posthumain, remonte à la cybernétique et consiste à donner une caractérisation abstraite de l’humain qui néglige son incarnation. La cybernétique, plus exactement, développe une théorie de l’information et thématise l’humain dans ce cadre comme système de traitement d’information de sorte que l’humain peut alors être assimilé à, couplé avec, reproduit dans, ces machines à traiter de l’information que sont les ordinateurs.
CASS2014a.8
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 178-179 : Cela dit, alors que K. Hayles voit dans la cybernétique l’origine de cette désincarnation qui définit le posthumain, M. Triclot a sans doute raison de renvoyer plutôt au programme de l’intelligence artificielle, de J. McCarthy, A. Newell et H. Simon notamment, et d’opposer celui-ci au projet cybernétique. Quoi qu’il en soit de la théorie de l’information, il est certain que, dans cet espace entre science, philosophie et fiction que ménagent des textes comme L’Usage humain des êtres humains, Wiener esquisse une conception abstraite de l’individu qui pousse celui-ci du côté du posthumain. Néanmoins, cette abstraction a son origine ailleurs. Elle renvoie avant tout aux machines de Turing et se développe principalement dans l’intelligence artificielle et le fonctionnalisme d’un H. Putnam par exemple. Il faut reconnaître que la cybernétique représente dans l’élaboration de cette conception abstraite de l’être humain un rameau parallèle, et relativement mineur.
CASS2014a.9
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 178-180 : J’utilise le mot d’abstraction en référence à l’abstraction mathématique. On raconte que le mathématicien D. Hilbert, au début du XXe siècle, a déclaré à ses étudiants, après son cours, dans un café, que l’on pourrait en géométrie parler de bières, de tabourets et de tables plutôt que de points, de droites et de plans. Il voulait vraisemblablement dire que seule importe en mathématiques la structure du domaine, et non ses termes. Sans doute, la géométrie, telle que nous la connaissons, traite de points, de droites et de plans. Nous posons entre ces objets différentes relations, qui sont explicitées dans les axiomes. Ceux-ci définissent une certaine structure, qui détermine les opérations susceptibles d’être accomplies. La nature des objets n’est pas prise en compte. Ce pourrait donc aussi bien être des bières, des tabourets et des tables du moment qu’ils entretiennent les mêmes relations et obéissent à la même structure que les points, les droites et les plans. L’effort de l’axiomatisation, dont le travail de Hilbert marque une étape décisive, a été de définir ces structures pour elles-mêmes, les isolant ainsi de leur domaine d’origine. Or c’est dans le même sens que l’homme télégraphié est abstrait de son incarnation singulière. Il est identifié à une configuration (pattern), une forme (form), c’est-à-dire certaines relations qu’entretiennent des objets (molécules constituant le corps, messages entrants et messages sortants) dont la nature même, la matière propre n’importent pas. “Pour récapituler : l’individualité du corps est celle de la flamme plutôt que de la pierre, celle de la forme plutôt que d’un morceau de substance. Cette forme peut être transmise ou modifiée et dupliquée”. Wiener identifie ici le “corps” à une forme. Ailleurs, dans le même chapitre, il évoque (et rapporte à une forme ou une configuration) “l’organisme”, “l’identité personnelle”, “l’individualité humaine”, “l’identité physique de l’individu”. Mais la première formule est d’autant plus remarquable. Le corps même, dans son identité permanente, et non seulement l’individu, peut être considéré comme une structure abstraite. Cependant, c’est d’abord avec Turing que cette abstraction de la structure est appliquée à l’être humain et à l’esprit. Définir une machine de Turing, c’est poser certaines règles déterminant la façon dont la machine agit, et modifie le cas échéant son état interne, en fonction de son état antérieur et des données extérieures. Mais, à nouveau, la nature des états internes de la machine n’importe pas. Les états internes peuvent être constitués par la position de roues crantées, celle d’une série d’interrupteurs ou de tubes à vide mais également consister en des états mentaux, des états d’esprit. Bien que ses états internes appartiennent au domaine mental, l’esprit qui calcule en suivant un certain algorithme est la même machine de Turing que l’ordinateur qui calcule selon le même algorithme. Et il est essentiel dans la thèse de Turing, pour la définition de ce qu’est un calcul, que l’esprit qui calcule puisse être décrit comme une machine au même titre qu’un dispositif matériel. Bref, la machine de Turing est une structure abstraite susceptible d’être réalisée sur des supports différents. Au cours des années soixante, dans le cadre du “fonctionnalisme” qui entend montrer que le problème du corps et de l’esprit peut être posé dans les mêmes termes pour l’humain et pour la machine de sorte que rien finalement ne nous permet de nous distinguer d’une machine, H. Putnam a fait un large usage de la notion de machine de Turing. Or, lorsqu’il revient rétrospectivement sur l’importance de cette notion pour la philosophie de l’esprit, c’est sur l’idée de structure abstraite qu’il met l’accent : “Les machines nous ont obligés à distinguer entre une structure abstraite et sa réalisation concrète. Non pas que cette distinction ait été mise au jour pour la première fois avec les machines. Mais, dans le cas des machines computationnelles, nous ne pouvions pas éviter de nous confronter au fait que ce que nous devions considérer comme la même structure pouvait être réalisé d’une étonnante diversité de façons” Ainsi, cette abstraction qui intervient dans l’épisode de l’homme télégraphié prend son origine dans l’axiomatisation de Hilbert et dans les machines de Turing, c’est-à-dire en dehors et en amont de la cybernétique. La configuration, le pattern auquel Wiener renvoie l’identité individuelle est abstrait dans le même sens que le programme, “la table d’instruction” de la machine de Turing. Ce n’est pas cependant que Wiener se situe immédiatement dans le sillage de Turing. Ces deux structures abstraites, le pattern et le programme, auxquelles l’être humain peut être identifié, ne sont pas les mêmes. Wiener abstrait une structure, comme Turing, mais ce n’est pas la même structure : la configuration qu’évoque Wiener n’est pas le programme d’une machine de Turing. En fait, l’identification de l’être, ou de l’esprit, humain à un programme, dans le droit fil de la perspective de Turing, conduit à l’intelligence artificielle et à un projet différent de la cybernétique.
CASS2014a.10
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 181 : La différence dans la programmation de ces deux machines, l’ordinateur de Pohl et le diamant de Egan, exprime parfaitement l’écart entre l’intelligence artificielle et le projet cybernétique. Dans la nouvelle de Egan et la perspective cybernétique, le cerveau, l’esprit, est une boîte noire, que l’on ne tente pas d’ouvrir mais seulement d’imiter. Il s’agit, dans les textes de Wiener déjà, de reproduire le rapport entre entrée et sortie sur une machine qui peut procéder d’une façon différente de celle du cerveau, ou de l’esprit, humain. En revanche, l’informaticien de Pohl et l’intelligence artificielle entendent analyser le mécanisme de l’esprit humain et implémenter ce mécanisme ainsi analysé sur l’ordinateur. Il s’agit donc de formaliser les enchaînements de pensée, le “programme” de l’être humain, et d’énoncer le système de connaissances qui en forme les prémisses. C’est ce projet d’analyse qui définit l’intelligence artificielle.
CASS2014a.11
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 185-186 : Sans doute, la machine de Turing représente d’abord la rigueur mathématique. Une théorie formelle, une théorie mathématique au sens le plus fort, c’est une machine de Turing qui enchaîne des théorèmes. L’esprit mathématicien, l’esprit qui démontre, se décrit comme une machine de Turing. La machine de Turing est le modèle que donne de lui-même l’esprit mathématicien. Mais, dans le monde cybernétique, cette identification à la machine, à l’intérieur des mathématiques, ne peut qu’être solidaire de la mécanisation de l’humain que sous-tend l’usine automatique. La machine de Turing constitue une autre façon de mécaniser l’humain, l’autre versant d’un processus qui ne se contente pas de jouer dans la pratique mais s’exprime aussi dans le domaine conceptuel, dans la superstructure si l’on veut. Descartes décrit le corps humain comme une machine. Il en isole l’esprit qui est une chose pensante et en lui-même étranger à la spatialité des machines. Turing propose, trois siècles environ après Descartes, une façon de concevoir également l’esprit comme une machine. Ainsi, plus rien de l’humain n’échappe à la mécanisation. Pourquoi voulons-nous nous voir comme des machines ? Une réponse serait que, dans le régime capitaliste, nous travaillons en général pour le compte d’un autre, qui possède les moyens de production que nous utilisons. Nous travaillons en cela avec une machine et comme une machine. Ce serait pourquoi alors nous nous identifions à des machines, de toutes formes, décrivons notre esprit comme une machine aussi bien que nous nous imaginons remplacés par des machines dans l’usine. Nous tendons vers l’état de robot, nous nous voyons comme des robots, au sens de Čapek, et de façon toujours plus adéquate. Sous différentes formes, la mécanisation imaginaire de l’humain progresse, nous y travaillons depuis Descartes, la rendant toujours plus complète jusqu’au moment où, avec le posthumain peut-être, elle aboutit : notre humanité n’est qu’un souvenir. Le posthumain est un robot qui s’ignore.
CASS2014a.12
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 190 : Le posthumain a perdu cette partie humaine : son esprit peut être considéré comme une machine de Turing et celle-ci implémentée sur un ordinateur. Le posthumain est tout entier du côté de la machine et, dans cette mesure, tout entier produit et moyen de production, tout entier exploitable. Il ne s’agit pas de revenir à l’humain. La cybernétique l’a tenté, avec ce cyborg dans lequel la machine devait se soumettre à l’humain, et cette figure du cyborg a éclaté pour ainsi dire, s’est volatilisée en une suite de 0 et de 1, dans le tic-tac du télégraphe, un simple message. Si l’on ne veut pas tomber dans le posthumain, il ne suffit donc pas de chercher à freiner le processus de mécanisation. La pression est trop forte. Il faut faire un pas de côté. Il faut utiliser d’autres catégories, constituer une image de nous-mêmes qui ne doive plus rien à la machine mais se fonde sur d’autres éléments.
CASS2014a.13
Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 207 : le thème de la machine met en évidence la spécificité de la science et des mathématiques. Les mathématiques marquent, on l’a vu, le cadre dans lequel l’humain a d’abord pu s’identifier à la machine sans reste. Dans la perspective dominante, la perspective des manuels de logique où un théorème doit pouvoir être déduit formellement des axiomes ensemblistes, la machine de Turing représente adéquatement l’esprit mathématicien. Penser mathématiquement, c’est se faire machine, au plus près, autant que possible.
CASS2014b
L’homme télégraphié
Pierre CASSOU-NOGUÈS, L’homme télégraphié : Wiener et le posthumain, in PostHumains : Frontières, évolutions, hybridités, dir. Elaine DESPRÉS & Hélène MACHINAL, Rennes, Presses universitaires de Rennes, 2014, p. 29-43, https://books.openedition.org/pur/52501?lang=fr.
CASS2014b.1
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Imaginons un architecte qui, depuis l’Europe, construit un bâtiment en Amérique. Il lui suffit de pouvoir observer le chantier au moyen de photographies qu’on lui transmet régulièrement ou, dirions-nous, d’une télévision, et, en retour, de pouvoir envoyer ses directives, ses plans, par télégraphe, téléphone ou ce que Wiener appelle l’Ultrafax. L’architecte n’a pas besoin de se rendre sur place. […] Il est inutile de transporter le corps humain, il suffit d’étendre son rayon d’action, de lui donner des organes de perception et d’action partout à la surface de la Terre […]. Wiener souligne que cette capacité à percevoir et à agir à travers le monde, que rendent possible son “Ultrafax” et notre Internet, est une extension, et une modification, de l’existence humaine. Les caméras qui surveillent le chantier et informent l’architecte, les machines qui crachent en retour ses ordres, sont les prothèses de ce cyborg dont le corps est disséminé à la surface de la Terre. L’architecte a rompu avec les modes d’incarnation, la localisation dans l’espace et le temps, naturels. Il a pris une sorte d’ubiquité.
CASS2014b.2
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Le modèle de l’architecte ne mène pas encore à leur terme les transformations qu’implique la théorie de l’information dans la situation humaine. L’architecte utilise les fils de télégraphe pour étendre le champ de ses messages. Ses perceptions consistent bien en certains messages, certains codes qui parcourent les fils télégraphiques, entrent dans le système nerveux, aboutissent au cerveau où ils produisent d’autres messages, des codes, qui prennent le chemin inverse le long des nerfs, puis des câbles électriques jusqu’à leur point d’arrivée, un chantier disions-nous, où ils se transforment en action, que celle-ci soit exécutée par des machines ou des ouvriers, qui sont alors utilisés comme des machines. Mais, au lieu d’envoyer ainsi les messages sur les lignes télégraphiques, pourquoi ne pas reproduire sur place ce rapport entre messages entrants et messages sortants, cet appareil à transformer des messages que représente l’architecte pour la théorie de l’information ? Notre architecte, considéré comme une boîte noire qui transforme les messages, peut être caractérisé par un certain code, ce code transmis par téléphone et le même appareil reconstruit sur place. Voici donc l’architecte qui sort de la cabine téléphonique, sur le chantier. C’est une cabine un peu spéciale, elle peut aussi servir de télétransporteur : nous entrons d’un côté, la machine nous code et, avec la mélodie d’un vieux fax, nous envoie de l’autre côté de l’Atlantique, où une autre machine nous décode et nous reconstitue.
CASS2014b.3
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Dans The Human Use of Human Beings, le savant part de l’idée que l’identité du corps ne tient pas à la matière dont il est constitué, mais à sa forme, à sa configuration : en anglais, “pattern”. La matière de notre corps semble se renouveler régulièrement. Les aliments ingérés sont assimilés, et cette matière vient remplacer celle que l’usure du temps nous enlève. Certains mécanismes permettent au corps de conserver sa configuration en même temps qu’il remplace sa matière. Or, cette configuration qui définit l’identité du corps, de l’individu, pourrait être analysée, codée sous la forme d’un message et, dès lors, envoyée par télégraphe. Wiener n’y voit pas plus d’information que dans l’Encyclopedia Britannica (ce qui n’est pas énorme). Il resterait ensuite à décoder l’information au point d’arrivée et à trouver le moyen de reconstruire l’individu à partir de sa configuration. La machine aurait à sa disposition des molécules de carbone, beaucoup d’eau, du calcium, etc., toutes les molécules qui entrent dans la composition du corps. Elle lirait la configuration reçue et reproduirait l’individu.
CASS2014b.4
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Dans God and Golem, Inc., Wiener ébauche une seconde version du télétransporteur. L’humain est à nouveau réduit à une certaine configuration, susceptible d’être transmise sous forme de message. Mais ce n’est plus la configuration du corps, la configuration isolée dans The Human Use of Human Beings, cette forme indépendante de la matière et qui se maintient alors que la matière se renouvelle. Ce qui est transmis, dans ce nouveau télé-transporteur, c’est un certain rapport entre les messages entrants et les messages sortants, par lequel toute machine, tout organisme vivant peut être caractérisé : “Pour nous, une machine est un appareil [device] qui convertit des messages entrants en messages sortants.” Et il en est de même d’un être vivant, et d’un être humain. Notre architecte peut être représenté comme une certaine façon de répondre aux sollicitations de la vie, aux perceptions par des gestes, aux paroles entendues par d’autres paroles, etc. C’est ce rapport, cette façon de répondre, qu’il s’agit maintenant de coder, de transmettre et de réactualiser. Au départ, sans doute, il faudra soumettre notre architecte à une série de tests pour enregistrer ses réponses aux situations les plus probables. Mais, ensuite, il ne sera pas difficile de coder cette configuration pour l’envoyer par télégraphe. Et, en ce qui concerne l’arrivée, qui intéresse surtout le savant dans ces chapitres de God and Golem, Inc. Wiener prouve l’existence d’une machine universelle, susceptible de mimer n’importe quelle configuration, n’importe quel rapport entre messages entrants et messages sortants.
CASS2014b.5
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : La différence dans la programmation de ces deux machines, l’ordinateur de Pohl et le diamant d’Egan, exprime parfaitement l’écart entre l’intelligence artificielle et le projet cybernétique. Dans la nouvelle d’Egan et la perspective cybernétique, le cerveau, l’esprit, est une boîte noire, que l’on ne tente pas d’ouvrir, mais seulement d’imiter. Il s’agit, dans les textes de Wiener déjà, de reproduire le rapport entre entrée et sortie sur une machine qui peut procéder d’une façon différente de celle du cerveau, ou de l’esprit humain. En revanche, l’informaticien de Pohl et l’intelligence artificielle entendent analyser le mécanisme de l’esprit humain et implémenter ce mécanisme ainsi analysé sur l’ordinateur. Il s’agit donc de formaliser les enchaînements de pensée, le “programme” de l’être humain, et d’énoncer le système de connaissances qui en forme les prémisses. C’est ce projet d’analyse qui définit l’intelligence artificielle. “L’étude procédera sur la base de la conjecture que tous les aspects de l’apprentissage et tout autre trait de l’intelligence peut en principe être analysée de façon si précise qu’une machine peut être programmée pour le simuler. […] On peut spéculer qu’une large partie de la pensée humaine consiste à manipuler des mots selon certaines règles de raisonnement et de conjecture.” La conférence de 1955 à Darmouth, à l’issue de laquelle est formulé ce texte, à la fois projet et manifeste, marque le début de l’intelligence artificielle et la rupture de celle-ci avec la sphère cybernétique. L’intelligence artificielle est le projet dominant des années 1960, après la mort de Wiener et l’éclatement du groupe cybernétique. À partir des années 1970, avec le développement du “connexionisme” et le retour aux “réseaux neuronaux”, l’informatique revient à une perspective plus proche de celle de Wiener.
CASS2014b.6
Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Il existe, en amont de l’intelligence artificielle et de la cybernétique, des machines qu’anime un humain. L’idée de reloger l’humain dans la machine ne naît pas avec la cybernétique, ni avec l’intelligence artificielle. Cependant, en amont de ces projets de l’après-guerre et de l’après-Turing, elle prend une forme différente ou, plus exactement, deux formes différentes. […] Dans les deux cas, est isolée une partie de l’humain (le cerveau, l’esprit) qui est mise en relation avec un corps mécanique. Or, la possibilité de considérer l’humain, ou son esprit, comme une structure abstraite rend inutiles ces opérations de découpe et de greffe. Car il suffit que la machine puisse prendre la même structure pour que l’humain y soit du même coup transféré. Je veux souligner que, si, avec l’intelligence artificielle, cette possibilité d’abstraction est liée à la thèse que le cerveau est une machine à calculer (on peut alors remplacer cette machine à calculer qu’est le cerveau par un autre ordinateur qui lui est équivalent), elle n’en dépend pas. Et c’est dans une autre perspective que Wiener entend abstraire son architecte et le télégraphier de l’autre côté de l’Atlantique. L’humain cybernétique reste une boîte noire et il n’est pas nécessaire pour l’abstraire de faire même cette hypothèse qu’il est une machine à calculer.
NEUM1951
Théorie générale et logique des automates
John Von NEUMANN, Théorie générale et logique des automates, traduit de l’anglais par Jean-Paul AUFFRAND, précédé de Gérard CHAZAL, La Pensée et les machines : le mécanisme algorithmique de John von Neumann, Seyssel, Champ-Vallon, 1951 (1996 pour la traduction française).
NEUM1951.1
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 35 : Je n’accorde pas que l’infini soit composé d’infinitésimales. Les quantités infinitésimales sont des idéalités mathématiques, comme les racines imaginaires… Mon calcul est utile quand il s’agit d’appliquer la Mathématique à la Physique, cependant ce n’est point par là que je prétends rendre compte de la nature des choses. [Leibniz, “Lettre à Clarke”, 1716, édition Gerhardt, in Œuvres philosophiques, VI, p. 629.]
NEUM1951.2
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 36 : je ne suis pas trop persuadé moi-même qu’il faut considérer nos infinis et infiniment petits autrement que comme des choses idéales ou des fictions bien fondées. [Leibniz, “Lettre à Varignon”, 20 juin 1702, édition Gerhardt, in Œuvres philosophiques, IV, p. 110.]
NEUM1951.3
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 42 : Leibniz avait raison : l’informatique effectue la synthèse de sa combinatoire et de son arithmétique binaire. L’électronique met en œuvre l’arithmétique binaire et étend le pouvoir que lui soupçonnait Leibniz à la représentation de quantités continues. Puisque nous en sommes à évoquer Leibniz, nous pouvons retrouver encore plus les marques de sa philosophie dans l’usage de l’informatique. En effet, l’ordinateur ouvre la voie à l’usage du virtuel, à la simulation, de telle sorte que les sciences, aujourd’hui, œuvrent autant à la construction de possibles, construction dont les matériaux sont les éléments binaires du langage informatique, qu’à la description du réel. [Chazal]
NEUM1951.4
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 58 : Axiomatiser le comportement des éléments signifie ceci : nous supposons que les éléments ont des caractéristiques fonctionnelles, externes, bien définies, ce qui veut dire qu’on doit les traiter comme des “boîtes noires”. Il faut les voir comme des automatismes dont la structure interne n’a pas à être dévoilée, mais dont on suppose qu’ils produisent certaines réponses, définies sans ambiguïté, en réaction à des stimuli eux aussi définis sans ambiguïté. […] Je n’ai pas besoin de souligner les limites de cette procédure. Il est possible que des chercheurs engagés dans cette voie fournissent la preuve que le système d’axiomes utilisé est commode et proche de la réalité, dans ses effets du moins. Ce n’est cependant pas la méthode idéale, et peut-être même pas une méthode efficace, pour déterminer la validité des axiomes.
NEUM1951.5
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 63 : Tous les automates de calcul se divisent en deux grandes classes d’une manière qui saute aux yeux, ce qui, comme nous allons le voir, est transférable aux organismes vivants. Ce sont les machines analogiques et les machines digitales.
NEUM1951.6
Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 69 : Les comparaisons qu’on peut faire entre les organismes vivants et les calculateurs sont donc certainement imparfaites dans l’état actuel de la connaissance. Les organismes vivants sont très complexes, car ce sont des mécanismes partiellement analogiques et partiellement digitaux. Les calculateurs, dans la forme qui est la leur actuellement et à laquelle je me réfère dans cette étude, sont purement digitaux. Je dois donc vous demander d’accepter cette simplification extrême du système. Bien que je sois parfaitement conscient de la composante analogique des organismes vivants, et il serait absurde de ma part de nier son importance, je la négligerai volontairement, afin de simplifier la discussion. Je considérerai les organismes vivants comme s’ils étaient des automates purement digitaux.
VAL2006
Rencontres avec Heinz von Foerster
Robert VALLÉE, Rencontres avec Heinz von Foerster : des « Eigen-Values » à la remise d’une médaille d’or, in Seconde cybernétique et complexité. Rencontres avec Heinz von Foerster, ed. Evelyne ANDREEWSKY & Robert DELORME, L’Harmattan, Paris, 2006.
VAL2006.1
Cf. Vallée, Rencontres avec Heinz von Foerster, op. cit., p. 87-88 : La cybernétique de Norbert Wiener (1948) proposait un programme pluridisciplinaire fondé sur la recherche d’isomorphismes entre des domaines différents (électromécanique, biologie, sociologie...) où interviennent régulation et communication. Le paradigme fondamental était fondé sur la rétroaction négative illustré par la métaphore de la conduite d’un navire. Lorsque celui-ci s’écarte de la trajectoire choisie, une manœuvre compensatrice du gouvernail tend à l’y ramener. Il y a là, en germe, tous les éléments d’une cybernétique où interviennent un observateur qui évalue, au mieux, l’écart entre la position actuelle du navire et celle qu’il devrait occuper, un décideur qui choisit la correction à apporter à l’orientation du gouvernail et un acteur qui l’effectue. Ces trois fonctions peuvent être celles d’un seul observateur- décideur- acteur ou, pour être bref, d’un seul observateur - acteur qui peut se réduire, dans les cas les plus simples, à un dispositif automatique. Ce système cybernétique s’observe lui-même ainsi que son environnement et il agit aussi sur ces derniers.
FOER006
Éthique et Cybernétique du Second Ordre
Heinz von FOERSTER, Éthique et Cybernétique du Second Ordre, in Seconde cybernétique et complexité. Rencontres avec Heinz von Foerster, ed. Evelyne ANDREEWSKY & Robert DELORME, L’Harmattan, Paris, 2006.
FOER006.1
Cf. von Foerster, Éthique et Cybernétique du Second Ordre, op. cit., p. 110 : Comme vous le savez tous, on parle de cybernétique lorsque des effecteurs, disons, un moteur, une machine, nos muscles, etc., sont connectés à un organe sensoriel, lequel, en retour, agit par ses signaux sur les effecteurs.
FOER006.2
Cf. von Foerster, Éthique et Cybernétique du Second Ordre, op. cit., p. 110-11 : Puis [Margaret Mead] continue : “Je veux considérer spécifiquement la signification de l’ensemble d’idées interdisciplinaires que nous avons appelé tout d’abord ‘feed-back’, puis ‘mécanismes téléologiques’, puis ‘cybernétique’ – forme de pensée interdisciplinaire qui a permis aux membres de nombreuses disciplines de communiquer entre eux facilement, dans un langage que tous pouvaient comprendre”. Voici ensuite la voix de son troisième mari, épistémologue, anthropologue, cybernéticien, et comme d’aucuns le disent, père de la thérapie familiale, Gregory Bateson : “La cybernétique est une branche des mathématiques qui traite des problèmes de contrôle, de récursivité et d’information”. Puis maintenant le philosophe des organisations, le sorcier du management, Stafford Beer : “La cybernétique est la science de l’organisation efficace”. Et, enfin, la définition poétique de “M. Cybernétique”, comme nous l’appelons affectueusement, le cybernéticien des cybernéticiens, Gordon Pask : “La cybernétique est la science des métaphores défendables”. Il semble que la cybernétique représente beaucoup de choses différentes pour beaucoup de gens différents, mais cela vient de la richesse de sa base conceptuelle. Et je crois que c’est très bien ainsi ; autrement, la cybernétique deviendrait un exercice quelque peu ennuyeux. Cependant, tous ces points de vue naissent d’un thème central, celui de la circularité.
FOER006.3
Cf. von Foerster, Éthique et Cybernétique du Second Ordre, op. cit., p. 112 : Ce changement épistémologique devient flagrant si l’on se considère d’abord comme un observateur extérieur qui regarde le monde qui va ; puis dans un second temps si l’on se considère comme participant actif dans le drame de l’interaction mutuelle, du jeu de prendre-et-donner dans la circularité des relations humaines. Dans le premier cas, grâce à mon indépendance, je peux dire aux autres comment ils doivent penser et agir : “tu feras…”, “tu ne feras point…” : c’est l’origine des codes moraux. Dans le deuxième cas, en raison de mon interdépendance, je peux seulement me dire à moi-même comment penser et agir : “je ferai…”, “je ne ferai pas…” : c’est l’origine de l’éthique.
DUBA1948
Vers la machine à gouverner
Dominique DUBARLE, Une nouvelle science : la cybernétique. Vers la machine à gouverner…, Le Monde, 28 décembre 1948, p. 47-49.
DUBA1948.1
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 47 : Les premiers grands relais du cerveau humain viennent de prendre naissance, proportionnellement aussi neufs, aussi puissants par rapport aux outils usuels du calcul qu’un tour automatique l’est par rapport à la lime du serrurier. Le fait est vraisemblablement d’importance encore plus considérable que ne le sont la conquête de l’énergie nucléaire et la réalisation de la bombe atomique.
DUBA1948.2
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48 : Toutes ces machines ont un caractère commun. Elles recueillent des données et travaillent méthodiquement sur la base d’un problème déterminé qu’elles ont à résoudre plus ou moins parfaitement à partir des données convenables, jusqu’au moment où elles fournissent une solution et exécutent au besoin ce que prescrit cette solution. Elles font en outre ce travail mieux, beaucoup plus complètement et surtout beaucoup plus rapidement que l’homme laissé à ses seules disponibilités usuelles. Disons que ce sont des machines à rassembler et à élaborer de l’information en vue de résultats qui peuvent être aussi bien des résultats de décision que des résultats de connaissance. Ces créations sont encore en pleine enfance. Mais les premiers balbutiements de cette technique nouvelle attestent déjà un évident surclassement des pouvoirs organiques du cerveau de l’homme.
DUBA1948.3
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48 : Ces machines d’un type si nouveau ont d’ailleurs ceci de remarquable que d’une part elles supposent des connexions tout à fait inédites entre des sciences qui nous semblent à l’ordinaire fort éloignées les unes des autres et que, d’autre part, elles permettent de déchiffrer par analogie, probablement très avant, les mécanismes de certains fonctionnements organiques qui se tiennent à la base de notre vie mentale.
DUBA1948.4
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48-49 : Une des perspectives les plus fascinantes ainsi ouvertes est celle de la conduite rationnelle des processus humains, de ceux en particulier qui intéressent les collectivités et semblent présenter quelque régularité statistique, tels les phénomènes économiques ou les évolutions de l’opinion. Ne pourrait-on imaginer une machine à collecter tel ou tel type d’informations, les informations sur la production et le marché par exemple, puis à déterminer en fonction de la psychologie moyenne des hommes et des mesures qu’il est possible de prendre à un instant déterminé, quelles seront les évolutions les plus probables de la situation ? Ne pourrait-on même concevoir un appareillage d’état couvrant tout le système de décisions politiques, soit dans un régime de pluralité d’États se distribuant la terre, soit dans le régime apparemment beaucoup plus simple, d’un gouvernement unique de la planète ? Rien n’empêche aujourd’hui d’y penser. Nous pouvons rêver à un temps ou une machine à gouverner viendrait suppléer – pour le bien ou pour le mal, qui sait ? – l’insuffisance aujourd’hui patente des têtes et des appareils coutumiers de la politique.
DUBA1948.5
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 49 : Toutefois les réalités humaines sont des réalités qui ne souffrent point la détermination ponctuelle et certaines, comme c’est le cas pour les données chiffrées du calcul, mais seulement la détermination des valeurs probables. Toute machine à traiter des processus humains et des problèmes qu’ils posent devra ainsi adopter le style de la pensée probabiliste au lieu des schémas exacts de la pensée déterministe, celle qui est à l’œuvre par exemple dans les actuelles machines à calcul. Cela complique beaucoup les choses mais cela ne les rend pas impossibles : la machine à prévision qui guide l’efficacité d’un tir de D.C.A. en est une preuve. Théoriquement donc la prévision n’est pas impossible. Ni non plus la détermination au moins entre certaines limites, de la décision la plus favorable : la possibilité des machines à jouer, telle la machine à jouer aux échecs, suffit à l’établir. Car les processus humains qui font l’objet du gouvernement sont assimilables à des jeux au sens où von Neumann les a étudiés mathématiquement, seulement à des jeux incomplètement réglés, jeux en outre à assez grand nombre de meneurs et à données assez multiples. La machine à gouverner définirait alors l’État comme le meneur le plus avisé sur chaque plan particulier, et comme l’unique coordinateur suprême de toutes les décisions partielles. Privilèges énormes qui, s’ils étaient scientifiquement acquis, permettraient à l’État d’acculer en toutes circonstances tout joueur au “jeu de l’homme” autre que lui à ce dilemme : ou bien la ruine quasi immédiate, ou bien la coopération suivant le plan. Et cela rien qu’en jouant le jeu, sans violence étrangère. Les amateurs de “meilleur des mondes” ont bien de quoi rêver…
DUBA1948.6
Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 49 : Dure leçon des froides mathématiques, mais qui éclaire de quelque manière l’aventure de notre siècle, hésitant entre une turbulence indéfinie des affaires humaines et le surgissement d’un prodigieux Léviathan politique. Celui de Hobbes n’était du reste qu’agréable plaisanterie. Nous risquons aujourd’hui une énorme cité mondiale où l’injustice primitive délibérée et consciente d’elle-même serait la seule condition possible d’un bonheur statistique des masses, monde se rendant pire que l’enfer à toute âme lucide. Il ne serait peut être pas mauvais que les équipes présentement créatrices de la cybernétique adjoignent à leurs techniciens venus de tous les horizons de la science quelques anthropologues sérieux et peut-être un philosophe curieux de ces matières.
RUYE1954
La cybernétique et l’origine de l’information
Raymond RUYER, La cybernétique et l’origine de l’information, Paris, Flammarion, 1954.
RUYE1954.1
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 6 : Il n’y a certainement pas, dans l’organisme, de mouvement d’horlogerie, et les automates du XVIIIe siècle ne ressemblent que très superficiellement à des êtres vivants. Par contre, il y a des machines simples et des machines motrices. Le corps humain contient plusieurs leviers, et il est actionné par l’énergie chimique des aliments. Les machines, autres que les machines à information, ressemblent à des organismes sans tête, et elles peuvent remplacer des ouvriers manuels auxquels on ne demanderait que leur force de travail. Une fois munis de servo-mécanismes à information, et capables par suite de se contrôler elles-mêmes, elles deviennent semblables à des organismes complets avec une tête, c’est-à-dire avec un système nerveux et des organes de perception. Elles visent un but donné, malgré les interférences accidentelles. Elles peuvent remplacer alors des ouvriers intellectuels à qui l’on demanderait vigilance et initiative dans le cadre de leur mission. Selon la plupart des cybernétistes, les organes des sens et les organes nerveux des êtres vivants ne seraient en principe rien d’autre que des machines à information et à contrôle selon information.
RUYE1954.2
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 9 : Toute communication efficace d’une structure peut donc, semble-t-il, être appelée une information, et il n’est pas illégitime de dire que les variations de la pression atmosphérique “informent” le baromètre enregistreur, ou que les ondes sonores, transmises électriquement par le téléphone ou la radio, “informent” les appareils récepteurs ou enregistreurs. Cette définition objective de l’information – qui se trouve d’ailleurs conforme au sens primitif du mot – aura en outre l’immense avantage de la rendre accessible à la mesure. Si l’information est essentiellement le progrès d’un ordre structural efficace, elle sera le contraire d’une “destructuration”, d’une diminution d’ordre. Cette diminution d’ordre a un nom en physique : l’entropie. L’information pourra donc être considérée comme le contraire d’une entropie, et elle sera mesurable comme celle-ci.
RUYE1954.3
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 42 : Comme les cybernéticiens travaillent avec acharnement au problème du learning, et comme il faut, nous le verrons, dans le learning, une certaine induction sur statistique, on peut penser que des machines à tirer des lois générales à partir de données statistiques verront bientôt le jour.
RUYE1954.4
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 79 : Bref, la cybernétique manque le learning comme l’universal, parce que, dans un cas comme dans l’autre, il est impossible d’imiter mécaniquement le sens.
RUYE1954.5
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 81-82 : Au cours de l’exposé précédent, nous avons pu constater que toutes les difficultés internes de la cybernétique procèdent de la même erreur de principe et du postulat malencontreux selon lequel les machines à information sont l’équivalent intégral des systèmes nerveux vivants et conscients. Ce postulat mécaniste commande tous les échecs de la cybernétique : échec à comprendre l’origine de l’information et admission implicite d’un véritable mouvement perpétuel du troisième ordre ; échec à comprendre le sens ; échec à comprendre la perception des universals ou le learning. Nous devons donc passer à une critique plus approfondie et plus générale, ou plus exactement, à une réinterprétation positive de la cybernétique débarrassée de ses postulats mécanistes. Il faut renoncer à prétendre remplacer le système nerveux conscient par des machines, il faut considérer les machines comme subordonnées aux systèmes nerveux vivants, et encadrées par eux. Il faut admettre d’abord et avant tout que le montage (au sens actif du mot) d’un mécanisme quelconque est tout autre chose que le montage (au sens passif) de ce mécanisme tout constitué et fonctionnant. Le montage actif est l’œuvre de la conscience, qui est création de liaisons selon un sens. Le montage passif est l’ensemble des liaisons une fois qu’elles sont rétablies, et que le montage automatique peut se substituer aux liaisons improvisées par la conscience.
RUYE1954.6
Cf. Ruyer, La cybernétique et l’origine de l’information, op. cit., p. 235-236 : Cet ouvrage peut paraître surtout critique et négatif. Nous avons, en effet, essayé de montrer que les postulats de la cybernétique mécaniste étaient intenables à la fois logiquement et expérimentalement. Pris à la lettre, ils aboutissent à l’absurdité d’une “mouvement perpétuel” de troisième espèce. Et, d’autre part, ils se heurtent aux faits. Ceux-ci révèlent que toutes les machines à information, aussi bien que les machines ordinaires, sont toujours encadrées par une activité consciente et signifiante. Une machine n’est jamais qu’un ensemble de liaisons auxiliaires montées par cette improvisatrice de liaisons qu’est la conscience. L’information, comme communication de sens, n’est qu’un cas particulier de l’information comme création de forme. Tout anti-hasard authentique est à base de liaisons, et toute liaison est à base de conscience. S’adresser à la machine pour dissiper le mystère de l’anti-hasard et de l’origine de l’information est donc contradictoire. L’information organique et psychologique, l’épigenèse ordonnée et signifiante des structures dans la mémoire et dans l’invention, ne peuvent s’expliquer mécaniquement. L’échec de la cybernétique à comprendre l’origine de l’information et l’anti-hasard, le caractère tout apparent et superficiel du succès de ses modèles mécaniques, quand elle prétend comprendre la perception des universals, le learning, la communication entre individus, le sens du temps, la preuve du caractère fallacieux de ses postulats mécanistes. Mais critiquer ces postulats n’est pas critiquer ou diminuer la cybernétique elle-même. La cybernétique représente un des progrès les plus remarquables de la technique, de la science et de la philosophie contemporaines. Les postulats mécanistes abandonnés, on ne se trouve pas en présence de la cybernétique, moins quelque chose. On a au contraire la cybernétique, plus un procédé puissant pour explorer les problèmes de la vie et de la conscience, et pour comprendre le mode d’attache des structures et des sens, de l’espace physique et du trans-spatial. L’étude des feed back mécaniques conduit à une définition des feed back et des régulations axiologiques, qui montent et enveloppent les feed back mécaniques ; de l’“espace” axiologique, qui enveloppe l’espace physique. Elle permet de définir cette dynamique généralisée, dont rêvaient Leibniz et Cournot, sans avoir les moyens de la constituer avec suffisamment de précision.
ARSA1987
Les machines à penser
Jacques ARSAC, Les machines à penser. Des ordinateurs et des hommes, Paris, Éditions du Seuil, 1987.
ARSA1987.3
Cf. Arsac, Les machines à penser, op. cit., p. 33-34 : Une firme américaine demanda au mathématicien John von Neumann de proposer un schéma de machine à calcul extrêmement puissante. Il prit pour guide le fonctionnement même du cerveau humain, qui a deux fonctions essentielles : mémoriser des informations, les traiter. L’ordinateur devait donc être organisé avec une mémoire et une unité de traitement. L’idée fondamentale de Neumann fut que le programme commandant le fonctionnement de la machine devait être enregistré dans la mémoire […] Ainsi, dès l’origine, l’ordinateur fut conçu pour être sur le modèle du cerveau. Cette recherche se situait dans les prolongements des travaux et réflexions des cybernéticiens qui cherchaient à fabriquer un homme artificiel. Le schéma de Von Neumann était génial. Toutes les machines ont été construites sur ce schéma.
ARSA1987.4
Cf. Arsac, Les machines à penser, op. cit., p. 35 : Trois chercheurs : Herbert Simon (qui a reçu depuis le prix Nobel d’économie), Allen Newell et Cliff Shaw s’attaquèrent à un programme général de résolution de problèmes (GPS : general problem solver). Entendons-nous bien : il ne s’agissait pas de savoir résoudre des équations mathématiques.
QUER2000
Au juste, qu’est-ce que l’information ?
Louis QUÉRÉ, Au juste, qu’est-ce que l’information ?, in Réseaux, volume 18, n° 100, 2000, Communiquer à l’ère des réseaux, p. 331-357.
QUER2000.4
Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 347 : Dans son très beau livre sur la cybernétique comme source des sciences cognitives actuelles, Aux origines des sciences cognitives, J.-P. Dupuy relève la filiation du concept naturaliste d’information avec la cybernétique : “[…] Pour ce qui est de Wiener et de ceux qui le suivent […], ils ont fait de l’information une grandeur physique, l’arrachant au domaine des transmissions de signaux entre humains. Si tout organisme est environné d’informations, c’est tout simplement qu’il y a partout autour de lui de l’organisation, et que celle-ci, du fait même de sa différenciation, contient de l’information. L’information est dans la nature, et son existence est donc indépendante de l’activité de ces donneurs de sens que sont les interprètes humains.” [Jean-Pierre DUPUY, Aux origines des sciences cognitives, Paris, La Découverte, 1994, p. 126.]
SIMO1958
Du mode d’existence des objets techniques
Gilbert SIMONDON, Du mode d’existence des objets techniques, Paris, Éditions Aubier, 1958, édition de 1989 augmentée d’une préface de John HART et d’une postface de Yves DEFORGE.
SIMO1958.4
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 48-49 : Mais pour que cette technologie générale ait un sens, il faut éviter de la faire reposer sur une assimilation abusive de l’objet technique à l’objet naturel et particulièrement au vivant. Les analogies ou plutôt les ressemblances extérieures doivent être rigoureusement bannies : elles ne possèdent pas de signification et ne peuvent qu’égarer. La méditation sur les automates est dangereuse car elle risque de se borner à une étude des caractères extérieurs et opère ainsi une assimilation abusive. Seuls comptent les échanges d’énergie et d’information dans l’objet technique ou entre l’objet technique et son milieu ; les conduites extérieures vues par un spectateur ne sont pas des objets d’étude scientifique. Il ne faut même pas fonder une science séparée qui étudierait les mécanismes de régulation et de commande dans les automates construits pour être des automates : la technologie doit envisager l’universalité des objets techniques. En ce sens, la Cybernétique est insuffisante : elle a le mérite immense d’être la première étude du domaine intermédiaire entre les sciences spécialisées ; mais elle a trop spécialisé son domaine d’investigation, car elle est partie de l’étude d’un certain nombre d’objets techniques ; elle a accepté au point de départ ce que la technologie doit refuser : une classification des objets techniques opérée par des critères établis selon les genres et les espèces. Il n’y a pas une espèce des automates ; il n’y a que les objets techniques, qui possèdent une organisation fonctionnelle réalisant divers degrés d’automatisme. Ce qui risque de rendre le travail de la Cybernétique partiellement inefficace comme étude interscientifique (telle est pourtant la fin que Norbert Wiener assigne à sa recherche), c’est le postulat initial de l’identité des êtres vivants et des objets techniques auto-régulés. Or, on ne peut dire seulement que les objets techniques tendent vers la concrétisation, tandis que les objets naturels tels que les êtres vivants sont concrets dès le début. Il ne faut pas confondre la tendance à la concrétisation avec le statut d’existence entièrement concrète. Tout objet technique possède en quelque mesure des aspects d’abstraction résiduelle ; on ne doit pas opérer le passage à la limite et parler des objets techniques comme s’ils étaient des objets naturels. Les objets techniques doivent être étudiés dans leur évolution pour qu’on puisse en dégager le processus de concrétisation en tant que tendance ; mais il ne faut pas isoler le dernier produit de l’évolution technique pour le déclarer entièrement concret ; il est plus concret que les précédents, mais il est encore artificiel. Au lieu de considérer une classe d’êtres techniques, les automates, il faut suivre les lignes de concrétisation à travers l’évolution temporelle des objets techniques : c’est selon cette voie seulement que le rapprochement entre être vivant et objet technique a une signification véritable, hors de toute mythologie. Sans la finalité pensée et réalisée par le vivant, la causalité physique ne pourrait seule produire une concrétisation positive et efficace.
SIMO1958.8
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 70-71 : Les différents aspects de l’individualisation de l’être technique constituent le centre d’une évolution qui procède par étapes successives, mais qui n’est pas dialectique au sens propre du terme, car le rôle de la négativité n’y est pas d’être moteur du progrès. La négativité dans le monde technique est un défaut d’individuation, une jonction incomplète du monde naturel et du monde technique ; cette négativité n’est pas moteur du progrès ; ou plutôt, elle est moteur de changement, elle incite l’homme à rechercher des solutions nouvelles plus satisfaisantes que celles qu’il possède. Mais ce désir de changement n’opère pas directement dans l’être technique ; il opère seulement dans l’homme comme inventeur et comme utilisateur ; de plus, ce changement ne doit pas être confondu avec le progrès ; un changement trop rapide est contraire au progrès technique, car il empêche la transmission, sous forme d’éléments techniques, de ce qu’une époque a acquis à celle qui la suit. Pour que le progrès technique existe, il faut que chaque époque puisse donner à celle qui la suit le fruit de son effort technique ; ce ne sont pas les ensembles techniques, ni même les individus, qui peuvent passer d’une époque à une autre, mais les éléments que ces individus, groupés en ensemble, ont pu produire ; les ensembles techniques, en effet, possèdent, grâce à leur capacité d’intercommutation interne, la possibilité de sortir d’eux-mêmes en produisant des éléments différents des leurs. Les êtres techniques sont différents des êtres vivants par beaucoup d’aspects, mais ils le sont essentiellement sous le rapport suivant : un être vivant engendre des être semblables à lui, ou qui peuvent le devenir après un certain nombre de réorganisations successives s’accomplissant de façon spontanée si les conditions convenables sont réalisées ; au contraire, un être technique ne possède pas cette capacité ; il ne peut spontanément produire d’autres êtres techniques semblables à lui, malgré les efforts des cybernéticiens qui ont tenté d’obliger les êtres techniques à copier le vivant en construisant des êtres semblables à eux : cela n’est actuellement possible que de manière supposée, et sans grand fondement ; mais l’être technique a une plus grande liberté que le vivant, permise par une perfection infiniment moins grande ; dans ces conditions, l’être technique peut produire des éléments qui recueillent le degré de perfection auquel un ensemble technique est arrivé, et qui, eux, peuvent être réunis pour permettre la constitution d’êtres techniques nouveaux, sous forme d’individus ; il n’y a donc pas ici engendrement, procession, ni production directe, mais production indirecte par constitution d’éléments renfermant un certain degré de perfection technique.
SIMO1958.15
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 101 : La pensée cybernétique donne déjà dans la théorie de l’information des recherches comme celle du “human engineering” qui étudie particulièrement le rapport de l’homme à la machine ; on peut alors concevoir un encyclopédisme à base technologique. Ce nouvel encyclopédisme, comme les deux précédents, doit effectuer une libération, mais en un sens différent ; il ne peut être une répétition de celui du siècle des lumières. Au XVIe siècle, l’homme était asservi à des stéréotypes intellectuels ; au XVIIIe siècle, il était limité par des aspects hiérarchiques de la rigidité sociale ; au XXe, il est esclave de sa dépendance par rapport aux puissances inconnues et lointaines qui le dirigent sans qu’il les connaisse et puisse réagir contre elles ; c’est l’isolement qui l’asservi, et le manque d’homogénéité de l’information qui l’aliène. Devenu machine dans un monde mécanisé, il ne peut retrouver sa liberté qu’en assumant son rôle et en le dépassant par une compréhension des fonctions techniques pensées sous l’aspect de l’universalité. Tout encyclopédisme est un humanisme, si l’on entend par humanisme la volonté de ramener à un statut de liberté ce qui de l’être humain a été aliéné, pour que rien d’humain ne soit étranger à l’homme ; mais cette redécouverte de la réalité humaine peut s’opérer en des sens différents, et chaque époque recrée un humanisme qui est toujours en quelque mesure approprié aux circonstances, parce qu’il vise l’aspect le plus grave de l’aliénation que comporte ou produit une civilisation.
SIMO1958.16
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 103-105 : La conscience est à la fois activité démiurgique et résultat d’une organisation antérieure ; la réalité sociale est contemporaine de l’effort humain et homogène par rapport à lui. Seul un schème de simultanéité, une constellation de forces représentées dans leur pouvoir relationnel peut être adéquat à ce type de réalité. C’est son développement que postule une pareille représentation dynamique de l’homme dans la société ; les schème cybernétiques ne peuvent trouver un sens universel que dans une société déjà constituée d’une manière conforme à cette pensée ; la réactivité la plus difficile à établir est celle de la société par rapport à la pensée cybernétique elle-même ; elle ne peut se créer que progressivement et par l’intermédiaire des voies d’information déjà constituées, comme par exemple les échanges entre les techniques travaillant de manière synergique sur un point donné ; c’est ce type de groupement que Norbert Wiener cite comme une source de cette nouvelle technologie qui est une technique des techniques, au début de son ouvrage intitulé Cybernetics, publié en 1948, et qui est un nouveau Discours de la Méthode, rédigé par un mathématicien enseignant dans un institut de technologie. La Cybernétique donne à l’homme un nouveau type de majorité, celle qui pénètre les relations de l’autorité se distribuant dans le corps social, et découvre, au delà de la maturité de la raison, celle de la réflexion qui donne, en plus de la liberté d’agir, le pouvoir de créer l’organisation en instituant la téléologie. Par là même, la finalité et l’organisation pouvant être rationnellement pensées et créées, puisqu’elles deviennent matière de techniques, ne sont plus des raisons dernières, supérieures, capables de tout justifier : si la finalité devient objet de technique, il y a un au-delà de la finalité dans l’éthique ; la Cybernétique, en ce sens, libère l’homme du prestige inconditionnel de l’idée de finalité. L’homme se libérait, par la technique, de la contrainte sociale ; par la technologie de l’information, il devient créateur de cette organisation de solidarité qui jadis l’emprisonnait ; l’étape de l’encyclopédisme technique ne peut être que provisoire ; elle appelle celle de l’encyclopédisme technologique qui l’achève en donnant à l’individu une possibilité de retour au social qui change de statut, et devient l’objet d’une construction organisatrice au lieu d’être l’acceptation d’un donné valorisé ou combattu, mais subsistant avec ses caractères primitifs, extérieurs à l’activité de l’homme. La nature individuelle n’est plus ainsi extérieure au domaine humain. Après l’accès à la liberté se manifeste l’accès à l’autorité, au sens plein du terme, qui est celui de la force créatrice. Telles sont les trois étapes de l’esprit encyclopédique, qui fut d’abord éthique, puis technique, et qui peut devenir technologique, en allant au delà de l’idée de finalité prise comme justification dernière. Or, il ne faut pas dire que les techniques de l’organisation finalisée sont utiles par leurs résultats pratiques seulement ; elles sont utiles en ce sens qu’elles font passer la finalité du niveau magique au niveau technique. Alors que l’évocation d’une fin supérieure, et de l’ordre qui réalise cette fin, est considérée comme terme dernier d’une requête de justification, parce que la vie est confondue avec la finalité, à une époque où les schèmes techniques ne sont que des schèmes de causalité, l’introduction dans la pensée des schèmes technologiques de finalité joue un rôle cathartique. Ce dont il y a technique ne peut être une justification dernière. La vie, individuelle et sociale, comporte bien des aspects de processus finalisés, mais la finalité n’est peut-être pas l’aspect le plus profond de la vie individuelle ou sociale, non plus que les différentes modalités de l’action finalisée, comme l’adaptation à un milieu.
SIMO1958.21
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 149-150 : La fonction dont nous tentons de tracer les grandes lignes serait celle d’un psychologue des machines, ou d’un sociologue des machines, que l’on pourrait nommer le mécanologue. On trouve une esquisse de ce rôle dans l’intention de Norbert Wiener fondant la cybernétique, cette science de la commande de la communication dans l’être vivant et la machine. Le sens de la cybernétique a été mal compris, car cette tentative éminemment neuve a été réduite, jugée en fonctions de notions ou de tendances anciennes. En France, la recherche de cybernétique, qui suppose unité de la théorie de l’information et de l’étude des schèmes de commande et d’auto-régulation, s’est scindée en deux branches divergentes, celle de la théorie de l’information avec Louis de Broglie et l’équipe qui publie ses travaux dans la Revue d’Optique, et celle des recherches sur l’automatisme, avec des ingénieurs comme Albert Ducrocq, représentant des tendances technicistes et technocratiques. Or, c’est la liaison entre ces deux tendances qui permettrait la découverte des valeurs impliquées dans les réalités techniques et leur incorporation à la culture. La théorie de l’information est en effet d’ordre scientifique : elle emploie des modes opératoires voisins de ceux qu’emploie la théorie de la chaleur. Au contraire, le technicisme de Ducrocq recherche dans le fonctionnement des machines automatiques l’exemple d’un certain nombre de fonctions qui permettent d’interpréter d’autres type de réalités par analogie avec l’automatisme. La théorie des mécanismes d’auto-régulation permet en particulier d’esquisser une hypothèse expliquant les origines de la vie. Ou bien ce sont les principales opérations mentales, ou certaines fonctions nerveuses qui se trouvent ainsi expliquées par analogie. En fait, de semblables analogies, même si elles ne sont pas arbitraires, indiquent seulement qu’il y a des fonctionnements communs au vivant et aux machines. Elles laissent subsister le problème de la nature même de ces fonctionnements : ce technicisme est une phénoménologie plus qu’un approfondissement recherchant la nature des schèmes et des conditions qui en régissent la mise en œuvre. Certes, il est possible de ne pas accepter la manière dont Norbert Wiener caractérise l’information, et le postulat essentiel de son ouvrage qui consiste à affirmer que l’information s’oppose au bruit de fond comme une entropie négative s’oppose à l’entropie définie par la thermodynamique. Cependant, même si cette opposition du déterminisme divergent au déterminisme convergent ne rend pas compte de toute la réalité technique et de son rapport avec la vie, cette opposition contient en elle toute une méthode pour découvrir et pour définir un ensemble de valeurs impliquées dans les fonctionnements techniques et dans les concepts au moyen desquels on peut les penser. Mais il est possible d’ajouter un prolongement à la réflexion de Norbert Wiener. À la fin de son ouvrage, l’auteur s’interroge sur la manière dont les concepts qu’il a définis pourraient être utilisés pour l’organisation de la société. Norbert Wiener constate que les vastes groupes contiennent moins d’information que les groupes restreints, et il explique ce fait par la tendance des éléments humains les moins “homéostatiques” à occuper les fonctions de direction dans les vastes groupes ; la quantité d’information contenue dans un groupe serait au contraire, selon Norbert Wiener, proportionnelle au degré de perfection de l’homéostasie du groupe. Le problème moral et politique fondamental consisterait alors à se demander comment on peut mettre à la tête des groupes des individus qui représentent des forces homéostatiques. Mais, dit Norbert Wiener, aucun des individus qui comprennent la valeur de l’homéostasie et qui comprennent aussi ce qu’est l’information n’est capable de prendre le pouvoir ; et tous les cybernéticiens ensemble se trouvent devant les hommes qui président aux destinées collectives comme les souris qui veulent pendre une sonnette au cou du chat (Cybernetics, p. 189). Les tentatives que l’auteur a faites auprès des dirigeants syndicaux l’ont rempli d’une amertume qui fait songer à celle de Platon disant ses déceptions dans la Septième Lettre. Or, on peut essayer de découvrir entre la compréhension des techniques et la force qui dirige les groupes humains une médiation bien différente de celle qu’envisage Norbert Wiener. Car il est difficile de faire souvent que les philosophes soient rois ou les rois philosophes. Il arrive souvent que les philosophes devenus rois ne soient plus philosophes. La véritable médiation entre la technique et le pouvoir ne peut être individuelle. Elle ne peut être réalisée que par l’intermédiaire de la culture. Car il existe quelque chose qui permet à l’homme de gouverner : la culture qu’il a reçue ; c’est cette culture qui lui donne des significations et des valeurs ; c’est la culture qui gouverne l’homme, même si cet homme gouverne d’autres hommes et des machines. Or, cette culture est élaborée par la grande masse de ceux qui sont gouvernés ; si bien que le pouvoir exercé par un homme ne vient pas de lui à proprement parler, mais se cristallise et se concrétise seulement en lui ; il vient des hommes gouvernés et y retourne. Il y a là une sorte de récurrence.
SIMO1958.22
Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 152 : Prise seule, la technicité tend à devenir dominatrice et à donner une réponse à tous les problèmes, comme elle le fait de nos jours à travers la cybernétique. En fait, pour être justement connue, selon son essence, et droitement intégrée à la culture, la technicité doit être connue dans sa relation aux autres modes d’être au monde de l’homme. Aucune étude inductive, partant de la pluralité des objets techniques, ne peut découvrir l’essence de la technicité : c’est donc, en employant une méthode philosophique, l’examen direct de la technicité selon une méthode génétique qui doit être tenté.
SIMO2013
L’individuation à la lumière des notions de forme et d’information
Gilbert SIMONDON, L’individuation à la lumière des notions de forme et d’information, Paris, Éditions Jérôme Millon, 2013, édition de l’ensemble de la thèse soutenue en 1958 publiée initialement dans L’individu et sa genèse physico-biologique et L’individuation psychique et collective, Paris. Aubier, 1989, suivi d’un texte inédit, Histoire de la notion d’individu, rédigé en même temps que la thèse.
SIMO2013.1
Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 28 : on ne peut assimiler le vivant à un automate qui maintiendrait un certain nombre d’équilibres ou qui chercherait des compatibilités entre plusieurs exigences, selon une formule d’équilibre complexe composé d’équilibres plus simples ; le vivant est aussi l’être qui résulte d’une individuation initiale et qui amplifie cette individuation, ce que ne fait pas l’objet technique auquel le mécanisme cybernétique voudrait l’assimiler fonctionnellement. Il y a dans le vivant une individuation par l’individu et non pas seulement un fonctionnement résultant d’une individuation une fois accomplie, comparable à une fabrication ; le vivant résout des problèmes, non pas seulement en s’adaptant, c’est-à-dire en modifiant sa relation au milieu (comme une machine peut faire), mais en se modifiant lui-même, en inventant des structures internes nouvelles, en s’introduisant lui-même complètement dans l’axiomatique des problèmes vitaux [C’est par cette introduction que le vivant fait œuvre informationnelle, devenant lui-même un nœud de communication interactive entre un ordre de réalité supérieur à sa dimension et un ordre inférieur à elle, qu’il organise.]. L’individu vivant est système d’individuation, système individuant et système s’individuant ; la résonance interne et la traduction du rapport à soi en information sont dans ce système du vivant. Dans le domaine physique, la résonance interne caractérise la limite de l’individu en train de s’individuer ; dans le domaine vivant, elle devient le critère de tout l’individu en tant qu’individu ; elle existe dans le système de l’individu et non pas seulement dans celui que l’individu forme avec son milieu ; la structure interne de l’organisme ne résulte plus seulement (comme celle du cristal) de l’activité qui s’accomplit et de la modulation qui s’opère à la limite entre le domaine d’intériorité et le domaine d’extériorité ; l’individu physique, perpétuellement excentré, perpétuellement périphérique par rapport à lui-même, actif à la limite de son domaine, n’a pas de véritable intériorité ; l’individu vivant a au contraire une véritable intériorité, parce que l’individuation s’accomplit au-dedans ; l’intérieur aussi est constituant, dans l’individu vivant, alors que la limite seule est constituante dans l’individu physique, et que ce qui est topologiquement intérieur est génétiquement antérieur. L’individu vivant est contemporain de lui-même en tous ses éléments, ce que n’est pas l’individu physique, qui comporte du passé radicalement passé, même lorsqu’il est encore en train de croître. Le vivant est à l’intérieur de lui-même un nœud de communication informative ; il est système dans un système, comportant en lui-même médiation entre deux ordres de grandeur [Cette médiation intérieure peut intervenir comme relais par rapport à la médiation externe que l’individu vivant réalise, ce qui permet au vivant de faire communiquer un ordre de grandeur cosmique (par exemple l’énergie lumineuse solaire) et un ordre de grandeur infra-moléculaire.].
SIMO2013.36
Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 351-352 : Une attitude qui consisterait à considérer que la machine peut être véritablement connue et saisie comme geste humain cristallisé laisserait échapper le caractère propre de la machine ; elle la confondrait avec l’ouvrage d’art. L’identification de la machine à l’homme ou de l’homme à la machine ne peut se produire que si la relation s’épuise dans la liaison de l’homme à la machine. Mais si la relation est réellement à trois termes, le terme médiateur reste distinct des termes extrêmes. C’est l’absence du terme objet qui crée la possibilité de domination de l’homme sur la machine ou de la machine sur l’homme. Si l’essence véritable de la machine est d’instituer cette communication, c’est en termes d’information qu’il faut définir une machine afin de pouvoir l’analyser, et non selon son utilisation pratique ; en effet, des types de machines identiques peuvent être employés dans des industries et pour des fins pratiques extrêmement différentes ; toute technologie qui partirait d’un principe de classification issu des métiers ou industries aboutirait à un échec certain dans la tentative visant à constituer une véritable culture technologique. La machine ne se laisse pas connaître par son incorporation à une communauté professionnelle. L’être technique ne peut être défini qu’en termes d’information et de transformation des différentes espèces d’énergie ou d’information, c’est-à-dire d’une part comme véhicule d’une action qui va de l’homme à l’univers, et d’autre part comme véhicule d’une information qui va de l’univers à l’homme. La technologie culturelle devient un mixte d’énergétique et de théorie de l’information. La Cybernétique, théorie inspirée dans une assez large mesure par des considérations tirées du fonctionnement des machines, serait une des bases de la technologie si elle n’avait pas privilégié dès le début un mixte d’action et d’information qui est le “feed-back”, ou action en retour (causalité récurrente) ; une machine, en effet, peut exister sans comporter aucune relation entre la chaîne de causalité véhiculant l’action et la chaîne de causalité véhiculant l’information ; quand elle comporte une telle liaison, elle contient un automatisme ; mais il existe des machines qui ne sont pas des automates, ou qui tout au moins ne comportent des automatismes que pour des fonctions secondaires ou temporaires et occasionnelles (par exemple celles qui assurent la sécurité, la servo-commande, ou la télécommande).
SIMO2013.37
Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 352 : La notion de réaction, qui est déjà une notion synthétique, est extrêmement utile, mais n’est pas une notion première ; elle ne prend tout son sens que dans une théorie plus générale des transformations, que l’on peut nommer allagmatique générale. La machine est un être allagmatique. Or, une théorie pragmatiste, préoccupée d’action, ne voit dans la machine que le rôle de moteur commandé par l’homme et agissant sur le monde ; la récurrence d’information par laquelle la machine amène des messages du monde à l’individu est considérée comme naturellement et fonctionnellement subordonnée au rôle moteur. Or, le “feed-back” ne rend pas compte du rôle informateur de toute machine, en ce sens que l’information peut être antérieure à l’action de l’individu. Il n’y a pas une nécessaire antériorité de cette action sur l’information ; la cybernétique, en considérant l’information comme le signal de l’écart entre le résultat de l’action et le but de l’action, dans le “feed-back”, risque d’amener à sous-estimer le rôle de l’information directe, qui n’est pas insérée dans la récurrence du “feed-back”, et qui ne nécessite pas une initiative active de l’individu pour se former. Cette information directe, à l’inverse de l’information récurrente, ne comporte pas une référence à l’action du sujet, et par conséquent n’est pas valorisée en tant que marque d’un succès ou d’un échec. Quand l’information du “feed-back” arrive, elle s’insère comme une forme dans ce fond d’information non récurrente, si bien que l’individu se trouve en présence de deux informations : une information large et permanente, qui l’insère dans le monde comme milieu ; et une information étroite et temporaire, instantanée même, qui est éminemment liée à l’action, variable comme elle, et toujours renouvelée comme l’action. Cette information, qui est de type récurrent, ne comporte pas une aussi grande richesse que la précédente, mais se définit au contraire par quelques signaux concrets mais très simples (couleur, forme, attitude), qui, en raison de leur faible richesse en information, peuvent être aisément remplacés ou rapidement modifiés sans nécessiter une grande dépense d’énergie nerveuse dans l’opérateur, ou une transmission très complexe dans la machine.
COMB1999
Simondon, individu et collectivité
Muriel COMBES, Simondon, individu et collectivité – Pour une philosophie du transindividuel, Paris, Presses Universitaires de France, 1999.
COMB1999.8
Cf. Combes, Simondon, individu et collectivité, op. cit., p. 13 : En effet, tant qu’elle n’est qu’un transfert de la manière dont on pense un être à un autre être, l’analogie demeure une “association d’idées“. Et on peut supposer que Simondon avait présents à l’esprit, à l’époque où il menait sa recherche sur l’individuation, des exemples de recours insatisfaisants à l’analogie. En particulier, c’est sans doute à ses yeux la plus grande faiblesse de la cybernétique naissante que d’avoir identifié fonctionnellement les êtres vivants à des automates (Cf. Gilbert Simondon, L’Individu et sa genèse physico-biologique, Presses Universitaires de France, Coll. Épiméthée, 1964, republié aux éd. Jérôme Millon, coll. Krisis, 1995, p. 26). Pourtant, moins de dix ans après la naissance de cette science, Simondon lui rend hommage dans Du mode d’existence des objets techniques, comme à la première tentative “d’étude du domaine intermédiaire entre sciences spécialisées“ (Gilbert Simondon, Du mode d’existence des objets techniques, Aubier, 1958, 1969, 1989, p. 49). Et en effet, basant sa démarche sur l’étude des automates, la cybernétique propose toute une série d’analogies entre les systèmes automatisés et d’autres systèmes (essentiellement : nerveux, vivants et sociaux), afin d’étudier ces derniers du point de vue des “actes contrôlés“ dont ils sont capables en tant que systèmes. Mais précisément, on comprend en lisant la définition simondonienne de l’analogie, qu’il ne pouvait s’agir là à ses yeux que d’un usage imprécis de l’analogie, qui exposait dès le départ la cybernétique au danger du réductionnisme : rapprocher la structure logique du fonctionnement des systèmes indépendamment de l’étude de leur individuation concrète conduit en effet à identifier purement et simplement les systèmes étudiés – vivants, sociaux, etc. – à des automates, capables seulement de conduites adaptatives.
DUHE2014
Penser le numérique avec Simondon
Ludovic DUHEM, Penser le numérique avec Simondon, NepH, Nouvelle revue de Philosophie, N° spécial Philosophie du numérique, Paris, 2014, https://www.academia.edu/9024613/Penser_le_num%C3%A9rique_avec_Simondon_Thinking_the_digital_with_Simondon_.
DUHE2014.7
Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 5 : Simondon explique que l’information cybernétique est avant tout une information quantitative, c’est-à-dire conçue comme un nombre de signaux élémentaires nécessaire à la transmission d’un message non équivoque entre un émetteur et un récepteur. Or, la mesure de la quantité de signaux ne permet pas de “définir ni de comparer les différents contenus des données objectives : il y a un hiatus considérable entre les signaux d’information et la forme.” [Gilbert Simondon, L’individuation à la lumière des notions de forme et d’information, Grenoble, Millon, 2005, p. 241] Ce hiatus est tel d’ailleurs que la quantité de signaux a tendance à augmenter lorsque les qualités de forme se perdent : “il est techniquement plus facile de transmettre l’image d’un carré ou d’un cercle que celle d’un tas de sable [Gilbert Simondon, L’individuation à la lumière des notions de forme et d’information, Grenoble, Millon, 2005, p. 241.].”
FAUC2013
Metastasis and Metastability
Kane X. FAUCHER, Metastasis and Metastability: A Deleuzian Approach to Information, Rotterdam, SensePublishers, 2013.
FAUC2013.1
Cf. Faucher, Metastasis and Metastability, op. cit., p. 1-2 : However, in metaphysical terms, we might attempt to consider information according to the traditional categories as much as that might be as much a disciplinary corset as any other. As a quality we may speak of the properties information possesses or can cause to be the case in objects or concepts describing their states. As a quantity, we can speak of information as a unit of measure of an event and discuss (in philosophical parlance) whether or not information should be understood in terms of totality, particularity, or singularity; whether it is discrete or continuous. As a relation, we speak of information in terms of its nature with respect to itself and other objects or concepts which may define directionality, attraction, repulsion, etc. As a modality, we can speak of information as something either possible or actual, and the form it takes. If information is not the outcome of a message, not the input or output, or an element of communicative surprise, we can already rule out information as a unit of measure of an event given that is contained in what is called the bit. It is common to mistake information, which drives processes, with the input of the message or its surprise value as an output, but this is not to measure information at all – only data and uncertainty.
FAUC2013.2
Cf. Faucher, Metastasis and Metastability, op. cit., p. 8 : As will be shown in the following definitions of information concerning Wiener and Shannon, none of these have anything to do with knowledge claims or semantic meaning; they are largely mathematical concepts.
FAUC2013.3
Cf. Faucher, Metastasis and Metastability, op. cit., p. 8 : Wiener does not raise information to the state of Mind either. It is still somewhat material, a “stuff” of sorts, but is not matter (i.e., not physical as such). Or, more diplomatically if not still a bit mystic, information is made material when incarnated in artefacts, objects, and entities. In this way, information is what “haunts” matter, while depending on it, which is reminiscent of an Aristotelian relationship of how form is manifest (and dependent upon for its manifestation) on matter.
FAUC2013.4
Cf. Faucher, Metastasis and Metastability, op. cit., p. 26-27 : At its worse, the invocation of information functions as a “mystic operator” alongside with the term “economy” so that the latter makes the former its exclusive instrument, despite the narrow and perhaps incorrect association of information with technology and engineering. It is at this point that advances in technology or engineering (be this social or technical) are protected by the apparent neutrality and instrumentalism of a narrow definition of information that renders these technologies of capital immune to critique. At the moment that information in its more technical import makes the leap to describe, explain, or otherwise influence social processes, it risks reducing reality to a series of probabilities and possibilities that can be met head on by the use of sophisticated prediction devices. The (ab)use of information in this way is an attempt to map the machine unto the masses, a reprise of a mechanistic view of the real writ in digital format. The application of cybernetics to society could be considered Wiener’s major error; had he stopped at the purely mathematical and technical invention of cybernetic systems (and we leave open the question of whether he might have been better to leave off his “return” to biology by this means), and stopped short of creating a new humanism, he might have avoided many of the problems that have arisen on account of (mis)application.
FAUC2013.5
Cf. Faucher, Metastasis and Metastability, op. cit., p. 30 : the pan-informationalist approach presented by the Zuse Thesis, and later refined by Edward Fredkin’s digital metaphysics, posits a major presupposition where information becomes a governor in the world of essences that will attempt to unify all diversity and reduce both the properties of existence and the possibilities of experience to digital representations.
FAUC2013.6
Cf. Faucher, Metastasis and Metastability, op. cit., p. 41 : Given Simondon’s familiarity with the cybernetic program, as well as the Mathematical Theory of Communication, he explicitly states that information “must never be reduced to signals or to the supports or carriers of information in a message” (Simondon, G. (2009). The position of the problem of ontogenesis. (Gregory Flanders, Trans.) Parrhesia, p. 12).
FAUC2013.7
Cf. Faucher, Metastasis and Metastability, op. cit., p. 44 : The individual is the being that appears when there is signification; reciprocally, there is only signification when an individuated being appears or is prolonged in a being that is being individualized; the genesis of the individual corresponds to the resolution of a problem that could not be resolved by means of prior givens, because they did not have a common axiomatic: the individual is the auto-constitution of a topology of being that resolves a prior incompatibility through the appearance of a new systematic; that which was tension and incompatibility becomes functional structure… the individual is thus a spatio-temporal axiomatic of being that compatibilizes previously antagonistic givens in a system to a spatial and temporal dimension. (Simondon, G. (2007). Simondon and the physico-biological genesis of the individual. fractalontology.wordpress.com (Taylor Adkins, Trans.), p. 127)
FAUC2013.8
Cf. Faucher, Metastasis and Metastability, op. cit., p. 46 : Simondon’s rejection of the communication theory of information attacks the oversimplification of the sender-receiver circuit where both are assumed to be fully constituted and given individuals. What such a theory cannot account for is the turbulent multiplicity of singularities and their distribution (whether uniform or random), nor can such a theory do much more than affix a probability function to the emergence of newness and noise in any channel. It is the idea, somewhat utopian, that communication technologies will be able to bracket out all noise from a clear channel, but the fatal leap is in assuming the same can be done outside of communication technologies, such as in the domain of the social, political, and biological. When Being “de-phases” itself, this provides us a glimpse into the phase transitions that power the generation of emergent phenomena that stands outside the rigidity of probabilistic calculation.
FAUC2013.8
Cf. Faucher, Metastasis and Metastability, op. cit., p. 46 : The problem is capture: information in the communication theory context is deeply impacted within a regime of digital signs that obscure the very frames in which we operate as part of an “information economy.” This digital appropriation effaces the modernist desire for establishing the boundaries of discourse and the distribution of social hierarchies in a capitalist field. Standardization of information, at least in terms of processing and controlled flow, is the grail of much formalized communication theory so that differences emerge as manageable units in a subset of limited probabilities.
FAUC2013.9
Cf. Faucher, Metastasis and Metastability, op. cit., p. 71 : For Deleuze, the virtual-intensive-actual is opposed to a notion of the possible-actual binary. The virtual, composed of immanent potentiality, iterates itself (not by repetition) in the actual as a process of unfolding, manifest in sense expression of the thing actualized. This is not an imprint as if something pre-formed stamped upon matter to grant it form, nor a kind of injection of formal essence into unformed matter. In the process of this unfolding brought about by the intensive relation between the virtual and the actual, something “comes to be” and is thus individuated. The “sense” of what becomes only emerges as a result of the iteration, not as a program that decides between probabilities. That a “choice” is made is not drawn from preset possibilities that are selected at the exclusion of others. Instead, it is the process of iteration that produces something new. Whereas engineers in communications technology are concerned with diminishing noise and ensuring stable loops for purposes of controlled feedback, it would appear that the virtual-intensive-actual “loop” assigns to instability the task of generating newness
FAUC2013.10
Cf. Faucher, Metastasis and Metastability, op. cit., p. 71 : “The virtual is opposed not to the real but to the actual. The virtual is fully real in so far as it is virtual” (Deleuze, G. (1994). Difference and repetition. In P. Paul (Ed.). New York: Columbia University Press, p. 208). What is actualized (what has become) does not resemble that which in the differentiation generated its actualization. Virtuality defines partial objects, or rather a part of the object: “the virtual must be defined as strictly a part of the real object – as though the object had one part of itself in the virtual into which it plunged as though into an objective dimension” (Ibid., p. 209).
FAUC2013.11
Cf. Faucher, Metastasis and Metastability, op. cit., p. 72 : “The reality of the virtual is structure,” and this structure takes the form of “a double process of reciprocal determination and complete determination [defining] that reality: far from being undetermined, the virtual is completely determined” (Deleuze, G. (1994). Difference and repetition. In P. Paul (Ed.). New York: Columbia University Press, p. 209). And so the virtual is the completely determined structure formed by differential elements, and is a complete determination, but only of partial objects. These partial objects that are entirely determined are said by Deleuze to be conditioned by actual relations, and in such a way that their singularities are preserved without organizing into a hierarchy where one partial object becomes central as opposed to others that are simply peripheral.
FAUC2013.12
Cf. Faucher, Metastasis and Metastability, op. cit., p. 74 : Deleuze somewhat poetically describes a problem as the algebra of pure thought, and moreoever that if “Ideas are the differentials of thought, there is a differential calculus corresponding to each Idea, an alphabet of what it means to think” (Deleuze, G. (1994). Difference and repetition. In P. Paul (Ed.). New York: Columbia University Press, p. 181).
FAUC2013.13
Cf. Faucher, Metastasis and Metastability, op. cit., p. 81 : This logic of non-conceptual difference that relies on external relations (the contingent and particular rather than the necessary and universal) is an inversion of abstract conceptual thinking. For, Deleuze’s transcendental empiricism asserts that the condition of the concept is precisely given by the real conditions it abstracts from. That is, in contrast to classical empiricism, the real conditions of experience – instantiations of empirical actuality – are not explained by an a priori concept. The intelligibility or inner design that may be said to exist prior to the actual instantiation of the possible is, according to Deleuze, mapped on to the real conditions post facto. Deleuze views the rational explanation of the real as an illusion, since this rationalization can only truly occur only after what is to be made intelligible has occurred.
FAUC2013.14
Cf. Faucher, Metastasis and Metastability, op. cit., p. 88 : Spinoza’s panentheism, which appears almost deistic, could be considered the closest philosophical position to digital ontologies that simply substitute god for a universal algorithm that is programmed to operate according to the bit function of yes/no, but is limited in what the algorithm can do.
FAUC2013.15
Cf. Faucher, Metastasis and Metastability, op. cit., p. 90 : It is not that we appropriate information for the purposes of constructing arbitrary order and organization, nor is it that information appropriates are world’s “giddiness” to impose order, structure, and organization. Instead, information is as much a part of emergent structures as it is also the transformative blueprint where said blueprint is written upon different time scales which thus allow for multiple structures to coexist. The virtual is a black box filled with white noise, but it is this specific type of noise that is infinitely generative (even if it is governed by rules as much as it imposes a rule set on the process of unfolding). We may, in fact, come to question whether or not there is any fundamental difference between information and noise, or if this may be a semantically based false binary. Noise may “disorganize” a system, but it also introduces something new to that system that permits a constant reorganization - if not a reterritorialization that begets new relations that form and break according to a pattern of singularities where what differs repeats, and what repeats must differ.
FAUC2013.16
Cf. Faucher, Metastasis and Metastability, op. cit., p. 93 : A “state” of information might be described as not the quantity of the “thing” that we might name information, but an average in much the same way entropy is not a “thing,” but a description that can be measured (all entropy is average entropy). From an ontological perspective, one may choose to pursue the problematic of information in terms of the states in which information comes to manifest itself or operate across a variety of cases, but not to conflate state and operation. This, in sum, may split perspective in understanding information as either process or product. We may have come to believe, as a product of neoliberalization which naturalizes instrumentality, technology as neutral and objective tool (or weapon), and fetishizes such terms as economy and information (now hybridized) that information is a solid state affair rather than a dynamic one. This, of course, against the neoliberal logic that lionizes absolute flexibility and mobility. We leave aside the peripheral question of how economy and information have become raised to a level of scholasticism or mysticism in the contemporary context to consider the differing states of information.
FAUC2013.17
Cf. Faucher, Metastasis and Metastability, op. cit., p. 95 : One of the principle tasks assigned to information is the explanation of events by whatever method will reduce uncertainty.
FAUC2013.18
Cf. Faucher, Metastasis and Metastability, op. cit., p. 96 : To make an “informed decision” in such cases is to acquire all the pertinent data for the purposes of making that decision, leaving out superfluous (non-causal) states of affairs, and focusing on those that do have a direct causal connection to the event. However, if we cannot connect to the event in the sense that Deleuze articulates, are we simply making assumptions based on surface effects?
FAUC2013.19
Cf. Faucher, Metastasis and Metastability, op. cit., p. 97 : Systems can indeed be considered in terms of their particular state, but systems theory is focused on processes whereas more technical domains such as engineering require the sectioning of time into discrete intervals or bundles for the purposes of measurement and the construction of feedback mechanisms. When we speak of a state generally, we are referring to that discrete moment that is measured in terms of location, direction, density, mass etc., but this as an arresting of a continual process that will only measure change between two or more points. It is less the state (Being) that evolves, but the process (Becoming) according to phase transitions and waves. To take Being as the starting point, or the conclusive element of a process is to subordinate the process to a derivation that can only function as a representation.
FAUC2013.20
Cf. Faucher, Metastasis and Metastability, op. cit., p. 116 : Heracles appears to embrace the pure information dream of a completely ordered system where the relative degree of organization is absolute.
FAUC2013.21
Cf. Faucher, Metastasis and Metastability, op. cit., p. 128 : The issue of dynamic stability has been the preoccupation of several mathematicians and engineers, but perhaps none more notable than Clerk Maxwell whose foundational paper, On Governors, albeit short on useful applications, does make a distinction between governors and moderators. A true governor would be entirely automated in mechanism and not result in disequilibrium. It is this foundational aspiration in mechanics that plays an inspirational role in Wiener’s cybernetics.
FAUC2013.22
Cf. Faucher, Metastasis and Metastability, op. cit., p. 130 : The Internet is not information in the properly philosophical or physical sense. Information is to be found in the migration patterns of its users (logged by cookies and shaped by algorithms), and in the digital marks left by users on its vast map. It is not so much the content of those marks that is information, but when and where they are placed relative to all other marks in particular systems. Still, the problem of data bloat presents itself as one of the major challenges for web providers as well as users who are trying to seek information in its more conventional sense (i.e., knowledge). It is the scene of what Baudrillard calls the promiscuity of networks, and one that produces excrescence, traffics in the transparency and obscenity of data, and that succumbs to metastasis. Systems governed by structural feedback excesses only multiply data waste, leaving them “obese” or constipated in not being able to deliver what is wanted, only what is needed according to the principles of speed, convenience, and production that occurs “just in time” and on demand.
FAUC2013.23
Cf. Faucher, Metastasis and Metastability, op. cit., p. 136 : when the effect of a material repetition is taken as the cause, this does not permit the discovery of intensive qualities that become actualized.
FAUC2013.24
Cf. Faucher, Metastasis and Metastability, op. cit., p. 140-141 : Ironically, as Prigogine and Stengers demonstrate, the only way of guaranteeing the existence of any order in the universe must be on the basis of pluralism and the irreversibility of time where instabilities function as a symmetry-breaker. It is in this way that the very nature of causation must always be a multiplicity. In the articulation of any system (informational, social, economic, biological), articulation involves determination, and determination must logically have a causal basis. However, the antecedent in emergence is a multiplicity if we consider that systemic changes (as embodied in both information systems and information environments) are dynamic and multi-causal.
FAUC2013.25
Cf. Faucher, Metastasis and Metastability, op. cit., p. 141 : Information in the technical sense remains static and reproduces itself as a constant from moment to moment, defined by a measure that determines the relative degree of organization of a system – itself also self-identical and differing from its own past by variation and not internal resonance and difference. Information as the function that assigns the operation of metastasis is what defies measure, speaks of the greater and smaller, and remains both an active component of perpetual displacement and disguise. Perhaps only reflection discovers in the effects what it may take as a cause, but this is an inverted image; there is no compromise or stable equilibrium that exists between order and disorder, for all is tension, decentering, displacement, disguise, and excess. It is not the case that information covers over a system, defines it, negates entropy. Instead, it is that disparate tension that generates something truly informative, the relation of information and its own difference (not an opposite) that emerges from the system as a flash or a thunderbolt, to use Deleuze’s characterization.
FAUC2013.26
Cf. Faucher, Metastasis and Metastability, op. cit., p. 143-144 : If the entire structure of existence as a series of local and global becomings is to be understood computationally with a view to predicable outcomes, it simply cannot be done without recourse to all existents, and even then this might entail being able to create a “snapshot” of time which would not be particularly useful since it would not take into account the wide differential in the overlapping yet unique cycles and scales of time peculiar to various objects and events. There are too many unknown variables to create the equation for Becoming itself viable for precise measurement or predictive purposes.
FAUC2013.27
Cf. Faucher, Metastasis and Metastability, op. cit., p. 144 : We can, by habit of thought brought about through perception of phenomena or by repeatable experiment come to an approximation of what will result on the basis of probability, but it still does not explain how things truly came to be in general, and how to account for the uncanny – that sudden irregularity that baffles us and is written off to being a freak occurrence, tucked away in an error margin. A method that cannot account for all developments is incomplete, and certainly a method that is fixed to its view despite the ability to perceive things differently according to the multitudinous ways in which Being/Becoming can be expressed and articulated will not deliver a fully satisfactory answer.
FAUC2013.28
Cf. Faucher, Metastasis and Metastability, op. cit., p. 171 : The confusion that has arisen from conflating Shannon’s mathematical theory of communication with information generally ignores the fact that Shannon provided us with a procedure to measure information in a communication circuit, not a definition of information. Shannon’s theory offers a way of measuring the success or failure of a message transmission in a communication circuit without concern for semantic content, and one that has arguably been of a high degree of utility in information technologies. During the heyday of cybernetics – not to say that the study and application of cybernetics is at an end, which surely it is not – attempts were made to apply what has now been broadened as information theory to other domains and disciplines. It should therefore not surprise us that the seed of understanding genetic and biological processes through an information theory lens would be inevitable.
FAUC2013.29
Cf. Faucher, Metastasis and Metastability, op. cit., p. 179 : Deleuze would reject the technical definition of information as not telling the whole story, but only the story in a prescribed frame. He might also reject Dretske’s semantic naturalism that is far too reductive in boiling every communicative instance to the bit. At best, systems and models that make use of information theory, or that posit an informationally stable cosmos, are effectively only partial descriptions, and are helpless in the face of open-ended becomings. Ultimately, there are some essential steps required to construct a Deleuzian approach to information. Firstly, the very term must be “de-technicalized” from communication theory regimes. Secondly, information should not emerge from, or lead to, any axiomatization that may arrest the character of free flows and the distribution of singularities on a plane of composition. Thirdly, information must resist being essentialized which would thus create the conditions of a transcendence rather than a model of immanence.
FAUC2013.30
Cf. Faucher, Metastasis and Metastability, op. cit., p. 183-184 : Information in this sense is the pre-individual actuator or quasi-cause that allows for the individuation of matter (be this recorded as a regime of signs, a person’s identity, an object, etc.). It is a dark precursor on account of being real, like a shadow, but abstract, and yet at the same time intimately connected to matter. It is to the credit of Deleuze’s transcendental empiricism that materiality can be raised from its impoverished condition as dependent upon form to exist in an independent if not governing (or organizing) role in the construction of form. Formed matters are in actuality matters that converge into form. This is the lesson of inverted Platonism.
FAUC2013.31
Cf. Faucher, Metastasis and Metastability, op. cit., p. 184 : Information in the classical sense is a transcendent term. For the plane of transcendence, there is the invisible structure that gives rise to the development of forms, and a “secret signifier” that provides givenness to the contents or subjects that are in-formed along an linear axis of teleology. It is a regime of states and moments, each of them measurable as intervals between points on an arrow that leads to the fruition of an initial design or plan. This plane, as Deleuze and Guattari characterize it, begins with the assumption of a unity, a hidden principle that exercises itself as a function in the formation of subjects. Opposed to this, Deleuze and Guattari speak of the plane of consistency or composition; it is consistent precisely because it is univocal and contains no contradiction, nor does it lead regressively back to a principle that reifies form, nor does it have a “supplementary” aspect of a hidden principle; it is a composition precisely on the grounds that it is an assemblage, but an assemblage in a very special way. Unformed, nonsubjectified elements “arrive” in terms of their relations of speed and slowness, as events. Whereas in the plane of transcendence we are given forms (ideas) and formations (subjects that are individuated by these ideas), the plane of immanence dissolves forms and releases their speeds and intensities. What Deleuze and Guattari want us to think of is not a regime of states but of processes liable to assembling, dispersing, and without predictable direction.
FAUC2013.32
Cf. Faucher, Metastasis and Metastability, op. cit., p. 186 : It may be true, in a vulgarization of Bateson’s definition that “information makes the difference,” but in the Simondon-Deleuze formulation, it not only makes the difference but is difference – or, rather, information is differential selection within the milieu in which the thing is constituted as resonance between content and expression, always in a composition of assemblages. Between the virtual and actual (the former “contained” in the latter and perpetually unfolding without exhaustion as a “trace” and a “dark precursor”), information is “at work.” Information is at work in the disparation between heterogeneous series, in the milieu of intensive multiplicities manifest as assemblages. Systems are arrested placeholders or manipulable figures for diagrams, and events are the scene of a drama where energy and matter flows freely.
FAUC2013.33
Cf. Faucher, Metastasis and Metastability, op. cit., p. 187 : If information in a cybernetic sense is about commanding and controlling (thus setting up the power relation of domination and dominated), information in a non-theoretical (i.e., problematic) sense is to compose.
FAUC2013.34
Cf. Faucher, Metastasis and Metastability, op. cit., p. 188-189 : For Deleuze and Guattari, axiomatization seeks to establish universal equivalency between terms. Nowhere is this more apparent than in how capitalism relies on axiomatization to draw equivalencies between labour, production, and time in terms of value. Proceeding by a method of generalized deterritorialization, labour is detached from the determinate relations and conditions, and reterritorialized according to the largely arbitrary axiomatic of capitalism. […] Could the same be said for the attempt to axiomatize information? The vocabulary of the information-theoretic has been fitted to statistics already, especially in terms of Bayesian theory. An axiom effectively is the minimum required to enable theorematic viability within the framework of those axioms. The axioms thus permit all that is provable within a theorematic system by constraint. As theories depend on their axioms that cannot be questioned without breaking faith with a system, in some cases axioms become either dogmatic in allowing for a blind faith in what can be conceptually or empirically derived from them, or they become black boxes to which we can peer no further since beneath or behind the axiom is nothing. If one axiomatizes information, one is in effect essentializing information. Even if information proceeds by derivation from an axiom, there is still the echo of essence that will haunt it. To take a more polemical view, information theory broadly construed might be an instance of attempting to deterritorialize the very term, appropriate it by assigning properties, subjecting it to the rule of measure, thus reterritorializing it along the axes of communication, control, and mathematics. It is, in this way, the reproduction of the image of an actuarial system of risk management through probabilities, the image of the communications engineer seeking to perfect the one-to-one correspondence between sender and receiver, and the image of the social control manager whose alchemy is in transmuting the flows of social behaviour into the striated channels of the algorithm.
FAUC2013.35
Cf. Faucher, Metastasis and Metastability, op. cit., p. 189 : When information becomes melted into contiguous theories of communication, alloyed with considerations of speed and fidelity, we compound the representationalist picture. No matter how complex the conceptual map by which we choose to represent information in motley contexts, the map is not the territory. Beginning with Nunberg’s claim that information was magically granted the status of a substance, the trail leads us to Ronald E. Day’s critique of how this has led to the conduit metaphors so prevalent in digital information science. We have moved three steps: from information as substance, to stating that information is something quantifiable as a measure in communication, to its ultimate deterritorialization as something that can be both measured or commoditized, and yet exists like a modern day phlogiston.
FAUC2013.36
Cf. Faucher, Metastasis and Metastability, op. cit., p. 190 : There is a strong link between digital ontology and the ideas of Leibniz where monads function as automata following a kind of finite algorithmic program (its rule-set the pre-established harmony, or otherwise a simple initial condition I from which all subsequent processes follow, as in the case of an algorithm). Making information-theoretic the basis of existence and the universe, advocates for digital ontology generally point to cellular automata as proof that everything in existence operates according to a digital process.
FAUC2013.37
Cf. Faucher, Metastasis and Metastability, op. cit., p. 191 : What cannot be computed? Infinite variability and divisions of intensive qualities. For digital ontology to work, it must settle on a finite world, or a world conditioned by finite variables in its programming. […] There is also the assumption that if the universe is a computational program (leaving aside the dispute if there is some Universal Programmer, or if the program is emergent and self-creating), is there the possibility of a programming error that might result in universal collapse? In the initial design elements of the universal computational program, all permutations and combinations might have to be factored in advance to prevent system collapse, in which case said computational program seems highly deterministic, no matter how many computing “micro-machines” exist in the universe. For digital ontology to be viable, it must also assert that nature has some discrete limit or finitude lest infinite complexification lead us to a problem of infinite regression. For example, the form a snowflake takes in an infinite and continuous complexification scenario would mean that it must isomorphically contain that form in ever decreasing size scales. Mandelbrot’s fractals present us with a mathematical model of ideality and the concrete at the same time, but only if we distinguish between the ever diminishing scale of the same reiterating patterns ideally unto infinity as a pure mathematical object, or if the pattern due to physical laws must eventually stop because there are no particles small enough to form it. For digital metaphysics and ontology, there can be no infinites or infinitesimals.
FAUC2013.38
Cf. Faucher, Metastasis and Metastability, op. cit., p. 192-193 : Encoding does not lend itself to continual flows, but is structured and determined process that brings about a particular state of affairs, and the more precise the encoding, the more it arrests flows and fluctuation by restricting the number of variables within its programming. Decoding, on the other hand, results in machinic breakdown and allows for material flows. Both encoding and decoding entail a degree of unfolding and should not be viewed as opposites, for it is possible that the decoding of one population is complementary to the encoding of another. […] Digital metaphysics is opposed to flows given that it must assume that the universe is a program that runs a simulation based on the smallest possible unit of spacetime. Fredkin states that finite nature “would mean that our world is an informational process – there must be bits that represent things and processes that make the bits do what we perceive of as the laws of physics. This is true because the concept of computational universality guarantees that if what is at the bottom is finite, then it can be exactly modeled by any universal machine. Finite nature does not just hint that the informational aspects of physics are important, it insists that the informational aspects are all there is to physics at the most microscopic level” (Fredkin, Edward. (2003). An introduction to digital philosophy. International Journal of Theoretical Physics, 42(2), p. 258). Despite the fact that anything emerging out of a computational universe would confirm the claim that the universe is computational, this is a very large assumption that takes the discrete, not the differential, into account. For Fredkin, physics is what runs on the universal computer, thus making the laws of physics dependent upon a prior or foundational informational process. However, the fact that many systems can be modeled digitally is not sufficient proof to claim that the universe is, in fact, digital. Fredkin also insists that the actual universal computer’s memory (which would have to be fairly substantial to run the universe) is not part of the universe itself, but exists somehow outside of it. Physics, in this way, emerges from a universal computation on an engine that is not subject to the laws of physics. […] Digital (meta) physics relies on the entire universe as being run by a universal computational process, and for that to be viable all information must be digitally representable.
FAUC2013.39
Cf. Faucher, Metastasis and Metastability, op. cit., p. 193-194 : Ultimately, to make digital and discrete units the entire basis of the universe requires a considerable amount of buy-in and a bit of suspense of disbelief, especially among those in the domain of physics, mathematics, and philosophy who are committed to the idea of a continuum. The position of information in digital ontologies and metaphysics is essentialized and atomized: information, reduced to the configuration of bits, is part of a program on an engine that exists in ideality. We see here the fundamental dualism present in such a view, for the correspondence between this ideal engine and the results of the program in reality are in effect Platonic in nature, and there is no clear connection between the two, no universal pineal gland to explain how a universal computer program can exist without being subject to the rules of the universe. Given the placement of information in this view, it precedes and guarantees the laws of physics and thus is essentially prior to matter and energy. And yet, we can only come to understand information through (digital) representation. What digital metaphysics maintains is a somewhat Platonic computationalism by which the world is the simulation that is the working out of a universal program. Such a view opens up to a series of commitments to a Weltanschauung whereby a universal program presupposes a purpose to the universe, and that the substance of truth is to be found not in the program’s simulation, but in the processor and memory of this universal computer that exists outside of the universe and its laws. In this way, the supersensible realm is an entirely mechanistic one. Alternatively, one could view the relation of program to the simulation in terms of Aristotelianism, and that the universal computer program is effectively in a hylomorphic relationship with the simulation, both combined to form what is the real. To understand reality, then, it is in the unity of two halves: the processor/memory of the universal computer and the simulation that expresses it in the program’s operations. In either case, the digital metaphysician must side with either substantialism or hylomorphism, which is also to inherit the problems of either.
FAUC2013.40
Cf. Faucher, Metastasis and Metastability, op. cit., p. 195 : Opposed to the digital view of a highly granulated universe, Deleuze argues for smooth flows that are interrupted, or otherwise arranged in less a fashion of the granular but of the gradient.
FAUC2013.41
Cf. Faucher, Metastasis and Metastability, op. cit., p. 195 : The alternative to a deterministic digital ontology would be one that adopts probability theory instead. In this sense, probability becomes almost magically connected to a thing or series as a property: Some X has probability 1 of changing its state if conditions a, b, and c are met. Such probabilities can be based on either a past series of events, or in parallel cases (so, for example, there is probability 1 that I will one day die based on my being human and that other humans have died). Probability is even more closely connected as a property of events, and is thus always dependent on time, generally on a one-to-one correspondence. The beguiling aspect of probabilism is how it easily covers over intensive qualities of difference and reduces events to the zero-sum game of either/or. Relations between objects are understood as relations in time in the form of causation, partially contingent on environmental phenomena that may alter the probability result. Still, the debate centers on a false problem: is reality discrete or continuous?
FAUC2013.42
Cf. Faucher, Metastasis and Metastability, op. cit., p. 196 : It is to the credit of the Deleuzian philosophy of Becoming that reality is not treated as a stable, already-individuated noun that is determined by its properties such as in being discrete or continuous, but instead as something that perpetually unfolds, marked by whatever assemblages populates the plane of composition. When reality is constructed according to statements such as “reality is x,” the statement is a command bound up in an epistemological problem of perception and measurement, apportioning to reality what constitutes it according to Reason. When we add information as a measure of reality that is posed on the order of the question of discrete or continuous, information-theoretic will maintain that information must proceed by discrete steps, thus providing support to a digital ontological view of reality. Yet, is there a way of setting aside this question in the first place and finding for information a question that moves away from constructing a representational view of reality? Deleuze and Guattari’s answer to this would be the chaosmos wherein is contained both discrete and continuous flows.
FAUC2013.43
Cf. Faucher, Metastasis and Metastability, op. cit., p. 196 : A third option arises that can set aside the digital/analog debate. Whether the debate on the origin of biotic systems emerging out of the prebiotic soup take on the digital-first paradigm whereby a repository of information is what governs the emergence of life itself (thus, possibly reducing biology to chemistry), or if we take the analog model, both these views are problematic insofar as both position information as passive rather than active. […] The advantage of such a view is that information can play an active instructional role in the long term evolvability and programming of living organisms. Yet, regardless of the model we adopt, there is still a strong emphasis on understanding the emergence of organisms according to causal mechanisms by which some form of information is processed and actualized. Moreover, even an algorithmic model will still commit us to measuring effects rather than grasping the transcendental conditions of difference that allow for emergent self-organization and a process of individuation.
FAUC2013.44
Cf. Faucher, Metastasis and Metastability, op. cit., p. 198 : Given that information as science operates on a plane of reference, this is precisely what guides its practitioners to approach chaos and arrest it in finite intervals for measuring states of affairs. Concepts and prospects are set aside in favour of functions and propositions, but it is the Deleuzian philosophy that questions if such reduction to functions excludes the concept of immanence and overturns the infinite speeds of becoming and vanishing that occur in the chaos of unformed matters in the virtual. […] Information-theoretic cannot speak to that which resides in the virtual that eludes actualization, for the language of information theory is caught up in a world where there is only the actual and the probable; the signal and the channel; noise, entropy, and information derived from the shadow of axioms that determine how space and time are to be occupied in order to be counted. In this way, information theory might approach the chaotic by insisting on limits, constants, and constraints in a field that is entirely gridded by coordinates, and governed by variables, where future states of affairs are based on present measurement as a deterministic calculus, or rely on statistical methods (what Deleuze and Guattari refer to as a calculus of probabilities). Whether information is viewed deterministically, thus rejecting free will, or it is conceived of as composed of variables for probabilism, both are guided by a zeal for unifying theory even if such unification may not be possible without sacrificing an entire aspect of the real that science still seeks to explore in chaos in order to tame it with functions.
FAUC2013.45
Cf. Faucher, Metastasis and Metastability, op. cit., p. 199 : The alliance with communication also commits information theory to what makes communication possible: movement and time. There is no possibility of measuring information without time and motion. There is no abstract communication that can be arrested in time without no longer being anything more than an orphaned component in the form of an isolated message or a frozen signal.
FAUC2013.46
Cf. Faucher, Metastasis and Metastability, op. cit., p. 199-200 : In keeping attached to the fetishism surrounding technology in the form of ICTs, information theory’s main currency is communication itself which presents a means of economic selection and distribution, and also the means by which said communication can be reproduced efficiently. […] Far from being an abstract machine, information theory abides by a Platonic model where it is form rather than itinerant functions, an appeal to substance (in this case of an informational variety) rather than matter, instrumentalism (by use of technology and functions, and sometimes algorithms), and a semiotization of its processes connected to the socius (a body of technology couples with the human masses where the former, quasi-deterministically, inscribes the latter) rather than a diagrammatic unfolding.
FAUC2013.47
Cf. Faucher, Metastasis and Metastability, op. cit., p. 200 : The power of information theory’s communication technology does not seek to conquer the frontier or expand beyond its limits, but instead relies on the same mechanisms as capitalism in endocolonization whereby the bits are inscriptions to be modulated in real time (tweaking of code through constant feedback processes).
FAUC2013.48
Cf. Faucher, Metastasis and Metastability, op. cit., p. 200 : In fact, information-powered communication technologies proceed by series of redundant fidelity, under an immense administrative apparatus, and so produces a regime of imitation, not invention; inscription, not involution. This it can freely achieve in much the same way that matter itself has been subject to reductionism be it the subatomic particle, the genetic nucleotide polymorphism, and now the bit – all of which are seen as manipulable building blocks. It is here that the false image of vitalism (technology imbued with real-time “life force” as something constantly evolving in its environment) and mechanism (technology as reducible to bits of code) merge to efface the sign regimes of the natural and artificial. Information, coupled with technological conveyance, extends its interior territories of the limit (minimum delivery length, maximum message content) upon its surface and reproduces these as a deterritorialization of all that is outside of it.
FAUC2013.49
Cf. Faucher, Metastasis and Metastability, op. cit., p. 200 : For Deleuze (and Guattari), it is not a question of a particular apparatus that conveys or contains information, for those are assemblages whose content depends on whatever historical problems the content encounters or chooses to resolve. Instead, for Deleuze and Guattari, the question hinges on how the very abstract machine that we can call information is made to encounter its outside and thus allow for assemblages to break down. The abstract machine, itself immanent, causes the assemblage to form.
FAUC2013.50
Cf. Faucher, Metastasis and Metastability, op. cit., p. 200-201 : From the perspective of information theory, any outside is noise, uncertainty, entropy. Deleuze speaks of resistance in terms of vacuoles as part of micropolitical resistance (Deleuze, G. (1995). Negotiations: 1972-1990. (Paul Patton, Trans.). New York: Columbia University Press, p. 175), and this may prove challenging to apply in the case of information. These vacuoles do not exist as such outside of, say, information regimes and their technologies, but operate within it, breaking communication chains, rerouting flows along new vectors. A movement toward stabilization is but one of the two tensions in the assemblage, whereas the other seeks instability. If information’s glorious ideal is to reduce (or, impossibly, completely negate) uncertainty, the role of vacuoles would be to multiply the uncertainty and move steadily toward the creation of new assemblages. It is this uncertainty that is attractive to the adoption of vacuoles that shut down communication, even if this act produces its own brand of certainty (“this chain leading to a set of probabilities in a defined range of variables are certain not to be produced”), the breaking down of communication chains does bring with it a great deal of uncertainty.
FAUC2013.51
Cf. Faucher, Metastasis and Metastability, op. cit., p. 202 : Information is transduced from the virtual to the actual, and a conversion takes place whereby singularities are abstracted from a flow of potentialities to form an assemblage. Since assemblages cut across systems in the conventional sense of the word (or are contained within them), there appears to be two types of system at play: the first being the system that resides in the transcendental empiricist milieu at the higher sense of virtual-intensive-actual circuit that modulates flows, and the system at the level of the actual which is a representation for thought. A virtual system that encompasses the chaosmos, and an actualized system assumed by thought as its components are frozen in conceptuality, ready for measurement.
FAUC2013.52
Cf. Faucher, Metastasis and Metastability, op. cit., p. 202-203 : In sum, Deleuze charts a pathway that diverges from that of technical science, and this would apply in term to how he might treat information. The opposing directions are, to anticipate the schism dear to Deleuze and Guattari elsewhere, a royal versus nomad science. Information as transmission is transformed in the Deleuzian context to information as an articulation whereby singularities are distributed. Information storage is now simply segmentation or blockage of flow. Information processing is now unfolding of individuation as floating upon inexhaustible potentiality, not the encoding aspects of computation restricted by statistical rules of probability. Transmission of information, as an articulation, is synonymous with transduction; it is no longer simply the matter of a sender and receiver operating in a single channel. An entirely new relationship arises in this understanding whereby noise, signal, and even meaning become reconfigured according to a metaphysics whereby difference and Becoming are primary. Information makes the very difference it also becomes: as distribution agent and incarnated in materiality as both message and medium. No longer a dialectical distribution of possibilities that brick up any path for alternative formations, a Deleuzian approach embraces a dynamic of distributions where what is being distributed conditions problems, allows for radical divergence and displacement, and ultimately places information at the forefront of how we can generate the new, affirming the very being of the problematic. While a more constrained and technical form of information seeks to reduce noise and amplify only the most “salient” signals in a channel, it is the Deleuzian philosophy that moves in the opposite direction: to multiply signals, amplify noise, shift away from variables to singularities, acknowledge intensive qualities and not extensive quantities, and only then will the resonant relations between things emerge. It is then that the intensive qualities can be grasped, and it is information in the non-technical sense that opens the way without closing the gap presented by problemata.
FAUC2013.53
Cf. Faucher, Metastasis and Metastability, op. cit., p. 203 : we move toward an information theory that seeks to intensify the relational aspects of information beyond the conduit metaphors while at the same time recognizing the ideality nested in the broader materiality that is information. In so doing, such a move liberates information from its probabilist cage and opens the way to viewing information as playing an important role in how the mobilization of potentialities can create the conditions for the unanticipated encounters that express the intensive features of the real.
FAUC2013.54
Cf. Faucher, Metastasis and Metastability, op. cit., p. 205 : In Norbert Wiener’s introduction to Cybernetics, he tells us, “If I were to choose a patron saint for cybernetics out of the history of science, I should have to choose Leibniz” (Wiener, N. (1965). Cybernetics: Or Control and Communication in the Animal and the Machine. 2nd Ed. Cambridge: M.I.T. Press, 1965, p. 12). Wiener’s homage to Leibniz with respect to a program that may have been a precursor to cybernetics is not unfounded; given Leibniz’ independently invented calculus, interest in developing a calculating device (the “Step Reckoner”), and his advocacy for binary systems, we find here the nativity of a mechanization of mathematical process by which mechanical calculation can facilitate decision-making.
FAUC2013.55
Cf. Faucher, Metastasis and Metastability, op. cit., p. 207 : The very term cybernetics, emerging from the Greek word for “steersman,” is vitally concerned with notions of control and, quite specifically, automatic control.
FAUC2013.56
Cf. Faucher, Metastasis and Metastability, op. cit., p. 210-211 : For Ashby, cybernetics does not in any way depend on being derived from any of the sciences, and its main goal is not to pose ontological questions at all, but instead to ask the pragmatic question of what it can do. Cybernetics asks after the conditions of possibility for the behaviour of all machines. “The most fundamental concept in cybernetics is that of ‘difference’, either that two things are recognizably different or that one thing has changed with time” (Ashby, W. R. (1963). An introduction to cybernetics. New York: Science Editions, p. 9). Ashby qualifies that difference occurs in either continuous or discrete situations, but he discards continuous change in favour of measuring discrete changes as being of utility for cybernetic consideration. Changes in continuous situations can, says Ashby, be built out of discrete measurement and that this is preferable since the discrete consideration has “absolute freedom from subtlety and vagueness, for every one of their properties is unambiguously either present or absent”(Ibid., p. 28). This view is defended from the perspective that observation of any system occurs at discrete points, and that continuity is simply the work of the imagination. It is here that Ashby errs on the side of utility rather than actuality. To state that humans and machines are only able to perceive discrete points without access to continuous intervals does not consign continuous processes to irrelevance. Perhaps, within the scope of cybernetic application, this may be the case, but then we are dealing with an abstraction of reality regardless of how useful this abstraction might be for servomechanisms and decision-making procedures based on finite differences corralled in bounded sets. It is in this way that cybernetics in Ashby’s sense gives short shrift to the concept of continuity and duration, concerned as it is with acquiring advantage from severe or slight constraint as a method of communication and control, and so cybernetics is in some sense a valorization of what Bergson criticized as cinematographic perception of existence. However, it is not Ashby’s goal to make philosophical statements on the nature of reality; only to find a method by which to “correct” it. Wiener does not state any explicit restrictions for where or how cybernetics is to be applied. In fact, he makes extensive use of biological analogies to ground his explanation of servomechanisms. […] It was more during the Macy Conferences that several scholars from assorted disciplines demonstrated an eagerness to apply cybernetic method to linguistics, psychology, anthropology, and neuroscience – among other fields of inquiry. There was a feeling of energetic enthusiasm with respect to the prospects of what cybernetic application could achieve in the better understanding, communication, and control related to other disciplines. In all of this, cybernetics is dealing with data as part of its feedback mechanism for increasing the probability of a successful event in the future (or in avoiding unwanted events). Cybernetics does not deal directly with information, but it can be said that the higher the relative degree of organization in a system, the less erratic or unpredictable its variables, which thus makes prediction more useful. In some ways, if statistics can tell us the probability of some event occurring, then cybernetics is the applied science of how to intervene to increase or decrease the probability of that event. Whereas statistics presents a passive report on what is likely to occur, cybernetics is an attempt to play an active role in steering the likelihood of an event.
FAUC2013.57
Cf. Faucher, Metastasis and Metastability, op. cit., p. 212 : Cybernetics has a curious way of holding off reality in favour of digital symbolism, thus its relation to materiality in general is at a safe remove. Although the paradigm of communication and control has, in the words of those like Ashby, provided useful “steersmanship,” hides the real behind a veil of digital representations designed to take command of life itself.
FAUC2013.58
Cf. Faucher, Metastasis and Metastability, op. cit., p. 215 : In sum, we might say that Hegelianism is cybernetics without the math, and cybernetics is Hegelianism without god.
FAUC2013.59
Cf. Faucher, Metastasis and Metastability, op. cit., p. 218 : It is, under Deleuze’s treatment, Nietzsche’s vitalism that commits to the idea that the regulatory framework begins with sense, not its appropriation by Reason that seeks to tame, in a reactive way, the flows, energies, and forces of life. The cybernetic project takes the view that life – and the senses that partially condition it – are programmable and thus regulable by control mechanisms.
FAUC2013.60
Cf. Faucher, Metastasis and Metastability, op. cit., p. 219 : There is no reliable way to predict what Being will become precisely because it never becomes something: it is always in a state of becoming without cease. This is why, according to Deleuze, we can only interpret the actualized symptoms of the Being of becoming, understanding only the sense Being expresses in its constant fluctuation.
FAUC2013.61
Cf. Faucher, Metastasis and Metastability, op. cit., p. 221 : Cybernetics is thusly highly reactive insofar as its main mode of operation is adaptation to surprise and restriction of choice.
FAUC2013.62
Cf. Faucher, Metastasis and Metastability, op. cit., p. 231 : yet it is one thing to construct machines that can reduce noise and ensure some degree of reliable function, and quite another to map this onto life in its entirety, reterritorializing life according to the same demands we apply to our technological instruments.
FAUC2013.63
Cf. Faucher, Metastasis and Metastability, op. cit., p. 232-233 : Moreover, cybernetics has not remained static since Norbert Wiener first introduced the term in 1948; there have been increasing degrees of order in the domain of cybernetics, encompassing the phenomena of self-organizing (autopoetic) systems as advanced by Maturana and Varela, some aspects of which seem to share a zone of overlap with Deleuze’s later themes in his collaboration with Guattari. […] The major incompatibility between Deleuze and cybernetics is, in fact, the issue of how each view time. For Deleuze, events are caesura: they are assemblages formed from the “shreds” of events. […] A secondary, but equally important consideration in the construction of a Deleuzian critique of cybernetics deals with the idea of control. Deleuze’s warning remarks in his “Postscript on Control Societies” gestures at a critique of cybernetics applied in the social, economic, and political spheres without explicitly naming cybernetics. […] the ‘digital’ milieu is one of disparity: a reality of algorithmic control on one hand that attempts to capture and manipulate in terms of marketing and sociopolitical steering, and a radical form of excorporation or active resistance using the very digital codes to circumvent the politics of digital control.
FAUC2013.64
Cf. Faucher, Metastasis and Metastability, op. cit., p. 234 : John Mullarkey (Mullarkey, J. (1999). Deleuze and materialism: One or several matters? In Ian Buchanan (Ed.), A Deleuzian century. Durham: Duke University Press.) rejects the hasty attempts to throw a bridge between Deleuzian materialism and cybernetics. Such attempts have conflate terms like assemblages with information flows, equating the Internet with Deleuze’s idea of smooth space (in fact, the Web is arguably a highly regimented, striated space governed by the big corporate players like Google, Yahoo, and MSN), and the discussion surrounding cyborgs as a felicitous merger of the organic and the mechanical. The cybernetic program, as envisaged by Wiener, is essentially reductionist (Ibid., p. 441). In fact, the Web might be considered a transcendent order given that connections and relations are still indexed on identities, as networks encompass “dividuals” as mere nodes, and that the prospect of multiple anonymity of message source or screen nonymity only masks the underlying fixity of identity – this may be especially seen in the construction of a digital profile on a social network when inputting details according to prompts that already restrict choice. Moreover, the way in which online fora and social networks generally function only automates a process of connection, generally on the order of resemblance (i.e., suggestions to connect with another user due to a shared interest in x, or the circumstantial detail of inhabiting the same geographical region).
FAUC2013.65
Cf. Faucher, Metastasis and Metastability, op. cit., p. 237 : Simply put, nomad science is described by Deleuze and Guattari as a war machine on the exterior of the State apparatus. Royal science, on the other hand, is enfolded by the State and assists (intentionally or not) in the strengthening of the State’s organs of power. Royal science traffics in the theorematic figures of ideal and fixed essence. So, a circle is a theorematic figure that has an ideal measure. A nomad science, on other hand, is anexact yet still rigourous, and so instead of beginning with ideal figures of the theorematic, it focuses on the problematic, so that roundness is distinct from both circle and other round things. In this way, roundness is “vague” or fuzzy, yet still rigorous. The nomad scientist follows flows and vectors, multiplying problemata, whereas the royal scientist is sedentarized in the State apparatus, freezing flows to determine constants, axiomatizing, narrowing problems according to cause-effect relationships. The nomad science is less committed to discovering in the world universal or eternal constants based on fixed essences, and more in approximating knowledge outside of the canonical fields of science.
FAUC2013.66
Cf. Faucher, Metastasis and Metastability, op. cit., p. 237-238 : 1. Nomad science abides by a hydraulic model, which is to say that it privileges the fluid over the solid, the flow over that which encases it. In practical terms, it is the scientist who rejects functions and formulae, constants and axioms, in the full acknowledgement of a complex world of fluctuating relations. 2. Nomad science embraces Becoming and heterogeneity as primary in its ontological view. 3. Nomad science is radically pro-jective and vortical in its understanding of space where instead of space being measured for the purposes of occupying it, space is immediately occupied. 4. Nomad science is populated by problemata, which attests to perplication and a focus on the event where said events are not definitional essences of occurrence. (Deleuze, G., & Guattari, F. (1987). A thousand plateaus. (Brian Massumi, Trans.). Minneapolis: University of Minnesota Press., p. 361-362)
FAUC2013.67
Cf. Faucher, Metastasis and Metastability, op. cit., p. 248 : Such recommender algorithms, a popular point-of-purchase [PoP] instrument used on online book retailing sites like Amazon for up-selling, rely on reducing relations between books to the vicissitudes of individual purchasing decisions. This mechanism does not reveal the actual relations between books, but still relies on the idea of probabilities: customer A will be more likely to purchase books y and z based on having purchased book x. This represents one of the major shifts Deleuze signals in his “Postscript on Control Societies” where individuals are reduced to “dividuals” on the basis of market preference probabilities. It reveals little about the substantive relations as much as it attempts to dictate matters of taste, direct purchasing behaviour somewhat cybernetically, and still relies on some stable notion of the principle of individuation where instead of rational subject-citizen making these decisions, it is the manipulable consumer.
FAUC2013.68
Cf. Faucher, Metastasis and Metastability, op. cit., p. 249 : The web, despite its features for bringing out radical connectivity and portraying elements of the heterogeneous, still operates by what Deleuze and Guattari call “order-words” as has been identified independently by Hermano Thiry-Cherques (Thiry-Cherques, Hermano (2010). Intranets: A semiological analysis. Journal of Information Science, 36(6), 705–516.). […] If it were possible to develop this mythical archaeology of information – as Foucault so admirably achieved with the associative matrix of knowledge, discourse, and (ideological) power in the sciences – it must be done afresh without recourse to any epistemological figures, a way that summons information without the baggage of its communication theory or the technological instruments, and certainly by way of appreciating the problematic over the theorematic (which would lead us hastily to fall back on axiomatization).
FAUC2013.69
Cf. Faucher, Metastasis and Metastability, op. cit., p. 252 : Despite second- and third-wave cybernetics’ turn toward more dynamic systems that emphasize emergence, embodiment, and autopoeisis, these strategies do not offer the same level of flexible dynamism and openness that the Deleuzian ontology of the virtual provide.
FAUC2013.70
Cf. Faucher, Metastasis and Metastability, op. cit., p. 252 : It is not that everything is mechanical (or a kind of naive bio-mechanism), but that everything is machinic – the abstract machine as the engine of difference that governs flows, proceeding in part by an abstract diagram.
FAUC2013.71
Cf. Faucher, Metastasis and Metastability, op. cit., p. 257 : An autopoietic machine is a machine organized (defined as a unity) as a network of processes of production (transformation and destruction) of components which: (i) through their interactions and transformations continuously regenerate and realize the network of processes (relations) that produced them; and (ii) constitute it (the machine) as a concrete unity in space in which they (the components) exist by specifying the topological domain of its realization as such a network. (Maturana H. R., & Francisco J. V. (1980). Autopoiesis and cognition: The realization of the living. Dordrecht: D. Reidel, p. 79)
FAUC2013.72
Cf. Faucher, Metastasis and Metastability, op. cit., p. 262 : What is particularly reductive about first-order cybernetics is its heavy reliance on mechanistic ways of thinking that assume a formal and structural understanding of matter that is somewhat mechanistic. […] In fact, this drama has already played out in the post-Macy Conferences in the creation of two camps: the first remaining true to a purely “scientific” understanding of cybernetics (and thus in assisting the development of computational regimes partially based on Shannon’s theory of communication), and the second in the attempts to understand biotic and metabiotic systems as evidenced in the 1960s and 70s in the work of Maturana, Varela, Luhmann et al.
FAUC2013.73
Cf. Faucher, Metastasis and Metastability, op. cit., p. 266 : Informatics was initially coined by Karl Steinbuch in 1957, and later developed in its particulars by the rise in the field of information science and Russian informatics (Informatika) in the 1960s. Since its initial appearance, the steady increase in technological sophistication has seen one of the core aspects of informatics concerned with computational sciences, and this in part due to the perceived necessity of gaining technological and informational advantage during the Cold War that saw massive investment and research in informatics and cybernetics by both the Soviet Union and the West. However, it should be noted that the term informatics in Europe indicates a bundling of all computer science disciplines. Informatics is the study of how information is stored, retrieved, transmitted, and its behavioural properties in interacting systems. Its current vocational application would be called data management, and has extended into the domain of bioinformatics. From a philosophical standpoint of informatics, Kolin (Kolin, K. (2011). Philosophy of information and fundamental problems of modern informatics. tripleC, 9(2), 454–459.) summarizes its six key principles. Firstly, information is said to be an objective feature of reality that is both manifest in, and regulates, the distribution of matter and energy. Secondly, information is said to determine all movement of matter and energy in space and time. Thirdly, and perhaps as a corollary of the second point, information determines evolutionary processes. Fourthly, information measures the complexity of organized systems with a quantitative result. Fifthly, information manifests itself in reality in several specific ways. Lastly, informatics is concerned with studying from an interdisciplinary standpoint the deterministic and interactive patterns as itemized above.
FAUC2013.74
Cf. Faucher, Metastasis and Metastability, op. cit., p. 268 : Although much of bioinformatics, as allied with biotechnology and genomics, starts with mathematical formulae, algorithms, and statistics to discover the simple behavioural rules at a cellular and genetic level to explain biological processes in biotic systems, a “nomadized” or “iterantized” bioinformatics would appreciate the flows and assemblages in biotic systems as being signals of expression. Would it be useful? The short answer would be no, but it is a move away from utility that uncovers the intensive qualities of the biological world.
FAUC2013.75
Cf. Faucher, Metastasis and Metastability, op. cit., p. 269 : “To turn computers into powerful computing machines you need to know numerical methods and algorithms; to develop information systems you must master business modelling, systems design, and project organization; personal computing requires psychological theories of human-computer interaction, skills in interface design, and how to do usability studies; and to support networking you must understand human communication and cooperation, network technology and multimedia production, and the role of cyberspace as a new arena for human enterprise.” (Dahlbom, B. (1996). The new informatics. Scandinavian Journal of Information Systems, 8(2), p. 44) When we consider the information landscape today as a process of harnessing social power through regimental ordering systems that distribute variety within constraints via radical customization, the informatic trope continues to operate in the digital Umwelt as a means of identity determination and the colonization of digital space. Moreover, informatics might actually have a considerable impact on relations between the social and data: First, these technoscientific practices and logics form discrete examples where the relationship between the body and language is reconfigured as a relationship of materiality and data/information. Secondly, this manifestation has been occurring in a socio-cultural site thoroughly enframed by the technological apparatus of computer and telecommunications based developments, contributing to the increasingly intimate conjunction of molecular science research and technological development that constitutes contemporary technoscience. (Thacker, E.(1998). Bioinformatics. Ctheory.net, 28 October.) […] In effect, the harnessing of genetic information toward these ends is an attempt to inscribe both the image of the molecular biologist’s intentionality and capital’s drive for utility and production at the very site of life itself. More particularly, the emergence of genetic variations through modification is an attempt to inscribe or de- and re-territorialize genetic code along capitalist decoded flows that enable older forms of capital such as the idea of private property (in the form of intellectual copyright, or what we can call the mental labour form of the property flow), and according to relative human scales that inscribe itself in biological ones.
FAUC2013.76
Cf. Faucher, Metastasis and Metastability, op. cit., p. 270 : it would be a hasty mistake to impute to Deleuze and Guattari a kind of apologia for biotechnologically based genetic modification as the scene of a more profound selection given the strong relation between biotechnological engineering and capitalism in the decoding of flows and the territorialization of life according to the axiomatic of capitalism itself.
FAUC2013.77
Cf. Faucher, Metastasis and Metastability, op. cit., p. 270-271 : What we are presented with is the convergence of neoliberal capital and cybernetics inspired control mechanisms making use of the very technical instruments designed for control and modulation frameworks as applied to the combinatory potentials of genetics in the form of biotechnologies.
FAUC2013.78
Cf. Faucher, Metastasis and Metastability, op. cit., p. 271 : Arising out of game theory, cybernetics, and risk management, appropriated by political and transnational corporate interests, what we see is the manifest negative desire for a pure monoculture, a regimented, predictably perpetually increasing, striated world without weeds or accidents.
FAUC2013.79
Cf. Faucher, Metastasis and Metastability, op. cit., p. 272 : The territoriality of the earth, reterritorialized under the regime of capitalist production and a corollary function of genetic patenting aligned with private property, becomes the source of an indissociable entanglement.
FAUC2013.80
Cf. Faucher, Metastasis and Metastability, op. cit., p. 273 : Genetic modification has its “roots” firmly planted in cybernetic engineering principles from which genetic modification will attempt to normalize the phytological processes of nonlinear feedback into linear feedback for the purposes of predictability, but also roots in neoliberal capitalism. This alliance of methods seeks to reduce unpredictability, maximize success in the form of faster growth, pest resiliency, risk management, and is already a semiotization of the chain of “plenty” and profit under the guiding principle of just-in-time production. Practices are truncated under this regime to price. However, the question on how the genetic information is applied is both an economic and moral one. By blurring the boundary of the seductive push toward any “atomysticism” associated with discovering information’s smallest unit (be this the atom or the gene), these smallest units in turn are seen as potential commodities and base units of currency. The moral question arises with respect to how the applied genetic information is modified and modulated to deterritorialize both land and people through acts of regulated displacement and dequalification.
FAUC2013.81
Cf. Faucher, Metastasis and Metastability, op. cit., p. 274 : The programmatic de- and reterritorialization in the name of capital indulges widespread displacement of species and conventional farmers by re-encoding the earth, but also leveraging patents as a means of diverting the flow of life so that it becomes captured in the logic of property ownership and regulated deployment. […] transnational corporations, or TNCs, reterritorialize the law by its efforts to transnationalize bioproperty laws themselves.
FAUC2013.82
Cf. Faucher, Metastasis and Metastability, op. cit., p. 279-280 : The role of the lobbyist, as Deleuze and Guattari tell us, is a figure of the becoming-nomad. Rather than the State appropriating the war machine and giving war an object of total war, the biotech giants have reversed the relationship by appropriating a collection of State apparatuses in a global network, flying the banner of capitalism in its own role of Globalitarian State parasite. Like the State, the GM industry seeks to reproduce its interiority everywhere; however, as war machine, “it exists in an industrial innovation as well as a technological invention, in a commercial circuit as well as in a religious creation, in all flows and currents that only secondarily allow themselves to be appropriated by the State” (Deleuze, G., & Guattari, F. (1987). A thousand plateaus. (Brian Massumi, Trans.). Minneapolis: University of Minnesota Press, p. 360). […] In effect, Monsanto has decoded the flows of agricultural territory and the law, and reterritorialized same.
FAUC2013.83
Cf. Faucher, Metastasis and Metastability, op. cit., p. 282 : In the case of GM foods, axiomatization effectively de- and re-territorializes the food supply, aiming to accelerate the extraction of profit from the earth-body.
FAUC2013.84
Cf. Faucher, Metastasis and Metastability, op. cit., p. 292 : There are two roughly corresponding alternatives to informatics: Simondon’s allagmatics and more importantly Deleuze and Guattari’s rhizomatics.
FAUC2013.85
Cf. Faucher, Metastasis and Metastability, op. cit., p. 298 : Molarity is the totalizing line, the organized structure that is most likely arborescent in nature. The molecular line is a fracture within the molar which announces the possibility of a rupture or line of flight that takes off in a kind of tangential vector to become something else. Declaring that the internet as a whole is a bundle of flight lines is perhaps too romantic and unrealistic. In fact, the internet possesses all three variants of the line. Some sites are totalizing in nature, and their content as well. Whereas other sites, like creative blogs or post-media sources of alternative news, are representative of the molecular type.
FAUC2013.86
Cf. Faucher, Metastasis and Metastability, op. cit., p. 301 : the nomad machine is an anti-computer, a kind of universal Turing machine that does not contain the instructions for making new machines, but multiplies connections and problems, if not also the dimensions upon which it operates.
FAUC2013.87
Cf. Faucher, Metastasis and Metastability, op. cit., p. 305 : The desire to axiomatize information is a form of appropriation of the term that therefore makes anything that emerges out of it unquestionable without rejecting the very axioms themselves.
FAUC2013.88
Cf. Faucher, Metastasis and Metastability, op. cit., p. 306 : Information can also take on generally “technoptimistic” connotations, which may be little more than a disguise for promoting ICT integration and a rapid cycle of production and consumption of ICTs. All the while, it is this assumed value-neutrality of the term, buttressed by the information-theoretic standpoint that aligns itself with mathematical axiomatization, which lends the term information a kind of allure of being precise, predictable, and practical, emerging from theory and bridging with praxis.
FAUC2013.89
Cf. Faucher, Metastasis and Metastability, op. cit., p. 307 : The infocentric and the technocentric align to produce an ideological motor of what can be called datapolitik. This essentialization and fetishization of information effectively constructs a colossal hybrid of an econo-informoid society. The informationalization of society bears little resemblance to the parent term information. Instead, we are left with a highly regulated pseudo-cybernetic society of control governed in part by hidden algorithms, data management, and data clustering tactics.
FAUC2013.90
Cf. Faucher, Metastasis and Metastability, op. cit., p. 308 : as Wiener states, “information wants to be free,” we already know his condition for freedom is in the restriction of choice. A restriction is a striation that divides information into channels and conduits, whereas a true flow is a multiplication across smooth space where data can form temporary whorls, knots, and eddies in the form of assemblages. Instead of information being the relative degree of organization in a system, we might instead insist on the following: Information is the relative arrangement of the assemblage where its accidents condition the problematic of that assemblage, whereby singularities emerge as problemata distributed upon the plane of consistency.
FAUC2013.91
Cf. Faucher, Metastasis and Metastability, op. cit., p. 308 : Instead of information functioning as a metonymy restricted to the mathematical theory of communication, the computational regimes and technical instruments that came of it, or in the loose confederation of diffuse terms in sociology such as information age and society, we can insist on a different metonymy where information can be known as that which directs Becoming and that which Becomes.
FAUC2013.92
Cf. Faucher, Metastasis and Metastability, op. cit., p. 312 : What we find as an emerging trend is a division between the reification of information as embodied in computer processing and associated technologies (a fetishization of the bit), and a clandestine if not unwitting attempt to hypostasize information as the new Substance.
FLUS2019
Post-histoire
Vilém FLUSSER, Post-histoire, Paris, Éditions Cité du design / T&P work unit, 2019.
FLUS2019.16
Cf. Flusser, Post-histoire, op. cit., p. 61-62 : Une telle ontologie programmatique a suscité l’invention d’ordinateurs et d’instruments intelligents. Elle mène à la transformation de la société en système cybernétique composé d’appareils et de fonctionnaires. Les hommes sont programmés pour fonctionner comme pièces du jeu symbolique. Ils sont chiffrés et numérotés. Ils deviennent computables dans des statistiques et des cartons perforés. Ils sont programmés d’une manière telle qu’ils acceptent volontiers leur programmation. Le fonctionnaire est un homme programmé, non seulement pour fonctionner, mais aussi pour accepter son fonctionnement. Bien sûr, une telle société post-industrielle n’est pas encore arrivée à son stade de réalisation parfaite. Mais nous avons déjà ses modèles : Eichmann comme modèle du fonctionnaire, Kissinger comme modèle du programmeur, Auschwitz comme modèle de la société entière.
FLUS2019.17
Cf. Flusser, Post-histoire, op. cit., p. 62 : Ce qui manque encore, c’est un nouveau type de théorie pour soutenir l’ontologie post-industrielle. Dans la société agraire, la “théorie” était la vision des formes immuables. Dans l’industrie, l’élaboration de modèles toujours plus raffinés. Dans la post-industrie, elle sera la stratégie des jeux. Il y a, dès maintenant, toute une série de disciplines qui sont des “théories” dans ce nouveau sens : l’informatique, la cybernétique, la théorie des décisions, celle des jeux. Toutes ces disciplines-là s’appuient sur la logique et la mathématique, elles sont donc des “théories formelles” au sens grec. Mais elles servent toutes au fonctionnement des jeux symboliques. Ce qui fait défaut, c’est une théorie générale. Une telle théorie est, par nécessité, une théorie de l’intersubjectivité. Qui dit “stratégie des jeux” dit règles et conventions reconnues par les joueurs. Consensus. Une telle théorie supposera le consensus. Par là même, la société post-industrielle serait “démocratique”. Une démocratie ni libérale, ni populaire, mais désormais “consensuelle”. Pour le moment, c’est un rêve. En fait, nous vivons le contraire. Ce sont les appareils qui nous programment tous, y compris les programmeurs. Nous sommes tous programmés pour fonctionner pour et par les appareils.
FLUS2019.25
Cf. Flusser, Post-histoire, op. cit., p. 108 : Nous sommes alors amenés à reculer d’un troisième pas de la plate-forme imaginative par laquelle les images traditionnelles (peintures, mosaïques, vitraux) sont chiffrées et déchiffrées. Émerge alors la véritable conscience post-historique, dont le recul permet de critiquer les techno-images. C’est une conscience formelle, telle qu’elle s’articule déjà dans l’informatique, la cybernétique et la théorie des jeux. Si nous ne parvenons pas à nous armer de techno-imagination, à faire ce pas vers le “néant” pour dépasser le monde codifié par les techno-images, nous serons fatalement les victimes complices de leur programmation. Seule cette véritable conscience post-historique peut nous émanciper de la tyrannie des techno-images.
FLUS2019b
Programme
Vilém FLUSSER, Programme (Tes père et mère honoreras), in Multitudes, 2019/1 (n° 74), p. 190-193.
FLUS2019b.1
Cf. Flusser, Programme, op. cit., p. 193 : La culture complètement automatisée dépend du dialogue universel télématisé et du gouvernement cybernétique. D’ailleurs, “gouvernement cybernétique” est un pléonasme. Nous ne pouvons pas encore imaginer la force créatrice qui se dégagerait d’une telle culture.
FLUS2019b.2
Cf. Flusser, Programme, op. cit., p. 193 : Ne nous laissons pas tromper par la situation actuelle d’automation embryonnaire. Les gouvernements actuels (dont le gouvernement français) se déclarent pour la télématisation et la cybernétisation de la culture. Or, le réseau dialogique qu’il nous faut ne peut pas être programmé par un gouvernement “pré-automatisé” : il doit être lui-même le résultat d’un dialogue. Sinon, la télématique ne serait qu’un gadget pour programmer les hommes. Et les “décisions cybernétisées” ne peuvent pas faire partie d’un programme “pré-automatisé” : elles doivent émerger, elles-mêmes, d’un dialogue. Sinon, la cybernétique ne serait que le gadget d’un gouvernement pour programmer les hommes. Ce dont nous avons besoin, c’est de fabriquer dialogiquement un dialogue télématique et cybernétisé apte à se substituer à tous les gouvernements. Je parle, bien sûr, ici, de l’utopie platonicienne. La culture sera composée de trois couches. La couche “économique” des esclaves (les robots). La couche “politique” des artisans (des intelligences artificielles). La couche philosophique des rois (tous les hommes). Les hommes seront tous rois, tous, ils programmeront. Avec cette différence par rapport à Platon : les philosophes du futur ne découvriront pas les valeurs éternelles (aletheia), ils les fabriqueront (poiesis). C’est d’une utopie poétique que je parle. Cette utopie-là est devenue techniquement possible. Elle ne l’est pas en réalité. Des catastrophes vont intervenir pour y faire obstacle. Et les catastrophes sont, par définition, imprévisibles. Quand je parle de cette utopie, je ne dis donc pas “vrai”. […] Quand je parle de cette utopie, je fais du théâtre. Je dis faux pour dire vrai. Les termes “prescription” et “programme” trouvent un proche parent dans le terme arabe maktub que l’on traduit par “destin”. Il est devenu techniquement possible de prendre notre destin en main. C’est cela le propos du théâtre. C’est cela la liberté. C’est de cela que je parle (que je dise vrai ou que je dise faux).
FLUS2019d
Le vivant et l’artificiel
Vilém FLUSSER, Le vivant et l’artificiel, in Multitudes, 2019/1 (n° 74), p. 199-202.
FLUS2019d.3
Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 200-201 : Le robot et le fonctionnaire, l’ordinateur et l’analyste de système, déjà devenus difficiles à distinguer l’un de l’autre, posent tous, à la fois, des problèmes scientifiques et politiques. La situation actuelle montre nettement que la science et la politique occidentales, avec les techniques et les arts qui en découlent, naissent de la même tendance vers l’objectivation totale et totalitaire. Pour que cette convergence se réalise, il a fallu que le sujet transcendant avance loin dans sa transcendance. Assez loin pour que le monde objectif soit perçu en tant que champ composé de virtualités ponctuelles, et non plus en tant que contexte composé d’objets solides. À partir d’une telle distance d’abstraction, il est devenu possible de décomposer les objets en particules élémentaires, les êtres vivants en combinaisons d’éléments génétiques, les actes humains en atomes élémentaires, et la pensée humaine en bits d’information. Et il est devenu possible de calculer, computer et programmer le monde-objet. La chimie peut calculer, computer et programmer des matériaux. Le génie génétique, des animaux et des plantes. La cybernétique et l’informatique, les gestes des robots et des fonctionnaires. Et la logique et la théorie de la décision peuvent calculer, computer et programmer les programmes des ordinateurs et des décideurs humains. De sorte que tout devient “artificiel” (au sens de délibérément produit).
FLUS2019g
Critique, Critères, Crise
Vilém FLUSSER, Critique, Critères, Crise, in Multitudes, 2019/1 (n° 74), p. 212-217.
FLUS2019g.1
Cf. Flusser, Critique, Critères, Crise, op. cit., p. 216 : Les critères traditionnels, les “valeurs suprêmes” (le vrai, le bien, le beau) sont devenus des prétextes. Ils font partie de programmes. Et les programmes, eux, sont des textes élaborés de plus en plus par des intelligences artificielles, lesquelles sont des simulations de la pensée critique et calculatrice. Il faut donc critiquer cette pensée critique et calculatrice dans les programmeurs. Il y a, bien sûr, des critères pour le faire. Ils nous sont fournis par des disciplines comme l’informatique et la cybernétique, et ce sont des critères du type “information”, “bruit”, “feed-back” ou “complexité”. Il n’est plus opératif de dire d’une photo qu’elle est belle, ou d’un système politique qu’il est bon, mais il faut dire combien d’information contient la photo ou le système pour le critiquer. Mais, de tels critères nouveaux ne sont pas des critères “humains”. Ce sont des critères d’appareils, des critères fonctionnels. Ils ne nous disent pas les “motifs” de la programmation, mais seulement le fonctionnement de la programmation. C’est pourquoi une telle critique fonctionnelle de la culture émergente ne peut que constater l’absurde de la programmation automatique. Tous ces appareils sont programmés pour fonctionner, ils nous programment pour qu’ils puissent fonctionner, et la programmation elle-même n’est qu’une des fonctions des appareils.
DEGU1972
L’Anti-Œdipe
Gilles DELEUZE et Félix GUATTARI, L’Anti-Œdipe : Capitalisme et schizophrénie 1, Paris, Les Éditions de Minuit, 1972/1973.
DEGU1972.33
Cf. Deleuze & Guattari, L’Anti-Œdipe, op. cit., p. 299 : Mais une axiomatique n’est nullement par elle-même une simple machine technique, même automatique ou cybernétique.
DEGU1980
Mille plateaux
Gilles DELEUZE et Félix GUATTARI, Mille plateaux : Capitalisme et schizophrénie 2, Paris, Les Éditions de Minuit, 1980.
DEGU1980.67
Cf. Deleuze & Guattari, Mille plateaux, op. cit., p. 572 : Mais c’est bien la réinvention d’une machine dont les hommes sont les parties constituantes, au lieu d’en être les ouvriers et les usagers assujettis. Si les machines motrices ont constitué le deuxième âge de la machine technique, les machines de la cybernétique et de l’informatique forment un troisième âge qui recompose un régime d’asservissement généralisé : des “systèmes hommes-machines”, réversibles et récurrents, remplacent les anciennes relations d’assujettissement non réversibles et non récurrentes entre les deux éléments ; le rapport de l’homme et de la machine se fait en termes de communication mutuelle intérieure, et non plus d’usage ou d’action, Dans la composition organique du capital, le capital variable définit un régime d’assujettissement du travailleur (plus-value humaine) ayant pour cadre principal l’entreprise ou l’usine ; mais, quand le capital constant croît proportionnellement de plus en plus, dans l’automation, on trouve un nouvel asservissement, en même temps que le régime du travail change, que la plus-value devient machinique et que le cadre s’étend à la société tout entière.
DELE1990
Pourparlers
Gilles DELEUZE, Pourparlers 1972-1990, Paris, Les Éditions de Minuit, 1990.
DELE1990.5
Cf. Deleuze, Pourparlers, op. cit., p. 227 : À chaque type de société, évidemment, on peut faire correspondre un type de machine : les machines simples ou dynamiques pour les sociétés de souveraineté, les machines énergétiques pour les disciplines, les cybernétiques et les ordinateurs pour les sociétés de contrôle.
DELE1979
Appareils d’États et machines de guerre
Gilles DELEUZE, Appareils d’États et machines de guerre : Cours de 1979-1980, https://soundcloud.com/user-375923363/sets/appareil-detat-et-machine-de.
DELE1979.7
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:29:47 : Il s’est passé que, vous savez, ce qu’on appelle le troisième âge de la machine, c’est l’ensemble des machines dites cybernétiques et informatiques. Or, c’est pas faux, moi je crois, ce que tout le monde dit, c’est vrai ça, c’est un saut qualitatif de la machine, mais en quel sens ? Et bah justement, c’est que ces machines ne sont plus des machines d’usage ni de production, de consommation-production, ce sont des machines de communication et d’information.
DELE1979.31
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 11 du 11/03/80, 3 :05 : le développement technologique dans le développement des machines dites informatiques ou dites cybernétiques implique un renversement du rapport capital constant/capital variable.
CUSS2005
Cybernétique et “théorie française”
François CUSSET, Cybernétique et “théorie française” : faux alliés, vrais ennemis, in Multitude, 2005/3 (n° 22), p. 223-231.
CUSS2005.1
Cf. Cusset, Cybernétique et “théorie française”, op. cit., p. 226 : Au holisme cybernétique, évoquant davantage Auguste Comte ou même Hegel que Foucault et Deleuze, s’opposent les agencements locaux, les dispositifs partiels qu’analysèrent ceux-ci.
CUSS2005.2
Cf. Cusset, Cybernétique et “théorie française”, op. cit., p. 229-220 : C’est en quoi les deux critiques du sujet proposées respectivement par les cybernéticiens et les philosophes “de la différence” sont diamétralement opposées : pour ceux-là, il s’agit de déplacer la maîtrise rationnelle de l’entropie depuis la volonté individuelle où l’avait logée le libéralisme kantien vers une instance panoptique et acentrée (qu’on l’appelle réseau ou néguentropie), de ne plus tenir compte de ce mythe de l’intériorité qui aurait trop longtemps ralenti les sociétés développées, tandis que selon ceux-ci, l’idéologie historique de la “conscience individuelle” et les sciences de la Psyché qu’elle a fait naître nous empêchent d’accéder aux flux collectifs qui nous composent, aux sujets multiples que nous abritons, aux identités nomades ou toujours-déjà décalées dont nous sommes faits.
TIQQ2003
Tout a failli, vive le communisme !
Tiqqun, Tout a failli, vive le communisme !, Paris, La fabrique éditions, 2003.
TIQQ2003.5
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 229 : C’est dire que la cybernétique n’est pas, comme on voudrait l’entendre exclusivement, la sphère séparée de la production d’informations et de la communication, un espace virtuel qui se surimposerait au monde réel. Elle est bien plutôt un monde autonome de dispositifs confondus avec le projet capitaliste en tant qu’il est un projet politique, une gigantesque “machine abstraite” faite de machines binaires effectuées par l’Empire, forme nouvelle de la souveraineté politique, il faudrait dire une machine abstraite qui s’est fait machine de guerre mondiale.
TIQQ2003.6
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 232 : Le geste cybernétique s’affirme par une dénégation de tout ce qui échappe à la régulation, de toutes les lignes de fuite que ménage l’existence dans les interstices de la norme et des dispositifs, de toutes les fluctuations comportementales qui ne suivraient pas in fine des lois naturelles.
TIQQ2003.9
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 240 : En tant que savoir, elle [la cybernétique] réunit un ensemble de discours hétérogènes qui font l’épreuve commune du problème pratique de la maîtrise de l’incertitude. Si bien qu’ils expriment fondamentalement, dans leurs divers domaines d’application, le désir qu’un ordre soit restauré et, plus encore, qu’il sache tenir.
TIQQ2003.10
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 241-242 : Elle [la cybernétique] prétend que le contrôle d’un système s’obtient par un degré optimal de communication entre ses parties. Cet objectif réclame d’abord l’extorsion continue d’informations, processus de séparation des étants de leurs qualités, de production de différences. Autrement dit, la maîtrise de l’incertitude passe par la représentation et la mémorisation du passé. L’image spectaculaire, la codification mathématique binaire – celle qu’invente Claude Shanon dans Mathematical Theory of Communication l’année même où s’énonce l’hypothèse cybernétique – d’un côté, l’invention de machines de mémoire qui n’altèrent pas l’information et l’incroyable effort pour leur miniaturisation – c’est la fonction stratégique déterminante des nanotechnologies actuelles – de l’autre, conspirent à créer de telles conditions au niveau collectif. Ainsi mise en forme, l’information doit retourner ensuite vers le monde des étants, les reliant les uns aux autres, à la manière dont la circulation marchande garantit leur mise en équivalence. La rétroaction, clef de la régulation du système, réclame maintenant une communication au sens strict. La cybernétique est le projet d’une recréation du monde par la mise en boucle infinie de ces deux moments, la représentation séparant, la communication reliant, la première donnant la mort, la seconde mimant la vie.
TIQQ2003.11
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 243 : L’unité des avancées cybernétiques provient d’une méthode, c’est-à-dire qu’elle s’est imposée comme méthode d’inscription du monde, à la fois rage expérimentale et schématisme proliférant. Elle correspond à l’explosion des mathématiques appliquées consécutive au désespoir causé par l’Autrichien Kurt Gödel lorsqu’il démontra que toute tentative de fondation logique des mathématiques, et par là d’unification des sciences, était voué à l’“incomplétude”. Avec l’aide d’Heisenberg, plus d’un siècle de justification positiviste vient de s’effondrer. C’est Von Neumann qui exprime à l’extrême cet abrupt sentiment d’anéantissement des fondements. Il interprète la crise logique des mathématiques comme la marque de l’imperfection inéluctable de toute création humaine. Il veut par conséquent établir une logique qui sache enfin être cohérente, une logique qui ne saurait provenir que de l’automate !
TIQQ2003.12
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 244 : La cybernétique transporte le processus de rationalisation commun à la bureaucratie et au capitalisme à l’étage de la modélisation totale. Herbert Simon, le prophète de l’Intelligence Artificielle, reprend dans les années 1960 le programme de Von Neumann afin de construire un automate de pensée. Il s’agit d’une machine dotée d’un programme, appelé système expert, qui doit être capable de traiter l’information afin de résoudre les problèmes que connaît chaque domaine de compétence particulier, et, par association, l’ensemble des problèmes pratiques rencontrés par l’humanité ! Le General Problem Solver (GPS), créé en 1972, est le modèle de cette compétence universelle qui résume toutes les autres, le modèle de tous les modèles, l’intellectualisme le plus appliqué, la réalisation pratique de l’adage préféré des petits maîtres sans maîtrise suivant lequel “il n’y a pas de problèmes ; il n’y a que des solutions”⋅
TIQQ2003.13
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 255 : Converti en idéologie, le libéralisme sert de couverture à un ensemble de pratiques techniques et scientifiques nouvelles, une “deuxième cybernétique” diffuse, qui efface délibérément son nom de baptême. Depuis les années soixante le terme même de cybernétique s’est fondu dans des termes hybrides.
TIQQ2003.15
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 257 : La logique marchande-cybernéticienne, ou “néolibérale”, s’étend à toute l’activité, y compris non-encore marchande, avec le soutien sans faille des États modernes.
TIQQ2003.16
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 263 : Après 1945, la cybernétique fournit au capitalisme une nouvelle infrastructure de machines – les ordinateurs – et surtout une technologie intellectuelle qui permettent de réguler la circulation des flux dans la société, d’en faire des flux exclusivement marchands.
TIQQ2003.19
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 281 : Il faut comprendre l’idéal de démocratie directe, de démocratie participative comme désir d’une expropriation générale par le système cybernétique, de toute l’information contenue dans ses parties. La demande de transparence, de traçabilité, est une demande de circulation parfaite de l’information, un progressisme dans la logique de flux qui régit le capitalisme cybernétique.
TIQQ2003.20
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 286 : Face à l’hypothèse cybernétique unifiante, l’axiome abstrait d’un antagonisme potentiellement révolutionnaire – lutte des classes, “communauté humaine” (Gemeinwesen) ou “social-vivant” contre Capital, general intellect contre processus d’exploitation, “multitude” contre “Empire”, “créativité” ou “virtuosité” contre travail, “richesse sociale” contre valeur marchande, etc. – sert en définitive le projet politique d’une plus grande intégration sociale.
TIQQ2003.25
Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 339 : L’autonomie dont je parle, elle, n’est pas temporaire ni simplement défensive. Elle n’est pas une qualité substantielle. Elle ne part pas de l’unité supposée du Sujet mais engendre des multiplicités. Elle ne s’attaque pas aux seules formes sédentaires du pouvoir, comme l’État, pour ensuite surfer sur ses formes circulantes, “mobiles”, “flexibles”. Elle se donne les moyens de durer comme de se déplacer, de se retirer comme d’attaquer, de s’ouvrir comme de se fermer, de relier les corps muets comme les voix sans corps. Elle pense cette alternance comme le résultat d’une expérimentation sans fin. “Autonomie” veut dire que nous faisons grandir les mondes que nous sommes. L’Empire, armé de la cybernétique, revendique l’autonomie pour lui seul en tant que système unitaire de la totalité : il est contraint d’anéantir ainsi toute autonomie dans ce qui lui est hétérogène. Nous disons que l’autonomie est à tout le monde et que la lutte pour l’autonomie doit s’amplifier. La forme actuelle que prend la guerre civile est d’abord celle d’une lutte contre le monopole de l’autonomie. Cette expérimentation-là sera le “chaos fécond”, le communisme, la fin de l’hypothèse cybernétique.
COMI2014
À nos amis
COMITÉ INVISIBLE, À nos amis, Paris, La Fabrique éditions, 2014.
COMI2014.1
Cf, Comité invisible, À nos amis, op. cit., p. 110-111 : Dans les années 1980, Terry Winograd, le mentor de Larry Page, un des fondateurs de Google, et Fernando Florès, l’ancien ministre de l’Économie de Salvador Allende, écrivaient au sujet de la conception en informatique qu’elle est “d’ordre ontologique. Elle constitue une intervention sur l’arrière-fond de notre héritage culturel et nous pousse hors des habitudes toutes faites de notre vie, affectant profondément nos manières d’être. […] Elle est nécessairement réflexive et politique.” On peut en dire autant de la cybernétique.
COMI2014.2
Cf, Comité invisible, À nos amis, op. cit., p. 111-112 : En réalité, le capitalisme cybernétisé pratique une ontologie, et donc une anthropologie, dont il réserve la primeur à ses cadres. Le sujet occidental rationnel, conscient de ses intérêts, aspirant à la maîtrise du monde et gouvernable par là, laisse place à la conception cybernétique d’un être sans intériorité, d’un selfless self, d’un Moi sans Moi, émergent, climatique, constitué par son extériorité, par ses relations. Un être qui, armé de son Apple Watch, en vient à s’appréhender intégralement à partir du dehors, à partir des statistiques qu’engendre chacune de ses conduites. Un Quantified Self qui voudrait bien contrôler, mesurer et désespérément optimiser chacun de ses gestes, chacun de ses affects. Pour la cybernétique la plus avancée, il n’y a déjà plus l’homme et son environnement, mais un être-système inscrit lui-même dans un ensemble de systèmes complexes d’informations, sièges de processus d’auto-organisation ; un être dont on rend compte en partant de la voie moyenne du bouddhisme indien plutôt que de Descartes. “Pour l’homme, être vivant équivaut à participer à un large système mondial de communication”, avançait Wiener en 1948.
HUI2020
Produire des technologies alternatives
Yuk HUI, Produire des technologies alternatives, in Ballast, 9 juillet 2020, https://www.revue-ballast.fr/yuk-hui-produire-des-technologies-alternatives/.
HUI2020.2
Cf. Hui, Produire des technologies alternatives, op. cit. : La notion de système est donc omniprésente dans la philosophie et dans la société moderne, mais la différence entre notre époque et celle de Hegel, c’est que nous nous confrontons à un système matérialisé à travers les machines cybernétiques. La “machine organique” la plus avancée que Hegel avait envisagée, c’était l’État ; les transhumanistes aspirent, eux, au remplacement de l’État – encore trop humain à leurs yeux – par les intelligences artificielles. C’est pourquoi on ne peut pas simplement dire que les machines cybernétiques sont organiques ou mécaniques, parce qu’elles sont de plus en plus similaires à des organismes ; il faudrait plutôt les considérer comme un organo-mécanisme. En d’autres termes, nous sommes passés de l’“inorganique organisé” (un terme de l’archéologue préhistorien André Leroi-Gourhan qui désigne l’invention de l’outil) à l’“inorganique organisant”, qui correspondrait à ce que Gilles Deleuze appellerait les “sociétés de contrôle” – et dont on voit actuellement la manifestation très claire dans certains pays, à travers la mise en place de dispositifs étatiques visant à tracer le virus et à confiner les individus.
HUI2020.3
Cf. Hui, Produire des technologies alternatives, op. cit. : Il faut bien voir que la cybernétique consiste en un dépassement des deux modèles précédents (mécanique et organique) et de leur dualité. En gros, depuis Descartes, on pense la machine dans son opposition à l’organique – et on retrouve ce dualisme dans des critiques “naïves” contre la cybernétique aujourd’hui, qui présupposent que les machines modernes ne sont que mécaniques et pas organiques. Or le dualisme sur lequel repose ce type de critique a précisément été la cible de la cybernétique. De même que la philosophie contemporaine s’efforce de dépasser le dualisme entre sujet et objet ou entre humain et environnement, en mettant en évidence la continuité entre les deux pôles plutôt que leur opposition et en les intégrant l’un dans l’autre, de même les théoriciens de la cybernétique – du mathématicien Norbert Wiener au sociologue Niklas Luhmann – ont tenté de surmonter cette logique dualiste qui oppose machine et organisme. Ainsi, je crois que la logique dualiste n’est plus l’enjeu aujourd’hui ; l’enjeu, c’est bien plutôt la logique totalisante, unifiée, dont la cybernétique est l’exemple.
HUI2020.4
Cf. Hui, Produire des technologies alternatives, op. cit. : La réalisation d’une telle logique impliquerait la disparition de tout “dehors” possible, au profit de ce seul système. Or c’est précisément ce que s’efforcent de faire les transhumanistes : derrière le prétexte de “dépasser les limites de l’humain” et de réaliser ce que Nietzsche appelle le “surhomme”, il y a un enjeu métaphysique, qui repose sur cette logique totalisante de la cybernétique. Cette logique commande d’accélérer le développement technologique pour atteindre un jour son aboutissement, ce qu’on appelle la “singularité”. En somme, selon les cybernéticiens, l’accélération du progrès technologique s’acheminerait mécaniquement vers une fin, qui serait cette “singularité” – et qui enveloppe un sens théologique ambigu, entre l’Antéchrist et le Katechon. À leurs yeux, le progrès humain dépend exclusivement de la technologie. Et en ce sens, l’explosion de l’intelligence des machines à laquelle on assiste aujourd’hui ne relève pas simplement d’un avancement technologique mais d’un agenda politique qui vise, à terme, à réaliser une super-intelligence qui pourra prendre en charge les affaires des États et se substituer aux gouvernements. On voit bien que cette logique totalisante et unifiante du système cybernétique a des conséquences politiques directes.
HUI2020.6
Cf. Hui, Produire des technologies alternatives, op. cit. : Il me semble que le dualisme bien souvent reconduit dans les débats écologiques entre la technologie d’une part et la nature de l’autre repose sur une formulation “naïve” du problème, qui fait fond sur un concept de technologie hérité du mécanisme de Descartes. Or, comme je vous le disais, la cybernétique a elle-même dépassé ce dualisme, de sorte que la machine contemporaine à laquelle on est confrontés ne peut plus être simplement opposée à la nature. Il ne faut donc pas rejeter en bloc l’épistémologie cybernétique mais plutôt se la réapproprier, car elle permet de reformuler et de mieux penser la question écologique. Si on regarde l’histoire de la notion d’écologie, elle signifiait chez le biologiste allemand Ernst Haeckel – qui est l’inventeur du mot – l’articulation de la relation entre l’organisme et son milieu. Il montre qu’il y a une rétroaction, ou feedback, entre l’organisme et le milieu, ce que la cybernétique pourra analyser comme opération de l’information. Ce terme de milieu sera ensuite repris et approfondi par les biologistes et les cybernéticiens comme Jakob von Uexküll, Gregory Bateson, James Lovelock, etc.
CECO2020
Apocalypse et révolution
Giorgio CESARANO et Giani COLLU, Apocalypse et révolution, Bordeaux, Éditions la Tempête, 2020 [1972].
CECO2020.1
Cf. Cesarano & Collu, Apocalypse et révolution, Préface de l’éditeur, op. cit., p. 30 : Dans le même mouvement, le capital se fait communauté (Gemeinshaft). “Avec le développement de la cybernétique on constate que le capital s’approprie, s’incorpore le cerveau humain ; avec l’informatique, il crée son langage sur lequel doit se modeler celui des hommes, etc. À ce niveau, ce ne sont plus seulement les seuls prolétaires – ceux qui produisent de la plus-value – qui sont soumis au capital, mais tous les hommes, dont la plus grande partie est prolétarisée. C’est la domination réelle sur la société, celle où tous les hommes sont esclaves du capital […]. Le procès d’incarnation (Einverleibung) du capital, commencé en occident il y a près de cinq siècle, est terminé. Le capital est désormais l’être commun oppresseur des hommes” (Camatte, Capital et Gemeinwesen).
CECO2020.2
Cf. Cesarano & Collu, Apocalypse et révolution, Préface de l’éditeur, op. cit., p. 31 : Lorsque le capital devient l’intégralité de l’activité humaine réifiée, le fétichisme ne fait pas face aux hommes dans leurs produits, mais structure leur existences et s’oriente vers une domination parfaite, fût-elle maquillée par l’écologie et l’économie sociale et solidaire. Le processus de rationalisation cybernétique, se présentant comme nouvelle lumière, a pris dans la “révolution informatique” son virage le plus radicalement totalitaire. Jamais, peut-être, l’homme n’a autant eu le sentiment de “faire usage” d’outils qui font en vérité usage de lui, et jamais il ne se sera proclamé aussi libre que dans ce parfait pilotage des existences.
CECO2020.4
Cf. Cesarano & Collu, Apocalypse et révolution, op. cit., p. 148 : L’apparition explosive de la qualité avait ébranlé de façon irréparable le règne jusque là impuni de la quantité. Le capital est “discours”, organisation des sens fictifs enchaînés, machine logique, jeu serré de Représentations. S’il supporte, mithridatisé, toute attaque de la critique prisonnière de la pensée séparée, il ne tolère pas de démentis réels. Rien n’est plus incompatible avec l’organisation des apparences que l’apparition éblouissante du concret libéré. De cela – et avec un automatisme qui se révèle être la seule riposte possible à la spontanéité révolutionnaire –, le capital se rendit instantanément conscient. Plus rien ne peut arriver par hasard sous la domination absolue de l’inauthenticité programmée. Les chars d’assaut de De Gaulle, comme les fusils de la police mexicaine ou les gaz aveuglants du pouvoir politique, réussirent à masquer la contre-attaque la plus meurtrière que l’internationale capitaliste ait jamais projetée : le contrôle scientifique, et scientifiquement “politique”, de ses propres contradictions démodées, l’élévation de la ratio au service de la survie, l’identification publique cybernétiquement validée et axiomatisée, de son propre destin à celui de l’espèce.
CESA2019
Manuel de survie
Giorgio CESARANO, Manuel de survie, Bordeaux, Éditions la Tempête, 2019 [1974].
CESA2019.1
Cf. Cesarano, Manuel de survie, op. cit., p. 60 : Le capital n’a pas d’autre dessein que de devenir le géant cybernétique et quantificateur de “l’Autre”, dans le bouillon de culture des “communes” auto-analytiques où chacun autogère sa restructuration décentralisée (où chacun se transforme en un “terminal” du computer qui le réduit statistiquement à l’échelle d’un “quantum” d’énergie mobilisée dont il participe à son insu), er où personne ne puisse plus – sous peine d’être sur l’heure dépecé eucharistiquement par les gardes rouges de quelque service d’ordre du néo-christianisme – oser se percevoir comme individu qui prétendent accéder, en tant que tel, à la totalité, et qui sache pratiquement que, pour ce faire, il faudra avant tout détruire violemment toutes les formes fictives prises par la communion totalitaire dans le Grand Néant.
CESA2019.3
Cf. Cesarano, Manuel de survie, op. cit., p. 166-167 : Avant de se transformer significativement en science de la prévision et de la planification, la cybernétique est née “accidentellement” d’exigences guerrière : il s’agissait, moyennant l’accélération du calcul, de permettre à la volonté de destruction concrétisée en projectile d’atteindre l’objectif “ennemi”. Mais c’est sur son terrain actuel qu’elle découvre sa vocation première : apparaître pour l’objectif auquel tendait depuis toujours la pensée abstraite par excellence, le calcul eidétique, qui trouve dans la cybernétique la limite de son usage aliéné et son point d’explosion. À peine a-t-elle totalisé en elle les “données” du “monde” dans la forme pour elle exclusive de la quantification (où tous les symboles deviennent des alternatives binaires), la voici “étrangement”, annoncer la finitude du calcul in concreto, la crise de la planification. Tout ce qu’elle peut encore prévoir, c’est l’échéance abstraite de la grande crise. Mais la crise est d’abord celle de l’univers eidétique, brusquement poussé sur une terre “finie”. Quant au processus réel, il n’a rien à voir avec tout cela, sinon que l’on ne puisse pour l’instant encore dissocier – extériorité à soi doublée de l’enfermement dans l’autre – son propre cours de la domination pragmatique que la dictature des “systèmes” exerce sur les occasions qu’il a de se manifester de manière explosive. C’est d’ailleurs contre ce lien que son énergie s’exerce, en ce concentrant chaque jour davantage. Au fur et à mesure que le contrôle des programmateurs planifie en termes planétaires et totalitaires les échéances de sa crise, qui vont s’accélérant, le mouvement réel laisse en arrière ses propres apparences phénoménales, et tend à se donner une cohérence d’ensemble ‑ un processus autoconscient – de moins en moins aveugle et de plus en plus difficile à aveugler sur la fin qu’elle vise réellement.
CESA2019.4
Cf. Cesarano, Manuel de survie, Postface de l’éditeur, op. cit., p. 275-277 : Deux champs d’investigation permirent, de façon non monolithique, de comprendre l’externalisation. La première est une analyse de la révolution néolithique, durant laquelle l’homme s’outille de façon nouvelle, trouve une médiation technique spécifique entre lui et la nature. La deuxième, commence avec la révolution industrielle, durant laquelle l’homme perd l’outil, se trouve dépossédé de toute technique, et délègue son savoir faire à la machine. C’est cette distinction radicale entre outil et machine que Marx analyse dans Le Capital et que Cesarano reprend à son compte pour étudier dès 1972 le bouleversement anthropologique que produit le phénomène-capital, et ses plus récents développements avec la cybernétique. Leroi-Gourhan décrit le parcours des hominidés comme lente acquisition de la posture debout, qui induisait un développement unique et parallèle de la main et de la face, en direction d’’un langage articulé. Le langage des humains est distinct des autres espèces dans la mesure où il peut décrire une émotion, un sentiment, dont il n’est pas sous l’emprise directe. Le symbole, au même titre que la domestication du feu, entre dans ce procès millénaire (non finaliste). Si les hommes sont de la matière spécifiquement outillée, ils participent et témoignent des formes physiques qu’impose la matière à l’existence, formes qui, n’étant pas strictement déterminées, ont une tendance à l’équilibre (dite aussi “beauté”). Les formes qui induisent une rupture de l’équilibre sont des formes non-viables et tendent à disparaître ou s’autodétruire. Leroi-Gourhan, s’attardait par exemple plus longuement sur les différence formelles de symbolisation et de narration. Une des différences fondamentales qu’il dégage, et qui traverse les différentes formes de structuration du langage, est celle qui existe entre mythogramme et pictogramme. Avec le mythogramme, la narration dépend dans une large mesure de son caractère oral, elle convoque des symboles très larges qui ne décrivent pas un enchaînement d’actions qui se déroulent linéairement dans le temps, mais plutôt une image archétypique, complète, qui n’évoque pas un rapport spécifique au temps. “Un pictogramme, c’est une figure ou une suite de figures qui dépeignent concrètement une action. Ce qui caractérise le pictogramme, dans ses liens avec l’écriture, c’est sa linéarité : comme c’est le cas par l’alignement successif des phases d’une action. Quand on représente les états successifs d’une action en de petits dessins, comme en ont fait les Eskimos, on est indiscutablement en présence d’un pictogramme. On peut étendre cela même à une action où le geste évoque le déroulement du temps, comme on le voit à Lascaux : l’homme renversé par le bison, c’est un pictogramme, c’est-à-dire une image qui a un passé, un présent et un futur. Le mouvement même du bison qui renverse l’homme fait qu’il y a eu un “avant” où l’homme n’était pas encore renversé, un “pendant”, et un “après” où l’acte était fini. Le mythogramme, lui, présente non pas les états successifs d’une action, mais les personnages non structurés linéairement qui sont les protagonistes d’une opération mythologique. Dans les peintures australiennes, par exemple, de nombreux documents sont de simples mythogramme. Lorsqu’on représente un personnage, et à côté de lui une lance, un oiseau ou un autre personnage, ces spécimens, alignés les uns à côté des autres ou confondus dans un motif général, sont mythologiques. Ils ne tiennent que sur la tradition orale. Et ce sont des occasions de raconter telle ou telle légende ou tel mythe.” [A. Leroi-Gourhan, Les racines du monde, p. 67-68] Chez Leroi-Gourhan, on se souviendra que des pointes de pictographie habitent déjà le mythogramme. Les bisons d’Altamira se roulent dans la poussière et l’urine, pour marquer leur territoire. De façon toute dialectique, l’iconographie contemporaine contient aussi une part de mythogramme. C’est le caractère unique par exemple de l’écriture chinoise, “cette écriture qui laisse une aura d’incertitude autour de soi, et qui, en même temps, trace des pistes qu’il peut paraître superflu d’emprunter ; et pourtant…”, “des arbres, des feuilles, des femmes, des animaux, c’est-à-dire tout un monde qui gravite autour du caractère […] écritures en épaisseur, celles qui ont un arrière-plan, une énième dimension […]”. Un piège récurent consiste à cloisonner le monde “mythique” en monde de la cyclicité statique et inversement à dire historique ontologiquement, le seul monde “raisonné”. Une fois défaite la partition à grands traits, les différences n’en sont pas annulées, aplaties, mais rendues plus difficiles. À chaque langage correspond une manière de faire un monde ; les lèvres suivent la plante du pied. Ce que l’heure oblige à tirer au clair, c’est la distance vitale qui nous sépare du mythe, de l’oralité, etc. Ces césures – ces prothèses – qui sont une direction et qui imposent, en des strates immenses, la linéarité que nous connaissons, le monde qu’elle induit, qui peut se passer de mémoire vivante à mesure qu’elle s’inscrit et ordonne tout comme on tient un registre commercial. L’homme n’est pas le seul time-binder, que la faculté du souvenir caractériserait de façon univoque. Il faut alors l’appréhender via sa faculté d’annihilation, et rejeter tout ce qu’il engage de force nihilistes pour faire avancer une connaissance qui, à chaque génération, se détruit avec plus de ferveur, une science qui délègue chaque jour un peu plus à des prothèses la génération et la reproduction.
BOUR2021
Internet, année zéro
Jonathan BOURGUIGNON, Internet, année zéro. De la Silicon Valley à la Chine, naissance et mutations du réseau, Paris, Éditions Divergences, 2021.
BOUR2021.2
Cf. Bourguignon, Internet, année zéro, op. cit., p. 120 : Facebook ne devient véritablement social que lorsqu’apparaît la clé de son fonctionnement : la relation d’amitié. Deux profils sont liés si l’un ajoute l’autre dans sa liste d’amis, et que l’autre confirme l’existence de cette relation. Facebook s’inscrit ainsi dans la vision cybernétique du monde, il modélise les interactions entre deux humain par une loi simpliste, binaire : être ou ne pas être ami.
BOUR2021.3
Cf. Bourguignon, Internet, année zéro, op. cit., p. 162-163 : Conformément aux prédictions du directeur de Google, internet devient invisible : comme ils se multiplient, les appareils connectés au réseau se miniaturisent. Pour continuer sa croissance, pour continuer sa colonisation du réel, internet doit étendre son emprise au royaume physique des industries purement matérielles : à la logistique, à la livraison de marchandises par drones, à la conduite autonome des camions et des taxis, à l’optimisation des flux urbains dans les métropoles. Ce qui signifie qu’internet a besoin d’incorporer le monde entier dans sa vision cybernétique. Si le smartphone a été la clé pour faire de l’humain une créature cybernétique dont les émotions peuvent être collectées, anticipées et donc contrôlées par le réseau, les capteurs – caméras, GPS, thermomètre, transducteurs connectés de tous types – associés aux IA permettront à Internet d’interpréter le réel, de le fusionner au cyberespace virtuel, d’étendre son emprise sur le monde physique. Ce qui a été pudiquement appelé “internet des objets” (internet of things, abrégé IoT). Les objets ne sont pas recréés dans ce cyberespace promis par les visionnaires du web : ils deviennent simplement connectés. Les interfaces disparaissent : le monde en réseau se commande à la voix, des assistants qui ont pour nom Siri, Google, Alexa, écoutent et anticipent les désirs de leurs maîtres – ils remplissent leur réfrigérateur, décident de la musique qu’ils doivent écouter, des films qu’ils doivent voir. Le cyberespace recouvre le monde et le réduit à sa propre essence : il ampute le corps en le coupant de trois de ses cinq sens, ceux que le format vidéo du web ne peut porter. Les intelligences artificielles qui régissent ce monde sont invisibles. Software is eating the world, selon les mots de Marc Andreessen qui deviennent le slogan de a16z [N.D.A. : Andreessen Horowitz, fonds de capital risque siégeant à Menlo Park en Californie et fondé en 2009 par Marc Andreesen et Ben Horowitz].
BRET1990
La tribu informatique
Philippe BRETON, La tribu informatique : enquête sur une passion moderne, Paris, Éditions Métailié, 1990.
BRET1990.5
Cf. Breton, La tribu informatique, op. cit., p. 121-122 : Deux événements importants, étroitement solidaires, se sont en effet produits en 1945 : l’invention de l’ordinateur et l’usage de la bombe atomique au Japon. Ces deux événements sont parmi les plus importants qu’ait connus cette deuxième partie du XXe siècle et nous vivons encore aujourd’hui sous le coup de ces deux chocs initiaux. La bombe et l’ordinateur ne sont-ils pas, finalement, les deux versants d’un même phénomène ? La bombe bien sûr représente la dimension diabolique du savoir humain et elle est l’instrument le plus puissant que l’on ait jamais inventé pour semer le désordre dans la matière et dans la vie. L’ordinateur vient curieusement en contrepoint se proposer comme l’outil lui aussi le plus puissant qu’on ait jamais imaginé pour générer de l’ordre, de l’organisation. Sa dimension “angélique” n’avait apparemment pas échappé à Wiener, lui qui avait, dans un premier temps, pensé forger le nom du nouveau domaine à partir de la racine angelos, l’ange, le messager. Il choisira en dernier ressort le mot “cybernétique” dont la racine kubernos, le gouvernail, lui paraissait plus appropriée à son projet. Quoi qu’il en soit le nucléaire apparaît bien comme le négatif de l’informatique. Sur le plan matériel, la proximité des deux univers est évidente. Von Neumann n’est pas seulement l’inventeur de l’ordinateur, il est aussi l’un de ceux dont les travaux permirent la mise au point des deux premières bombes. Bien que l’ordinateur n’ait pas été utilisé pour les calculs des premières bombes A, dès 1948, l’informatique sera étroitement associée à la réalisation des milliers de bombes à hydrogène qu’exigera l’armée américaine pour la “défense du pays”.
MARC2018
État, plateforme et cybernétique
Meven MARCHAND GUIDEVAY, État, plateforme et cybernétique, fragments philosophiques sur le devenir cybernétique des appareils de gouvernements, Master 2 en information et communication, soutenu en 2018 à l’université Rennes 2 sous la direction de Didier CHAUVIN, http://fragments.webflow.io/.
MARC2018.2
Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Il semble alors que dans l’espace d’Internet, le propre de la plateforme soit de fonctionner comme un ensemble d’appareils de capture. Luttant perpétuellement contre l’entropie, elle surcode selon un rythme ternaire : elle opère un striage de l’espace, valorise la présence, et abstrait le transindividuel à de pures quantités d’informations. Bien sûr, nous ne nous risquerons pas aussi simplement à amalgamer les formations sociales. Il n’y a pas lieu de dire que les plateformes deviennent appareils d’États ou inversement que les appareils d’États deviennent plateformes, simplement, nous observons qu’au-delà de la métaphore de la plateforme comme “Empire”, chacune des formations réalise des opérations d’un même type : des opérations de transcendance, de formalisation, que Deleuze et Guattari caractérisent sous les termes de surcodage et de capture. Les États et les plateformes participent d’un même champ de coexistence (au même titre que les sociétés sans États, les machines de guerre ou les formations œcuméniques), il n’y a pas unilatéralement “plateformisation du gouvernement” mais un ensemble complexe de relations de pouvoirs, de processus machiniques (conjuration, polarisation, capture, englobement…) et d’ajustements auxquels se contraignent mutuellement deux formations sociales opérant dans des espaces proches ou identiques et sur le même mode, celui de la cybernétique.
MARC2018.3
Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Si l’on s’en tient à la définition posée par Gilbert Simondon, alors, la cybernétique ne cherche pas à identifier un processus complexe à un processus plus simple comme on le croit très vulgairement (par exemple la pensée humaine au fonctionnement d’un système mécanique), mais à établir des équivalences entre différentes situations dans lesquelles le savant peut se trouver en présence de tel ou tel objet d’étude : “Le no man’s land entre les sciences particulières n’est pas une science particulière, mais un savoir technologique universel, une technologie inter-scientifique qui vise non un objet théorique découpé dans le monde mais une situation. Cette technologie des situations peut penser et traiter de la même manière un cas de vertige mental chez un aliéné et un tropisme chez un insecte, une crise d’épilepsie et un régime d’oscillations de relaxation dans un amplificateur à impédance commune d’alimentation, un phénomène social et un phénomène mécanique.”
MARC2018.4
Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Le “data mining” a notamment été défini dans un document émanant du United States General Accounting Office comme “l’application de la technologie et des techniques de banques de données (comme l’analyse statistique et la modélisation) dans le but de découvrir les structures cachées et les relations subtiles entre données, et d’en inférer des règles permettant la prédiction de résultats futurs.” Celui-ci effectue une logique cybernétique par l’induction automatisée et rétroactive de données dont le seul caractère est leur quantité. Ce n’est néanmoins pas une opération de logique déductive dans la mesure où elle est aveugle aux causes des phénomènes et ne fait qu’observer des corrélations statistiques. Le profilage, lui, repose sur les corrélations précédemment opérées lors du data mining. Il “permet d’inférer, avec une certaine marge d’incertitude, de la seule présence de certaines caractéristiques observables chez un individu donné, d’autres caractéristiques individuelles non observables, actuelles ou futures.” Toute l’ironie de la chose est que, malgré l’abandon du souci de la causalité au profit de l’induction statistique pure, et donc de “l’abandon de toute ambition de prévention ou de correction des inégalités sociales impliquées dans les différences en termes de qualité de vie, de performance économique, d’intégration sociale”, le profilage se veut objectif et impartial car ne reposant pas sur des catégories socialement éprouvées (Antoinette Rouvroy l’oppose ainsi au profilage ethnique). C’est pourquoi, alors même qu’il n’est rien d’autre qu’un puissant outil de maintien de l’ordre, il pourrait “passer pour attester du triomphe de l’analyse rationnelle sur les biais entachant la perception humaine”.
PARI2016
La raison instrumentale, le capitalisme algorithmique et l’incomputable
Luciana PARISI, La raison instrumentale, le capitalisme algorithmique et l’incomputable, traduit de l’anglais par Yves CITTON, in Multitude, 2016/1 (n° 62), p. 98-109.
PARI2016.4
Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 102 : Aujourd’hui, la combinaison d’inputs environnementaux et d’instructions a posteriori proposée par le paradigme interactif a ouvert une cybernétique de deuxième génération [second-order cybernetics], caractérisée par les mécanismes de boucles récursives ouvertes. Le but de ce nouveau type d’interactions dynamiques est d’inclure la variation et la nouveauté dans l’automatisation, de façon à élargir l’horizon du calcul et à intégrer des facteurs qualitatifs comme variables externes au sein même des mécanismes de computation.
HORL2008
La destinée cybernétique de l’occident
Erich HÖRL, La destinée cybernétique de l’occident. McCulloch, Heidegger et la fin de la philosophie, in Appareil, 1 | 2008, http://journals.openedition.org/appareil/132.
HORL2008.1
Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 4-5 : Dès 1885, lorsque les membres de la société secrète des Cambridge Apostles avaient dû élire, après lecture d’un document à ce sujet, le philosophe le plus proche de la véritable nature des choses – “Democritus or Heraclitus ?” –, Whitehead avait voté, comme la majorité des autres Apostles, en faveur d’Héraclite et d’une réalité continue, en transformation incessante, et contre un monde certes changeant, mais discret. McCulloch sympathisa avec l’intuition héraclitéenne reformulée par Whitehead dans le langage des mathématiques et de la physique, de flux d’êtres et d’un ordre des choses conçu comme procès. Il considérait ainsi que l’idée d’un “éther des événements” telle que l’avait développée Whitehead dans son ouvrage The concept of nature (1920) “rendait compte de manière tout à fait correcte” du monde physique.
HORL2008.2
Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 10 : Heidegger se trouvait dès ses tout premiers travaux sur la voie d’un tel déroulement archéologique de la question logique. Son compte-rendu de “Recherches récentes sur la logique” de 1912, encore très marqué par le néokantisme et rédigé à l’occasion de la “querelle des principes”, laisse apparaître une première fois la question qu’il allait poser durant toute sa vie : “Qu’est-ce que la logique ? Nous sommes là devant un problème que seul le futur pourra résoudre.” La question de la logique lui avait sans nul doute été dictée par la situation épistémique. Elle constituait en effet autour de 1900 la question directrice de l’épistémè, divisant les esprits selon qu’ils soutenaient la thèse d’un socle intuitif et concret de la pensée ou qu’ils s’en détachaient, optant dans ce cas, en conformité avec l’axiomatique naissante, pour sa pure et simple calculabilité. Ainsi Husserl, qui venait des mathématiques, avait mobilisé la phénoménologie – il convient d’ajouter : dans un acte très puissant d’auto-affirmation philosophique – contre le “cliquetis” des machines symboliques, qu’un esprit intuitif ne pouvait selon lui trouver qu’absurde, et s’était fixé comme objectif de refonder la pensée intuitive par le biais d’une philosophie de la conscience interprétant les purs symbolismes, non visualisables, comme des formations de sens.
HORL2008.3
Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 13 : L’histoire du langage pouvait donc maintenant être déchiffrée comme la longue durée de sa déformation en une écriture de calculs – mais comme une déformation due à l’être même du langage. Une fois branchée aux “flux de courant et aux impulsions électriques”, cette évolution menait directement aux grosses machines à calculer de l’époque : “La construction et l’efficacité des machines à calculer géantes reposent sur les principes technico-calculatoires de cette transformation du langage comme dire en un langage comme simple production de signes.” [Heidegger].
HORL2008.4
Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 14 : Mais quiconque commençait à penser sans partir de l’origine, en s’abstenant d’effectuer l’archéologie, l’analyse de l’origine des machines à calculer et des modélisations cybernétiques du réel, ne pouvait penser les modifications de la pensée qui avaient alors lieu. Heidegger exigeait de ses contemporains qu’ils pensent à la lumière des machines :“Pour la pensée contemporaine, la logique est devenue encore plus logique, ce pourquoi elle s’est donnée le nom dérivé de ‘logistique’ [Heidegger reprenait là le terme mis en vigueur vers 1900 par Louis Couturat et Gregorius Itelson pour désigner la logique symbolique]. Sous ce nom, la logique réalise sa dernière forme de domination, qui est maintenant universelle, planétaire. Cette forme de domination porte à l’ère de la technique les traits d’une machine. Il est bien évident que les machines à calculer qui sont utilisées dans l’économie, dans l’industrie, dans les instituts de recherche scientifiques et dans les centres organisationnels de la politique ne sont pas seulement des outils permettant d’opérer plus rapidement des calculs. La machine à penser est au contraire déjà la conséquence en soi d’une modification de la pensée, qui, en faisant de celle-ci un simple calcul, appelle à sa traduction en la machinerie de ces machines. C’est pourquoi nous passons à côté des transformations de la pensée qui ont lieu sous nos yeux si nous ne percevons pas que la pensée devait devenir logistique dès lors qu’à son origine elle était logique.”[Martin Heidegger, Grundsätze des Denkens, Freiburger Vorträge 1957, Gesamtausgabe t. LXXIX, Francfort, 1994, p. 104 et sq.]
PATR2017a
Les perspectives philosophiques sur le numérique
Isabelle PATRIARCHE, Les perspectives philosophiques sur le numérique, in Les usages philosophiques du numérique, TraAM Aix-Marseille, Nice, Paris, Poitiers, Versailles, 2017-2018, https://www.pedagogie.ac-aix-marseille.fr/upload/docs/application/pdf/2018-06/2.1._traam_2018_perspectives_philosophiques.pdf.
PATR2017a.3
Cf. Patriarche, Les perspectives philosophiques sur le numérique, op. cit. : Philosophie de l’information : pense la nature de l’information ; pense les conséquences scientifiques, technologiques, anthropologiques, éthiques, sociales et juridiques de l’explosion du numérique. Cybernétique (Norbert Wiener) : étude phénoménologique des échanges d’information ; concepts : boîte noire, émetteur, récepteur, flux, rétroaction. Systémique (Ludwig von Bertalanffy, Marvin Minsky) : étude des échanges d’énergie et de matière dans un système ; concepts : système, théorie générale des systèmes, autorégulation, émergence, complexité, intelligence artificielle. Mathématiques de l’information (Claude Shannon, Andrei Kolmogorov) : approches quantitatives et mathématisées de la notion d’information ; concepts : théorie mathématique de l’information, information au sens de Shannon (probabilité de voir apparaître une chaîne de caractères dont la composition non redondante laisse présumer qu’elle véhicule un sens, même si on ignore lequel – la redondance, i.e. la répétition d’une chaîne de caractères, étant supposée n’apporter qu’une quantité nulle d’information), valeur de l’information, valeur de l’information au sens de Kolmogorov (une information a de la valeur quand elle est réductible à un programme ou à un algorithme qui permet de l’engendrer – i.e. quand elle est compressible), valeur de l’information au sens de Bennett (une information a une valeur qui dépend du temps nécessaire pour la produire). Logique et linguistique informatiques (Alan Turing, John von Neumann, Noam Chomsky) : théorie universelle de la machine (machine de Turing, jeu de l’imitation) ; architecture des ordinateurs (architecture de von Neumann) ; classification des langages formels (hiérarchie de Chomsky). Philosophie de l’Internet (Lawrence Lessig, Dominique Cardon, Dominique Boullier) : juridique et éthique de l’internet (Principe de Lessig : “Le code fait loi”) ; sociologie de l’Internet ; politique de l’Internet.
LUND2020a
Quartiers vivants
Quartiers vivants, in Lundi matin, #234, 21 mars 2020, https://lundi.am/Quartiers-vivants-2827
LUND2020a.1
Cf. Lundi matin, Quartiers vivants, op. cit. : On peut faire remonter les prémisses de la conception métropolitaine française et belge aux débuts des années 1970 et à l’avènement d’un nouvel agencement entre le marché et l’État, une nouvelle manière de concevoir l’action de l’État, orientée par l’optimisation économique des infrastructures. En France et en Belgique, cette pensée de l’optimisation des infrastructures publiques a été impulsée par les ingénieurs des mines et des ponts et chaussées et appliquée d’abord à l’industrialisation du parc nucléaire civil. La planification ne répondant pas adéquatement aux problèmes techniques liés à la construction des infrastructures nucléaires, ou à l’acheminement et la tarification de l’électricité, il fallait un modèle d’action plus souple, plus fin et adaptable, nécessitant une pensée économique d’un genre nouveau. Inspirés par le succès de la pensée cybernétique, les ingénieurs des mines veulent eux aussi unifier les domaines de l’automatique, des mathématiques, de l’économie et du gouvernement des hommes. Il s’agit pour eux d’optimiser toute la chaîne de production, depuis le fonctionnement des grandes institutions jusqu’aux ramifications les plus ténues des réseaux de communication. Dès lors, l’optimum (soit l’état le plus favorable, le meilleur possible d’une chose en fonction de conditions données) deviendra l’un des axiomes centraux dans la production des nouvelles infrastructures et plus largement des politiques publiques menées dans l’Hexagone.
LUND2020d
Monowheel
Monowheel : Quelques marches pour prolonger celles de la rue Becquerel, ACLIN in Lundi matin, #254, 14 septembre 2020, https://lundi.am/Monowheel-Quelques-marches-pour-prolonger-celles-de-la-rue-Becquerel
LUND2020d.2
Cf. Lundi matin, Monowheel, op. cit. : 1/ La déréalisation des médiations, bien loin de reposer sur leur disparition réelle, va de pair avec leur réplication incalculable en un environnement de plus en plus difficile à appréhender. Autrement dit, la déréalisation subjective va de pair avec une prolifération objective. 2/ Un phénomène commence à proliférer quand on ne possède plus la catégorie adéquate pour le maîtriser et le réguler. Corollaire : la catégorie de médiation s’évapore de nos esprits d’un même mouvement qui resserre le réseau technologico-administratif tenant nos corps. Par exemple : les Institutions défaites prolifèrent en instituts, l’ancienne pesanteur administrative prend des allures d’enfer procédurier, et chaque fois qu’un bureau ferme une petite voix nous murmure simplifiez-vous la vie. Si on a peine à la croire, on a également peine à s’en défaire. 3/ La technologie est le nom de la technique quand elle se cache, efface ses médiations et les multiplie dans l’angle mort de nos consciences. 4/ De la cybernétique, vocable qui a flotté sur la seconde moitié du XXe siècle pour finalement se perdre, il faut dire : si le nom s’est perdu, c’est que la chose est partout.
LUND2021d
Sur la pandémie actuelle
Sur la pandémie actuelle, d’après le point de vue d’Ivan Illich, David CAYLEY in Lundi matin, #283, 12 avril 2021, https://lundi.am/Sur-la-pandemie-actuelle-d-apres-le-point-de-vue-d-Ivan-Illich-3942
LUND2021d.1
Cf. Lundi matin, Sur la pandémie actuelle, op. cit. : Illich caractérise “la nouvelle manière de voir” comme l’avènement de ce qu’il appelle “l’âge des systèmes” ou “une ontologie des systèmes”. L’âge qu’il voit arriver à son terme est dominé par la notion d’instrumentalité : le fait d’utiliser des moyens instrumentaux, comme la médecine, pour atteindre un but ou un bien, comme la santé. Cet âge est caractérisé par une nette distinction entre sujets et objets, raisons et fins, outils et utilisateurs, etc. À l’ère des systèmes, avance-t-il, ces distinctions se sont effondrées. Un système conçu de façon cybernétique est global – il n’a pas de dehors. On utilise un outil pour parvenir à une fin. Celui qui utilise un système en fait lui-même partie, s’adaptant en permanence au système, comme le système s’adapte à lui. Un individu limité en quête de son bien-être personnel laisse place à un système immunitaire qui recalibre constamment ses frontières poreuses en fonction du système qui l’entoure.
LUND2021f
Quel parti voulons-nous construire ?
Quel parti voulons-nous construire ? Destituer les Architectes, in Lundi matin, #288, 17 mai 2021, https://lundi.am/Quel-parti-voulons-nous-construire
LUND2021f.1
Cf. Lundi matin, Quel parti voulons-nous construire ?, op. cit. : C’est dans ce contexte de deuil de la souveraineté individuelle et étatique que des chercheurs de disciplines très différentes (neurologues, psychologues, économistes, mathématiciens, anthropologues…), en lien avec le complexe militaro-industriel vont élaborer une nouvelle “science du contrôle et de la communication chez l’animal et la machine” : la cybernétique. L’hypothèse de base est la suivante : tout les milieux – la famille, la société, jusqu’au Système-Terre “Gaïa” de James Lovelock - et tous les organismes qui les composent – les machines, les individus, les animaux - peuvent être compris comme des systèmes de communication auto-régulés, réductibles à un certain nombre de paramètres. Leur modèle est le cerveau-machine : l’ordinateur. Gouverner ne se fera donc plus selon les vieilles conceptions souverainistes du pouvoir, ce sera désormais inventer une coordination rationnelle des flux d’informations et de décisions qui circulent dans le corps social. Ce sera en optimiser le pilotage. La mutation cybernétique de l’économie vise à corriger la tendance du capitalisme à l’entropie, au désordre due à sa part destructrice. Il s’agit à présent de pouvoir reproduire et réparer le monde du Capital à mesure que celui-ci détruit tout les mondes vivants desquels il tire sa substance. Il s’agit d’en maintenir l’équilibre écologique, c’est à dire l’ordre. La cybernétique, bien avant Latour et Descola, se construit donc sur la ruines des dualismes occidentaux que furent le Sujet et l’Objet, l’Individu et la Société, la Nature et la Culture. Et les cybernéticiens, se dépouillant des anciens oripeaux de l’autorité, se constitueront dès lors en parti des intermédiaires. Cette hypothèse va construire une image des acteurs de l’économie comme étant pris dans une circulation d’informations qui les façonnent, dans une architecture de flux, dans un environnement. Des acteurs-réseaux, en somme. Et c’est désormais cet environnement (que ce soit celui d’un open-space, d’un écoquartier ou d’un parc naturel) qu’il s’agit de designer et de gérer, en maximisant la participation et la collecte d’informations, les feed-backs et les instances de coproduction. Organiser la mise en boucles de l’économie, sa circularité, son devenir environnemental.
LUND2021f.2
Cf. Lundi matin, Quel parti voulons-nous construire ?, op. cit. : En 1966 Steward Brand, biologiste formé à Standford, et sa compagne Lois Jennings, militent publiquement pour que la NASA publie la première photo de la terre vue de l’espace. Cela dans le but de provoquer une prise de conscience écologiste, celle d’être, selon eux, embarqués dans le même vaisseau. Deux ans plus tard c’est donc sans surprise que cette photo mythique fera la une du premier numéro du Whole Earth Catalog (WEC), revue qu’ils créeront et qui deviendra la bible de la contre-culture américaine et internationale. Le WEC va être le point de jonction entre l’architecture et la pensée cybernétique. Il est organisé en sept sections (Comprendre les systèmes d’ensemble/Abris et utilisation du terrain/Industrie et artisanat/Communications/Nomades/Apprentissage) et se présentent comme un grand catalogue de vente par correspondance à propos de tout ce qui à trait à la contre-culture. Dans le WEC, on trouve tout autant des plans pour fabriquer un poulailler ou des habitats légers, que des articles de Nobert Wiener ou de Gregory Bateson, des manuels d’autoconstruction que des éloges de l’ordinateur individuel. Fred Turner a montré tout ce que la cyberculture des GAFAM doit au WEC et à Stewart Brand, qui fut aussi le fondateur d’une des premières communautés en ligne, le WELL (Whole Earth ‘Lectronic Link). Steve Jobs ne l’a pas oublié, lui qui déclarera en 2005 à Stanford : “Quand j’étais jeune, il y avait une extraordinaire publication, le Whole Earth Catalog , qui était l’une des bibles de ma génération... C’était une sorte de Google en livre, 35 ans avant que Google n’existe”
LUND2021i
Penser ce qui nous arrive avec Vilém Flusser
L’immunité, l’exception, la mort, 4/4. Penser ce qui nous arrive avec Vilém Flusser, Olivier CHEVAL, in Lundi matin, #303, 6 septembre 2021, https://lundi.am/L-immunite-l-exception-la-mort-4-4
LUND2021i.4
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Le livre de Flusser essaie de reprendre la pensée de Heidegger au temps de la cybernétique. Et de comprendre comment l’appareil, qui prend aujourd’hui le relai de la machine, est précisément la technique qui transforme l’humain en fonds. Heidegger l’avait pressenti, la santé est le premier endroit où ce risque se présentait. Flusser entérine l’intuition : “la médecine est le grand scandale du présent”. C’est qu’elle n’a jamais été une science dure : elle a affaire à un sujet, le malade, qui n’est pas de la matière inanimée offerte à tous les calculs. Mais comme toutes les sciences molles, comme l’économie statistique ou la politologie, elle est en proie à son durcissement par la quantification informatisée. C’est au moment où le malade devient un objet, et le contingent de malades un fonds, que la vie cesse d’être pensable, et qu’une bascule épochale a lieu.
LUND2021i.5
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Au temps des microfiches, du lancement du minitel et des formulaires à remplir en majuscules dans des cases carrées, Flusser est comme le premier spectateur du surgissement d’un monde qu’il semble mieux voir que nous, trop aveuglés que nous sommes par la lumière de nos écrans — il prophétise la numérisation du monde à venir comme si elle avait déjà eu lieu devant ses yeux. Le monde préindustriel avait inventé l’outil, le monde industriel a inventé la machine, le monde post-industriel aura inventé l’appareil ou le gadget, c’est-à-dire le programme. À chacune de ces techniques son ontologie, son éthique, sa politique. L’outil était au centre d’un monde paysan et artisan où la nature était un cosmos animé dont il fallait prendre soin, où le peuple était un troupeau qu’il fallait guider, où le temps était fait de cycles dont on attendait patiemment le retour, où la vie était tracée par le destin, où l’action valait par la finalité qu’on lui donnait. La machine avait signé l’entrée dans un monde inanimé et causal, le monde étendu de la matière et de la production, du travail à la chaîne, de la liberté politique et de la possibilité de la révolution. L’ontologie programmatique qu’invente l’appareil, telle qu’elle se laisse deviner dans les arts, dans la science, dans la politique, est l’entrée dans un monde formel, multiple et plat dont a suspendu cause et fin : il n’existe plus qu’une surface de virtualités trop nombreuses pour être calculables, et qui se réalisent donc selon une nécessité qui ne peut que prendre l’aspect du hasard, comme le donnent à voir le collage dadaïste, la théorie du big-bang ou la gouvernance par la statistique. “Une telle ontologie programmatique a suscité l’invention d’ordinateurs et d’instruments intelligents. Elle mène à la transformation de la société en système cybernétique composé d’appareils et de fonctionnaires. Les hommes sont programmés pour fonctionner comme pièces d’un jeu symbolique. Ils sont chiffrés et numérotés. Ils deviennent computables dans des statistiques et des cartons perforés. Ils sont programmés d’une manière telle qu’ils acceptent volontiers leur programmation. Le fonctionnaire est un homme programmé, non seulement pour fonctionner, mais aussi pour accepter son fonctionnement. Bien sûr, une telle société post-industrielle n’est pas encore arrivée à son stade de réalisation parfaite. Mais nous avons déjà ses modèles : Eichmann comme modèle du fonctionnaire, Kissinger comme modèle du programmeur”.
LUND2021i.6
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : En matière de pessimisme, Flusser n’a rien à envier à ses contemporains de la théorie critique post-marxiste, à Adorno, à Debord ou à Cesarano. Le pas supplémentaire de Flusser vient de ce qu’il ne croit même plus en l’utilité de la critique : il se contente de décrire et de jouer. En cela il est peut-être plus proche de Borges, de son invention de labyrinthes dont on a perdu la clef, de systèmes dont le mode d’emploi n’a pas encore été inventé, de copies qui ont remplacé leurs modèles. Flusser décrit la société cybernétique gouvernée par les appareils comme l’avancée du hasard dans le vide : un programmeur programme un appareil, puis un autre appareil pour l’aider à programmer cet appareil, et très vite les appareils se mettent automatiquement à en programmer d’autres, se servent de l’humain comme fonds qui nourrit le feedback dont ils ont besoin pour fonctionner, et voilà que plus personne n’a la main dessus. Une bureaucratie se met à fonctionner en vase clos, pour alimenter les appareils et nourrir les statistiques. À la même époque, Duras avait des intuitions très semblables : “La robotique, la télématique, l’informatique, ce sont des progrès qui, à chaque échelon, sont faits une fois pour toutes. Du fait de ce qu’aura fait un seul homme, tous les autres hommes seront privés d’inventer”.
LUND2021i.7
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : L’intellectuel critique n’est jamais qu’un fonctionnaire comme un autre, prévu par le programme : il est cette marge qui se croit rétive au système mais est incluse par lui à son corps défendant, car il produit un feedback plus qualitatif qui amène le système à s’affiner, les appareils à être moins grossiers, moins lisibles, plus subtils. “Si, par hérésie, on conteste le programme de l’appareil, aussitôt pousse, à l’intérieur de l’appareil, un ministère de la contestation. En fin de compte, c’est toujours l’appareil qui satisfait les caprices de toute hérésie à travers l’uniforme qu’il lui dispense. C’est partout que fonctionne automatiquement le totalitarisme de l’uniformisation multiforme. Démocratie libérale.” Pour Flusser, la société cybernétique est par essence apolitique : la fonction a remplacé l’action, une suite d’inputs et d’outputs individuels et appareillés a pris la place du peuple, la politique a été réduite à un programme qui manipule l’opinion en la sondant en permanence. Le seul acte politique qu’envisage encore Flusser — avec l’ironie du catastrophiste — est la désertion. À l’époque on ne parlait encore des bugs.
LUND2021l
Quand l’humain rêve d’IA
Quand l’humain rêve d’IA, in Lundi matin, apteq, #313, 15 novembre 2021, https://lundi.am/Quand-l-humain-reve-d-IA
LUND2021l.2
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : L’une des tensions de l’histoire de la cybernétique est celle du dualisme entre le corps et l’esprit, entre l’information et son support. Cette tension s’incarne également dans la distinction entre la logique abstraite, le traitement symbolique de l’information et l’inscription corporelle du calcul, son effectuation pratique. Alan Turing en 1936 a formalisé (en plus du test mentionné) “sa machine universelle”. Sans entrer trop dans les détails, disons qu’il s’agit d’un petit robot imaginaire qui déplace une bande, divisée en petits carrés. Ce robot fictif y lit et écrit des symboles, selon des règles qui lui indiquent quoi écrire et où, chaque nouveau déplacement dépendant de ce qui est marquée sur la bande. La machine de Turing condense formellement l’essence de l’ordinateur. Turing a démontré que toute fonction qui peut être mise en algorithme peut être calculée par une Machine de Turing. Cette machine est toutefois abstraite, sa mise en œuvre pose d’autres enjeux. On dit souvent qu’un algorithme peut être défini comme une recette de cuisine, en ceci qu’il suffit de suivre des étapes données pour produire le résultat voulu. Cette définition est symbolique. Elle passe sous silence le fait que les algorithmes numériques sont confrontés à des contraintes d’implantations dans du matériel informatique et qu’ils effectuent leurs opérations de façons répétées sur des volumes de données gigantesques en quelques millièmes de secondes. Un aspect quantitatif et matériel, l’impératif d’efficacité des algorithmes, la programmation, a dû être associé à la machine de Turing pour initier l’informatique moderne. Toutes les perspectives d’immortalité s’engouffrent à l’inverse sur le plan des machines abstraites, parmi des corps qui ne comptent pas. Cette conception désincarnée de l’information se nourrit de l’analogie qui distingue en informatique le hardware du software, mais le cerveau n’est pas un logiciel.
LUND2021l.3
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : En vérité, cette conception désincarnée de l’information n’est qu’un seul aspect du calcul informatique. Comme le rappelle Mathieu Triclot [Mathieu Triclot, Le moment cybernétique, Champ Vallon.] dans son ouvrage sur la cybernétique, la mise en parenthèse des considérations sur le transport des messages et les propriétés énergétiques du signal ne peut être que temporaire. Son universalisation se fait abstraitement dans le champ de la physique théorique mais s’opère concrètement dans le champ des télécommunications et de l’informatique. Le calcul n’existe qu’équipé matériellement. Saisir ce qu’est l’IA implique de constamment prêter attention à son incarnation concrète, au basculement entre le calcul abstrait dont elle relève et sa concrétisation dans des machines. Cette incarnation matérielle dépend d’une multiplicité de réseaux et bases de données. Un seul et unique ordinateur n’incarnera jamais la puissance menaçante convoquée par Elon Musk. L’argument n’est pas à entendre seulement comme un rappel de la matérialité des choses. Il s’agit de rendre indissociable l’informatique et sa matérialisation concrète. De fait, l’intelligence des machines repose avant tout sur des machines.
LUND2022a
L’anarchéologie de Jean Vioulac
L’anarchéologie de Jean Vioulac, in Lundi matin, #345, 27 juin 2022, https://lundi.am/L-anarcheologie-de-Jean-Vioulac
LUND2022a.2
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : j’en arrive à la conclusion que la monnaie fut en Grèce la pierre philosophale qui a fondé l’avènement de la pensée abstraite, ou plus précisément, qui a donné au spectre de l’esprit le mode d’être du numérique, celui du noûs, “l’intellectel ordonateur”. La pensée de Platon fut l’expression idéologique de processus d’abstraction réelle opérée dans les pratiques, qui ont réellement réduites les choses sensibles à une essence idéelle (la valeur), ont donné à cette valeur universelle le mode d’être de la présence constante (la monnaie), elle-même fondée sur une Unité numérique en laquelle Platon voyait à la fois la garantie de la valeur (le Bien) et le principe de la production du monde (par le démiurge). Or notre époque est caractérisée par l’avènement réel de cette unité numérique en principe universel, mesure de toute chose, producteur du tout et démiurge du monde : notre époque est caractérisée par la transmutation de la monnaie en Capital. Le Capital est l’hégémonie cybernétique de l’Unité numérique, il accomplit la métaphysique, parce que la métaphysique a d’emblée pensée la monnaie dans sa fonction-Capital. Avec la logique de l’idéalisme spéculatif, on a le logiciel du dispositif cyber-capitaliste.
LUND2022a.4
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : l’avènement de l’économie de production, c’est la révolution néolithique, la première grande révolution de l’histoire de l’humanité : Homo sapiens vit pendant plus de 300.000 ans en petits groupes de chasseurs-cueilleurs nomades, il s’installe (il y a environ 10.000 ans) en sociétés d’agriculteurs-éleveurs sédentaires. C’est pourquoi il faut remonter aussi loin : d’abord parce que la société de production (et les processus d’abstraction réelle qui lui sont immanents) est la base réelle de la superstructure théorico-logique, ensuite parce qu’advient ainsi une nouvelle puissance, capable de dominer et de transformer le monde, la puissance sociale de production. Cette puissance domine les hommes eux-mêmes : la révolution néolithique est la socialisation de l’homme, sa subordination aux hiérarchies, elle n’est pas seulement domestication des animaux mais aussi et surtout domestication de l’homme lui-même, qui en fait un animal docile, servile et obéissant. […] Or notre époque se définit par la révolution industrielle, seconde grande révolution dans l’histoire de l’humanité, qui opère de même un changement de régime ontologique. On peut nommer “machination” ce nouveau régime ontologique, qui définit le monde non plus comme nature mais comme machine, non plus comme objet pour un sujet mais data pour un calcul, entièrement subordonné à l’Unité numérique qui monopolise toute la puissance sociale de production : le Capital. D’où là encore l’importance de Marx, le seul à avoir pensé l’hégémonie cybernétique totalitaire du Capital, qui est aujourd’hui le seul principe et le seul fondement. C’est la critique de fond qu’il faut faire aux anarchistes classiques, la même qu’il faut adresser aux libertariens : le problème n’est pas seulement l’État, le problème est celui du Capital dont l’État n’est qu’un appareil. Tant que la monarchie du Capital n’aura pas été renversée, l’anarchisme reste formel, et il risque de se dissoudre dans l’individualisme de sociétés atomisées par la machination cybercapitaliste et de se confondre avec le libertarisme.
TUAL2019
L’intelligence artificielle, le grand malentendu
Morgane TUAL, L’intelligence artificielle, le grand malentendu, in Le Monde.fr, 13 novembre 2019, https://www.lemonde.fr/idees/article/2019/11/13/l-intelligence-artificielle-le-grand-malentendu_6018956_3232.html.
TUAL2019.3
Cf. Tual, L’intelligence artificielle, le grand malentendu, op. cit. : Le malentendu réside notamment dans l’emploi du mot “intelligence”. “En appelant un logiciel ‘intelligence artificielle’, on présuppose que l’intelligence peut être un comportement simulé, qui ne consisterait qu’en un échange d’informations – c’est la théorie de la cybernétique, explique Marc Atallah, directeur de la Maison d’Ailleurs (Musée de la science-fiction à Yverdon-les-Bains, en Suisse) et professeur de littérature à l’université de Lausanne. Dans les années 1950, qui sont aussi les années des tests de QI [quotient intellectuel], si vous calculez vite, vous êtes considéré comme intelligent. Or, ce terme peut vouloir dire plusieurs choses : être cultivé, savoir créer des liens, se comporter ‘en bonne intelligence’… La capacité de calcul n’est qu’une petite partie de tout ça.” À cause de cette “erreur sémantique, poursuit-il, les gens ont l’impression que l’IA fonctionne comme nous, et tendent à projeter les comportements problématiques d’humains sur la machine”. Luc Julia souligne aussi la responsabilité “des médias et d’Hollywood, qui trouvent ça sexy et sensationnaliste”. “Robocop, Her… C’est plus sympa de parler de ça que de mathématiques et de statistiques”.
STEN1997d
La vie et l’artifice : visages de l’émergence
Isabelle STENGERS, La vie et l’artifice : visages de l’émergence. Cosmopolitiques VI, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.
STEN1997d.1
Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 34-35 : C’est l’un des aspects les plus inattendus de cette “révolution” qui a nom biologie moléculaire que d’avoir créé la conception d’une émergence “absolue”, comme la qualifie Jacques Monod, ne répondant à aucune autre raison que celle de la sélection. Comme l’horloge, qui ne doit aux lois de la mécanique que des propriétés quelconques, et doit tout à l’intelligence du constructeur qui a façonné chaque pièce et les a agencées, le vivant de la biologie moléculaire est “compatible” avec la physico-chimie mais n’a aucun compte à lui rendre. Jacques Monod n’a jamais célébré le fourmillement prodigieux des protéines et de leurs interactions, mais la logique cybernétique à laquelle elles obéissent. De fait, la biologie moléculaire, alors même qu’elle célèbre la réduction de la vie à un gigantesque réseau de catalyses, d’associations et de régulations intermoléculaires, célèbre tout aussi bien le triomphe de l’artifice technique sur la matière fourmillante de Perrin. Ce n’est donc pas sans raison que les performances spécifiques dont sont susceptibles les protéines sont rapprochées de celles de “démons de Maxwell” microscopiques. De même que le démon faisait prévaloir les droits de la théorie qui le rendait capable de dompter le fourmillement, et d’imposer un comportement collectif en rupture avec les probabilités, les performances des protéines asservissent l’activité chimique et la constituent en “moyen” biochimique de parvenir à un “fin” qui lui est étrangère, qui renvoie à la seule histoire sélective. La sélection opère sur un terrain toujours déjà défini par une logique de l’asservissement, en l’occurrence sur le résultat de mutations imprévisibles traduisant notamment l’imperfection de l’asservissement des réactions chimiques qui assurent la réplication de l’ADN, l’imperfection donc de la soumission de ces réactions à la logique de conservation dont elles sont les moyens.
STEN1997d.5
Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 79-85 : Kauffman lui-même a participé aux début de cette histoire. En 1965, jeune étudiant déjà passionné par les thèmes de la complexité et de l’auto-organisation (dans la tradition de la “seconde cybernétique” associée aux noms d’Ashby et de von Foerster), il monta un réseau assez particulier d’automates booléens. Les automates sont ici des artefacts logiques et l’adjectif booléen désigne les fonctions auxquelles obéissent les différents automates : chacun “calcule” selon l’une des seize relations booléennes la valeur de la sortie (0 ou 1) en fonction de la valeur des entrées. Leur mise en réseau signifie que, de manière synchronisée, chacun envoie ou non un signal à ceux avec qui sa “sortie” est connectée, et ce en fonction des signaux qu’il a reçus d’autres automates booléens à l’étape précédente. Les réseaux d’automates booléens avaient jusque-là été montés en fonction d’un comportement attendu. Or le jeune Kauffman va connecter une centaine d’automates “au hasard”, et constater que le comportement collectif du réseau qui en résulte est d’une simplicité inattendue étant donné l’ensemble des “états” possibles a priori. Qui plus est ce comportement est “robuste” : il résiste jusqu’à un certain point à des changements de connexions, puis peut “basculer” en un autre comportement différencié (le paysage des états est caractérisé par des “bassins attracteurs”). Le modèle de Kauffman a été à l’origine du champ dit “néo-connexionniste”, c’est-à-dire d’une floraison de dispositifs techniques nouveaux et de théories mathématiques permettant de “comprendre” ce qui a d’abord été constaté. Avec les “automates cellulaires” dont le jeu de la vie de Conway fut le prototype, il constitue la source de la conviction que la “vie artificielle” n’est pas une simple rhétorique. Il inaugure en effet un nouveau modèle d’artefact qui répond, comme on le dit le plus souvent, à une approche bottom-up et non plus top-down. Le créateur de l’artefact n’a plus besoin d’être représenté comme un concepteur doué des doigts agiles qui lui permettront de réaliser son projet, d’imposer down ce qu’il a conçu top. Le créateur “profite” d’une forme nouvelle de causalité, que l’on peut appeler “causalité de couplage”, ni linéaire ni circulaire à la mode cybernétique. C’est le fait du couplage qui prime et non la nature des interaction (physiques,chimiques, logiques, électroniques) ou la finalité à laquelle répondrait leur agencement. C’est à un comportement déjà qualifié, déjà doté d’un paysage relativement robuste de possibles “émergeant” du couplage, que le créateur s’intéresse. Si les propriétés génériques exhibée par le réseau booléen en font un “faitiche prometteur”, le “cœur de Dieu” devrait singulariser le nouveau type d’intérêt qu’elles suscitent de la part de celui qui s’adresse au réseau “connecté aléatoirement”, le nouveau rapport pratique entre l’artefact est son constructeur. Car le “constructeur néo-connexionniste” ne vise bien entendu pas seulement une cartographie des comportements stables de son réseau. Il vise à modifier, à modeler ces comportements de telle sorte que la carte des possibles, “bottom” prennent une signification up. L’exemple le plus typique d’invention d’un tel rapport est celui qui a produit le réseau en tant qu’“agent” d’une reconnaissance des formes. L’exemple de la reconnaissance des formes est intéressant en ce qu’il s’agit d’une performance apparemment simple – nous le faisons sans y penser – mais qui avait toujours été un point faible pour l’intelligence artificielle. Qu’est-ce qu’un “B” ? Certes il est possible de formuler des critères permettant l’identification de la forme du “B”. Encore faut-il que ces critères résistent à une terrible exigence : permettre la reconnaissance d’une multiplicité indéfinie de B, plus “mal écrits” les uns que les autres, certains tendant même vers “D”, d’autres vers “8”, voire vers “A”. C’est ici que devient essentiel le caractère robuste du comportement néo-connexionniste, c’est-à-dire le fait que la relation entre une distribution initiale des valeurs 0/1 des automates et le comportement stable qui en résulte résiste à des modification de cette configuration initiale. Si cette relation pouvait être construite comme une “reconnaissance” de la configuration en question, cette reconnaissance serait par définition indulgente, robuste par rapport à des variations. La question n’est donc plus celle d‘une production de critère explicitant ce qui spécifie la forme à reconnaître, mais de l’“apprentissage” qui fera la différence entre une indulgence bienvenue et une indulgence déplacée. Il s’agit de faire coïncider de manière optimale le “bassin attracteur” de toutes les configurations initiales qui mènent à un même comportement et l’ensemble de toutes les configurations initiales qui, pour nous, sont des “B”. En l’occurrence, l’apprentissage passe par une modification (selon un processus foncièrement aléatoire mais piloté automatiquement) des connexions ou du poids des connexions entre automates jusqu’à ce que le réseau adopte le même comportement pour tout ce que nous reconnaissons comme “B”, et adopte d’autres comportements pour tout ce qui, pour nous, n’est pas “B”. Un réseau “aléatoire” apprend, certes, mais il faut le souligner, il n’apprend pas tout seul, et bien sûr il n’a aucun savoir de ce qu’il apprend. L’apprentissage se fait à deux, et ne peut être réduit ni à un montage, aussi tâtonnant et négocié qu’on veut, ni à une évolution spontanée, aussi contrôlée soit-elle. Le fabricant propose, mais d’une certaine manière, le réseau dispose, au sens où, étant donné la proposition du fabricant, la configuration initiale qui a été imposée, le réseau évolue vers un comportement stable qui n’appartient qu’à lui, que le fabricant constate mais par rapport auquel il ne nourrit pas d’ambition de prévision. Pour le fabricant, ce comportement, quel qu’il soit, va donc être la réponse, la traduction, émergeant du collectif en réseau, de ce qui lui a été proposé, et c’est à partir de cette réponse que l’apprentissage va commencer : il faut que, pour toutes les configurations initiales que le fabricant juge ou veut semblables, la traduction reste la même, et que pour d’autres propositions, qu’il juge ou veut différentes, la traduction soit différente. Quelle que soit la manière approximative dont nous les écrivons, nous entendons que vingt-six lettres distinctes soient reconnues comme composant nos mots. Il faut que le réseau en vienne à les distinguer. Je n’entrerai pas dans la technique des algorithmes de modification du réseau qui permet l’“apprentissage”. Le point important est que nous avons ici affaire à une inter-action au sens fort. “Le réseau est capable d’apprendre !” “C’est un réseau neuronal artificiel, première figure du corps absent de l’intelligence artificielle, qui vient d’être inventé !” De tels énoncés ne sont pas des conclusions que les spécialistes auraient laborieusement atteintes, mais explicitent bel et bien les prémices de leur intérêt, la conviction que ces réseaux ont suscitée de façon quasi immédiate. Que le fonctionnement soit à la fois vecteur de signification et pourtant incapable de rendre raison de la signification qui “émerge” de son fonctionnement crée la topologie d’un “corps” : le “couplage interne”, dont le caractère robuste permet de passer de l’ensemble des interactions à la signification de cet ensemble “pour” le fonctionnement, se distingue du rapport à un milieu, rapport en termes duquel tous les fonctionnements “ne se valent pas“. En d’autres termes, l’invention des pratiques d’apprentissage crée un “corps” en ouvrant ce que j’ai appelé causalité de couplage, la causalité qui singularise le réseau, à une autre “causalité” hétérogène, qui couple le réseau et celui qui entreprend de lui apprendre à actualiser ses propres fins. Avec l’artefact de type néo-connexionniste, ce sont toutes les spéculations concernant notre mystérieuse capacité à “reconnaître”, sans pouvoir préciser les critères de ressemblance, de Platon à Wittgenstein, qui se trouvent par ailleurs capturées d’un seul coup. Pas besoin d’une “idée“ de la table pour dire “c’est une table”. L’objet reconnu “émerge” en tant que réponse collective, dans l’ici et maintenant, sans modèle ni mémoire localisables. Ou, plus précisément, l’“auto-organisation“, ici, fait émerger un “quasi-objet” pour un “quasi-sujet”, qui ne doit pourtant pas être confondu avec le réseau en tant que tel. Le réseau lui-même est indissociable de la “quasi-fin” qu’il accomplit, mais la signification de cette “quasi-fin” renvoie à celui pour qui il y a émergence.
CHAT1998
Vivre et penser comme des porcs
Gilles CHÂTELET, Vivre et penser comme des porcs. De l’incitation à l’envie et à l’ennui dans les démocraties-marchés, Paris, Gallimard, 1998.
CHAT1998.3
Cf. Châtelet, Vivre et penser comme des porcs, op. cit., p. 50 : Une science, la théorie générale des réseaux et systèmes – la cybernétique –, allait offrir ses services, permettre à d’audacieux “ingénieurs sociaux” de reculer les frontières de l’individualisme méthodologique, de concevoir des scénarios dont, voici peu, aucun homme moyen n’aurait osé rêver : transformer la thermocratie en neurocratie et parvenir à la fabrication de comportements garantissant une étanchéité totale à l’intelligence politique. C’est ainsi que : “Les fonctions de régulation et donc de reproduction sont et seront de plus en plus retirées à des administrateurs et confiées à des automates. La grande affaire devient et deviendra de disposer des informations que ceux-ci devront avoir en mémoire afin que les bonnes décisions soient prises. La disposition des informations est et sera du ressort d’experts en tout genre. La classe dirigeante est et sera celle des décideurs [J.-F. Lyotard, La Condition postmoderne, Paris, Éditions de Minuit, 1979, p.30.].”
CHAT1998.4
Cf. Châtelet, Vivre et penser comme des porcs, op. cit., p. 52-53 : On peut parler d’une Triple Alliance politique, économique et cybernétique susceptible d’“auto-organiser” les potentialités explosives des masses humaines de très grande dimension et de conjuguer les performances de trois prototypes de la postmodernité : – l’homo economicus – le citoyen-méduse –, le Robinson égoïste et rationnel, atome de prestations et de consommations ; – l’“homme moyen” – le citoyen-panéliste –, le héros des concours de beauté de Keynes, acharné à prendre le “risque” de deviner ce que sera l’opinion moyenne et jubilant à l’idée de chevaucher toutes les futures cloches de Gauss ; – l’homo communicans – le citoyen-thermostat –, transparente créature des services tertiaires, habitant-bulle d’une société sans conflit ni confrontation sociale “archaïque”, se flattant de n’exister que comme ténia cybernétique perfusé d’inputs et vomissant des outputs.
SUPI2015
La gouvernance par les nombres
Alain SUPIOT, La gouvernance par les nombres. Cours au Collège de France (2012-2014), Coll. Poids et Mesure du Monde, Paris, Fayard, 2015.
SUPI2015.1
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 19 : Le renversement du règne de la loi au profit de la gouvernance par les nombres s’inscrit dans l’histoire longue du rêve de l’harmonie par le calcul, dont le dernier avatar – la révolution numérique – domine l’imaginaire contemporain. Cet imaginaire cybernétique conduit à penser la normativité non plus en termes de législation mais en termes de programmation. On n’attend plus des hommes qu’ils agissent librement dans le cadre des bornes que la loi leur fixe, mais qu’ils réagissent en temps réel aux multiples signaux qui leur parviennent pour atteindre les objectifs qui leur sont assignés.
SUPI2015.7
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 33 : L’installation des horloges sur les beffrois et les clochers a aussi été le point de départ médiéval d’une nouvelle organisation du temps de travail, cadencée par leur mouvement mécanique et s’écartant progressivement des rythmes de la nature. C’est-à-dire d’un nouveau modèle de gouvernement, dont le taylorisme sera une sorte de point d’aboutissement. […] À ce modèle physique de l’horloge, qui conduisait à voir dans l’homme lui-même une machine, s’est ajouté au XIXe siècle le modèle biologique de la sélection naturelle, qui a inspiré le darwinisme social et continue de sévir sous les espèces de l’ultralibéralisme et de la compétition de tous contre tous. À ces représentations, qui ne s’annulent pas mais se superposent, s’ajoute aujourd’hui celle de l’homme programmable portée par la cybernétique et la révolution numérique. Son modèle n’est plus l’horloge et son jeu de forces et d’engrenages, mais l’ordinateur et son traitement numérique des signaux. L’ordinateur obéit à des programmes plutôt qu’à des lois. Autorisant une extériorisation de certaines facultés cérébrales de l’être humain, il ouvre une ère nouvelle dans notre rapport aux machines, aussi bien que dans le contenu et l’organisation de notre travail.
SUPI2015.8
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 35 : La volonté d’étendre au gouvernement de la société toute entière ce que l’on imagine être une organisation scientifique du travail n’a, en effet, nullement disparu de nos jours. Elle a seulement changé de modèle. Le modèle physico-mécanique de l’horloge, qui avait partie liée avec l’idée de règne de la loi, a été supplanté par le modèle cybernétique de l’ordinateur. Dès lors, l’organisation du travail n’est plus conçue comme un jeu de poids et de forces dont le travailleur ne serait qu’un engrenage, mais comme un système programmable faisant communiquer entre elles des unités capables de rétroagir aux signaux qu’elles reçoivent en fonction de cette programmation. Ce modèle a été importé dans la sphère publique par la doctrine du New public management, dont la mise en œuvre fait l’objet d’un large consensus politique, et que n’auraient pas répudié les théoriciens du Gosplan. C’est l’un des pères de la cybernétique, Norbert Wiener, qui a été le premier à avoir l’idée de projeter ce mode de fonctionnement sur l’ensemble de la société, dans un ouvrage publié en 1950, intitulé Cybernétique et Société et dont le sous-titre était déjà lui-même tout un programme : “L’usage humain des êtres humains”. Ma thèse est que le fonctionnement de l’individu vivant et celui des nouvelles machines de communication sont précisément parallèles dans leurs efforts identiques pour contrôler l’entropie par l’intermédiaire de la rétroaction [feed-back]. Chez l’un comme chez l’autre, il existe un appareil spécial pour rassembler l’information provenant du monde extérieur à de faibles niveaux d’énergie et pour la rendre utilisable en vue du fonctionnement de l’individu ou de la machine. Ces messages extérieurs ne sont pas assimilés à l’état pur, mais transformés par les organes intérieurs de l’appareil, qu’il soit vivant ou non. L’information prend alors une forme nouvelle afin de pouvoir être utilisée en vue des stades ultérieurs du fonctionnement [performance]. Qu’il s’agisse de l’homme ou de la machine, ce fonctionnement a pour fin d’exercer un effet sur le monde extérieur et c’est l’action exercée [performed] sur le monde extérieur et non pas simplement l’action projetée [intended] qui est rapportée en retour à l’appareil régulateur central.
SUPI2015.9
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 38 : Animée par l’imaginaire cybernétique, la gouvernance ne repose plus, contrairement au gouvernement, sur la subordination des individus, mais sur leur programmation. […] À la différence du plan, qui impliquait l’intervention hétéronome d’un planificateur, le programme permet de penser des systèmes homéostatiques et autoréférentiels.
SUPI2015.10
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 39-40 : Calquée sur le modèle de l’automate, la machine à gouverner imaginée par Hobbes était régie par des lois inflexibles, du même type que celles découvertes par son contemporain Galilée dans le domaine de l’astrophysique. Conçue aujourd’hui sur le modèle cybernétique, la machine à gouverner n’est plus régie par des lois, mais par des programmes assurant son fonctionnement homéostatique.
SUPI2015.22
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 165 : Le fait mérite d’être noté, car il témoigne de l’unité de l’“institution imaginaire de la société” à une époque donnée : cette nouvelle façon de penser l’organisation du travail a été théorisée à la même époque dans des disciplines aussi différentes que la cybernétique et le management, et cela un demi-siècle avant la généralisation de l’outil informatique dans l’économie réelle. Le management par objectifs est aujourd’hui le paradigme de l’organisation scientifique du travail, aussi bien dans le secteur public que dans le secteur privé. Au lieu d’assujettir le travailleur au respect de règles qui définissent sa tâche par avance, on l’associe à la définition des objectifs assignés à cette tâche, objectifs en principe quantifiés, qui déclinent à son niveau les buts communs de l’organisation.
SUPI2015.23
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 170 : Quand on sait que la plus grande partie des ordres passés sur ces marchés sont le fait d’ordinateurs programmés à cet effet – ce qu’on appelle le high speed trading, qui permet de jouer sur des écarts de cours de l’ordre de la milliseconde –, on voit à quel point le rêve cybernétique d’une mise en pilotage automatique des affaires humaines est devenu réalité.
SUPI2015.28
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 254 : La révolution numérique et le changement d’imaginaire qui l’accompagne conduisent à ne plus penser le travail sur le modèle mécanique de l’horloge, mais sur celui, cybernétique, de l’ordinateur.
SUPI2015.31
Cf. Supiot, La gouvernance par les nombres, op. cit., p. 305 : Porté par la révolution numérique, l’imaginaire de la gouvernance par les nombres est celui d’une société sans hétéronomie, où la loi cède sa place au programme et la réglementation à la régulation. Ce mouvement avait été engagé par la planification soviétique qui, la première, a réduit la loi à une fonction instrumentale de mise en œuvre d’un calcul d’utilité. Il s’approfondit avec l’imaginaire cybernétique, qui impose une vision réticulaire du monde naturel et humain et tend à effacer la différence entre l’homme, l’animal et la machine, saisis comme autant de systèmes homéostatiques communiquant les uns avec les autres.
LATO1984
Irréductions
Bruno LATOUR, Les Microbes : guerre et paix, suivi de Irréductions, Paris, Éditions Anne-Marie Métailié, 1984.
LATO1984.3
Cf. Latour, Irréductions, op. cit., p. 230 : 3.4.10. Il ne s’agit pas d’un système (3.2.3. scolie). Conscient que les sources de la puissance ne résident pas dans la pureté d’une force, on peut vouloir la mettre dans un système de forces pures. Ce rêve, lui aussi, est toujours recommencé. Le droit est attaché à l’économie à la biologie au langage à la société à la cybernétique… De belles sphères sont dessinées qui sont reliées par de belles flèches bien épointées. Malheureusement pour les faiseurs de systèmes, les acteurs ne tiennent jamais leur souffle assez longtemps et se dispersent avant qu’on ait pris la photo de groupe : les sphères se vident et bavent les unes sur les autres ; les flèches se mélangent en écheveau ; le droit se disperse dans la biologie qui se diffuse dans la société elle-même en rupture de ban… Non, les alliances ne se nouent pas entre de beaux partis pris, mais au coup par coup et dans un désordre qui paraît horrible à ceux qui veulent la pureté.
HARA2007
Manifeste cyborg
Donna HARRAWAY, Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes, Anthologie établie par Laurence ALLARD, Delphine GARDEY & Nathalie MAGNAN, traduit par Marie-Hélène DUMAS, CHarlotte GOULD et Nathalie MAGNAN, Paris, Exils Éditeurs, 2007. Édition originale A Cyborg Manifesto : Science, Technology and Socialist-Feminism in the 1980’s, Socialist Review, n° 0, 1985, p. 65-108.
HARA2007.2
Cf. Harraway, Manifeste cyborg, op. cit., p. 53-54 : De plus, les sciences de la communication et la biologie moderne sont construites dans un même mouvement - celui où le monde devient un code à découvrir. Celui de la translation, de la traduction, de la recherche d’un langage commun dans lequel toute résistance au contrôle instrumental disparaît et où toute hétérogénéité peut être soumise au démantèlement, au réassemblage, à l’investissement et à l’échange. En sciences de la communication, la translation du monde en code à décrypter s’illustre dans les théories des systèmes cybernétiques (ou systèmes à régulation par réaction) quand elles sont appliquées à la téléphonie, à la conception informatique, au déploiement des armements, ou à la construction et à la maintenance de bases de données. Pour chacune de ces applications, la solution des questions fondamentales repose sur une théorie du langage et du contrôle : l’opération fondamentale consiste à déterminer les taux, les directions et les probabilités de flux d’une quantité que l’on appelle information. Le monde est divisé par des frontières plus ou moins perméables à l’information. L’information est justement ce genre d’élément quantifiable (à partir d’unités, bases de l’unité) qui permet la translation universelle et donc le pouvoir instrumental absolu (que l’on appelle communication effective). Et l’interruption de la communication est la plus grave menace qui pèse sur ce pouvoir. Toute panne de système s’exprime en stress. La métaphore C3I, Command-Control-Communication-Intelligence (Commandement-Contrôle-Communication-Renseignement), symbole de la théorie militaire des opérations, résume les principes fondamentaux de cette technologie. En biologie moderne, la translation du monde en code à décrypter s’illustre dans la génétique moléculaire, l’écologie, la théorie de l’évolution socio-biologique et l’immunobiologie. L’organisme est devenu un problème de code génétique qu’il faut lire. La biotechnologie, technologie d’écriture, influence considérablement la recherche. Les organismes, en un sens, n’existent plus en tant qu’objets de savoir. Ils ont fait place aux composants biotiques, c’est-à-dire à des formes particulières d’instruments de traitement de l’information. L’écologie suit une évolution analogue, il suffit d’étudier l’histoire et l’utilité du concept d’écosystème pour le comprendre. L’immunobiologie, et les pratiques médicales qui lui sont associées, sont particulièrement exemplaires de l’importance du codage et des systèmes de reconnaissance comme objets de connaissance, comme constructions de réalités corporelles. La biologie, ici, constitue une sorte de cryptographie. La recherche est alors nécessairement de l’ordre du renseignement. On est en pleine ironie ! Un système stressé fonctionne mal, le traitement de l’information s’interrompt, le système ne fait plus la différence entre lui et l’autre. Des bébés humains avec des cœurs de babouins, voilà qui provoque une perplexité éthique nationale - au moins autant chez les défenseurs des droits des animaux que chez les gardiens de la pureté humaine. Homosexuels et drogués sont, aux États-Unis, les victimes “préférées” d’une horrible maladie du système immunitaire qui marque (inscrit sur le corps) la confusion des frontières et la pollution morale (Treichler, 1987).
ALIZ2017
Informatique céleste
Mark ALIZART, Informatique céleste, Paris, Presses Universitaires de France, 2017.
ALIZ2017.1
Cf. Alizart, Informatique céleste, op. cit., p. 7 : L’informatique n’est jamais en effet que l’aboutissement de tout le travail de formalisation de la pensée que la philosophie a entrepris dès l’aube de son histoire, de L’Organon d’Aristote à la Logique de Hegel. L’informatique est la philosophie faite science, ou encore la preuve que la philosophie contient un élément décisif d’effectivité – au même titre que l’atome d’uranium contient une quantité phénoménale d’énergie – et le démenti éclatant apporté à tous ceux qui n’ont jamais cessé de la prendre pour un simple bavardage. Martin Heidegger, qui ne peut pas être soupçonné de complaisance à l’égard de l’informatique, reconnaissait ainsi lui-même qu’elle devait être considérée comme “l’accomplissement de la métaphysique” et nombre de ses textes ne se comprennent d’ailleurs qu’en regard de la question informatique : la célèbre conférence Qu’appelle-t-on penser ? interroge essentiellement la prétention de la cybernétique à faire penser des machines dans les années 1950.
ALIZ2017.30
Cf. Alizart, Informatique céleste, op. cit., p. 53-54 : Pourquoi Hegel dit-il que l’Idée est “libre” ? Elle l’est pour trois raisons. 1) Parce que la boucle permet à la machine de juger. Or pour Hegel, la possibilité d’émettre des jugements est fondamentalement ce qui constitue le “Sujet”. Aussi bien le Sujet est-il le premier chapitre de la section du Concept, et, en tant que résultat de l’autotranscendance de l’essence, le Sujet est d’abord “entendement”. Il peut procéder à des jugements simples (ou bien/si/et) qui s’apparentent de près à la logique booléenne. 2) Parce que de la sorte, la machine se dote aussi d’une apparence de volonté. La machine prend des décisions. Elle ne se contente pas d’agir, elle est capable de rétroaction, de feedback, comme dira Norbert Wiener. La machine à penser devient une machine à commander, une machine cybernétique. 3) Parce que si le programme s’identifie à la machine, si ce qui fait tourner la machine est identique à la machine, alors l’unité de la pensée et de l’Être est désormais chez soi dans son autre, définition récurrente de la liberté chez Hegel. C’est ainsi qu’en même temps que le Sujet, l’objectivité apparaît également. L’objectivité désigne le fait que la machine-sujet est capable d’être une machine-objet, c’est-à-dire de poser le concept de machine en face d’elle, ou encore d’être une machine de machine, une machine universelle.
ALIZ2017.32
Cf. Alizart, Informatique céleste, op. cit., p. 71 : Ainsi, l’État est-il une machine cybernétique complexe, comme l’ont intuitionné les philosophes qui l’ont comparé à un animal. Comme la machine analytique de Babbage, il a un programme (le Droit), une mémoire (la Constitution), une horloge (l’histoire des peuples), un moulin/processeur (le gouvernement, dont Hegel dit que la seule fonction est “la production incessante de l’État en général”). Mais surtout, on peut dire de l’État qu’il est à nouveau un cerveau. Il s’y échange des marchandises comme des informations qui empruntent des canaux spécifiques : routes larges comme des axones d’abord, puis de plus en plus fines, comme des dendrites, qui aboutissent à des échangeurs-synapses, qui desservent des villes-neurones. C’est pourquoi la fonction régalienne par excellence, la première, comme l’Empire romain en a fait la démonstration, c’est la construction de routes et d’aqueducs. L’histoire peut alors s’écrire comme l’histoire de l’accélération des transmissions sur ces canaux et la réduction du bruit qui les parasite : voiture plutôt que cheval, autoroute plutôt que voie carrossable, train plutôt que voiture, avion plutôt que train… Sécurité, police, etc.
COUF1968
La cybernétique
Louis COUFFIGNAL, La cybernétique, Paris, Que sais-je ?, 1968, troisième édition.
COUF1968.1
Cf. Couffignal, La cybernétique, op. cit., p. 93 : {{on admettra donc comme une loi d’obeservation que les mécanismes cybernétiques efficaces ne copient pas le fonctionnement de l’esprit humain. Recevant les mêmes données, ils fournissent les mêmes résultats, mais les obtiennent par d’autres moyens : ce sont des simulateurs.
BELL2012
La Théorie de l’information
Aurélien BELLANGER, La Théorie de l’information, Paris, Gallimard, 2012.
BELL2012.5
Cf. Bellanger, La Théorie de l’information, op. cit., p. 317 : La théorie mathématique de la communication apporta à la cybernétique, science du contrôle des systèmes complexes, les fondements théoriques qui lui manquaient.
ADAM1979
Le Guide du Routard Galactique
Douglas ADAMS, Le Guide du Routard Galactique, Traduit de l’anglais par Jean BONNEFOY, Paris, Éditions Denoël, 1979, 1982 pour la traduction française.
ADAM1979.3
Cf. Adams, Le Guide du Routard Galactique, op. cit., p. 121 : Le Guide du routard galactique définit le service commercial de la Compagnie cybernétique de Sirius comme “un ramassis de pauvre mecs stupides qui finiront par se retrouver les premiers contre le mur le jour de la révolution”, avec une note indiquant que la rédaction du Guide était intéressée par toute candidature pour reprendre le poste de spécialiste en robotique.
PIRO2018
L’occupation du monde
Sylvain PIRON, L’occupation du monde, Bruxelles, Zones Sensibles, 2005.
PIRO2018.1
Cf. Piron, L’occupation du monde, op. cit., p. 59 : Le programme cybernétique, initialement lié à l’élaboration d’un dispositif auto-correcteur de lutte anti-aérienne, agrégea divers questionnements épistémologiques qui étaient dans l’air dans différentes disci plines, de l’idée d’apprentissage secondaire sur laquelle travaillaient Mead et Bateson, à la notion d’“écosystème” élaborée par Evelyn Hutchinson. On peut certes le décrire comme principalement tourné vers la conception d’outils de modélisation et de contrôle. Cependant, une interprétation politique des effets pratiques de ce programme de recherche ne doit pas occulter une fécondité épistémologique qui n’avait rien de monochrome. Dans ses travaux ultérieurs, Bateson faisait passer au second plan l’élément du “contrôle” sur lequel insistait Wiener, pour s’interroger davantage sur l’ouverture des systèmes et l’arbitraire de leurs frontières. Le combat intellectuel et culturel contre le totalitarisme en situation de guerre permet de comprendre l’engagement des chercheurs à l’appui de cette équation paradoxale : il fallait compter sur un État fort, appuyé par une puissance militaire dotée de la technologie la plus avancée, pour promouvoir l’émancipation individuelle et se prémunir contre le retour de “la personnalité autoritaire” qu’étudièrent peu après, dans le même contexte, Theodor Adorno et son équipe. La cybernétique serait l’instrument paradoxal de ce programme. La hantise du totalitarisme poussait à la conception d’un modèle d’ordre social décentralisé, résultant de l’interaction d’individus indépendants. Ce réseau devait pourtant être gouverné par un ordinateur central, dont la gestion serait fatalement confiée à des experts. Bien qu’elle fût conçue à l’image de l’esprit humain, la nouvelle machine laissait poindre la crainte d’une tyrannie d’un genre nouveau.
PIRO2018.2
Cf. Piron, L’occupation du monde, op. cit., p. 103-105 : Actif dans le troisième quart du XXe siècle, surtout connu pour sa réflexion sur les objets techniques, Simondon est au centre d’un intérêt croissant depuis la publication intégrale de sa thèse. Son ambition était considérable. Prenant appui sur la physique quantique et la cybernétique, il se proposait de formuler une axiomatique commune aux sciences naturelles, humaines et sociales. Pour cette raison, il a été contraint de forger un vocabulaire technique qui lui est propre et ne facilite guère la compréhension de ses textes. Toutefois, le fond de sa démarche peut se résumer assez simplement. Comme Bateson, par un cheminement différent, Simondon reconnaît l’antériorité des relations sur les termes reliés. Au lieu de considérer l’individu comme un être substantiel achevé, il observe des processus d’individuation. L’état pré-individuel est celui d’un système instable, susceptible d’atteindre différentes phases de l’être. L’individu qui résulte de l’individuation psychique et somatique du vivant est encore porteur d’une charge de réalité non individuée. Celle-ci peut être la source “d’une seconde individuation qui fait naître le collectif transindividuel et rattache le sujet à d’autres sujets”. L’être particulier n’est donc pas compris comme un individu séparé, mais comme l’unité de ces trois phases de l’être, qui le relient aussi bien à son “milieu associé” qu’à une réalité transindividuelle. Le potentiel que Simondon peut apporter à la philosophie politique n’a encore été que très peu exploité alors qu’il est considérable. En comprenant le sujet, non pas comme une substance, mais comme un être tissé de relations, plongé dans un devenir en renouvellement continuel, Simondon parvient à surmonter l’enfermement de l’individu en lui-même. Il permet ainsi d’associer, sans les confondre, un individu psychique, titulaire de droits individuels, et un sujet ouvert au monde et au collectif, traversé par ce qui lui est extérieur. Mobilisant d’autres sources, le Comité invisible propose une définition semblable de la subjectivité, non pas fermée sur elle-même, mais formée de ses liens avec le tissu du monde : “ Le monde ne nous environne pas, il nous traverse. Ce que nous habitons nous habite. Ce qui nous entoure nous constitue. Nous ne nous appartenons pas. Nous sommes toujours-déjà disséminés dans tout ce à quoi nous nous lions”. J’ai volontairement extrait, d’un appel à l’insurrection, quelques phrases qui expriment le cœur de l’attitude existentielle qui la fonde. De l’affirmation de la vie comme présence ouverte au monde, différents types de conduite peuvent découler. Faire sécession est évidemment une solution possible, mais ce n’est pas la seule. La proposition a une valeur beaucoup plus générale. Quel que soit le fondement philosophique sur laquelle on l’appuie, cette façon de penser la présence au monde d’un sujet, inscrit dans le “transindividuel” et dans ses « milieux associés”, débouche sur ce qu’il faut bien appeler une dimension spirituelle de l’expérience, qui relie l’individu à plus vaste que lui. C’est ainsi que la définit Dominique Bourg dans son dernier livre, en se fondant sur Luhman, mais en retrouvant de la sorte le dernier état de la pensée de Bateson (lequel, sous le nom de “religion”, parlait en réalité d’un spirituel immanent). Bien que différentes croyances puissent s’y retrouver, cette reconnaissance d’une spiritualité est loin de ramener au monde de l’hétéronomie. Elle donne au contraire accès à une autonomie plus complète, consciente des conditions effectives de la vie humaine dans le monde. C’est, en fin de compte, ce que j’avais à l’esprit en proposant de rajouter un degré de réflexivité supplémentaire à la leçon de Mauss, pour concevoir une “révolution écologique”.
BHAT2021
The Man From The Future
Ananyo BHATTACHARYA, The Man From The Future. The Visionnary Life of John von Neumann, London, Penguin Books, 2021.
BHAT2021.1
Cf. Bhattacharya, The Man From The Future, op. cit., p. 129 : The idealized neuron of von Neumann’s EDVAC report came from work published by the neurophysiologist Warren McCulloch and the mathematician Walter Pitts in 1943. What they described was a vastly simplified electronic version of a neuron, which summed a number of input signals together and fired off a signal if that sum exceeded a certain threshold. A real neuron is a lot more complicated than this, for instance summing thousands of input signals and producing a train of pulses rather than a single blip. McCulloch and Pitts argued that neurons could nonetheless usefully be treated as switches. They showed that networks of such model neurons could learn, calculate, store data and execute logical functions – they could, in short, compute. Whether they had ‘proved, in substance, the equivalence of all general Turing machines – man-made or begotten’, as McCulloch later claimed, is a point of contention even today.
BHAT2021.2
Cf. Bhattacharya, The Man From The Future, op. cit., p. 152 : Israel Halperin, von Neumann’s only doctoral student, called him a “magician”. “He took what was given and simply forced the conclusions logically out of it, whether it was algebra, geometry, or whatever,” Halperin said. “He had some way of forcing out the results that made him different from the rest of the people.” Hungarian mathematician Rózsa Péter’s assessment of his powers is more unsettling. “Other mathematicians prove what they can,’ she declared, ‘von Neumann proves what he wants.”
BHAT2021.3
Cf. Bhattacharya, The Man From The Future, op. cit., p. 160 : Von Neumann’s seemingly divergent interests had a funny habit of colliding with each other in interesting ways.
BHAT2021.4
Cf. Bhattacharya, The Man From The Future, op. cit., p. 203 : “Game theory portrays a world of people relentlessly and ruthlessly but with intelligence and calculation pursuing what each perceives to be his own interest,” says the physicist turned historian Steve J. Heims. “The harshness of this Hobbesian picture of human behaviour is repugnant to many, but von Neumann would much rather err on the side of mistrust and suspicion than be caught in wishful thinking about the nature of people and society.”
BHAT2021.5
Cf. Bhattacharya, The Man From The Future, op. cit., p. 228 : At the heart of von Neumann’s theory is the Universal Turing machine. Furnished with a description of any other Turing machine and a list of instructions, the universal machine can imitate it. Von Neumann begins by considering what a Turing-machine-like automaton would need to make copies of itself, rather than just compute. He argues that three things are necessary and sufficient. First, the machine requires a set of instructions that describe how to build another like it – like Turing’s paper tape but made of the same “stuff” as the machine itself. Second, the machine must have a construction unit that can build a new automaton by executing these instructions. Finally, the machine needs a unit that is able to create a copy of the instructions and insert them into the new machine.
BHAT2021.6
Cf. Bhattacharya, The Man From The Future, op. cit., p. 229 : Five years before the discovery of the structure of DNA in 1953, and long before scientists understood cell replication in detail, von Neumann had laid out the theoretical underpinnings of molecular biology by identifying the essential steps required for an entity to make a copy of itself. Remarkably, von Neumann also correctly surmised the limits of his analogy: genes do not contain step-by-step assembly instructions but “only general pointers, general cues” – the rest, we now know, is furnished by the gene’s cellular environment.
BHAT2021.7
Cf. Bhattacharya, The Man From The Future, op. cit., p. 262 : Over seven decades since von Neumann first lectured on his theory of cellular automata, its possible implications are still being worked out. Plausibly, it could yet give us nanomachines, self-building moon bases and even a theory of everything. Yet while it took just a few years for Turing’s computing machine to be turned from mathematical abstraction to physical reality, the self-replicating machines von Neumann imagined have not yet been made. Or have they?