::TOC::

STEN1996a La guerre des sciences

Isabelle STENGERS, La guerre des sciences. Cosmopolitiques I, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1996.

STEN1996a.1 Cf. Stengers, La guerre des sciences, op. cit., p. 93 : Les mathématiques sont-elles une pratique moderne ? Question absurde apparemment, si l’on se souvient du rôle que jouent les mathématiques dans nos savoirs modernes, comme aussi de leurs connivences évidentes avec le pouvoir. Cependant, les notions d’exigence et d’obligation mènent à poser plusieurs objections. D’abord, et ce dans le cadre de la mise en scène que je propose ici, les mathématiques ne sont évidemment pas les héritières du geste platonicien d’exclusion des sophistes : c’est bien plutôt l’exemple des mathématiques que Platon requiert pour faire exister une vérité non relative à l’opinion. Ensuite, la connivence entre mathématiques et pouvoir n’est pas une invention capitaliste : géométrie, astronomie et arithmétique ont toujours été partie prenante de la gestion matérielle et spirituelle des empires. Enfin, les mathématiques n’entretiennent pas avec les sciences modernes le même type de rapport polémique que ces dernières entretiennent entre elles. S’il fallait les situer dans la hiérarchie, la seule place qui leur conviendrait serait évidemment le sommet, mais cette place occulte leur mobilité singulière : le devenir-mathématique peut, pour le meilleur et pour le pire, affecter n’importe quelle science, sans créer, pour autant, de rapport de dépendance, quoique, partout où elle se transporte, partout où surgissent des rapports, la raison mathématique ordonne, commande et prononce sa loi (voir Michel SERRES, Les Origines de la géométrie, Flammarion, Paris, 1993). Je me bornerai ici à souligner que les notions d’obligation et d’exigence peuvent aider à saisir la singularité des mathématiques. De fait, c’est sans doute la pratique où ces notions s’imposent avec le plus d’évidence. Les êtres mathématiques n’existent que dans la mesure où ils satisfont une exigence qu’explicite leur définition : celle-ci doit résister à toutes les épreuves, se conserver dans toutes ses applications ; corrélativement, sa définition oblige le mathématicien, le contraint à l’invention la plus périlleuse, le force à affronter ce que d’autres jugeraient impensable. Il est bien possible que l’obligation d’avoir à introduire les nombres irrationnels n’ait pas frappé les disciples de Pythagore de la panique que l’on dit, mais ce mythe convient aux mathématiques. Et c’est peut-être le fait que, en mathématiques, exigence et obligation sont littéralement et inséparablement constitutives de ce qui existe et de ce qui fait exister, le fait que toute définition engage et impose d’être poursuivie jusque dans ses conséquences les plus scandaleuses, qui fait la singularité de cette pratique par rapport à celles que j’appelle modernes. Celles-ci doivent inventer, dans des domaines toujours déjà habités par d’autres, les moyens de créer une différence entre énoncé fiable et simple opinion, c’est-à-dire, le cas échéant, les moyens d’“exclure les sophistes”, alors que le mathématicien fait exister des espaces conceptuels que nul ne peut habiter sans en accepter les contraintes.

STEN1996a.2 Cf. Stengers, La guerre des sciences, op. cit., p. 98 : On peut ici se souvenir de la proposition de Gilles Deleuze selon laquelle l’Éthique de Spinoza est une éthologie [Gilles DELEUZE, Spinoza. Philosophie pratique, Minuit, Paris, 1981, p. 40.] car “à l’opposition des valeurs (Bien-Mal) se substitue la différence qualitative des modes d’existence (bon-mauvais)”[Ibid., p. 35.]. L’éthologie, lors­qu’il s’agit des pratiques humaines, relève de l’expérimentation productive, performative, quant aux modes d’existence, aux manières d’affecter et d’être affecté, d’exiger et d’être obligé, et la substitution des valeurs de jugement par des valeurs “éthologiques” n’a pas à être défendue mais à être effectuée.

STEN1996a.3 Cf. Stengers, La guerre des sciences, op. cit., p. 114 : Tenter d’expliciter ces requisits, c’est tout à la fois tenter de définir ce qui peut être exigé de l’être auquel on s’adresse, les questions, c’est-à-dire les mises en relation et les épreuves, auxquelles il se prête, et poser le problème de ce que cet être “fait” ou “a fait” de ce qu’il requiert ou a requis. C’est un tout autre appétit de savoir qui est demandé là, non plus l’appétit du créateur qui fait exister, mais celui de l’enquêteur qui, après avoir défini son terrain, l’ensemble des ingrédients qui, d’une manière ou d’une autre, ont pu ou dû jouer un rôle dans l’affaire, ne peut attendre que cette affaire s’explique d’elle-même mais doit en reconstituer l’intrigue : toujours telle ou telle intrigue parmi la variété de celles que le “même” terrain aurait autorisées.

STEN1996b L’invention de la mécanique : pouvoir et raison

Isabelle STENGERS, L’invention de la mécanique : pouvoir et raison. Cosmopolitiques II, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1996.

STEN1996b.1 Cf. Stengers, L’invention de la mécanique : pouvoir et raison, op. cit., p. 10 : Dès le XVIIe siècle, alors que l’on ne connaissait pas grand-chose du cerveau, et rien des neurones, Leibniz avait affirmé que jamais des “raisons mécaniques”, utilisant les figures et les mouvements de Descartes, n’expliqueraient la perception, et cette thèse centrale de la Monadologie s’est répétée au cours de âges, alors qu’à la figure et au mouvement se substituaient les interactions chimiques, neuronales, synaptiques, mettant en scène ici un cerveau sec, foncièrement électrique et calculateur, là un cerveau humide, résolument hormonal et émotionnel.

STEN1996b.2 Cf. Stengers, L’invention de la mécanique : pouvoir et raison, op. cit., p. 22-23 : C’est en effet le pouvoir du formalisme dynamique, sa capacité à “faire abstraction” de la particularité empirique des situations dans l’écriture de ses équations, qui fascine les économistes. Il s’agira, là aussi, de tenter de faire exister de nouveaux intérêts, de comprendre ce que traduit la possibilité d’écrire ces fameuses équations. Et l’enjeu est de faire apparaître à quel point ce type d’abstraction diffère de celui qui relève, par exemple, de la logique et, de manière plus générale, de tout langage où un même mot, “arbre” par exemple, est susceptible de désigner une multitude : des végétaux tous différents, voire des artefacts qui simulent les végétaux en question. La logique se donne la liberté de “décider” de caractériser un être par des attributs abstraits, par exemple de définir Socrate comme un homme, un homme comme mortel, etc. Elle n’a pas à payer le prix de cette abstraction, à se demander si tout être humain, acceptera la pertinence, en ce qui le concerne, de cette appartenance au genre humain, ou si tous entendront le terme mortel de la même façon. Elle doit seulement se conformer à ses propres définitions, ne pas en changer au cours d’un raisonnement. L’abstraction est donc ici de l’ordre d’une généralisation unilatérale, qui procède par oubli des particularités empiriques. Je voudrais montrer que, en dynamique, abstraction veut dire, d’abord et avant tout, singularisation, opération qui exploite la singularité de ce sur quoi elle opère pour en construire de nouveaux modes de définition. Corrélativement, l’abstraction dynamique est soumise à des obligations : il faut montrer que l’on peut abstraire, c’est-à-dire qu’aucune des questions qui pouvaient se poser dans la description dynamique usuelle ne se perdra, et que toutes recevront une réponse optimale, mettant en lumière la singularité de la situation physique à laquelle elles correspondent. En d’autres termes, l’abstraction implique ici que la singularité d’une situation, au sens précis où elle relève de la dynamique, a été mise en œuvre et tournée contre la particularité de sa définition empirique. C’est cette double opération, “mise en œuvre” et “tournée contre”, dont il s’agira ensuite de suivre l’invention afin de montrer qu’il n’est pas de notion théorico-expérimentale plus exigeante et moins générale que celle d’état dynamique. L’ambition d’étendre à d’autres domaines la mise en coïncidence qu’effectue la dynamique entre description et explication pourrait ainsi – il n’est pas interdit d’espérer – rejoindre le royaume des rêves creux auquel elle appartient.

STEN1996b.3 Cf. Stengers, L’invention de la mécanique : pouvoir et raison, op. cit., p. 48 : Telle est la nouvelle donne : les mathématiques ne sont plus du côté de l’invention des problèmes, elles sont du côté de leur “formalisation”, de leur mise sous forme d’équations mathématiques. En 1788, avec la mécanique de Lagrange, est donc venu au monde un nouveau type d’être physico-mathématique, une véritable “machine à écrire des équations”.

STEN1996b.4 Cf. Stengers, L’invention de la mécanique : pouvoir et raison, op. cit., p. 63 : “Savoir” au sens lagrangien, c’est construire, et la construction lagrangienne ne définit pas le changement au termes de déplacement dans l’espace et au cours du temps. Elle le définit en termes de “distances” mesurées par des coûts, par ce que nous appelons désormais le travail, “prix” du passage d’un état à un autre état. Rétroactivement, la hauteur galiléenne mesurait déjà le “travail” de la force galiléenne pendant la chute ou pendant la remontée, quel que soit le chemin. Mais elle ne permettait pas de décrire l’évolution dans le temps, seulement de la soumettre à la logique de l’équivalence. Avec Lagrange, l’évolution temporelle elle-même va être soumise à cette logique de l’équivalence.

STEN1997a Thermodynamique : la réalité physique en crise

Isabelle STENGERS, Thermodynamique : la réalité physique en crise. Cosmopolitiques III, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997a.1 Cf. Stengers, Thermodynamique : la réalité physique en crise sciences, op. cit., p. 94-95 : Car c’est bel et bien une crise de la réalité physique qui vient de “passer”, au sens où sa “moralisation” la renvoie à un passé dépassé. Chacun à leur manière, les vaincus de cette histoire, Ostwald mais aussi Duhem et Mach, étaient des “révolutionnaires”, luttant, un peu comme les futurs créateurs de la mécanique quantique, Bohr, Heisenberg ou Pauli, pour une nouvelle conception de l’histoire de la physique, appelée à se dégager de la particularité de ses premiers objets. Ils ne s’en prenaient pas au “réalisme” par conviction utilitaire. Ils affirmaient que c’est la trompeuse simplicité de ses premiers objets, mécaniques, qui a favorisé la croyance naïve du physicien “réaliste” en une réalité généralement capable de dicter ses raisons. Et ils voyaient la thermodynamique comme une généralisation de la dynamique obligeant celle-ci à la lucidité dont elle avait jusque-là pu faire l’économie, obligeant les physiciens à dire adieu au monde transparent et rationnel où règne la Reine des Cieux.

STEN1997a.2 Cf. Stengers, Thermodynamique : la réalité physique en crise sciences, op. cit., p. 97 : Dans la mesure où le mécanisme suppose une réalité connaissable et permet d’affirmer que la “réalité empirique” autorise directement la théorie, elle inspire confiance et foi, et le physicien au travail est donc “spontanément mécaniste”. Le scepticisme et la subtilité mathématicienne d’un Duhem ne traduisent-ils pas la volonté pernicieuse de détruire cette confiance non réflexive qui fait la force des physiciens ? Pour Abel Rey, le mécanisme n’était qu’un postulat pratique, privilégiant les modèles qui mettent en scène les corps en mouvement, et non une vérité au sens philosophique. C’est pourquoi, Lénine, dans Matérialisme et empirocriticisme, le traite de “confusionniste”, une attitude inadmissible pour ce qui concerne la véritable croisade que lui-même vient de lancer contre les “machistes” Adler et Bogdanov : l’avenir du mouvement révolutionnaire semble en jeu avec les valeurs de la connaissance.²

STEN1997b Mécanique quantique : la fin du rêve

Isabelle STENGERS, Mécanique quantique : la fin du rêve. Cosmopolitiques IV, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997b.1 Cf. Stengers, Mécanique quantique : la fin du rêve, op. cit., p. 61 : Il convient de rappeler ici la double distinction radicale opérée par Gilles Deleuze entre le virtuel et son actualisation, d’une part, le possible et sa réalisation, de l’autre. Au possible ne “manque” que l’existence. Or c’est bien là le présupposé du dispositif de mesure par simple repérage que suppose la dynamique : un corps peut avoir toutes les positions ou les vitesses possibles, le repérage se bornant à faire passer du possible au réel l’une de ces valeurs. En revanche, l’actualisation est de l’ordre de la création : elle implique un changement de nature, non la limitation d’une possibilité préexistante. “Le virtuel a la réalité d’une tâche à remplir comme d’un problème à résoudre ; c’est le problème qui oriente, conditionne, engendre les solutions, mais celles-ci ne ressemblent pas aux conditions du problème.” [Gilles DELEUZE, Différence et répétition, PUF, Paris, 1972, p. 274.] À la notion de problème dans la pensée de Deleuze répond la notion de choix dans celle de Bohr. Pour Bohr, le choix d’un dispositif de détection est le choix du problème par rapport auquel prend sa signification la production de détermination (ou l’actualisation du virtuel).

STEN1997b.2 Cf. Stengers, Mécanique quantique : la fin du rêve, op. cit., p. 88 : Vigier et Lénine avaient tort : la question n’est pas celle d’un solipsisme idéaliste, qui met en doute l’existence d’une réalité “sans nous”. C’est celle du divorce radical institué par le formalisme entre cette réalité sans nous et la réalité “pour nous”. C’est celle d’une véritable “claustrophobie” du physicien soudain obligé par son formalisme de renoncer à désigner la “contrepartie” signifiante de ses pratiques productrices de signification. Et le terme “désigner” est, ici, important. La source d’insatisfaction lancinante suscitée par le formalisme quantique n’est plus maintenant l’impossibilité de “dévoiler” un réel qui aurait, comme la Reine des Cieux classique, le pouvoir de faire coïncider description et raison, ou, comme la réalité mathématique quadridimensionnelle de la relativité générale, le pouvoir de désigner une vérité “supérieure”. Que la réalité ne confirme pas cette exigence, soit. Que la lumière ne permette pas de construire une identité transcendant les mesures et donnant les raisons de sa “phénoménalisation” ou bien comme particule ou bien comme onde, soit. Mais le fait d’avoir à renoncer à faire valoir l’exigence d’une réalité transparente et intelligible d’elle-même, d’avoir à admettre avec la complémentarité que la réalité décrite intègre une référence à la mesure, doit-il nous conduire à un langage dont la syntaxe fait de la mesure la responsable unique de l’observabilité du monde ?

STEN1997b.3 Cf. Stengers, Mécanique quantique : la fin du rêve, op. cit., p. 138-139 : En d’autre termes, l’axiomatique de von Neumann porte à une puissance quasi perverse l’ironie ambiguë du formalisme quantique. Car l’espace de Hilbert, où des “états quantiques” peuvent être représentés, suscite irrésistiblement une présentation de la situation où il semble bel et bien que la fonction d’onde “représente“ le système quantique. Un “réalisme hilbertien“, qui assimile l’espace de Hilbert à la “vérité physico-mathématique” transcendant le monde phénoménal comme l’espace quadridimensionnel d’Einstein transcende notre monde où l’espace et le temps sont séparés ; est donc quasi dicté au physicien (et au philosophe).

STEN1997c Au nom de la flèche du temps : le défi de Prigogine

Isabelle STENGERS, Au nom de la flèche du temps : le défi de Prigogine. Cosmopolitiques V, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997c.1 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 9 : L’expression “flèche du temps” ne suscite aucun problème de la part des physiciens, mais plonge certains philosophes critiques dans un abîme de perplexité. Comme si le physicien s’arrogeait ici la possibilité de parlé du temps “en lui-même” alors que son temps n’est, et ne peut être, que le temps de l’horloge, ou de tout autre dispositif capable de conférer une mesure quantitative au changement : le temps, nombre du mouvement, disait déjà Aristote. Le temps des physiciens, de ce point de vue critique, a le statut d’une condition pour la connaissance : il permet l’étude du mouvement, mais ne peut pas être confondu avec le mouvement. Or, le fait de discuter de la “flèche du temps” ne manifeste-t-il pas cette confusion entre “temps-mesure” et “mouvement mesuré” ?

STEN1997c.2 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 10-11 : Le temps comme nombre du mouvement est un énoncé général, qui convient à l’ensemble de tous les mouvements à des problèmes d’échelle près. Avec le même chronomètre, je peux nombrer le mouvement de la tortue ou du cheval au galop, de la bille ou de la décomposition d’un cadavre. Il constitue en ce sens une mesure “externe” parmi d’autres. On se souviendra (voir Cosmopolitiques II) du “travail” défini par les ingénieurs du début du XIXe siècle, qui mesure indifféremment l’activité des rats, des hommes, ou de la bille qui roule, avec ou sans frottement. De même que, contrairement aux rats et aux travailleurs, la bille idéale de Galilée confère une signification théorique intrinsèque au travail, cette bille noue entre “temps” et “mouvement” les relations qui vont créer le problème de la “flèche du temps”. Le battement isochrone du pendule ne crée pas seulement les nombres qui permettront la mesure de tout autre mouvement, il est lui-même soumis à une loi temporelle qui explique et garantit l’étalon qu’il constitue. En d’autres termes, la régularité du mouvement pendulaire n’est pas seulement condition de mesure (comme le fut auparavant la périodicité du mouvement apparent du soleil). Bien sûr, elle ne témoigne pas directement à propos du temps. Mais son témoignage porte bel et bien sur l’articulation des instants successifs du mouvement, qui se trouve soumis, pour le pendule idéal comme pour tout autre mouvement dynamique, à l’équivalence causale. L’état instantané devient ainsi capable de définir les états passés et les états futurs, tous mis sous le signe de l’équivalence. Corrélativement, le battement pendulaire ne donne plus seulement un nombre au mouvement, le nombre lui-même devient fonction (de l’accélération gravitationnelle et de la longueur du fil). Le temps-mesure est devenu interne à l’objet : il entre dans la définition de l’objet, et cette définition, en retour, détermine l’existence de l’objet dans son rapport au temps.

STEN1997c.3 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 14-15 : Il n’échappera pas au lecteur de Cosmopolitiques IV, et à tout autre averti en matière de mécanique quantique, que nous sommes tout proches du problème de la mesure mis en scène pas von Neumann. Selon von Neumann, tien ne semble autoriser le physicien à “arrêter” la description quantique, en termes de fonction d’onde, lorsqu’il a affaire à l’interaction avec un dispositif de mesure, mais s’il représente ce dispositif en termes quantiques, dans l’espace de Hilbert, il est obligé par cette représentation à reconnaître qu’il a perdu la possibilité de mettre en scène une mesure. Dès lors, l’observateur humain, doué de conscience, est requis par von Neumann pour définir les conditions de possibilité de la mesure quantique. Mais, on l’a vu avec Nancy Cartwright, cette mise en scène, qui crée un face-à-face dramatique entre la conscience humaine et la “réalité hilbertienne” est remarquablement artificielle. De même que la pendule doit enfreindre, pour fonctionner et dire le temps, l’idéale symétrie de la dynamique, la description quantique du moindre processus où le temps “compte” pour les physiciens les oblige, et ils le font sans hésiter, à “sortir de l’espace de Hilbert” c’est-à-dire à introduire les approximations qui les libéreront des obligations imposées par la fonction d’onde. Dans les deux cas, nous avons donc affaire non à un face-à-face entre l’“homme” et son “objet”, mais à une question produite par la physique. Ce sont les physiciens, et non les humains en général, qui se trouve face à un conflit entre obligations : entre ce à quoi oblige une pratique expérimentale pertinente et ce à quoi oblige la définition hilbertienne ou dynamique de la “réalité”.

STEN1997c.4 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 16-17 : C’est pourquoi, dans le cas quantique comme dans le cas classique, la nécessité d’“enfreindre la loi”, de briser la symétrie des équations dites fondamentales, loin d’apparaître comme mettant en cause l’autorité de la loi, peut être très aisément occultée. L’approximation semble en effet confirmer l’autorité de la loi. Et ce d’autant plus qu’elle peut revêtir une allure parfaitement anodine, pleinement justifiée par l’insignifiance de ce qui est négligé. En fait, dès que quelque chose peut être défini comme négligeable, le tout est joué. De même que la moindre opération de “cuisine quantique” suffit à sortir de l’espace de Hilbert et à aboutir à une description probabiliste de type réaliste, la moindre approximation par rapport à l’idéal de définition suffit à introduire la “flèche du temps” dans une description régie par la dynamique. Plus précisément, n’importe quelle approximation se traduit toujours dans les deux cas par un brisement de la symétrie qui singularise la représentation idéale. Construire la signification de ce à quoi la pratique expérimentale nous oblige est donc d’une facilité dérisoire.

STEN1997c.5 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 122-123 : La définition d’une représentation spectrale est le Graal de la physique mathématique : elle vise à définir l’objet et sa loi d’évolution selon le même langage, un langage qui annule la différence entre le registre du problème et celui de sa solution. On pourrait également changer de métaphore et dire que, pour Prigogine, la possibilité de définir une représentation spectrale à symétrie temporelle brisée ferait passer sa lutte d’une situation de guerre insurrectionnelle, où le rebelle recrute des alliés redoutables peut-être, mais barbares aux yeux des occupants du pouvoir, à une tentative de conquête du pouvoir par un prétendant légitime : le rebelle se découvre héritier du pouvoir qu’il contestait, descendant en ligne directe de la grande tradition de l’invention physico-mathématique. Comme tout les membres de la lignée royale, il aurait, lui qui auparavant “suivait” les propriétés phénoménologiques de la matière, réussit à “faire parler l’objet”. Où l’on retrouve la distinction deleuzo-guattarienne entre sciences ambulantes et royales : “Quelle que soit sa finesse, sa rigueur, la ‘connaissance approchée’ reste soumise à des évaluation sensibles et sensitives qui lui font poser plus de problème qu’elle n’en résout : le problématique reste son seul monde. Ce qui appartient au contraire à la science royale, à son pouvoir théorématique ou axiomatique, c’est d’arracher toutes les opérations aux conditions de l’intuition pour en faire de véritables concepts intrinsèques ou ‘catégories’ [G. DELEUZE et F. GUATTARI, Mille Plateaux, Minuit, Paris, 1980, p. 463.].”

STEN1997c.6 Cf. Stengers, Au nom de la flèche du temps : le défi de Prigogine, op. cit., p. 145 : On peut certes être tenté de centrer le problème autour de la fascination exercée par la notion de “loi”. On parlera alors de cette fascination, exercée aussi bien sur le physicien que par le physicien, en termes de passion de la raison. Mais si cette raison devait être identifiée à la “raison humaine”, le passé ne pourrait être écarté. Pour éviter de se précipiter vers cette conclusion, il me fallait montrer qu’il n’y a nul besoin de penser que la “raison” en question soit celle de l’humain en général. L’exigence d’une définition qui identifie et soumet à une loi est bien plutôt, me semble-t-il, née avec la découverte-invention du pouvoir du signe , avec la satisfaction de ce qui dès lors prenait l’évidence d’un rêve depuis toujours poursuivi : il était donc possible de savoir comment le passé détermine le présent et le présent, l’avenir.

STEN1997d La vie et l’artifice : visages de l’émergence

Isabelle STENGERS, La vie et l’artifice : visages de l’émergence. Cosmopolitiques VI, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997d.1 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 34-35 : C’est l’un des aspects les plus inattendus de cette “révolution” qui a nom biologie moléculaire que d’avoir créé la conception d’une émergence “absolue”, comme la qualifie Jacques Monod, ne répondant à aucune autre raison que celle de la sélection. Comme l’horloge, qui ne doit aux lois de la mécanique que des propriétés quelconques, et doit tout à l’intelligence du constructeur qui a façonné chaque pièce et les a agencées, le vivant de la biologie moléculaire est “compatible” avec la physico-chimie mais n’a aucun compte à lui rendre. Jacques Monod n’a jamais célébré le fourmillement prodigieux des protéines et de leurs interactions, mais la logique cybernétique à laquelle elles obéissent. De fait, la biologie moléculaire, alors même qu’elle célèbre la réduction de la vie à un gigantesque réseau de catalyses, d’associations et de régulations intermoléculaires, célèbre tout aussi bien le triomphe de l’artifice technique sur la matière fourmillante de Perrin. Ce n’est donc pas sans raison que les performances spécifiques dont sont susceptibles les protéines sont rapprochées de celles de “démons de Maxwell” microscopiques. De même que le démon faisait prévaloir les droits de la théorie qui le rendait capable de dompter le fourmillement, et d’imposer un comportement collectif en rupture avec les probabilités, les performances des protéines asservissent l’activité chimique et la constituent en “moyen” biochimique de parvenir à un “fin” qui lui est étrangère, qui renvoie à la seule histoire sélective. La sélection opère sur un terrain toujours déjà défini par une logique de l’asservissement, en l’occurrence sur le résultat de mutations imprévisibles traduisant notamment l’imperfection de l’asservissement des réactions chimiques qui assurent la réplication de l’ADN, l’imperfection donc de la soumission de ces réactions à la logique de conservation dont elles sont les moyens.

STEN1997d.2 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 40 : Soulignons ici l’exception remarquable que constitue le réseau Internet : ses constructeurs n’ont pas visé seulement la création d’un dispositif technique, mais aussi la mise en place de contraintes destinées à obliger l’histoire à contrecarrer la possibilité d’une prise en main centralisée. C’est pourquoi le fait que l’avenir d’Internet puisse apparaître comme singulièrement indéterminé doit être célébré comme une nouveauté, traduisant l’apparition d’un type psycho-social inédit d’innovateur technique.

STEN1997d.3 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 71-72 : La problématique de l’émergence dans le contexte des sciences de l’artificiel se pose de manière tout à fait différente. Ici la question n’est pas du tout celle de l’“émergence” éventuelle d’une signification “pour” un monde. L’artefact a toujours une signification. Il peut toujours être compris dans les termes d’une logique qui rapporte les moyens à une fin. Si l’on considère les deux champs distinct, l’“intelligence artificielle” et la “vie artificielle”, qui se sont imposés au cours de ces trente dernières années comme prétendant à “expliquer” qui l’intelligence, qui la vie, le trait commun qui les caractérise (et traduit leur filiation commune au travail de John von Neumann sur les ordinateurs) est par ailleurs la distinction radicale entre le “traitement de l’information”, qui doit être compris en termes logiques (computation), et l’“implémentation” matérielle de ce traitement. La notion d’artefact, ici, ne doit plus évoquer l’image de l’horloge, ni même d’ailleurs celle du robot laborieusement agencé. Ce que l’art humain envisage de reproduire est la “forme” qui commande la matière, c’est-à-dire qui peut être conçue indépendamment de la matière qu’elle commandera. Les êtres informatiques ne s’actualisent pas, ils se réalisent indifféremment avec tel ou tel support matériel. Ce support matériel peut être source de pannes ou de plantage, pas de différenciation. L’artefact crée donc ici une mise en scène étrangère aux sciences de la nature : l’“esprit” commande une matière. L’idéal est la soumission non à des lois mais à un projet.

STEN1997d.4 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 74-75 : Le champs appelé aujourd’hui “vie artificielle” a beau affirmer que les ambitions de son prédécesseur – faire émerger l’intelligence ” étaient hautement prématurées, ses propres ambitions ne sont pas beaucoup plus modeste. Chris Langton, ténor du champ, en a écrit le premier manifeste où chaque mot est pesé et chaque accent visionnaire délibéré, lorsqu’il en convoqua la conférence inaugurale à Los Alamos en septembre 1987 : “La vie artificielle est l’étude des systèmes artificiels qui exhibent le comportement caractéristique des systèmes naturels vivants. C’est la recherche d’une explication de la vie dans n’importe laquelle de ses manifestations possibles, sans restriction aux exemples particuliers qui ont évolué sur Terre. Ceci inclut les expérimentations chimiques et biologiques, les simulations sur ordinateur, et les recherches purement théoriques. Les processus qui caractérisent les échelles moléculaire, sociale et évolutionnaire sont étudiés. Le but ultime est d’extraire la forme logique du système vivant. La technologie électronique et l’ingénierie génétique nous donneront bientôt la capacité de créer de nouvelles formes de vie in silico aussi bien qu’in vitro. Cette capacité mettra l’humanité contemporaine en face des défis techniques, théoriques et éthiques les plus radicaux qu’elle ait jamais rencontrés. Le moment semble venu de réunir ceux qui participent aux tentatives de simuler ou de synthétiser des aspects des systèmes vivants. [Cité dans Artificial Life. The Quest for a New Creation, de S. LEVY (Penguin Books, 1993, p. 113-114).]”

STEN1997d.5 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 79-85 : Kauffman lui-même a participé aux début de cette histoire. En 1965, jeune étudiant déjà passionné par les thèmes de la complexité et de l’auto-organisation (dans la tradition de la “seconde cybernétique” associée aux noms d’Ashby et de von Foerster), il monta un réseau assez particulier d’automates booléens. Les automates sont ici des artefacts logiques et l’adjectif booléen désigne les fonctions auxquelles obéissent les différents automates : chacun “calcule” selon l’une des seize relations booléennes la valeur de la sortie (0 ou 1) en fonction de la valeur des entrées. Leur mise en réseau signifie que, de manière synchronisée, chacun envoie ou non un signal à ceux avec qui sa “sortie” est connectée, et ce en fonction des signaux qu’il a reçus d’autres automates booléens à l’étape précédente. Les réseaux d’automates booléens avaient jusque-là été montés en fonction d’un comportement attendu. Or le jeune Kauffman va connecter une centaine d’automates “au hasard”, et constater que le comportement collectif du réseau qui en résulte est d’une simplicité inattendue étant donné l’ensemble des “états” possibles a priori. Qui plus est ce comportement est “robuste” : il résiste jusqu’à un certain point à des changements de connexions, puis peut “basculer” en un autre comportement différencié (le paysage des états est caractérisé par des “bassins attracteurs”). Le modèle de Kauffman a été à l’origine du champ dit “néo-connexionniste”, c’est-à-dire d’une floraison de dispositifs techniques nouveaux et de théories mathématiques permettant de “comprendre” ce qui a d’abord été constaté. Avec les “automates cellulaires” dont le jeu de la vie de Conway fut le prototype, il constitue la source de la conviction que la “vie artificielle” n’est pas une simple rhétorique. Il inaugure en effet un nouveau modèle d’artefact qui répond, comme on le dit le plus souvent, à une approche bottom-up et non plus top-down. Le créateur de l’artefact n’a plus besoin d’être représenté comme un concepteur doué des doigts agiles qui lui permettront de réaliser son projet, d’imposer down ce qu’il a conçu top. Le créateur “profite” d’une forme nouvelle de causalité, que l’on peut appeler “causalité de couplage”, ni linéaire ni circulaire à la mode cybernétique. C’est le fait du couplage qui prime et non la nature des interaction (physiques,chimiques, logiques, électroniques) ou la finalité à laquelle répondrait leur agencement. C’est à un comportement déjà qualifié, déjà doté d’un paysage relativement robuste de possibles “émergeant” du couplage, que le créateur s’intéresse. Si les propriétés génériques exhibée par le réseau booléen en font un “faitiche prometteur”, le “cœur de Dieu” devrait singulariser le nouveau type d’intérêt qu’elles suscitent de la part de celui qui s’adresse au réseau “connecté aléatoirement”, le nouveau rapport pratique entre l’artefact est son constructeur. Car le “constructeur néo-connexionniste” ne vise bien entendu pas seulement une cartographie des comportements stables de son réseau. Il vise à modifier, à modeler ces comportements de telle sorte que la carte des possibles, “bottom” prennent une signification up. L’exemple le plus typique d’invention d’un tel rapport est celui qui a produit le réseau en tant qu’“agent” d’une reconnaissance des formes. L’exemple de la reconnaissance des formes est intéressant en ce qu’il s’agit d’une performance apparemment simple – nous le faisons sans y penser – mais qui avait toujours été un point faible pour l’intelligence artificielle. Qu’est-ce qu’un “B” ? Certes il est possible de formuler des critères permettant l’identification de la forme du “B”. Encore faut-il que ces critères résistent à une terrible exigence : permettre la reconnaissance d’une multiplicité indéfinie de B, plus “mal écrits” les uns que les autres, certains tendant même vers “D”, d’autres vers “8”, voire vers “A”. C’est ici que devient essentiel le caractère robuste du comportement néo-connexionniste, c’est-à-dire le fait que la relation entre une distribution initiale des valeurs 0/1 des automates et le comportement stable qui en résulte résiste à des modification de cette configuration initiale. Si cette relation pouvait être construite comme une “reconnaissance” de la configuration en question, cette reconnaissance serait par définition indulgente, robuste par rapport à des variations. La question n’est donc plus celle d‘une production de critère explicitant ce qui spécifie la forme à reconnaître, mais de l’“apprentissage” qui fera la différence entre une indulgence bienvenue et une indulgence déplacée. Il s’agit de faire coïncider de manière optimale le “bassin attracteur” de toutes les configurations initiales qui mènent à un même comportement et l’ensemble de toutes les configurations initiales qui, pour nous, sont des “B”. En l’occurrence, l’apprentissage passe par une modification (selon un processus foncièrement aléatoire mais piloté automatiquement) des connexions ou du poids des connexions entre automates jusqu’à ce que le réseau adopte le même comportement pour tout ce que nous reconnaissons comme “B”, et adopte d’autres comportements pour tout ce qui, pour nous, n’est pas “B”. Un réseau “aléatoire” apprend, certes, mais il faut le souligner, il n’apprend pas tout seul, et bien sûr il n’a aucun savoir de ce qu’il apprend. L’apprentissage se fait à deux, et ne peut être réduit ni à un montage, aussi tâtonnant et négocié qu’on veut, ni à une évolution spontanée, aussi contrôlée soit-elle. Le fabricant propose, mais d’une certaine manière, le réseau dispose, au sens où, étant donné la proposition du fabricant, la configuration initiale qui a été imposée, le réseau évolue vers un comportement stable qui n’appartient qu’à lui, que le fabricant constate mais par rapport auquel il ne nourrit pas d’ambition de prévision. Pour le fabricant, ce comportement, quel qu’il soit, va donc être la réponse, la traduction, émergeant du collectif en réseau, de ce qui lui a été proposé, et c’est à partir de cette réponse que l’apprentissage va commencer : il faut que, pour toutes les configurations initiales que le fabricant juge ou veut semblables, la traduction reste la même, et que pour d’autres propositions, qu’il juge ou veut différentes, la traduction soit différente. Quelle que soit la manière approximative dont nous les écrivons, nous entendons que vingt-six lettres distinctes soient reconnues comme composant nos mots. Il faut que le réseau en vienne à les distinguer. Je n’entrerai pas dans la technique des algorithmes de modification du réseau qui permet l’“apprentissage”. Le point important est que nous avons ici affaire à une inter-action au sens fort. “Le réseau est capable d’apprendre !” “C’est un réseau neuronal artificiel, première figure du corps absent de l’intelligence artificielle, qui vient d’être inventé !” De tels énoncés ne sont pas des conclusions que les spécialistes auraient laborieusement atteintes, mais explicitent bel et bien les prémices de leur intérêt, la conviction que ces réseaux ont suscitée de façon quasi immédiate. Que le fonctionnement soit à la fois vecteur de signification et pourtant incapable de rendre raison de la signification qui “émerge” de son fonctionnement crée la topologie d’un “corps” : le “couplage interne”, dont le caractère robuste permet de passer de l’ensemble des interactions à la signification de cet ensemble “pour” le fonctionnement, se distingue du rapport à un milieu, rapport en termes duquel tous les fonctionnements “ne se valent pas“. En d’autres termes, l’invention des pratiques d’apprentissage crée un “corps” en ouvrant ce que j’ai appelé causalité de couplage, la causalité qui singularise le réseau, à une autre “causalité” hétérogène, qui couple le réseau et celui qui entreprend de lui apprendre à actualiser ses propres fins. Avec l’artefact de type néo-connexionniste, ce sont toutes les spéculations concernant notre mystérieuse capacité à “reconnaître”, sans pouvoir préciser les critères de ressemblance, de Platon à Wittgenstein, qui se trouvent par ailleurs capturées d’un seul coup. Pas besoin d’une “idée“ de la table pour dire “c’est une table”. L’objet reconnu “émerge” en tant que réponse collective, dans l’ici et maintenant, sans modèle ni mémoire localisables. Ou, plus précisément, l’“auto-organisation“, ici, fait émerger un “quasi-objet” pour un “quasi-sujet”, qui ne doit pourtant pas être confondu avec le réseau en tant que tel. Le réseau lui-même est indissociable de la “quasi-fin” qu’il accomplit, mais la signification de cette “quasi-fin” renvoie à celui pour qui il y a émergence.

STEN1997d.6 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 87-89 : Andrew Pickering a comparé la mise au point d’une nouvelle machine de détection classique, qui utilise un processus physique ou chimique pour rendre repérable une entité ou un processus eux aussi physiques ou chimiques, à une danse en deux temps [A. PICKERING, The Mangle of Practice, Chicago University Press, Chicago, 1995.] : le scientifique agence, puis se retire et laisse fonctionner la machine ; il observe alors ce qu’elle “fait”, en l’occurrence ce qu’elle détecte, et interprète les raisons de ce qu’il juge défectueux ; ensuite il se remet au travail et réagence, et ce jusqu’à ce que le détecteur détecte ce qu’il devait détecter. Il y a bel et bien interaction, mais lorsque la machine est stabilisée, le scientifique a appris beaucoup de choses et peut raconter l’histoire toute autrement : la machine prend alors un rôle tout à fait passif, l’action est tout entière redéfinie en termes de ce que le scientifique “ne savait pas” au départ, des problèmes qu’il n’avait pas vus, des distinctions qu’il n’avait pas pensé à faire. Le fabricant, dans le processus même, a pu subir des devenirs extraordinaires, devenir détecteur, se vivre affrontant le monde dont il cherche à capturer un trait distinct. Mais son identité psycho-sociale intègre le mode sur lequel le récit devait trouver son aboutissement, avec la séparation finale entre lui-même, d’un côté, le monde et la machine également physico-chimiques, de l’autre. Le monde témoigne à travers la machine, le fonctionnement de la machine s’explique à partir du monde. Il n’en va pas de même dans le cas des réseau néo-connexionnistes. La “danse” a pour site ne causalité couplée qui jamais ne sera désintriquée. Jamais le fabricant ne saura comment son dispositif procède. Et celui-ci ne détecte pas au sens usuel : il n’a pas pour fin de devenir le témoin de distinctions dont nous pourrions dire qu’elles appartenaient au monde et qu’il s’agissait seulement de les reconnaître. Il est créateur de la distinction qu’il s’agit de reconnaître. Il doit faire passer à travers les signes résolument indistinct proposés par le monde des distinctions conventionnelles, celles auxquelles le fabricant attribue de la valeur. La fin du processus n’est pas la séparation fabricant d’un côté, machine/monde de l’autre, mais fabricant/machine d’un côté, entre-accordés quant aux valeurs, monde de l’autre, toujours aussi résolument indistinct et voulu comme tel : c’est le triomphe même du fabricant que “sa” machine ait réussi à reconnaître ce “B” qu’il avait vraiment écrit de manière cochonnée ! Et lorsque le réseau “reconnaîtra” finalement, de manière spontanée, ce qui lui est proposé, ce fonctionnement ne pourra jamais être assimilé à un fragment de “nature”, sélectionné, mis en scène, purifié, certes, mais obéissant aux mêmes “raisons” que celles de la nature. Les jugements du fabricant sont passés à l’intérieur de la machine, le fonctionnement de celle-ci ayant pour seule “raison” les conventions auxquelles elle a “appris” à obéir.

STEN1997d.7 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 89-91 : Le réseau à apprentissage ne constitue pas un hybride comparable à l’horloge, par exemple. Il ne nécessite pas une lecture historique et constructiviste qui lutte contre la syntaxe triomphale où nous distinguons les lois de la mécanique, d’une part, l’agencement répondant au projet humain, de l’autre. C’est en tant qu’hybride, exhibant les processus de stabilisation et de négociation dont il est issu, que le dispositif se présente, et le fabricant est celui qui l’a fait émerger en tant qu’hybride, en tant qu’une partie de lui-même est “passée” dans la machine et a noué avec les propriétés de généricité qui étaient propres à la machine un mixte que nul, jamais, n’est censé pouvoir séparer. Ce que Dieu a uni… Lorsque les scientifiques parlent de Dieu, ils parlent le plus souvent d’eux-mêmes. Le Dieu d’Einstein, mathématicien, occupe le site qu’Einstein cherchait à construire. Le dieu-démon de Laplace fait à propos du monde ce que l’astronome Laplace se croit capable de faire à propos du système planétaire (qu’il pense stable). Le démon de Maxwell trie les particules comme le physico-chimiste ne peut trier au niveau macroscopique. Le Dieu de Langton pianote sur le clavier du monde. Le Dieu de Kauffman a un cœur, ce qui désigne, je crois, l’inter-action et le monde hybride des entre-captures productrices de signification. Un monde où le “faitiche” que ses propriétés de généricité rendent prometteur n’explique rien en tant que tel, mais appelle et suppose un fabricant qui inter-agit et évalue, et dont les valeurs “passent” dans le monde, deviennent, au sens fort, partie intégrante de ce monde, indissociable de lui, ingrédient d’un ordre qui reste pourtant “typique”, “générique”, et, comme tel, impénétrable “même à Dieu”. L’apprentissage de l’alphabet est une figure pauvre, d’ores et déjà réalisée. Il n’est pas impossible que le type psycho-social nouveau du fabricant de ces nouveaux artefacts se réfère un jour à un apprentissage ouvert, où les “valeurs” du fabricant seraient partiellement suscitée par les réponses de son dispositifs (cela m’a donné une idée…). En ce cas, la fabrication devrait se dire sur le mode du récit : un récit où la démarcation entre le fabricant et sa machine ne cesserait des se transformer ; un récit où l’identité du fabricant – ce qu’il cherche, quels possibles il entend actualiser – “émergerait“ en même temps que les comportements de son dispositif ; un récit où les rôles resteraient certes radicalement asymétriques mais qui ne mettrait plus en scène le détenteur d’un projet et le dispositif qui doit en venir à le réaliser. Un récit constructiviste.

STEN1997d.8 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 94-96 : {{Le trait commun de l’ensemble des “modèles joujous” de Kauffman est qu’ils acceptent les hypothèses de l’évolution darwinienne mais, contrairement au néo-darwinisme, ne supposent pas la toute-puissance de la sélection. Ils mettent en scène les effets d’une pression sélective hypothétique sur l’exploitation d’un paysage de possibles où tout, justement, n’est pas possible parce que l’exploration, de mutation en mutation, a pour sujet les transformations dont sont susceptibles des êtres caractérisés par un couplage interne, par exemple des “réseau génomiques interconnectés [Le réseau d’automates booléen connecté de manière aléatoire de Kauffman, au départ du néo-connexionnisme, était déjà la schématisation d’un “génome” exhibant ses seule propriétés de régulation : chaque automate est un “gène” qui, en activité, synthétise un produit qui active et/ou inhibe d’autres “gènes”. Activation et inhibition sont généralement rapportées à une logique sélective, et donc à une valeur d’utilité. Elles sont ici le réquisit du problème. Ce qui intéressait Kauffman était la question de la différenciation cellulaire stable qui se produit pendant l’embryogenèse, c’est-à-dire le nombre de “fonctionnements cellulaires” distincts (le nombre de bassins attracteurs) que l’on peut obtenir à partir d’un seul génome.]”. C’est le réseau en tant que tel, et non tel ou tel trait, qui est donc caractérisé par un coefficient d’“aptitude” et le taux de connexion caractéristique de ce réseau mesure le nombre de gènes dont dépend la signification, en termes d’aptitude, d’une mutation affectant un gène. En d’autres termes, les modèles kauffmaniens ne se fondent sur aucune hypothèse biologique nouvelle. Ils se bornent à prendre au sérieux ce que sait tout biologiste : la correspondance entre un trait (plus ou moins adapté) et un gène n’est en rien représentative du vivant. Alors que le biologiste évolutionnaire néo-darwinien tend usuellement à minimiser les complications qui résultent de ce petit problème, les modèles de Kauffman proposent d’en faire “le problème” mis en scène, c’est-à-dire notamment d’étudier les effets de la pression sélective selon le type d’être auquel elle s’applique. Une seule hypothèse général se dégage finalement de l’exploration de Kauffman, et c’est sur elle que se concentre son désir de théorie : si la sélection favorise une capacité de différenciation, “encourage” le réseau à explorer un spectre d’“activités” diversifiées, la pression sélective devrait faire évoluer les comportements émergents, et donc aussi le mode de couplage dont ils émergent, vers la frontière entre ordre et chaos. L’ordre parfait, ici, est un comportement parfaitement prévisible et robuste. Kauffman le compare à une situation “gelée” : le système est bloqué dans un mode de fonctionnement et un seul. Le chaos parfait est comparé, quant à lui, à un liquide fluctuant, erratique, tel que toute altération d’un élément peut déclencher une cascade de conséquences partout dans le réseau. Lorsque l’ordre domine, le gel percole partout dans le réseau mais il laisse des marres isolées, non gelées. Dans le régime à dominance chaotique, en revanche, ce sont les régions liquides, fluctuant de manière chaotique, qui percolent, laissant ça et là des îlots gelés. La frontière entre ordre et chaos correspond donc à un comportement générique conservant le “meilleur” des deux mondes, la possibilités d’innovations en cascade et celle de modes de fonctionnement relativement stables résistant aux aléas [La frontière entre ordre et chaos offre donc n modèle de comportement qui peut rappeler la manière dont Henri Atlan a situé le vivant “entre le cristal et la fumée” et Karl Poppers, “entre l’horloge et le nuage”.].

STEN1997d.9 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 103-104 : Le très beau mot d’“attracteur” dit bien ce que met ici en scène cette notion d’universel, le type de nécessité avec laquelle il communique. Il s’agit d’une nécessité qui est toujours relative à un modèle. Et entre le modèle et la “situation modélisée“, c’est l’espace d’un problème qui s’ouvre. L’universel défini par le modèle ne peut en effet prétendre être ce à quoi cette situation est soumise. Il prétend seulement être pertinent pour la comprendre. Si le modèle met en scène un attracteur robuste, caractérisé par des propriétés génériques s’imposant quelle que soit la diversité des circonstances, il désigne une situation dont un des ingrédients devrait être la question de l’universel qui a, littéralement, capturé la situation, qui s’impose à elle sur le mode d’un rapport de force. La diversité est susceptible d’être “jugée” par l’universel sous la prise duquel elle est tombée, mais elle n’est pas soumise pour autant à ce jugement parce qu’elle est susceptible de le définir en retour comme problème.

STEN1997d.10 Cf. Stengers, La vie et l’artifice : visages de l’émergence, op. cit., p. 144 : La référence spéculative à la transduction met donc en risque le pouvoir des modèles qui prétendent autoriser une économie de la perplexité. Les faitiches expérimentaux peuvent bien, par vocation constitutive, prétendre “expliquer” le monde, et il est possible d’affirmer que le monde “s’explique” à travers eux, la référence à la transduction rappelle que l’explication célèbre ici d’abord une hétérogénéité primordiale, dont le faitiche effectue la mise en communication, l’hétérogénéité entre les exigences du scientifique et le monde qui est censé les satisfaire. Mais la référence à la transduction peut également aider à les reconnaître et à célébrer en tant que telles les occasions où le scientifique, mettant entre parenthèses toute plausibilité professionnelle, cherche les mots pour dire la question que lui impose, invinciblement, l’expérience de ce à quoi il a affaire.

STEN1997e Pour en finir avec la tolérance

Isabelle STENGERS, Pour en finir avec la tolérance. Cosmopolitiques VII, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997e.1 Cf. Stengers, Pour en finir avec la tolérance, op. cit., p. 132-133 : Calculemus ne signifie donc pas “mesurons”, “additionnons“, “comparons”, mais d’abord créons le “nous” à partir duquel la nature et les termes de l’opération pourront être agencés. Il ne s’agit pas de procéder au nom du vrai et du juste, mais de fabrique le juste, la “juste mesure”, sachant que le “vrai” sera toujours relatif à ce dont cette fabrication aura été capable, sachant surtout l’hétérogénéité radicale qui préexiste à la fabrication, l’absence de quelque commune mesure préexistante que ce soit entre les ingrédients qu’il s’agira d’agencer. Le meilleur des mondes leibnizien ne garantit en rien les calculs humains car nous ne connaissons ni les termes du problème ni les quantités affectées par Dieu à chacun de ces termes.

STEN1997e.2 Cf. Stengers, Pour en finir avec la tolérance, op. cit., p. 141-142 : Au parasitage généralisé que j’ai associé à la redéfinition capitaliste des pratiques à laquelle il s’agit d’abord de résister correspond peut-être l’axiomatique capitaliste dont Deleuze et Guattari montrent, dans L’Anti-Œdipe, la différence de nature avec les anciens codes et les territoires qui leur correspondent. L’axiomatique capitaliste en elle-même n’est pas identifiable à un ensemble d’axiomes, elle n’existe que dans l’invention d’axiomes, leurs mutations, leurs réarticulations et dans l’invention de re-territorialisations factices qui seront faites, défaites ou refaites selon les conjonctures. “C’est avec la chose, le capitalisme, que l’inavouable commence : il n’y a pas une opération économique ou financière qui, supposée traduite en termes de code, ne ferait éclater son caractère inavouable, c’est-à-dire sa perversion intrinsèque ou son cynisme essentiel […]. Mais précisément, il est impossible de coder de telles opérations [G. DELEUZE et F. GUATTARI, L’Anti-Œdipe, Minuit, Paris, 1972, p . 294 .].” L’invention d’axiomes est “hors calcul”, cela va sans dire, puisque c’est précisément la fonction des axiomes que de substituer à la négociation du problème les énoncés non négociables dont découlera sa solution. Il n’y a pas de “nous” qui tienne dans l’axiomatique capitaliste, et surtout pas le “nous” d’“individus capitalistes” qui les opposerait ensemble à tous les autres qu’il s’agirait d’exploiter. En ce sens, le capitalisme est bien “la limite de toute société [Ibid. , p. 292. Limite relative, est-il précisé, alors que la “schizophrénie” serait la limite absolue, limite extérieure au capitalisme mais produite par le capitalisme lui-même, terme de sa plus profonde tendance, et qu’il doit, par re-territorialisations factices, inhiber pour pouvoir fonctionner.]”, et Deleuze et Guattari semblent nous encourager à accompagner cette limite : “Mais quelle voie révolutionnaire, y en a-t-il une ? […] Aller encore plus loin dans le mouvement du marché, du décodage et de la déterritorialisation ? Car peut-être les flux ne sont pas encore assez déterritorialisés, pas assez décodés, du point de vue d’une théorie et d’une pratique des flux à haute teneur schizophrénique. Non pas se retirer du procès mais aller plus loin, ‘accélérer le procès’, comme le disait Nietzsche : en vérité, dans cette matière, nous n’avons encore rien vu [Ibid., p. 285.].”

LERO1964 Technique et langage

André LEROI-GOUHRAN, Le geste et la parole, I : technique et langage, Paris, Albin Michel, 1964.

LEROI1964.1 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 152 : On peut, dans un certain sens, se demander si les techniques sont vraiment de nature intellectuelle, fondamentalement, ou si la distinction faite souvent entre l’intellectuel et le technique n’exprime pas une réalité paléontologique. Dans la seconde partie, une question du même ordre se posera au sujet du passage progressif du groupement zoologique au groupement ethnique. Dans leur très long développement, chez les Australanthropes et les Archanthropes, les techniques paraissent suivre le rythme de l’évolution biologique et le chopper, le biface, semblent faire corps avec le squelette. Au moment où émergent des possibilités cérébrales nouvelles, les techniques s’enlèvent dans un mouvement ascensionnel foudroyant, mais elles suivent des lignes qui miment à tel point l’évolution phylétique qu’on peut se demander dans quelle mesure elles ne sont pas l’exact prolongement du développement général des espèces. Si la technicité n’est qu’un fait zoologique, à mettre au compte des caractères spécifiques des Anthropiens, on comprend mieux la précocité de son apparition, la lenteur de son premier développement, et, à partir du moment où elle se coule dans le moule intellectuel de l’homo sapiens, le caractère dominateur de son évolution. Les Paléanthropiens sont particulièrement attachants parce qu’ils font assister au premier essor d’aptitudes cérébrales nouvelles qui fournissent à la technicité à la fois un contrepoids et un stimulant.

LEROI1964.2 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 163-165 : Un point essentiel peut toutefois être dégagé : il y a possibilité de langage à partir du moment où la préhistoire livre des outils, puisque outil et langage sont liés neurologiquement et puisque l’un et l’autre sont indissociables dans la structure sociale de l’humanité. Peut-on aller un peu plus loin ? Il n’y a probablement pas de raison pour séparer, aux stades primitifs des Anthropiens, le niveau du langage et celui de l’outil puisque actuellement et dans tout le cours de l’histoire, le progrès technique est lié au progrès des symboles techniques du langage. Il est possible dans l’abstrait de concevoir une éducation technique purement gestuelle ; dans le concret une éducation muette déclenche malgré tout, chez l’éducateur comme chez l’éduqué, la mise en marche du symbolisme réfléchi. Le lien organique paraît assez fort pour qu’on puisse prêter aux Australopithèques et aux Archanthropes un langage de niveau correspondant à celui de leurs outils. À ces stades où l’étude comparative des outils et des crânes paraît montrer que l’industrie se développe à un rythme correspondant à celui de l’évolution biologique, le niveau du langage n’a pu être que très bas, mais il dépassait certainement le niveau des signaux vocaux. En effet, ce qui caractérise chez les grands singes le “langage” et la “technique”, c’est leur apparition spontanée sous l’effet d’un stimulus extérieur et leur abandon non moins spontané ou leur défaut d’apparition si la situation matérielle qui les déclenche cesse ou ne se manifeste pas. La fabrication et l’usage du chopper ou du biface relèvent d’un mécanisme très différent, puisque les opérations de fabrication préexistent à l’occasion d’usage et puisque l’outil persiste en vue d’actions ultérieures. La différence entre le signal et le mot n’est pas d’un autre caractère, la permanence du concept est de nature différente mais comparable à celle de l’outil. […] La technique est à la fois geste et outil, organisés en chaîne par une véritable syntaxe qui donne aux séries opératoires à la fois leur fixité et leur souplesse. La syntaxe opératoire est proposée par la mémoire et naît entre le cerveau et le milieu matériel. Si l’on poursuit le parallèle avec le langage, le même processus est toujours présent. On peut, par conséquent, fonder sur la connaissance des techniques depuis la pebble-culture jusqu’à l’Acheuléen l’hypothèse d’un langage dont le degré de complexité et la richesse de concepts soient sensiblement les mêmes que pour les techniques. Le Zinjanthrope avec une seule série de gestes techniques et un nombre de chaînes opératoires peu élevé livre alors un langage dont le contenu pouvait être à peine plus élevé que ce que le Gorille possède de signaux vocaux mais constitué par des symboles disponibles et non pas totalement déterminés. Les Archanthropes, avec leur double série de gestes, leur cinq ou six formes d’outils, possédaient à coup sûr des chaînes opératoires déjà très complexes et le langage qu’on peut leur prêter est considérablement plus riche, mais probablement limité encore à l’expression de situations concrètes. Les premiers Paléanthropes ont hérité directement la situation de leurs prédécesseurs, mais avec des possibilités progressivement accrues. Chez les Néanderthaliens, l’extériorisation de symboles non concrets se produit. À partir de ce point, les concepts techniques sont dépassés par des concepts dont nous ne possédons que les témoins opératoires manuels : inhumation, colorants et objets curieux, mais ces témoins entraînent avec eux la certitude d’application de la pensée à des domaines dépassant la motricité technique vitale. Le langage du Néanderthalien ne devait pas différer beaucoup du langage tel qu’il est connu chez les hommes actuels. Essentiellement lié à l’expression du concret, il devait assurer la communication au cours des actes, fonction primordiale où le langage est étroitement lié au comportement technique ; il devait aussi assurer la transmission différée des symboles de l’action, sous forme de récits. Cette seconde fonction a dû émerger progressivement chez les Archanthropiens mais il est difficile d’en faire la démonstration. Enfin, au cours du développement des Paléanthropiens apparaît une troisième fonction, celle dans laquelle le langage dépasse le concret et le reflet du concret pour exprimer des sentiments imprécis dont on sait à coup sûr qu’ils entrent pour une part dans la religiosité. Ces aspects nouveaux seront repris sous plusieurs incidences et il suffit d’en avoir montré le point d’affleurement chez les Paléanthropiens. Le langage des Anthropiens antérieurs à l’homo sapiens semble donc apparaître en liaison étroite avec la motricité technique, liaison si étroite qu’empruntant les mêmes voies cérébrales les deux principaux caractères anthropiens pourraient ne relever que d’un seul phénomène. L’activité technique des vieux Anthropiens offre l’image d’une évolution excessivement lente, jalonnée à la fois par des outils et par des crânes dont l’amélioration dans le sens de l’homo sapiens paraît se faire à peu près synchroniquement.

LEROI1964.3 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 168 : Pour l’homme, la stabilisation puis le dépassement du cerveau technique ont revêtu une signification capitale car, si l’évolution s’était poursuivie vers une corticalisation de plus en plus poussée du système neuro-moteur, l’évolution, pour lui, se serait fermée sur un être comparable aux plus évolués des insectes. Bien au contraire, les territoires moteurs ont été surpassés par des zones d’association de caractère très différent, qui, au lieu d’orienter le cerveau vers une spécialisation technique de plus en plus poussée, l’ont ouvert à des possibilités de généralisation illimitées, du moins par rapport à celles de l’évolution zoologique. Tout au long de son évolution, depuis les reptiles, l’homme apparaît comme l’héritier de celles d’entre les créatures qui ont échappé à la spécialisation anatomique. Ni ses dents, ni ses mains, ni son pied, ni finalement son cerveau n’ont atteint le haut degré de perfection de la dent du mammouth, de la main et du pied du cheval, du cerveau de certains oiseaux, de sorte qu’il est resté capable d’à peu près toutes les actions possibles, qu’il peut manger pratiquement n’importe quoi, courir, grimper, et utiliser l’organe invraisemblablement archaïque qu’est dans son squelette la main pour des opérations dirigées par un cerveau surspécialisé dans la généralisation.

LEROI1964.4 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 170 : L’anthropologie a travaillé pendant plus d’un siècle et demi à faire l’inventaire des différences raciales sur le squelette et en particulier sur le crâne, Il est curieux de constater combien au fond, le bilan reste mince et combien il est plus facile de donner du premier coup d’œil la détermination raciale d’un crâne que de démontrer cette détermination à l’aide du compas et des chiffres. Les mensurations saisissent dans leur réseau très lâche, en bloc, des caractères proprement raciaux et des caractères beaucoup plus généraux, correspondant à des stades d’évolution, sans pouvoir faire la différence. Par surcroît, les valeurs micro-raciales significatives, qui sont faites de fines nuances dans la courbe d’une orbite ou d’inflexions insensibles de la voûte crânienne, échappent intégralement aux méthodes métriques. Celles-ci, en définitive, ne sont fidèles ni dans le rendu de la construction fondamentale, ni dans celui des finesses raciales ; par contre elles éclairent assez bien les variations de proportions générales, de sorte que dans une série chronologique de sujets, étalée sur toute la durée connue de l’homo sapiens, on peut espérer mettre en évidence la mesure dans laquelle celui-ci a évolué depuis ses origines.

LEROI1964.5 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 206-207 : Le rapport individu-société varie, chez l’homme, en fonction directe de l’évolution des structures techno-économiques et il est important de définir celles-ci pour comprendre certaines des propriétés du corps social aux différentes étapes de l’évolution. La conséquence la plus directe du niveau technique sur le groupe social intéresse la densité même de ce groupe ; à partir du moment où l’évolution intellectuelle crée des valeurs propres à l’homo sapiens, le rapport “niveau technique-densité sociale” devient le facteur principal du progrès. Dans le chapitre XIII, on assistera à la saisie du monde extérieur par les symboles, à l’acheminement vers la constitution d’un univers totalement humanisé. Au point présent, il est suffisant mais indispensable de prendre conscience des termes de la prise matérielle de l’homme sur le milieu et de fixer par conséquent les grandes étapes de son développement technique et économique. L’analyse des techniques montre que dans le temps elles se comportent à la manière des espèces vivantes, jouissant d’une force d’évolution qui semble leur être propre et tendre à les faire échapper à l’emprise de l’homme. Ce qu’il peut y avoir d’inexact dans la formule devenue banale de “l’homme dépassé par ses techniques” n’est pas douteux, mais il n’en reste pas moins une singulière similitude (sur laquelle j’ai plusieurs fois insisté), entre la paléontologie et l’évolution technique (notamment dans Milieu et Techniques, pp. 357-361). Il y aurait donc à faire une véritable biologie de la technique, à considérer le corps social comme un être indépendant du corps zoologique, animé par l’homme, mais cumulant une telle somme d’effets imprévisibles que sa structure intime surplombe de très haut les moyens d’appréhension des individus. Ce corps social démesuré est-il le résultat d’une évolution progressive comparable et synchronisable avec celle du cerveau ou bien d’autres raisons, de caractère non biologique, déterminent-elles la forme prise en moins de 10 000 ans par les.sociétés actuelles ? Un inventaire rapide des sociétés telles que nous pouvons les reconstituer d’âge en âge apportera peut-être quelques éléments d’une réponse.

LEROI1964.6 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 244-245 : Ce qui caractérise partout le corps social c’est que, s’il emprunte les voies de l’évolution dans sa forme, il y échappe dans le rythme de son développement. En effet, le sommet de la pyramide évolue peu : depuis la fondation des premières cités mésopotamiennes, les progrès de la pensée religieuse et philosophique sont sensibles, mais peut-on affirmer que quiconque pense (au sens strict) plus profondément que Platon ? II semble que très tôt l’homo sapiens joue à plein de ses possibilités psychiques pour tenter d’approfondir l’immatériel et qu’il ne lui reste plus qu’à attendre que la dérive de l’évolution le conduise lentement vers des perspectives plus claires. Si le progrès intellectuel existe, il est biologiquement encore insensible et il porte plus sur l’élargissement des moyens et des champs de spéculation que sur les possibilités psycho-physiologiques de leur pénétration. Il est inutile, à l’inverse, d’insister sur la libération des techniques par rapport au rythme de l’évolution biologique. L’organisme agricole constitué, l’humanité entre dans un processus d’évolution verticale qui conduit directement au jour présent. Sur un schéma fonctionnel très simple (chef, capitale, capital, fabricants, producteurs ruraux) les institutions sociales opèrent une conciliation bâtarde entre l’état de principe d’un ordre social harmonieux et l’état de fait largement commandé par les impératifs techno-économiques. Les techniques, détachées du corps de l’homme depuis le premier chopper au premier Australanthrope, miment à une cadence vertigineuse le déroulement des millions de siècles de l’évolution géologique, jusqu’au point de fabriquer des systèmes nerveux artificiels et des pensées électroniques. La fondation des premières cités, la naissance du monde civilisé marquent donc le point où s’amorce, sous une forme impérative, le dialogue entre l’homme physique, tributaire du même courant que les dinosaures, et la technique, issue de sa pensée mais affranchie du lien génétique.

LEROI1964.7 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 248-249 : Le technicien est donc bien le maître de la civilisation parce qu’il est le maître des arts du feu. C’est du foyer (que quelques siècles de céramique lui ont appris à conduire) que sort le plâtre, et bientôt après, le cuivre et le bronze. Ce sont les scories et laitiers, résidus de l’élaboration métallurgique, qui suscitent le verre. Mais l’artisan est un démiurge asservi. On a vu plus haut que sa position dans le dispositif techno-économique est une position de subordination : c’est lui qui forge les armes dont usent les chefs, lui qui fond les bijoux que portent leurs femmes, lui qui martèle la vaisselle des dieux, Vulcain tout-puissant, boiteux et ridiculisé. C’est lui qui, tout au long du courant de cinquante siècles, sans que les niveaux idéologiques aient réellement évolué, a mis entre les mains des hommes “capitaux” les moyens de réaliser le triomphe du monde de l’artificiel sur celui de la nature. L’atmosphère de malédiction dans laquelle, pour la plupart des civilisations, débute l’histoire de l’artisan du feu, n’est que le reflet d’une frustration intuitivement perçue dès l’origine.

LEROI1964.8 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 253 : Les sociétés agricoles, aussitôt qu’elles sortent de la période de transition pour prendre leur structure réelle, se forgent un instrument d’expression symbolique à la mesure de leurs besoins. Cet instrument, on le sait par de très nombreux témoignages, est né comme un outil comptable et est devenu rapidement l’outil de la mémoire historique. En d’autres termes, c’est au moment où commence à s’établir le capitalisme agraire qu’apparaît le moyen de le fixer dans une comptabilité écrite et c’est aussi au moment où s’affirme la hiérarchisation sociale que l’écriture construit ses premières généalogies.

LEROI1964.9 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 295-298 : Du point de vue social, l’audio-visuel correspond à une acquisition indiscutable puisqu’il permet une information précise et qu’il agit sur la masse informée par des voies qui immobilisent tous ses moyens d’interprétation. En cela le langage suit l’évolution générale du sur-organisme collectif et correspond au conditionnement de plus en plus parfait des cellules individuelles. Sur le plan individuel peut-on penser à un véritable retour aux stades antérieurs à la figuration ? Il est certain que l’écriture constitue une adaptation extraordinairement efficace du comportement audio-visuel, qui est le mode fondamental de la perception chez l’homme mais c’est aussi un détour considérable. La situation qui tend à s’établir représenterait donc un perfectionnement puisqu’elle économiserait l’effort d’“imagination” (au sens étymologique). Mais l’imagination est la propriété fondamentale de l’intelligence et une société où la propriété de forger des symboles s’affaiblirait perdrait conjointement sa propriété d’agir. Il en résulte, dans le monde actuel, un certain déséquilibre individuel ou plus exactement la tendance vers le même phénomène qui marque l’artisanat : la perte de l’exercice de l’imagination dans les chaînes opératoires vitales. Le langage audio-visuel tend à concentrer l’élaboration totale des images dans les cerveaux d’une minorité de spécialistes qui apportent aux individus une matière totalement figurée. Le créateur d’images, peintre, poète ou narrateur technique a toujours constitué, même au Paléolithique, une exception sociale, mais son œuvre restait inachevée, parce qu’elle sollicitait l’interprétation personnelle, à quelque niveau que pût se trouver l’usager de l’image. Actuellement, la séparation, hautement profitable au plan collectif, est en voie de réalisation entre une mince élite, organe de digestion intellectuelle, et les masses, organes d’assimilation pure et simple. Cette évolution n’affecte pas uniquement l’audio-visuel, qui n’est que l’aboutissement d’un processus général touchant l’ensemble du graphique. La photographie n’a pas apporté, au début, de modifications dans la perception intellectuelle des images ; comme toute innovation elle a pris appui sur le préexistant : les premières automobiles ont été des phaétons sans chevaux et les premières photographies des portraits et des mouvements sans couleurs. Le processus de “prédigestion” ne prend corps qu’à partir de la diffusion du cinéma qui modifie complètement la conception de la photographie et du dessin dans un sens proprement pictographique. L’instantané sportif et la bande dessinée répondent, avec le “digest”, à la séparation dans le corps social entre le créateur et le consommateur d’images. L’appauvrissement n’est pas dans les thèmes, mais dans la disparition des variantes imaginatives personnelles. Les thèmes de littérature populaire (ou savante) ont toujours été en nombre très limité, il n’est donc pas extraordinaire de voir le même surhomme très beau et très fort, la même femme très fatale, le même colosse plus ou moins stupide figurer au milieu des Sioux et des bisons, en pleine mêlée pendant la Guerre de Cent ans, à bord du vaisseau-pirate, dans le fracas du bolide lancé à la poursuite des gangsters entre deux planètes dans une fusée cosmique. La répétition inlassable du même stock d’images correspond au très faible battement que laisse dans les individus l’exercice de sentiments qui gravitent autour de l’agressivité ou de la sexualité. Il n’est pas douteux que les bandes dessinées traduisent beaucoup mieux l’action que les vieilles images d’Épinal. Dans ces dernières le coup de poing était un symbole inachevé, le crochet du superman à la mâchoire du traître ne laisse rien à ajouter à la précision traumatique ; tout devient d’une réalité absolument nue, à absorber sans effort, le cerveau ballant. Le langage a été, dans cette première partie, considéré sur le même plan que la technique, dans une incidence purement pratique, comme le résultat du fait biologique humain. L’équilibre initial entre les deux pôles du champ de relation lie l’évolution de l’homme à celle de tous les animaux qui partagent leurs opérations entre le jeu de la face et celui du membre antérieur, mais il lie aussi, implicitement, l’existence du langage et celle des techniques manuelles. L’évolution cérébrale telle qu’on peut raisonnablement la reconstituer permet de rendre compte, pour les techniques nouvelles, du lien existant entre la station verticale, la libération de la main et le déploiement d’aires cérébrales qui sont la condition de l’exercice des possibilités physiques au développement d’une activité humaine. L’intimité, au niveau cérébral, des deux manifestations de l’intelligence humaine est telle que malgré l’absence de témoins fossiles, on est contraint d’admettre dès l’origine la réalité d’un langage différent en nature de celui des animaux, issu de la réflexion entre les deux miroirs du geste technique et du symbolisme phonique. Cette hypothèse, pour les hommes antérieurs à l’homo sapiens, depuis les lointains Australanthropes, acquiert la valeur d’une certitude lorsqu’on constate par la suite le synchronisme étroit qui existe entre l’évolution des techniques et celle du langage ; plus encore lorsqu’on voit à quel point, sur le plan même de l’expression de la pensée, la main et la voix restent étroitement solidaires.

LEROI1964.10 Cf. Leroi-Ghouran, Technique et langage, op. cit., p. 299-300 : Le jeu entre les deux pôles de la figuration, entre l’auditif et le visuel, se modifie considérablement au passage à l’écriture phonétique mais il conserve intacte la capacité individuelle de visualiser le verbal et le graphique. L’étape actuelle est marquée à la fois par l’intégration audio-visuelle qui inaugure une expression où l’interprétation individuelle perd en grande partie ses possibilités et par la séparation sociale des fonctions de création des symboles et de réception des images. Ici encore l’échange entre technique et langage apparaît avec netteté. L’outil quitte précocement la main humaine pour donner naissance à la machine : en dernière étape, parole et vision subissent, grâce au développement des techniques, un processus identique. Le langage qui avait quitté l’homme, dans les œuvres de sa main par l’art et l’écriture marque son ultime séparation en confiant à la cire, à la pellicule, à la bande magnétique les fonctions intimes de la phonation et de la vision.

LERO1965 La mémoire et les rythmes

André LEROI-GOUHRAN, Le geste et la parole, II : la mémoire et les rythmes, Paris, Albin Michel, 1965.

LEROI1965.1 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 13 : L’instinct, exprimé dans la mémoire spécifique, n’est une réalité que dans la mesure où l’on considère la constance des chaînes opératoires qui en résultent. Le problème ne peut donc être pris dans le contraste entre instinct et intelligence mais entre deux modes de programmation dont l’un correspond, chez l’insecte, au maximum de prédétermination génétique, l’autre, chez l’homme, à une apparente indétermination génétique.

LEROI1965.2 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 14-17 : En face de l’instinct et de l’intelligence, les êtres vivants pourraient se regrouper sommairement en trois types. Le premier serait celui des Invertébrés inférieurs, à système cérébral très élémentaire, chez lesquels les programmes se constitueraient en chaînes courtes et stéréotypées d’actes très simples qui traduisent l’équilibre de l’organisme avec son milieu. Chez des animaux comme le ver de terre, la limace, la patelle, la mémoire est assez facilement comparable à celle d’une machine électronique , en ce sens que : 1° l’animal naît avec une gamme déterminée de besoins et de moyens de les satisfaire, 2° ses chaînes opératoires se déroulent dans la recherche du point d’équilibre entre pulsions organiques et milieu extérieur dans un cycle où le déclenchement et l’enchaînement des actes sont déterminés par des causes physiologiques ou externes, 3° la mémoire s’inscrit en programmes qui déterminent le conditionnement de l’animal. La réalisation artificielle du système nerveux de ce type simple est déjà acquise et le dispositif électronique de commande des fusées est déjà plus compliqué que le cerveau des mollusques inférieurs ou de annélides. Le second type est considérablement plus embarrassant ; il pourrait être représenté par l’abeille, la fourmi, les insectes dont le comportement paraît impliquer l’existence de programme très compliqués, inscrits génétiquement et se déroulant chez la larve ou l’insecte parfait d’emblée, et avec une élaboration déconcertante. L’exécution de ces programmes est apparue moins parfaite qu’il n’avait semblé aux vieux auteurs ; il n’en reste pas moins très difficile d’y voir le seul jeu du milieu extérieur et du milieu intérieur entraînant la formation d’une mémoire conditionnée. On est contraint de concevoir un appareillage nerveux extrêmement déterminé dans ses réponses aux impressions visuelles, olfactives, tactiles pour expliquer le choix des plantes ou des animaux alimentaires, les comportements de construction, les actes relevant de la cohésion sociale. Une telle détermination héréditaire correspond à l’existence d’une mémoire virtuelle dont les opérations semblent préconçues par le fait qu’elle n’admet qu’un choix minime dans les réponses. On peut imaginer pourtant un appareillage artificiel qui sélectionnerait des impressions lumineuses ou chimiques ou des vibrations pour les canaliser dans des chaînes d’actes complexes ; on peut même concevoir un système qui admettrait une certaine indétermination, un choix possible entre des impressions tenues pour équivalentes. Si chaque état du chimisme interne appelait des réactions spécifiques à l’égard des impressions reçues de l’extérieur, l’économie d’un tel dispositif de commande serait très proches de celle d’un insecte. Le troisième type serait celui des Vertébrés. Le comportement des Invertébrés inférieurs s’y retrouve, puisqu’une part importante du conditionnement de la mémoire opératoire relève du déterminisme mécanique, des pulsions physiologiques et des sollicitations du milieu extérieur. De moins en moins marqué à mesure que dans chaque embranchement on s’élève dans l’organisation cérébrale, on y retrouve aussi le conditionnement lié à l’existence de la mémoire virtuelle, c’est-à-dire des comportements automatiques, “instinctifs”, qui sont le résultat d’une sélection génétique des réponses possibles. Le Vertébré s’y comporte comme s’il suivait un programme préétabli, un “instinct” aux conséquences parfois absurdes par défaut d’adaptation possible à des situations non inscrites dans sa mémoire génétique, alors qu‘en fait il donne des séries de réponses enchaînées dans le fil de ses possibilités organiques. Pour les Vertébrés inférieurs, poissons et reptiles, la presque totalité de leur comportement s’inscrit dans les limites des deux premiers types et l’on peut concevoir une machine électronique qui, comme le lézard, répondrait au photo[n], ou au thermotropisme, augmenterait son activité en fonction de la température, suivrait toute proie mouvante de dimensions abordables, rejetterait celles dont le goût ou la consistance seraient inscrits comme dangereux, attaquerait d’autres machines identiques au moment où son chimisme intérieur déclencherait des réactions d’agressivité, fuirait, exhiberait des panneaux colorés sous l’effet d’une excitation visuelle ou olfactive. On pourrait ajouter que les actes accomplis une première fois par tâtonnements successifs s’inscriraient en programmes dans une série de mémoires et que, par la suite, le jeu de ces différentes mémoires déclencherait l’accomplissement de chaînes opératoires complexes, aboutissant même à l’incurvation des comportements au cours du déroulement des chaînes. Ce qui est concevable chez les poissons ou les reptiles l’est, à un degré considérablement plus complexe, chez les oiseaux, qui montrent avec un grand déploiement de détails que le plus élaboré, dans le comportement automatique, intéresse les opérations relatives à la reproduction. C’est là un fait général sur lequel je reviendrai dans les “symboles de la société” pour dégager le liens entre l’esthétique et le maintien de la cohésion du groupe zoologique. Au plan présent, il suffit de considérer que les domaines fondamentaux des opérations de survie individuelle et des opérations qui assurent la survie de l’espèce offrent de notables différences de degré dans l’élaboration automatique. Le comportement du Vertébré inférieur peut se déverser dans le Vertébré supérieur pour former la masse de constitution de sa mémoire. Toutefois, à mesure qu’on s’élève dans la série, un nouvel élément apparaît qui laisse à supposer que les deux tableaux précédents ne sont pas tout à fait complets. En effet, ce qui caractérise le comportement individuel du Mammifère, du moins le comportement de survie, c’est la possibilité du choix entre les chaînes opératoires et le contrôle de leur adéquation relative à la situation proposée, une certaine marge de maîtrise, variable suivant les espèces mais très grande déjà chez les carnassiers et les primates. Si l’on poursuivait le parallélisme avec la machine électronique, il faudrait ajouter à l’appareillage de déclenchement des réponses et des mémoires un appareillage supplémentaire dans lequel la confrontation deviendrait possible et déterminerait l’orientation vers l’une ou l’autre des réponses. Sur la lancée de l’Évolution, les systèmes nerveux semblent en effet progresser dans deux directions opposées, l’une (celle de l’insecte, ou de l’oiseau) où l’appareillage nerveux canalise de plus en plus étroitement les comportements, l’autre (celle des mammifères et de l’homme) où les trajets nerveux s’enrichissent prodigieusement d’éléments connectifs, propres à établir des rapports entre situations déjà traversées par l’expérience et situation nouvelle. La mémoire de l’individu, fondée dans la première période de sa vie, prend alors le pas sur la mémoire spécifique qui n’est que le résultat des dispositions héréditaires de l’appareillage nerveux.

LEROI1965.3 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 51-52 : Le XIXe siècle a produit des monstres dont beaucoup vivent encore, machines sans système nerveux qui requièrent le concours constant d’un partenaire humain ; les perfectionnements dans l’usage de l’électricité et surtout le développement de l’électronique ont suscité, à moins d’un siècle de la mutation des machines automatiques, une mutation au delà de laquelle il ne reste plus grand chose à extérioriser dans l’être humain. Une transformation radicale s’est produite dans la machine par le développement des petits moteurs, celui des cellules sensibles à l’action lumineuse, celui des mémoires, des transistors, de tous les dispositifs miniaturisés. Cet arsenal disparate fournit, par pièces détachés, les éléments d’un assemblage étrangement comparable à l’assemblage biologique. Alors que la machinerie du XIXe siècle, avec ses sources d’énergie volumineuses, conduisait la force unique par d’énormes systèmes de transmission vers des organes aveugles, la mécanique actuelle construit, en multipliant les sources de force, un véritable système musculaire, commandé par un véritable système nerveux, dont les connexions avec un organe qui est un véritable cerveau sensito-moteur, assurent le déroulement d’un programme opératoire complexe. Du train de lamineurs, véritable brontosaure mécanique, au poste de pilotage automatique des avions, l’automatisation mécanique correspond à l’avant-dernière étape possible du processus amorcé par l’Australanthrope armé de son chopper. La libération des territoires du cortex cérébral moteur, définitivement acquise avec la station verticale, est parfaite à partir du point où l’homme extériorise son cerveau moteur. On ne peut guère concevoir au delà que l’extériorisation de la pensée intellectuelle, la construction de machines qui non seulement jugeraient (l’étape est déjà acquise) mais teinteraient leur jugement d’affectivité, prendraient parti, s’enthousiasmeraient ou sombreraient dans le désespoir devant l’immensité de leur tâche. Il ne resterait plus à l’homo sapiens, alors, après avoir assuré à de tels appareils la possibilité de se reproduire mécaniquement, qu’à se retirer définitivement dans la pénombre paléontologique. Il est en réalité peu à craindre de voir les machines à cerveau supplanter l’homme sur la terre, les risques sont à l’intérieur de l’espèce zoologique proprement dite et non directement dans les organes extériorisés : l’image des robots chassant l’homme à courre dans une forêt de tuyauteries ne vaudra que dans la mesure où l’automatisme aura été réglé par un autre homme. Il est seulement à craindre un peu que dans mille ans l’homo sapiens, ayant fini de s’extérioriser, se trouve embarrassé par cet appareil ostéo-musculaire, désuet, hérité du Paléolithique.

LEROI1965.4 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 53-56 : La réalisation des programmes automatiques est un fait culminant dans l’histoire humaine, d’importance comparable à l’apparition du chopper ou à celle de l’agriculture. C’est un fait qui se déroule dans les temps historiques proches et qui peut à cet égard donner une idée sur le mécanisme des grandes mutations historiques. L’idée de réaliser mécaniquement une suite de gestes techniques se fait jour très lentement au cours des temps historiques. La réalisation de machines automatiques à un seul geste est acquise dès l’Antiquité méditerranéenne ou chinoise dans les pilons à eau, mais l’idée d’une véritable programmation ne rencontre, dans le milieu technique des grandes civilisations, aucune possibilité de réalisation avant le moyen âge. C’est l’horlogerie qui offre les premiers moyens de programmation par des procédés purement mécaniques. Le milieu favorable à l’innovation est en effet réalisé par un corps technique spécialisé dans la matérialisation d’une image du temps. Spécialiste du déroulement et de l’animation, l’horloger, par le jeu des pignons et des cames, en combinant le mouvement circulaire avec le mouvement rectiligne tiré d’un jeu de bielles, réalise dès le moyen âge les programmes simples des premières horloges animées et des automates. L’évolution de l’animation est soumise à celle de la source motrice, du XIIe au XVe siècle, les mécanismes d’horlogerie sont animés par la traction rectiligne d’un poids, ce qui limite considérablement leur possibilité. À partir du XVe siècle, l’application du ressort spirale donne le moyen d’alléger et de rendre mobile le dispositif automatique et l’on aboutit, en perfectionnant le mécanisme, aux automates du XVIIIe siècle, sommet de ce qui pouvait être réalisé dans la programmation par des dispositifs tirés de l’horlogerie. L’emploi des pignons et des cames change d’échelle au XIXe siècle et donne naissance aux machines à gestes simples animés par la vapeur. Ces machines, comme les automates qui les précèdent, représenteront un stade très intéressant de l’évolution technique, non sans parallélisme avec l’évolution animale. En effet, la programmation des automates mécaniques est constituée par une chaîne de gestes simples dont la succession est inscrite dans les organes mécaniques eux-mêmes. C’est au niveau des cames, un peu en arrière de la partie agissante du dispositif que se situe la mémoire opératoire et il n’existe aucun système nerveux, aucun réseau de coordination autre que des pièces de transmission mécanique. Par rapport aux machines électroniques, les automates de Vaucanson occupent la situation du ver de terre par rapport au mammifère, c’est-à-dire celle des organismes à mémoire segmentaire, enfouie dans chaque élément agissant du dispositif ; les cames animatrices se distribuent pour chaque partie à animer comme les ganglions en chaîne qui animent chaque article de l’annélide. Au début du XIXe siècle, l’automatisme s’introduit dans les techniques du tissage par une voie toute différente de celle de l’horlogerie. Jacquard établit dans le métier à tissus façonnés un jeu de cartes à perforations qui déterminent, à chaque duite, la levée de fils déterminés. Ce procédé permet, duite par duite, d’exécuter un dessin complexe de manière purement automatique. Vers la même époque apparaissent d’ailleurs les orgues à bandes perforées qui relèvent du même principe. On peut dire même que le métier Jacquard et l’orgue de barbarie forment un couple de machines automatiques opposable, par son principe, au couple automate-boîte à musique. En effet, les machines à cartes perforées disposent d’une mémoire centrale, distincte des organes d’exécution auxquels elle envoie un véritable message répondant à un programme susceptible de modification très nombreuses. Le programme du doigt de l’automate est inclus, comme l’air de la boîte à musique ou de la serinette, dans un jeu de rouages, il est invariable pour une situation mécanique donnée et il est nécessaire d’adopter une autre formule mécanique pour le modifier, exactement comme l’ambulation des Annélides est réduite à la coordination des mouvements simples de séries d’articles à la motricité invariable. Le programme du métier Jacquard est extérieur aux organes d’exécution, il est, si l’on veut, “intelligent” par rapport au dispositif mécanique et il suffit de changer la bande de cartes perforées pour conduire la machine, sans modifications mécaniques, dans l’exécution d’une série opératoire différente. Il n’existe pas encore à proprement parler de système nerveux, mais déjà tout ce que le milieu technique du début du XIXe siècle pouvait apporter à la réalisation d’un appareil à mémoire. Ce n’est que depuis une vingtaine d‘années que le mimétisme de l’artificiel sur le vivant a atteint un degré assez élevé. Il a fallu pour cela un siècle de familiarisation avec l’électricité, puis avec le maniement des flots d’électrons. Il en est résulté la machine actuelle qui, quelle que soit sa destination, est une synthèse des différentes étapes traversées. Les organes mécaniques d’exécution, animés par autant de sources d’énergie qu’une bonne articulation l’exige, sont déclenchés par un programme qui, à l’une de ses étapes au moins, est matérialisé sur bande. La transformation essentielle tient dans l’existence d’un véritable système nerveux de transmission des ordres et de contrôle par des organes centraux. La suite des gestes mécaniques est liée par des mémoires transformables, la santé physique de la machine est contrôlée par des organes qui règlent la vitesse, la température, l’humidité des différents organes, la matière traitée est sondée dans sa texture, dans sa forme, par des organes pondéraux, tactiles, thermo-sensitifs ou photo-sensitifs qui transmettent leurs impressions à des centres de réglage automatique et la machine peut orienter son action, la corriger, l’interrompre au gré des messages qu’elle reçoit de ses organes des sens. Il est bien difficile, pour un biologiste, de ne pas mettre en parallèle la mécanique d’animaux déjà évolués avec ces organismes qui ont fini par constituer un monde vivant parallèle.

LEROI1965.5 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 74-76 : Théoriquement, les possibilités cérébrales des dispositifs à perforation ou des intégrateurs (généralement associés) peuvent rivaliser avec le travail cérébral de confrontation. Ils peuvent, à une échelle gigantesque et dans un temps négligeable, brasser une montagne de données dans un sens bien déterminé et en tirer toutes les réponses possibles. Ils peuvent pondérer ces réponses si on leur fournit les éléments d’un choix orienté, enrichir leur pondération préétablie par des jugements d’expérience, tirés de l’accumulation de précédents dans leur mémoire. La supériorité de l’intégrateur électronique sur le fichier repose sur la densité des informations qu’il peut traiter en un temps très court par l’action simultanée de plusieurs centres sélecteurs qui se contrôlent et se corrigent matériellement alors que les fiches les plus denses (20 000 données par fiche, soit 10 000 000 d’éléments pour 500 fiches) exigent une participation directe de l’opérateur et un temps considérablement plus long. Il est certain que la fabrication de cerveaux artificiels n’est encore qu’à ses débuts et qu’il ne s’agit pas d’une curiosité ou d’un procédé à débouchés restreints et à court avenir. Imaginer qu’il n’y aura pas bientôt des machines dépassant le cerveau humain dans les opérations remises à la mémoire et au jugement rationnel, c’est reproduire la situation du Pithécanthrope qui aurait nié la possibilité du biface, de l’archer qui aurait ri des arquebuses, ou plus encore d’un rhapsode homérique rejetant l’écriture comme un procédé de mémorisation sans lendemain. Il faut donc que l’homme s’accoutume à être moins fort que son cerveau artificiel, comme ses dents son moins fortes qu’une meule de moulin et ses aptitudes aviaires négligeable auprès de celles du moindre avion à réaction. Une très vieille tradition rapporte au cerveau les causes du succès de l’espèce humaine et l’humanité s’est vue sans surprise dépasser les performances de son bras, de sa jambe ou de son œil puisqu’il y avait un responsable plus haut placé. Depuis quelques années, le surpassement a gagné la boîte crânienne et lorsqu’on s’arrête sur les faits, on peut se demander ce qui restera de l’homme après que l’homme aura tout imité en mieux. Ce qui est certain aujourd’hui, c’est que nous savons ou saurons bientôt construire des machines à se souvenir de tout et à juger des situations les plus complexes sans se tromper. Cela montre simplement que le cortex cérébral, tout admirable qu’il soit, est insuffisant, comme la main ou l’œil, que les méthodes d’analyse électronique y suppléent et que finalement l’évolution de l’homme, fossile vivant par rapport à sa situation présente, emprunte d’autre voies que celles des neurones pour se prolonger. Plus positivement on constate que pour profiter au maximum de sa liberté en échappant au risque de sur-spécialisation de ses organes, l’homme est conduit progressivement à extérioriser des facultés de plus en plus élevées. Si un jour les machines électroniques écrivaient des pièces de théâtre parfaites, peignaient des tableaux inimitables, il y aurait à se poser de sérieuses questions. Si elle se mettaient à aimer, le sort de l’espèce zoologique serait réglé.

LEROI1965.6 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 80-81 : Au cours des chapitres précédents, on a été conduite à dépouiller progressivement l’homme d’une partie de ses attributs traditionnels pour montrer que, pris en masse, les hommes constituaient un macro-organisme social, capable d’utiliser les individus à construire des machines à penser plus vite et plus utilement qu’eux. Aucun individu n’est capable de calculer à temps la trajectoire nécessaire pour qu’une fusée, œuvre d’individus très nombreux, puisse efficacement détruire au loin un nombre d’individus suffisamment rentable pour la collectivité dispensatrice de l’engin : le cerveau artificiel permet de le faire. Un problème important finit par se poser : que reste-t-il de l’homme au bout d’une telle évolution ? Le sens du beau et du bien, une insurpassable qualité affective, à jamais interdite à la machine ? Ou bien simplement la propriété de reproduire des machines par “homme interposé” grâce à une combinaison très ingénieuse d’éléments masculins et féminins, générateurs des indispensables fabricants. Il serait imprudent de répondre trop vite que les machines n’apprécieront jamais le beau et le bien, elles savent déjà réduire le vrai à des données sans discussion et pourront probablement avant peu, non pas dire que la peinture figurative est préférable à la peinture abstraite, mais étaler si minutieusement, si ingénieusement les rapports statistiques de leur contenu qu’on pourra remettre à l’artiste une fiche détaillant quels sont le sujet, les couleurs, les formes, les dimensions, les détails, le cadre qui lui donneront le maximum de chances de frapper l’attention émue, la sensibilité plastique, le snobisme éventuel ; il sera possible de faire le portrait-robot de la sculpture qui se prêterait le mieux à la spéculation financière sur trois générations, de celle qui aurait des chances de mieux traverser les traumatismes des déménagements et des ruines. Dans l’inventaire des pièces qui constituent l’ensemble ostéo-musculaire de l’homo sapiens, on est en droit de se demander dès à présent ce qui résistera le jour où l’analyse de quatorze millions de bonnes actions fera ressortir les mobiles physiologiques dominants, la banalité immensément dérisoire des sentiments de grandeur et de justice, leur motivation hormonale, finalement la nudité intégrale de l’immense tapis humain qui se déroule, éclairé sur trois ou quatre générations à la fois, depuis le fond des temps. Les apocalypses scintillent de chiffres mystérieux, l’apocalypse électronique est, elle, toute de chiffres au pouvoir incommensurablement démystifiant.

LEROI1965.7 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 137 : La vaste scène où l’homme crée et défait ses dieux, les rythmes techniques en sont encore à percer péniblement les premiers espaces sidéraux. Pourtant la lente invasion du technique a mis peu à peu l’imagination dans une situation nouvelle, le broyage progressif de la pensée mythologique a conduit pendant plusieurs siècles les sociétés les plus évoluées sur le chemin de “l’art pour l’art”, dissimulant la crise de la figuration. Au point actuel, les individus sont imprégnés, conditionnés par une rythmicité qui a atteint le stade d’une machinisation (plus que d’une humanisation) pratiquement totale. La crise du figuralisme est le corollaire de l’emprise du machinisme et les chapitres suivants aborderont à plusieurs reprises le problème de la survie d’un temps et d’un espace démystifiés. Il est assez frappant de voir que dans les sociétés où la science et le travail sont des valeurs qui excluent le plan métaphysique, les plus grands efforts sont faits pour sauver le figuralisme en transposant les valeurs mythologiques ; peinture historique, culte des héros du travail, déification de la machine. Il semble en effet qu’un équilibre aussi constant que celui qui coordonne depuis les origines le rôle de la figuration et celui de la technique ne puisse être rompu sans mettre en cause le sens même de l’aventure humaine.

LEROI1965.8 Cf. Leroi-Ghouran, La mémoire et les rythmes, op. cit., p. 146-147 : L’individualisme du temps est le reflet de l’intégration progressive des individus dans le sur-organisme social, peu à peu, au cours des dizaines de millénaires, une trame symbolique d’abord très lâche s’est surimposée au mouvement complexe et élastique du temps naturel. La vie des animaux n’est pas moins réglée que celle du paysan du siècle passé, “levé avec le soleil et couché avec les poules”, l’un et l’autre s’intègrent encore dans un cycle où un triple accord se fait entre la nature, l’individu et la société. Mais ce qui est vrai du milieu rural jusqu’au XXe siècle n’est plus vrai depuis des siècles du milieu urbain, et particulièrement des fractions les plus socialisées que sont les classes religieuse et militaire. Pour elles, du temps abstrait dépendent la marche et la survie du groupe social. Leur intégration motrice et intellectuelle s’appuie sur un réseau rythmique rigoureux, matérialisé par les sonneries des cloches et des trompes, qui sont à la fois les signaux d‘un code d’intégration et les étapes du temps. Pris par la nécessité d’entretenir la survie collective, puisque dans toutes les grandes religions la marche normale de l’univers repose sur la ponctualité des sacrifices, les religieux ont été les premiers, dès l’aube des civilisations de l’Ancien et du Nouveau Monde, à diviser le temps en tranches idéalement invariables et partant, ils ont été les dispensateurs des mois, des jours et des heures. Ce n’est que récemment, avec l’intégration des masses dans un mécanisme social où la défaillance du spécialiste entraîne le désordre collectif, que le temps symbolique a pris une valeur absolument impérative. Dans les chapitres précédents, on a, à plusieurs reprises, constaté que les lignes de libération des différentes facultés conduisaient toutes vers le perfectionnement accéléré, non de l’individu comme tel, mais de l’individu comme élément du sur-organisme social. Exprimé mille fois par les sociologues des tendances les plus diverses, ce fait relève de l’existence parallèlement à l’évolution biologique, du courant d’évolution matérielle qui est issu de l’homme au moment où le langage a percé les limites du concret. Il a conduit à l’extériorisation de l’outil (déjà depuis longtemps réalisée comme condition fondamentale), à l’extériorisation du muscle, puis du système nerveux de relation. Le temps s’extériorise sur une voie parallèle, synchroniquement, et il devient la grille dans laquelle les individus sont bloqués au moment où le système de relation réduit le délai de transmission en heures, puis en minutes et enfin en secondes. Dans les secteurs où la limite est atteinte, l’individu fonctionne comme une cellule, comme élément du programme collectif, sur un réseau de signaux qui non seulement commande ses gestes ou le déclenchement de sa pensée efficace, mais qui contrôle son droit à l’absence, c’est-à-dire ses temps de repos ou de loisir. Le primitif compose avec le temps, le temps social parfait ne compose avec personne, ni avec rien, pas même avec l’espace, puisque l’espace n’existe plus qu’en fonction du temps nécessaire pour le parcourir. Le temps socialisé implique un espace humanisé, intégralement symbolique, tel que jour et nuit tombent à heures fixes sur des cités où l’hiver et l’été soient réduits à des proportions moyennes et où les rapports entre les individus et leur lieu d’action soient instantanés. Une partie seulement de cet idéal est réalisée, mais qu’on veuille seulement imaginer l’éclairage, le chauffage et les transports publics des cités d’il y a un siècle pour se rendre compte du fait qu’une partie importante du chemin est déjà parcourue.

SIMO1958 Du mode d’existence des objets techniques

Gilbert SIMONDON, Du mode d’existence des objets techniques, Paris, Éditions Aubier, 1958, édition de 1989 augmentée d’une préface de John HART et d’une postface de Yves DEFORGE.

SIMO1958.1 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 10-12 : La culture comporte ainsi deux attitudes contradictoires envers les objets techniques : d’une part, elle les traite comme de purs assemblages de matière, dépourvus de vraie signification, et présentant seulement une utilité. D’autre part, elle suppose que ces objets sont aussi des robots et qu’ils sont animés d’intentions hostiles envers l’homme, ou représentent pour lui un permanent danger d’agression, d’insurrection. Jugeant bon de conserver le premier caractère, elle veut empêcher la manifestation du second et parle de mettre les machines au service de l’homme, croyant trouver dans la réduction en esclavage un moyen sûr d’empêcher toute rébellion. En fait, cette contradiction inhérente à la culture provient de l’ambiguïté des idées relatives à l’automatisme, en lesquelles se cache une véritable faute logique. Les idolâtres de la machine présentent en général le degré de perfection d’une machine comme proportionnel au degré d’automatisme. Dépassant ce que l’expérience montre, ils supposent que, par un accroissement et un perfectionnement de l’automatisme on arriverait à réunir et à interconnecter toutes les machines entre elles, de manière à constituer une machine de toutes les machines. Or, en fait, l’automatisme est un assez bas degré de perfection technique. Pour rendre une machine automatique, il faut sacrifier bien des possibilités de fonctionnement, bien des usages possibles. L’automatisme, et son utilisation sous forme d’organisation industrielle que l’on nomme automation, possède une signification économique ou sociale plus qu’une signification technique. Le véritable perfectionnement des machines, celui dont on peut dire qu’il élève le degré de technicité, correspond non pas à un accroissement de l’automatisme, mais au contraire au fait que le fonctionnement d’une machine recèle une certaine marge d’indétermination. C’est cette marge qui permet à la machine d’être sensible à une information extérieure. C’est par cette sensibilité des machines à de l’information qu’un ensemble technique peut se réaliser, bien plus que par une augmentation de l’automatisme. Une machine purement automatique, complètement fermée sur elle-même dans un fonctionnement prédéterminé, ne pourrait donner que des résultats sommaires. La machine qui est douée d’une haute technicité est une machine ouverte, et l’ensemble des machines ouvertes suppose l’homme comme organisateur permanent, comme interprète vivant des machines les unes par rapport aux autres. Loin d’être le surveillant d’une troupe d’esclaves, l’homme est l’organisateur permanent d’une société des objets techniques qui ont besoin de lui comme les musiciens ont besoin du chef d’orchestre. Le chef d’orchestre ne peut diriger les musiciens que parce qu’il joue comme eux, aussi intensément qu’eux tous, le morceau exécuté ; il les modère ou les presse, mais est aussi modéré et pressé par eux ; en fait, à travers lui, le groupe des musiciens modère et presse chacun d’eux, il est pour chacun la forme mouvante et actuelle du groupe en train d’exister ; il est l’interprète mutuel de tous par rapport à tous. Ainsi l’homme a pour fonction d’être le coordinateur et l’inventeur permanent des machines qui sont autour de lui. Il est parmi les machines qui opèrent avec lui. La présence de l’homme aux machines est une invention perpétuée. Ce qui réside dans les machines, c’est de la réalité humaine, du geste humain fixé et cristallisé en structures qui fonctionnent. Ces structures ont besoin d’être soutenues au cours de leur fonctionnement, et la plus grande perfection coïncide avec la plus grande ouverture, avec la plus grande liberté de fonctionnement. Les machines à calculer modernes ne sont pas de purs automates ; ce sont des êtres techniques qui, par-dessus leurs automatismes d’addition (ou de décision par fonctionnement de basculeurs élémentaires), possèdent de très vastes possibilités de commutation des circuits, qui permettent de coder le fonctionnement de la machine en restreignant sa marge d’indétermination. C’est grâce à cette marge primitive d’indétermination que la même machine peut extraire des racines cubiques ou traduire un texte simple, composé avec un petit nombre de mots et de tournures, d’une langue en un autre. C‘est encore par l’intermédiaire de cette marge d’indétermination et non par les automatismes que les machines peuvent être groupées en ensembles cohérents, échanger de l’information les unes avec les autres par l’intermédiaire du coordinateur qu’est l’interprète humain. Même quand l’échange d’information est direct entre deux machines (comme entre un oscillateur pilote et un autre oscillateur synchronisé par impulsions) l’homme intervient comme être qui règle la marge d’indétermination afin qu’elle soit adaptée au meilleur échange possible d’information.

SIMO1958.2 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 14-16 : Cette réforme de la culture, procédant par élargissement et non par destruction, pourrait redonner à la culture actuelle le pouvoir régulateur véritable qu’elle a perdu. Base de significations, de moyens d’expression, de justifications et de formes, une culture établit entre ceux qui la possèdent une communication régulatrice ; sortant de la vie du groupe, elle anime les gestes de ceux qui assurent les fonctions de commande, en leur fournissant des normes et des schèmes. Or, avant le grand développement des techniques, la culture incorporait à titre de schèmes, de symboles, de qualités, d’analogies, les principaux types de techniques donnant lieu à une expérience vécue. Au contraire, la culture actuelle est la culture ancienne, incorporant comme schèmes dynamiques l’état des techniques artisanales et agricoles des siècles passés. Et ce sont ces schèmes qui servent de médiateurs entre les groupes et leurs chefs, imposant, à cause de leur inadéquation aux techniques, une distorsion fondamentale. Le pouvoir devient littérature, art d’opinion, plaidoyer sur des vraisemblances, rhétorique. Les fonctions directrices sont fausses parce qu’il n’existe plus entre la réalité gouvernée et les êtres qui gouvernent un code adéquat de relations : la réalité gouvernée comporte des hommes et des machines ; le code ne repose que sur l’expérience de l’homme travaillant avec des outils, elle-même affaiblie et lointaine parce que ceux qui emploient ce code ne viennent pas, comme Cincinnatus, de lâcher les mancherons de la charrue. Le symbole s’affaiblit en simple tournure de langage, le réel est absent. Une relation régulatrice de causalité circulaire ne peut s’établir entre l’ensemble de la réalité gouvernée et la fonction d’autorité : l’information n’aboutit plus parce que le code est devenu inadéquat au type d’information qu’il devait transmettre. Une information qui exprimera l’existence simultanée et corrélative des hommes et des machines doit comporter des schèmes de fonctionnement des machines et les valeurs qu’ils impliquent. Il faut que la culture redevienne générale, alors qu’elle est spécialisée et appauvrie. Cette extension de la culture, supprimant une des principales sources d’aliénation, et rétablissant l’information régulatrice, possède une valeur politique et sociale : elle peut donner à l’homme des moyens pour penser son existence et sa situation en fonction de la réalité qui l’entoure. Cette œuvre d’élargissement et d’approfondissement de la culture a ainsi un rôle proprement philosophique à jouer car elle conduit à la critique d’un certain nombre de mythes et de stéréotypes, comme celui du robot, ou des automates parfaits au service d’une humanité paresseuse et comblée. Pour opérer cette prise de conscience, il est possible de chercher à définir l’objet technique en lui-même, par le processus de concrétisation et de surdétermination fonctionnelle qui lui donne sa consistance au terme d’une évolution, prouvant qu’il ne sautait être considéré un pur ustensile. Les modalités de cette genèse permettent de saisir les trois niveau de l’objet technique, et leur coordination temporelle non dialectique : l’élément, l’individu, l’ensemble. L’objet technique étant défini par sa genèse, il est possible d’étudier les rapports entre l’objet technique et les autres réalités, en particulier l’homme à l’état d’adulte et l’enfant. Enfin, considéré comme objet d’un d’un jugement de valeurs, l’objet technique peut susciter des attitudes très différentes selon qu’il est pris au niveau de l’élément, au niveau de l’individu ou au niveau de l’ensemble. Au niveau de l’élément son perfectionnement n’introduit aucun bouleversement engendrant l’angoisse par conflit avec les habitudes acquises : c’est le climat de l’optimisme du XVIIIe siècle, introduisant l’idée d’un progrès continu et indéfini, apportant une amélioration constante du sort de l’homme. Au contraire, l’individu technique devient pendant un temps l’adversaire de l’homme, son concurrent, parce que l’homme centralisait en lui l’individualité technique au temps où seuls existaient les outils ; la machine prend la place de l’homme parce que l’homme accomplissait une fonction de machine, de porteur d’outils. À cette phase correspond une notion dramatique et passionnée du progrès, devenant viol de la nature, conquête du monde, captation des énergies. Cette volonté de puissance s’exprime à travers la démesure techniciste et technocratique de l’être de la thermodynamique, qui a une tournure à la fois prophétique et cataclysmale. Enfin, au niveau des ensembles techniques du XXe siècle, l’énergétisme thermodynamique est remplacé par la théorie de l’information, dont le contenu normatif est éminemment régulateur et stabilisateur : le développement des techniques apparaît comme une garantie de stabilité. La machine, comme élément de l’ensemble technique, devient ce qui augmente la quantité d’information, ce qui accroît la négentropie, ce qui s’oppose à la dégradation de l’énergie : la machine œuvre d’organisation, d’information, est, comme la vie avec la vie, ce qui s’oppose au désordre, au nivellement de toutes choses tendant à priver l’univers de pouvoirs de changement. La machine est ce par quoi l’homme s’oppose à la mort de l’univers ; elle ralentit, comme la vie, la dégradation de l’énergie, et devient stabilisatrice du monde. Cette modification du regard philosophique sur l’objet technique annonce la possibilité d’une introduction de l’être technique dans la culture : cette intégration, qui n’a pu s’opérer ni au niveau des éléments ni au niveau des individus de manière définitive, le pourra avec plus de chances de stabilité au niveau des ensembles ; la réalité technique devenue régulatrice pourra s’intégrer à la culture, régulatrice par essence. Cette intégration ne pouvait se faire que par addition au temps où la technicité résidait dans les éléments, par effraction et révolution au temps où la technicité résidait dans les nouveaux individus techniques ; aujourd’hui, la technicité tend à résider dans les ensembles ; elle peut alors devenir un fondement de la culture à laquelle elle apportera un pouvoir d’unité et de stabilité, en la rendant adéquate à la réalité qu’elle exprime et qu’elle règle.

SIMO1958.3 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 19-20 : Cependant, au lieu de partir de l’individualité de l’objet technique, ou même de sa spécificité, qui est très instable, pour essayer de définir les lois de sa genèse dans le cadre de cette individualité ou de cette spécificité, il est préférable de renverser le problème : c’est à partir des critères de la genèse que l’on peut définir l’individualité et la spécificité de l’objet technique : l’objet technique individuel n’est pas telle ou telle chose, donnée hic et nunc, mais ce dont il y a genèse [Selon des modalités déterminées qui distinguent la genèse de l’objet technique de celles des autres types d’objets : objet esthétique, être vivant. Ces modalités spécifiques de la genèse doivent être distinguées d’une spécificité statique que l’on pourrait établir après la genèse en considérant les caractères des divers types d’objets ; l’emploi de la méthode génétique a précisément pour objet d’éviter l’usage d’une pensée classificatrice intervenant après la genèse pour répartir la totalité des objets en genres et en espèces convenant au discours. L’évolution passée d’un être technique reste à titre essentiel dans cet être sous forme de technicité. L’être technique, porteur de technicité selon la démarche que nous nommerons analectique, ne peut être l’objet d’une connaissance adéquate que si cette dernière saisit en lui le sens temporel de son évolution ; cette connaissance adéquate est la culture technique, distincte du savoir technique qui se borne à saisir dans l’actualité les schèmes isolés du fonctionnement. Les relations qui existent au niveau de la technicité entre un objet technique et un autre étant horizontales aussi bien que verticales, une connaissance qui procède par genre et espèces ne convient pas : nous tenterons d’expliquer en quel sens la relation entre les objets techniques est transductive.]. L’unité de l’objet technique, son individualité, sa spécificité, sont les caractères de consistance et de convergence de sa genèse. La genèse de l’objet technique fait partie de son être. L’objet technique est ce qui n’est pas antérieur à son devenir, mais présent à chaque étape de ce devenir ; l’objet technique un est unité de devenir. Le moteur à essence n’est pas tel ou tel moteur donné dans le temps et dans l’espace, mais le fait qu’il y a une suite, une continuité qui va des premiers moteurs à ceux que nous connaissons et qui sont encore en évolution. À ce titre, comme dans une lignée phylogénétique, un stade défini d’évolution contient en lui des structures et des schèmes dynamiques qui sont au principe d’une évolution des formes. L’être technique évolue par convergence et par adaptation à soi ; il s’unifie intérieurement selon un principe de résonance interne.

SIMO1958.4 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 48-49 : Mais pour que cette technologie générale ait un sens, il faut éviter de la faire reposer sur une assimilation abusive de l’objet technique à l’objet naturel et particulièrement au vivant. Les analogies ou plutôt les ressemblances extérieures doivent être rigoureusement bannies : elles ne possèdent pas de signification et ne peuvent qu’égarer. La méditation sur les automates est dangereuse car elle risque de se borner à une étude des caractères extérieurs et opère ainsi une assimilation abusive. Seuls comptent les échanges d’énergie et d’information dans l’objet technique ou entre l’objet technique et son milieu ; les conduites extérieures vues par un spectateur ne sont pas des objets d’étude scientifique. Il ne faut même pas fonder une science séparée qui étudierait les mécanismes de régulation et de commande dans les automates construits pour être des automates : la technologie doit envisager l’universalité des objets techniques. En ce sens, la Cybernétique est insuffisante : elle a le mérite immense d’être la première étude du domaine intermédiaire entre les sciences spécialisées ; mais elle a trop spécialisé son domaine d’investigation, car elle est partie de l’étude d’un certain nombre d’objets techniques ; elle a accepté au point de départ ce que la technologie doit refuser : une classification des objets techniques opérée par des critères établis selon les genres et les espèces. Il n’y a pas une espèce des automates ; il n’y a que les objets techniques, qui possèdent une organisation fonctionnelle réalisant divers degrés d’automatisme. Ce qui risque de rendre le travail de la Cybernétique partiellement inefficace comme étude interscientifique (telle est pourtant la fin que Norbert Wiener assigne à sa recherche), c’est le postulat initial de l’identité des êtres vivants et des objets techniques auto-régulés. Or, on ne peut dire seulement que les objets techniques tendent vers la concrétisation, tandis que les objets naturels tels que les êtres vivants sont concrets dès le début. Il ne faut pas confondre la tendance à la concrétisation avec le statut d’existence entièrement concrète. Tout objet technique possède en quelque mesure des aspects d’abstraction résiduelle ; on ne doit pas opérer le passage à la limite et parler des objets techniques comme s’ils étaient des objets naturels. Les objets techniques doivent être étudiés dans leur évolution pour qu’on puisse en dégager le processus de concrétisation en tant que tendance ; mais il ne faut pas isoler le dernier produit de l’évolution technique pour le déclarer entièrement concret ; il est plus concret que les précédents, mais il est encore artificiel. Au lieu de considérer une classe d’êtres techniques, les automates, il faut suivre les lignes de concrétisation à travers l’évolution temporelle des objets techniques : c’est selon cette voie seulement que le rapprochement entre être vivant et objet technique a une signification véritable, hors de toute mythologie. Sans la finalité pensée et réalisée par le vivant, la causalité physique ne pourrait seule produire une concrétisation positive et efficace.

SIMO1958.5 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 56-58 : On peut donc affirmer que l’individuation des êtres techniques est la condition du progrès technique. Cette individualisation est possible par la récurrence de causalité dans un milieu que l’être technique crée autour de lui-même et qui le conditionne comme il est conditionné par lui. Ce milieu à la fois technique et naturel peut être nommé milieu associé. Il est ce par quoi l’être technique et naturel se conditionne lui-même dans son conditionnement. Ce milieu n’est pas fabriqué, ou tout au moins pas fabriqué en totalité ; il est un certain régime des éléments naturels entourant l’être technique lié à un certain régime des éléments constituant l’être technique. Le milieu associé est médiateur de la relation entre les éléments techniques fabriqués et les éléments naturels au sein desquels fonctionne l’être technique. […] C’est ce milieu associé qui est la condition d’existence de l’objet technique inventé. Seuls sont à proprement parler inventés les objets techniques qui nécessitent pour être viables un milieu associé ; ils ne peuvent en effet être formés partie par partie au cours des phases d’une évolution successive, car ils ne peuvent exister que tout entiers ou pas du tout. Les objets techniques qui, dans leur liaison au monde naturel, mettent en jeu de manière essentielle une causalité récurrente ne peuvent qu’être inventés et non progressivement constitués, parce que ces objets sont la cause de leur condition de fonctionnement. Ces objets ne sont viables que si le problème est résolu, c’est-à-dire s’ils existent avec leur milieu associé. C’est pourquoi on remarque une telle discontinuité dans l’histoire des objets techniques, avec des origines absolues. Seule la pensée capable de prévision et d’imagination créatrice peut opérer ce conditionnement renversé dans le temps : les éléments qui matériellement constitueront l’objet technique, et qui sont séparés les uns des autres, sans milieu associé avant la constitution de l’objet technique, doivent être organisés les uns par rapport aux autres en fonction de la causalité circulaire qui existera lorsque l’objet sera constitué ; il s’agit donc ici d’un conditionnement du présent par l’avenir, par ce qui n’est pas encore. Une pareille fonction d’avenir ne peut que très rarement être l’œuvre du hasard ; elle nécessite la mise en œuvre d’une capacité d’organiser des éléments en vue de certaines exigences ayant valeur d’ensemble, valeur directrice et jouant le rôle de symboles représentant l’ensemble futur qui n’existe pas encore. L’unité du futur milieu associé dans lequel se déploieront les relations de causalité qui permettront le fonctionnement du nouvel objet technique est représentée, jouée comme un rôle peut être joué en l’absence du véritable personnage, par les schèmes de l’imagination créatrice. Le dynamisme de la pensée est le même que celui des objets techniques ; les schèmes mentaux réagissent les uns sur les autres pendant l’invention comme les divers dynamismes de l’objet technique réagiront les uns sur les autres dans le fonctionnement matériel. L’unité du milieu associé de l’objet technique a son analogue dans l’unité du vivant ; pendant l’invention, cette unité du vivant est la cohérence des schèmes mentaux obtenue par le fait qu’ils existent et se déploient dans le même être ; ceux qui sont contradictoires s’affrontent et se réduisent. C’est parce que le vivant est un être individuel qui porte avec lui son milieu associé que le vivant peut inventer ; cette capacité de se conditionner soi-même est au principe de la capacité de produire des objets qui se conditionnent eux-mêmes. Ce qui a échappé à l’attention des psychologues dans l’analyse de l’imagination inventive, ce sont non pas les schèmes ou les formes, ou les opérations, qui sont des éléments spontanément saillants et en relief, mais le fond dynamique sur lequel ces schèmes s’affrontent, se combinent et auquel ils participent. La psychologie de la Forme, tout en voyant bien la fonction des totalités, a attribué la force à la forme ; une analyse plus profonde du processus imaginatif montrerait sans doute que ce qui est déterminant et joue un rôle énergétique, ce ne sont pas les formes mais ce qui porte les formes, à savoir le fond ; perpétuellement marginal par rapport à l’attention, le fond est ce qui recèle les dynamismes ; il est ce qui fait exister le système des formes ; les formes participent non pas à des formes, mais au fond, qui est le système de toutes les formes ou plutôt le réservoir commun des tendances des formes, avant même qu’elles n’existent à titre séparé et ne soient constitués en système explicite. La relation de participation qui relie les formes au fond est une relation qui enjambe le présent et diffuse une influence de l’avenir sur le présent, du virtuel sur l’actuel. Car le fond est le système des virtualités, des potentiels, des forces qui cheminent, tandis que les formes sont le système de l’actualité. L’invention est une prise en charge du système de l’actualité par le système des virtualités, la création d’un système unique à partir de ces deux systèmes.

SIMO1958.6 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 61 : Le principe de l’individuation de l’objet technique par la causalité récurrente dans le milieu associé permet de penser avec plus de clarté certains ensembles techniques et de savoir s’il faut les traiter comme individu technique ou collection organisée d’individus. Nous dirons qu’il y a individu technique lorsque le milieu associé existe comme condition sine qua non de fonctionnement, alors qu’il y a ensemble dans le cas contraire.

SIMO1958.7 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 66-67 : La solidarité historique qui existe entre les réalités techniques passe par l’intermédiaire de la fabrication d’éléments. Pour qu’une réalité technique ait une postérité, il ne suffit pas qu’elle se perfectionne en elle-même : il faut encore qu’elle se réincarne et participe à ce devenir cyclique selon une formule de relaxation dans les niveaux de réalité. La solidarité des êtres techniques les uns par rapport aux autres dans le présent masque en général cette autre solidarité beaucoup plus essentielle, qui exige une dimension temporelle d’évolution, mais n’est pas identique à l’évolution biologique, ne comportant guère ces changements successifs de niveau et s’effectuant selon des lignes plus continues. Transposée en termes biologiques, l’évolution technique consisterait en ce fait qu’une espèce produirait un organe qui serait donné à un individu, devenant par là le premier terme d’une lignée spécifique qui à son tour produirait un organe nouveau. Dans le domaine de la vie, l’organe n’est pas détachable de l’espèce ; dans le domaine technique, l’élément, précisément parce qu’il est fabriqué, est détachable de l’ensemble qui l’a produit : là est la différence entre l’engendré et le produit. Le monde technique possède ainsi une dimension historique en plus de sa dimension spatiale. La solidarité actuelle ne doit pas masquer la solidarité du successif ; c’est en effet cette dernière solidarité qui détermine par sa loi d’évolution en dents de scie les grandes époques de la vie technique.

SIMO1958.8 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 70-71 : Les différents aspects de l’individualisation de l’être technique constituent le centre d’une évolution qui procède par étapes successives, mais qui n’est pas dialectique au sens propre du terme, car le rôle de la négativité n’y est pas d’être moteur du progrès. La négativité dans le monde technique est un défaut d’individuation, une jonction incomplète du monde naturel et du monde technique ; cette négativité n’est pas moteur du progrès ; ou plutôt, elle est moteur de changement, elle incite l’homme à rechercher des solutions nouvelles plus satisfaisantes que celles qu’il possède. Mais ce désir de changement n’opère pas directement dans l’être technique ; il opère seulement dans l’homme comme inventeur et comme utilisateur ; de plus, ce changement ne doit pas être confondu avec le progrès ; un changement trop rapide est contraire au progrès technique, car il empêche la transmission, sous forme d’éléments techniques, de ce qu’une époque a acquis à celle qui la suit. Pour que le progrès technique existe, il faut que chaque époque puisse donner à celle qui la suit le fruit de son effort technique ; ce ne sont pas les ensembles techniques, ni même les individus, qui peuvent passer d’une époque à une autre, mais les éléments que ces individus, groupés en ensemble, ont pu produire ; les ensembles techniques, en effet, possèdent, grâce à leur capacité d’intercommutation interne, la possibilité de sortir d’eux-mêmes en produisant des éléments différents des leurs. Les êtres techniques sont différents des êtres vivants par beaucoup d’aspects, mais ils le sont essentiellement sous le rapport suivant : un être vivant engendre des être semblables à lui, ou qui peuvent le devenir après un certain nombre de réorganisations successives s’accomplissant de façon spontanée si les conditions convenables sont réalisées ; au contraire, un être technique ne possède pas cette capacité ; il ne peut spontanément produire d’autres êtres techniques semblables à lui, malgré les efforts des cybernéticiens qui ont tenté d’obliger les êtres techniques à copier le vivant en construisant des êtres semblables à eux : cela n’est actuellement possible que de manière supposée, et sans grand fondement ; mais l’être technique a une plus grande liberté que le vivant, permise par une perfection infiniment moins grande ; dans ces conditions, l’être technique peut produire des éléments qui recueillent le degré de perfection auquel un ensemble technique est arrivé, et qui, eux, peuvent être réunis pour permettre la constitution d’êtres techniques nouveaux, sous forme d’individus ; il n’y a donc pas ici engendrement, procession, ni production directe, mais production indirecte par constitution d’éléments renfermant un certain degré de perfection technique.

SIMO1958.9 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 73 : La technicité peut être considérée comme un caractère positif de l’élément, analogue à l’auto-organisation exercée par le milieu associé dans l’individu technique. La technicité au niveau de l’élément est la concrétisation ; elle est ce qui fait que l’élément est réellement élément produit par un ensemble, mais non ensemble lui-même ou individu ; cette caractéristique le rend détachable de l’élément et le libère pour que de nouveaux individus puissent être constitués. Certes, il n’y a aucune raison péremptoire pour attribuer la seule technicité à l’élément ; le milieu associé est dépositaire de la technicité au niveau de l’individu, comme l’étendue l’est de l’intercommutativité au niveau de l’ensemble ; cependant, il est bon de réserver le terme de technicité à cette qualité de l’élément par laquelle ce qui a été acquis dans un ensemble technique s’exprime et se conserve pour être transporté à une nouvelle période. C’est donc dans les éléments que la technicité existe de la manière la plus pure, pour ainsi dire à l’état libre, alors qu’elle n’est, dans les individus et les ensembles, qu’à l’état de combinaison.

SIMO1958.10 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 74 : Nous pouvons considérer l’imagination technique comme définie par une sensibilité particulière à la technicité des éléments ; c’est cette sensibilité à la technicité qui permet la découverte des assemblages possibles ; l’inventeur ne procède pas ex nihilo, à partir de la matière à laquelle il donne une forme mais à partir d’éléments déjà techniques, auxquels on découvre un être individuel susceptible de les incorporer. La compatibilité des éléments dans l’individu technique suppose le milieu associé : l’individu technique doit donc être imaginé, c’est-à-dire supposé construit en tant qu’ensemble de schèmes techniques ordonnés ; l’individu est un système stable des technicités des éléments organisés en ensemble. Ce sont les technicités qui sont organisées, ainsi que les éléments comme supports de ces technicités, non les éléments eux-mêmes pris dans leur matérialité. Un moteur est un assemblage de ressorts, d’axes, de systèmes volumétriques définis chacun par leur matérialité ; aussi, une relative indétermination peut subsister dans la localisation de tel ou tel élément par rapport à tous les autres. La place de certains éléments est choisie plus en vertu de considérations extrinsèques que de considérations intrinsèques concernant le seul objet technique relativement aux divers processus de son fonctionnement. Les déterminations intrinsèques, appuyées sur la technicité de chacun des éléments, sont celles qui constituent le milieu associé. Or, le milieu associé est la concrétisation des technicités apportées par tous les éléments, dans leurs réactions mutuelles. Les technicités peuvent être conçues comme des conduites stables, exprimant les caractères des éléments, plutôt que comme de simples qualités : elles sont des puissances, au sens le plus plein du terme, c’est-à-dire des capacités de produire ou de subir un effet d’une manière déterminée.

SIMO1958.11 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 77 : De là vient en partie la noblesse du travail artisanal : l’homme est dépositaire de la technicité, et le travail est le seul mode d’expression de cette technicité. Le devoir de travailler traduit cette exigence d’expression ; refuser de travailler alors que l’on possède un savoir technique qui ne peut être exprimé que par le travail, parce qu’il n’est pas formulable en termes intellectuels, ce serait mettre la lumière sous le boisseau. Au contraire, l’exigence d’expression n’est plus liée au travail lorsque la technicité est devenue immanente à un savoir formulable abstraitement, en dehors de toute actualisation concrète.

SIMO1958.12 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 78-79 : Ceci explique que, dans certains cas, l’individualité humaine puisse être employée fonctionnellement comme support de l’individualité technique ; l’existence d’individualités techniques à titre séparé est assez récente et paraît même, à certains égards, une imitation de l’homme par la machine, la machine étant la forme la plus générale de l’individualité technique. Or, les machines sont en réalité très peu semblables à l’homme, et même quand elles fonctionnent de manière à produire des résultats comparables, il est très rare qu’elles emploient des procédés identiques à ceux du travail de l’homme individuel. En fait, l’analogie est le plus souvent très extérieure. Mais, si l’homme ressent souvent une frustration devant la machine, c’est parce que la machine remplace l’homme porteur d’outils. Dans les ensembles techniques des civilisations industrielles, les postes où plusieurs hommes doivent travailler en un étroit synchronisme deviennent plus rares que par le passé, caractérisé par le niveau artisanal. Au contraire, au niveau artisanal, il est très fréquent que certains travaux exigent un groupement d’individus humains ayant des fonctions complémentaires : pour ferrer un cheval, il faut un homme qui tienne le pied du cheval et un autre qui mette le fer, puis le cloue. Pour bâtir, le maçon avait son aide, le goujat. Pour battre au fléau, il faut posséder une bonne perception des structures rythmiques, qui synchronisent les mouvements alternés des membres de l’équipe. Or, on ne peut affirmer que ce sont les aides seuls qui ont été remplacés par les machines ; c’est le support même de l’individualisation technique qui a changé : ce support était un individu humain ; il est maintenant la machine ; les outils sont portés par la machine, et on pourrait définir la machine comme ce qui porte les outils et les dirige. L’homme dirige ou règle la machine porteuse d’outils ; il réalise des groupements de machines mais ne porte pas les outils ; la machine accomplit bien le travail central, celui du maréchal ferrant et non celui de l’aide ; l’homme, dégagé de cette fonction d’individu technique qui est la fonction artisanale par essence, peut devenir soit organisateur de l’ensemble des individus techniques, soit aide des individus techniques : il graisse, nettoie, enlève débris et bavures, c’est-à-dire joue le rôle d’un auxiliaire, à certains égards ; il fournit la machine en éléments, changeant la courroie, affûtant le foret ou l’outil de tour. Il a donc, en ce sens, un rôle au-dessous de l’individualité technique, et un autre rôle au-dessus : servant et régleur, il encadre la machine, individu technique, en s’occupant du rapport de la machine aux éléments et à l’ensemble ; il est organisateur des relations entre les niveaux techniques, au lieu d’être lui-même un des niveaux techniques, comme l’artisan. Pour cette raison, un technicien adhère moins à sa spécialisation professionnelle qu’un artisan. Toutefois, ceci ne signifie en aucune manière que l’homme ne puisse être individu technique et travailler en liaison avec la machine ; cette relation homme-machine est réalisée quand l’homme, à travers la machine, applique son action au monde naturel ; la machine est alors véhicule d’action et d’information, dans une relation à trois termes : homme, machine, monde, la machine étant entre l’homme et le monde. Dans ce cas, l’homme conserve certains traits de technicité définis en particulier par la nécessité d’un apprentissage. La machine sert alors essentiellement de relais, d’amplificateur de mouvements, mais c’est encore l’homme qui conserve en lui le centre de cet individu technique complexe qu’est la réalité constituée par l’homme et la machine. On pourrait dire que, dans ce cas, l’homme est porteur de machine, la machine restant porteuse d’outils ; cette relation est donc partiellement comparable à celle qui ne comporte pas d’auto-régulation. C’est encore l’homme qui est au centre du milieu associé dans cette relation ; la machine-outil est celle qui n’a pas de régulation intérieure autonome, et qui nécessite un homme pour la faire fonctionner. L’homme intervient ici comme être vivant ; il utilise son propre sens de l’auto-régulation pour opérer celle de la machine, sans même que cette nécessité soit consciemment formulée : un homme laisse “reposer” un moteur de voiture qui chauffe exagérément, le met en route progressivement à partir de l’état froid sans exiger un effort très énergique au début. Ces conduites, justifiées techniquement, ont leur corrélatif dans les régulations vitales, et se trouvent vécues plus que pensées par le conducteur. Elles s’appliquent d’autant mieux à l’objet technique qu’il approche davantage du statut d’être concret, englobant dans son fonctionnement des régulations homéostatiques. Il existe en effet pour l’objet technique devenu concret un régime pour lequel les processus d’auto-destruction sont réduits au minimum, parce que les régulations homéostatiques s’exercent le plus parfaitement possible.

SIMO1958.13 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 81-82 : Dans tous les jugements qui sont portés sur la machine, il y a une humanisation de la machine qui a comme source profonde ce changement de rôle ; l’homme avait appris à être l’être technique au point de croire que l’être technique devenu concret se met à jouer abusivement le rôle de l’homme. Les idées d’asservissement et de libération sont beaucoup trop liées à l’ancien statut de l’homme comme objet technique pour pouvoir correspondre au vrai problème de la relation de l’homme et de la machine. Il est nécessaire que l’objet technique soit connu en lui-même pour que la relation de l’homme à la machine devienne stable et valide : d’où la nécessité d’une culture technique.

SIMO1958.14 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 87-88 : La suppression de l’esclavage en Europe occidentale a permis aux anciennes techniques serviles de venir au jour et de se manifester dans la pensée claire : la Renaissance a consacré les techniques artisanales en leur apportant la lumière de la rationalité. La mécanique rationnelle a fait entrer les machines dans le domaine de la pensée mathématique : Descartes a calculé les transformations du mouvement dans les machines simples que les esclaves de l’antiquité utilisaient. Cet effort de rationalisation, qui signifie intégration à la culture, s’est poursuivi jusqu’à la fin du XVIIIe siècle. Mais l’unité des techniques ne s’est pas conservée malgré cela ; un véritable renversement s’est opéré, qui a refoulé les anciennes techniques nobles (celle de l’agriculture et de l’élevage) dans le domaine de l’irrationnel, du non-culturel ; la relation au monde naturel a été perdue, et l’objet technique est devenu objet artificiel qui éloigne l’homme du monde. À peine peut-on entrevoir de nos jours une voie de rapprochement entre une pensée inspirée par les techniques relatives aux êtres vivants et la pensée artificielle, constructrice d’automates. Les techniciens mécaniques n’ont pu devenir véritablement majoritaires qu’en devenant des techniques pensées par l’ingénieur, au lieu de rester les techniques de l’artisan. ; au niveau artisanal, la relation concrète entre le monde et l’objet technique existe encore ; mais l’objet pensé par l’ingénieur est un objet technique abstrait, non rattaché au monde naturel. Pour que la culture puisse incorporer les objets techniques, il faudrait découvrir une voie moyenne entre le statut de majorité et le statut de minorité des objets techniques. La disjonction entre la culture et la technique a sa condition dans la disjonction qui existe à l’intérieur du monde des techniques lui-même. Pour découvrir un rapport adéquat de l’homme à l’objet technique, il faudrait pouvoir découvrir une unité du monde technique, par une représentation qui incorporerait à la fois celle de l’artisan et celle de l’ingénieur. La représentation de l’artisan est noyée dans le concret, engagée dans la manipulation matérielle et l’existence sensible ; elle est dominée par son objet ; celle de l’ingénieur est dominatrice ; elle fait de l’objet un faisceau de relations mesurées, un produit, un ensemble de caractéristiques. Ainsi, la condition première d’incorporation des objets techniques à la culture serait que l’homme ne soit ni inférieur ni supérieur aux objets techniques, qu’il puisse les aborder et apprendre à les connaître en entretenant avec eux une relation d’égalité, de réciprocité d’échanges : une relation sociale en quelque manière.

SIMO1958.15 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 101 : La pensée cybernétique donne déjà dans la théorie de l’information des recherches comme celle du “human engineering” qui étudie particulièrement le rapport de l’homme à la machine ; on peut alors concevoir un encyclopédisme à base technologique. Ce nouvel encyclopédisme, comme les deux précédents, doit effectuer une libération, mais en un sens différent ; il ne peut être une répétition de celui du siècle des lumières. Au XVIe siècle, l’homme était asservi à des stéréotypes intellectuels ; au XVIIIe siècle, il était limité par des aspects hiérarchiques de la rigidité sociale ; au XXe, il est esclave de sa dépendance par rapport aux puissances inconnues et lointaines qui le dirigent sans qu’il les connaisse et puisse réagir contre elles ; c’est l’isolement qui l’asservi, et le manque d’homogénéité de l’information qui l’aliène. Devenu machine dans un monde mécanisé, il ne peut retrouver sa liberté qu’en assumant son rôle et en le dépassant par une compréhension des fonctions techniques pensées sous l’aspect de l’universalité. Tout encyclopédisme est un humanisme, si l’on entend par humanisme la volonté de ramener à un statut de liberté ce qui de l’être humain a été aliéné, pour que rien d’humain ne soit étranger à l’homme ; mais cette redécouverte de la réalité humaine peut s’opérer en des sens différents, et chaque époque recrée un humanisme qui est toujours en quelque mesure approprié aux circonstances, parce qu’il vise l’aspect le plus grave de l’aliénation que comporte ou produit une civilisation.

SIMO1958.16 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 103-105 : La conscience est à la fois activité démiurgique et résultat d’une organisation antérieure ; la réalité sociale est contemporaine de l’effort humain et homogène par rapport à lui. Seul un schème de simultanéité, une constellation de forces représentées dans leur pouvoir relationnel peut être adéquat à ce type de réalité. C’est son développement que postule une pareille représentation dynamique de l’homme dans la société ; les schème cybernétiques ne peuvent trouver un sens universel que dans une société déjà constituée d’une manière conforme à cette pensée ; la réactivité la plus difficile à établir est celle de la société par rapport à la pensée cybernétique elle-même ; elle ne peut se créer que progressivement et par l’intermédiaire des voies d’information déjà constituées, comme par exemple les échanges entre les techniques travaillant de manière synergique sur un point donné ; c’est ce type de groupement que Norbert Wiener cite comme une source de cette nouvelle technologie qui est une technique des techniques, au début de son ouvrage intitulé Cybernetics, publié en 1948, et qui est un nouveau Discours de la Méthode, rédigé par un mathématicien enseignant dans un institut de technologie. La Cybernétique donne à l’homme un nouveau type de majorité, celle qui pénètre les relations de l’autorité se distribuant dans le corps social, et découvre, au delà de la maturité de la raison, celle de la réflexion qui donne, en plus de la liberté d’agir, le pouvoir de créer l’organisation en instituant la téléologie. Par là même, la finalité et l’organisation pouvant être rationnellement pensées et créées, puisqu’elles deviennent matière de techniques, ne sont plus des raisons dernières, supérieures, capables de tout justifier : si la finalité devient objet de technique, il y a un au-delà de la finalité dans l’éthique ; la Cybernétique, en ce sens, libère l’homme du prestige inconditionnel de l’idée de finalité. L’homme se libérait, par la technique, de la contrainte sociale ; par la technologie de l’information, il devient créateur de cette organisation de solidarité qui jadis l’emprisonnait ; l’étape de l’encyclopédisme technique ne peut être que provisoire ; elle appelle celle de l’encyclopédisme technologique qui l’achève en donnant à l’individu une possibilité de retour au social qui change de statut, et devient l’objet d’une construction organisatrice au lieu d’être l’acceptation d’un donné valorisé ou combattu, mais subsistant avec ses caractères primitifs, extérieurs à l’activité de l’homme. La nature individuelle n’est plus ainsi extérieure au domaine humain. Après l’accès à la liberté se manifeste l’accès à l’autorité, au sens plein du terme, qui est celui de la force créatrice. Telles sont les trois étapes de l’esprit encyclopédique, qui fut d’abord éthique, puis technique, et qui peut devenir technologique, en allant au delà de l’idée de finalité prise comme justification dernière. Or, il ne faut pas dire que les techniques de l’organisation finalisée sont utiles par leurs résultats pratiques seulement ; elles sont utiles en ce sens qu’elles font passer la finalité du niveau magique au niveau technique. Alors que l’évocation d’une fin supérieure, et de l’ordre qui réalise cette fin, est considérée comme terme dernier d’une requête de justification, parce que la vie est confondue avec la finalité, à une époque où les schèmes techniques ne sont que des schèmes de causalité, l’introduction dans la pensée des schèmes technologiques de finalité joue un rôle cathartique. Ce dont il y a technique ne peut être une justification dernière. La vie, individuelle et sociale, comporte bien des aspects de processus finalisés, mais la finalité n’est peut-être pas l’aspect le plus profond de la vie individuelle ou sociale, non plus que les différentes modalités de l’action finalisée, comme l’adaptation à un milieu.

SIMO1958.17 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 109-110 : Peut-être pourrait-on faire remarquer que jusqu’au XXe siècle, les techniques ont été incapables d’assumer ce rôle de relation entre le travail encyclopédique et la culture donnée à l’enfant. C’est qu’en effet à ce moment il était encore difficilement possible de trouver au sein des techniques des opérations véritablement universelles, incluant les schématismes de la sensation ou de la pensée. Aujourd’hui l’existence des techniques de l’information donne à la technologie une universalité infiniment plus grande. La théorie de l’information met la technologie au centre d’un très grand nombre de sciences très diverses, comme la physiologie, la logique, l’esthétique, l’étude phonétique ou grammaticale et même sémantique des langues, le calcul numérique, la géométrie, la théorie de l’organisation des groupes et des régimes de l’autorité, le calcul des probabilités, et toutes les techniques du transport de l’information parlée, sonore ou visuelle. La théorie de l’information est une technologie interscientifique, qui permet une systématisation des concepts scientifiques aussi bien que du schématisme des diverses techniques ; on ne doit pas considérer la théorie de l’information comme une technique parmi des techniques ; elle est en réalité une pensée qui est la médiatrice entre les diverses techniques d’une part, entre les diverses sciences d’autre part, et entre les sciences et les techniques ; elle peut jouer ce rôle parce qu’il existe entre les sciences des rapports qui ne sont pas seulement théoriques, mais aussi instrumentaux, techniques, chaque science pouvant prendre à son service un certain nombre d’autres sciences qu’elle utilise comme des sources techniques pour réaliser l’effet qu’elle étudie ; la relation technique existe entre les science ; par ailleurs, les techniques peuvent se théorétiser sous forme de science ; la théorie de l’information intervient comme science des techniques et technique des sciences, déterminant un état réciproque de ces fonctions d’échange. C’est à ce niveau, et à ce niveau seulement, que l’encyclopédisme et l’éducation technique peuvent se rencontrer, dans une cohérence des deux ordres, simultané et successif, de l’universalité. Nous pouvons donc dire que, si les techniques jusqu’à ce jour n’ont pu donner deux dynamismes difficilement conciliables, dont l’un s’adressait à l’adulte et l’autre à l’enfant, cet antagonisme fait place, dans la théorie de l’information, à une discipline médiatrice, qui institue la continuité entre la spécialisation et l’encyclopédisme, entre l’éducation de l’enfant et celle de l’adulte. Par là se trouve fondée une technologie réflexive au-dessus des différentes techniques, et définie une pensée qui crée une relation entre les sciences et les techniques.

SIMO1958.18 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 125 : Un enthousiasme bien élémentaire pour les automates à auto-régulation fait oublier que ce sont précisément ces machines qui ont le plus besoin de l’homme ; tandis que les autres machines n’ont besoin de l’homme que comme servant ou organisateur, les machines à auto-régulation ont besoin de l’homme comme technicien, c’est-à-dire comme associé ; leur relation à l’homme se situe au niveau de cette régulation, non au niveau des éléments ou des ensembles. Mais c’est par cette régulation que les machines automatiques peuvent être rattachées à l’ensemble technique dans lequel elles fonctionnent. De même que l’individu humain n’est pas rattaché au groupe par ses fonctions élémentaires, qu’elles soient actives ou perceptives, mais par son auto-régulation qui lui donne sa personnalité, son caractère, ainsi la machine est intégrée à l’ensemble non seulement de façon abstraite et liminaire, par sa fonction, mais aussi, à chaque instant, par sa manière d’exécuter sa tâche propre en fonction des exigences de l’ensemble. Il n’y a pas d’auto-régulation purement interne, entièrement isolée ; les résultats de l’action sont des résultats non seulement en eux-mêmes mais aussi par leur rapport au milieu extérieur, à l’ensemble. Or, cet aspect de l’auto-régulation par lequel compte doit être tenu du milieu dans son ensemble ne peut être accompli par la machine seule, même si elle très parfaitement automatisée. Le type de mémoire et le type de perception qui conviennent à cet aspect de la régulation nécessitent l’intégration, la transformation d’a posteriori en a priori que le vivant seul réalise en lui. Il y a quelque chose de vivant dans un ensemble technique, et la fonction intégratrice de la vie ne peut être assurée que par des êtres humains ; l’être humain a la capacité de comprendre le fonctionnement de la machine, d’une part, et de vivre, d’autre part : on peut parler de vie technique, comme étant ce qui réalise en l’homme cette mise en relation des deux fonctions. L’homme est capable d’assumer la relation entre le vivant qu’il est et la machine qu’il fabrique ; l’opération technique exige une vie technique et naturelle.

SIMO1958.19 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 127-128 : La philosophie technocratique elle-même est affectée de violence asservissante, en tant qu’elle est technocratique. Le technicisme sortant d’une réflexion sur les ensembles techniques autocratiques est inspiré par une volonté de conquête sans frein. Il est démesuré, il manque de contrôle interne et d’empire sur lui-même. Il est une force qui va et qui ne peut se perpétuer dans l’être que tant que dure pour elle la phase ascendante de succès, de conquête. Le Saint-Simonisme a triomphé sous le second Empire parce qu’il y avait des quais à construire, des voies ferrées à tracer, des ponts et des viaducs à jeter au-dessus des vallées, des montagnes à percer de tunnels. Cette agression conquérante possède le caractère d’un viol de la nature. L’homme entre en possession des entrailles de la terre, traverse et laboure, franchit ce qui jusqu’à ce jour était resté infranchissable. La technocratie prend ainsi un certain sens de violation du sacré. Jeter un pont sur un bras de mer, rattacher une île au continent, percer un isthme, c’est modifier la configuration de la terre, c’est attenter à son intégrité naturelle. Il y a un orgueil de domination dans cette violence, et l’homme se donne le titre de créateur ou au moins de contremaître de la création : il joue un rôle démiurgique : c’est le rêve de Faust, repris par une société tout entière, par l’ensemble des techniciens. En effet, il ne suffit pas que les techniques se développent pour que le technocratisme naisse. Le technocratisme représente la volonté d’accéder au pouvoir qui se fait jour dans un groupe d’hommes possédant le savoir et non le pouvoir, la connaissance des techniques mais non l’argent pour les mettre en œuvre et le pouvoir législatif pour se libérer de toute contrainte. Les technocrates, en France, sont essentiellement des polytechniciens, c’est-à-dire des hommes qui, par rapport aux techniques, sont dans la situation d’utilisateurs intelligents et d’organisateurs plutôt que de véritables techniciens. Ces mathématiciens pensent par ensembles, non par unités individualisées de fonctionnement ; c’est l’entreprise plus que la machine qui retient leur attention.

SIMO1958.20 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 138 : L’homme comprend les machines ; il a une fonction à jouer entre les machines plutôt qu’au-dessus des machines, pour qu’il puisse y avoir un véritable ensemble technique. C’est l’homme qui découvre les significations : la signification est le sens que prend un événement par rapport à des formes qui existent déjà ; la signification est ce qui fait qu’un événement a valeur d’information.

SIMO1958.21 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 144-145 : Or, la relation de l’homme aux machines se fait au niveau des fonctions de transduction. Il est en effet très facile de construire des machines qui assurent une accumulation d’énergie très supérieure à celle que l’homme peut accumuler dans son corps ; il est également possible d’employer des systèmes artificiels qui constituent des effecteurs supérieurs à ceux du corps humain. Mais il est très difficile de construire des transducteurs comparables au vivant. En effet, le vivant n’est pas exactement un transducteur comme ceux que les machines peuvent comporter ; il est cela et quelque chose de plus ; les transducteurs mécaniques sont des systèmes qui comportent une marge d’indétermination ; l’information est ce qui apporte la détermination. Mais il faut que cette information soit donnée au transducteur ; il ne l’invente pas ; elle lui est donnée par un mécanisme analogue à celui de la perception chez le vivant, par exemple par un signal provenant de la manière dont l’effecteur fonctionne (la jauge sur l’arbre de sortie d’une machine thermique). Au contraire, le vivant a la capacité de se donner à lui-même une information, même en l’absence de toute perception, parce qu’il possède la capacité de modifier les formes de problèmes à résoudre ; pour la machine, il n’y a pas de problèmes, mais seulement des données modulant des transducteurs ; plusieurs transducteurs agissant les uns sur les autres selon des schèmes commutables, comme l’homéostat d’Ashby, ne constituent pas une machine à résoudre des problèmes : les transducteurs en relation de causalité réciproque sont tous dans le même temps ; ils se conditionnent les uns les autres dans l’actuel ; il n’y a jamais pour eux problèmes, chose lancée devant, chose qui est en avant et qu’il faut enjamber. Résoudre un problème, c’est pouvoir l’enjamber, c’est pouvoir opérer une refonte des formes qui sont les données mêmes du problème. La résolution des véritables problèmes est une fonction vitale supposant un mode d’action récurrente qui ne peut exister dans une machine : la récurrence de l’avenir sur le présent, du virtuel sur l’actuel. Il n’y a pas de véritable virtuel pour une machine ; la machine ne peut réformer ses formes pour résoudre un problème. Quand l’homéostat d’Ashby se commute lui-même en cours de fonctionnement (car on peut attribuer à cette machine la faculté d’agir sur ses propres sélecteurs), il se produit un saut des caractéristiques qui anéantit tout fonctionnement antérieur ; à chaque instant la machine existe dans l’actuel, et la faculté de changer apparemment ses formes est peu efficace, parce qu’il ne reste rien des formes anciennes ; tout se passe comme s’il y avait une nouvelle machine ; chaque fonctionnement est momentané ; quand la machine change de formes en se commutant, elle ne se commute pas pour avoir telle autre forme orientée vers la résolution du problème ; il n’y a pas une modification de formes qui soit orientée par le pressentiment du problème à résoudre ; le virtuel ne réagit pas sur l’actuel, parce que le virtuel ne peut jouer un rôle en tant que virtuel pour la machine. Elle ne peut réagir qu’à quelque chose de positivement donné, d’actuellement fait. La faculté que possède le vivant de se modifier en fonction du virtuel est le sens du temps, que la machine n’a pas parce qu’elle ne vit pas. Les ensembles techniques se caractérisent par le fait qu’une relation entre les objets techniques s’y institue au niveau de la marge d’indétermination de fonctionnement de chaque objet technique. Cette relation entre les objets techniques, dans la mesure où elle met en corrélation des indéterminations, est de type problématique, et ne peut, pour cette raison, être assumée par les objets eux-mêmes ; elle ne peut être l’objet ou le résultat d’un calcul : elle doit être pensée, posée comme problème par un être vivant et pour un être vivant. On pourrait exprimer ce que nous avons nommé un couplage entre l’homme et la machine en disant que l’homme est responsable des machines. Cette responsabilité n’est pas celle du producteur en tant que la chose produite émane de lui, mais celle du tiers, témoin d’une difficulté qu’il peut seul résoudre parce qu’il est seul à pouvoir la penser ; l’homme est témoin des machines et les représente les unes par rapport aux autres ; les machines ne peuvent ni penser ni vivre leur rapport mutuel ; elles ne peuvent qu’agir les unes sur les autres dans l’actuel, selon des schèmes de causalité. L’homme comme témoin des machines est responsable de leur relation ; la machine individuelle représente l’homme, mais l’homme représente l’ensemble des machines, car il n’y a pas une machine de toutes les machines, alors qu’il peut y avoir une pensée visant toutes les machines.

SIMO1958.21 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 149-150 : La fonction dont nous tentons de tracer les grandes lignes serait celle d’un psychologue des machines, ou d’un sociologue des machines, que l’on pourrait nommer le mécanologue. On trouve une esquisse de ce rôle dans l’intention de Norbert Wiener fondant la cybernétique, cette science de la commande de la communication dans l’être vivant et la machine. Le sens de la cybernétique a été mal compris, car cette tentative éminemment neuve a été réduite, jugée en fonctions de notions ou de tendances anciennes. En France, la recherche de cybernétique, qui suppose unité de la théorie de l’information et de l’étude des schèmes de commande et d’auto-régulation, s’est scindée en deux branches divergentes, celle de la théorie de l’information avec Louis de Broglie et l’équipe qui publie ses travaux dans la Revue d’Optique, et celle des recherches sur l’automatisme, avec des ingénieurs comme Albert Ducrocq, représentant des tendances technicistes et technocratiques. Or, c’est la liaison entre ces deux tendances qui permettrait la découverte des valeurs impliquées dans les réalités techniques et leur incorporation à la culture. La théorie de l’information est en effet d’ordre scientifique : elle emploie des modes opératoires voisins de ceux qu’emploie la théorie de la chaleur. Au contraire, le technicisme de Ducrocq recherche dans le fonctionnement des machines automatiques l’exemple d’un certain nombre de fonctions qui permettent d’interpréter d’autres type de réalités par analogie avec l’automatisme. La théorie des mécanismes d’auto-régulation permet en particulier d’esquisser une hypothèse expliquant les origines de la vie. Ou bien ce sont les principales opérations mentales, ou certaines fonctions nerveuses qui se trouvent ainsi expliquées par analogie. En fait, de semblables analogies, même si elles ne sont pas arbitraires, indiquent seulement qu’il y a des fonctionnements communs au vivant et aux machines. Elles laissent subsister le problème de la nature même de ces fonctionnements : ce technicisme est une phénoménologie plus qu’un approfondissement recherchant la nature des schèmes et des conditions qui en régissent la mise en œuvre. Certes, il est possible de ne pas accepter la manière dont Norbert Wiener caractérise l’information, et le postulat essentiel de son ouvrage qui consiste à affirmer que l’information s’oppose au bruit de fond comme une entropie négative s’oppose à l’entropie définie par la thermodynamique. Cependant, même si cette opposition du déterminisme divergent au déterminisme convergent ne rend pas compte de toute la réalité technique et de son rapport avec la vie, cette opposition contient en elle toute une méthode pour découvrir et pour définir un ensemble de valeurs impliquées dans les fonctionnements techniques et dans les concepts au moyen desquels on peut les penser. Mais il est possible d’ajouter un prolongement à la réflexion de Norbert Wiener. À la fin de son ouvrage, l’auteur s’interroge sur la manière dont les concepts qu’il a définis pourraient être utilisés pour l’organisation de la société. Norbert Wiener constate que les vastes groupes contiennent moins d’information que les groupes restreints, et il explique ce fait par la tendance des éléments humains les moins “homéostatiques” à occuper les fonctions de direction dans les vastes groupes ; la quantité d’information contenue dans un groupe serait au contraire, selon Norbert Wiener, proportionnelle au degré de perfection de l’homéostasie du groupe. Le problème moral et politique fondamental consisterait alors à se demander comment on peut mettre à la tête des groupes des individus qui représentent des forces homéostatiques. Mais, dit Norbert Wiener, aucun des individus qui comprennent la valeur de l’homéostasie et qui comprennent aussi ce qu’est l’information n’est capable de prendre le pouvoir ; et tous les cybernéticiens ensemble se trouvent devant les hommes qui président aux destinées collectives comme les souris qui veulent pendre une sonnette au cou du chat (Cybernetics, p. 189). Les tentatives que l’auteur a faites auprès des dirigeants syndicaux l’ont rempli d’une amertume qui fait songer à celle de Platon disant ses déceptions dans la Septième Lettre. Or, on peut essayer de découvrir entre la compréhension des techniques et la force qui dirige les groupes humains une médiation bien différente de celle qu’envisage Norbert Wiener. Car il est difficile de faire souvent que les philosophes soient rois ou les rois philosophes. Il arrive souvent que les philosophes devenus rois ne soient plus philosophes. La véritable médiation entre la technique et le pouvoir ne peut être individuelle. Elle ne peut être réalisée que par l’intermédiaire de la culture. Car il existe quelque chose qui permet à l’homme de gouverner : la culture qu’il a reçue ; c’est cette culture qui lui donne des significations et des valeurs ; c’est la culture qui gouverne l’homme, même si cet homme gouverne d’autres hommes et des machines. Or, cette culture est élaborée par la grande masse de ceux qui sont gouvernés ; si bien que le pouvoir exercé par un homme ne vient pas de lui à proprement parler, mais se cristallise et se concrétise seulement en lui ; il vient des hommes gouvernés et y retourne. Il y a là une sorte de récurrence.

SIMO1958.22 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 152 : Prise seule, la technicité tend à devenir dominatrice et à donner une réponse à tous les problèmes, comme elle le fait de nos jours à travers la cybernétique. En fait, pour être justement connue, selon son essence, et droitement intégrée à la culture, la technicité doit être connue dans sa relation aux autres modes d’être au monde de l’homme. Aucune étude inductive, partant de la pluralité des objets techniques, ne peut découvrir l’essence de la technicité : c’est donc, en employant une méthode philosophique, l’examen direct de la technicité selon une méthode génétique qui doit être tenté.

SIMO1958.23 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 154-155 : C’est donc la genèse de toute la technicité qu’il faudrait connaître, celle des objets et celle des réalités non objectivées, et toute la genèse impliquant l’homme et le monde, dont la genèse de la technicité n’est peut-être qu’une faible partie, épaulée et équilibrée par d’autres genèses, antérieures, postérieures ou contemporaines, et corrélatives de celle des objets techniques. C’est donc vers une interprétation génétique généralisée des rapports de l’homme et du monde qu’il faut se diriger pour saisir la portée philosophique de l’existence des objets techniques. Cependant, la notion même de genèse mérite d’être précisée : le mot de genèse est pris ici au sens défini dans l’étude sur l’Individualisation à la lumière des notions de forme et d’information, comme le processus d’individuation dans sa généralité. Il y a genèse lorsque le devenir d’un système de réalité primitivement sursaturé, riche en potentiels, supérieur à l’unité et recélant une incompatibilité interne, constitue pour ce système une découverte de compatibilité, une résolution par avènement de structure. Cette structuration est l’avènement d’une organisation qui est à la base d’un équilibre de métastabilité. Une telle genèse s’oppose à la dégradation des énergies potentielles contenues dans un système, par passage à un état stable à partir duquel aucune transformation n’est plus possible.

SIMO1958.24 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 155-156 : Si l’on voulait conserver un fondement vitaliste à cette hypothèse du devenir génétique, on pourrait faire appel à la notion d’élan vital de Bergson. Or, cette notion est excellente pour montrer ce qui manque à la notion d’adaptation devant permettre une interprétation du devenir vital, mais elle ne s’accorde pas avec elle, et il subsiste un antagonisme sans médiation possible entre l’adaptation et l’élan vital. Ces deux notions opposées semblent pouvoir être remplacées, dans le couple qu’elle forment, par la notion d’individuation des systèmes sursaturés, conçue comme résolutions successives des tensions par découvertes de structures au sein d’un système riche en potentiels. Tensions et tendances peuvent être conçues comme existant réellement dans un système : le potentiel est une des formes du réel, aussi complètement que l’actuel. Les potentiels d’un système constituent son pouvoir de devenir sans se dégrader ; ils ne sont pas la simple virtualité des états futurs, mais une réalité qui les pousse à être. Le devenir n’est pas l’actualisation d’une virtualité ni le résultat d’un conflit entre des réalités actuelles, mais l’opération d’un système possédant des potentiels en sa réalité : le devenir est la série d’accès de structurations d’un système, ou individuations successives d’un système.

SIMO1958.25 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 202 : Le dédoublement de la pensée technique, comme celui de la pensée religieuse, provient d’un état de sursaturation de cette pensée ; au niveau primitif, la pensée technique, pas plus que la pensée religieuse, ne porte de jugements ; les jugements apparaissent lorsque les modalités se différencient, car les modalités sont des modalités de la pensée, et particulièrement des modalités de l’expression, avant d’être des modalités du jugement ; le jugement n’est que le point nodal de la communication expressive ; c’est en tant qu’instrument de communication qu’il possède une modalité, car la modalité est définie par le type d’expression ; elle est l’intention expressive qui enveloppe le jugement, le précède et le suit. La modalité n’est pas contenue dans le jugement ; elle le fait apparaître ; le jugement concrétise la modalité de l’expression, mais il ne l’épuise pas.

SIMO1958.26 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 205-207 : Par son échec, la pensée technique découvre que le monde ne se laisse pas tout entier incorporer aux techniques ; si le monde n’était fait que de structures figurales, la technique triomphante ne rencontrerait jamais d’obstacles ; mais, au delà des structures figurales homogènes au geste humain, il existe un autre type de réalité qui intervient négativement comme limite inconditionnelle de l’efficacité du geste humain. Si l’eau montait à n’importe quelle hauteur dans les corps de pompe, la technique du fontainier suffirait : plus grande serait la hauteur à atteindre, plus parfaits devraient être la construction du corps de pompe, l’ajustage des tubulures, le rodage des clapets : il y aurait seulement proportionnalité entre l’importance du résultat à atteindre et l’effort technique de construction, sans changement de domaine, sans emploi d’un type nouveau de notions. Mais lorsque l’eau ne monte pas au-dessus d’une certaine hauteur dans les pompes aspirantes, les notions techniques deviennent inadéquates ; ce n’est plus la perfection de l’objet technique qui est en question ; le meilleur fontainier ne peut faire que l’eau monte au-dessus de 10 m 33 ; le monde ne livre pas au geste technique une matière docile et sans spontanéité ; le monde soumis à l’opération technique n’est pas un fond neutre : il possède des contre-structures, s’opposant aux schèmes techniques figuraux. Or ces pouvoirs d’arrêt du monde interviennent dans l’axiomatique de chaque technique comme une réserve inépuisable de conditionnements qui sursaturent cette axiomatique lorsque les techniques se perfectionnent : une roue à godets, une vis d’Archimède ne rencontrent pas une contre-structure ; mais l’art élaboré du fontainier capable de construire une pompe aspirante rencontre ce pouvoir d’arrêt. Et il convient de noter particulièrement que la nouvelle condition venant du pouvoir d’arrêt n’est pas homogène aux conditions de perfection technique : les conditions de perfection technique tendent d’elles-mêmes à la saturation par la concrétisation de l’objet qui se systématise en se perfectionnant ; mais c’est en plus de ces conditions, et de manière non compatible avec elles, qu’intervient la condition imposée par la nature. C’est pour retrouver la compatibilité rompue que la pensée technique se dédouble en pratique et théorie : la pensée technique issue des techniques est celle au sein de laquelle il est possible de penser d’une manière de nouveau homogène et cohérente la totalité des conditions de l’opération ; ainsi, l’hydrostatique permet de retrouver un système de nouveau homogène de conditions de la montée de l’eau dans un corps de pompe : la montée de l’eau étant expliquée par la différence des pressions exercées à la base et au sommet de la colonne, il n’y a plus de différence de nature entre les anciennes conditions techniques (fuite dans le corps de pompe laissant subsister une pression résiduelle au sommet de la colonne d’eau, pression minimum d’ouverture du clapet) et les anciennes conditions non-techniques (hauteur de la colonne de liquide, pression atmosphérique, tension de vapeur du liquide) : toutes les conditions sont réunies ensemble en un système homogène de pensée, centré autour de la notion de pression, qui est à la fois naturelle et technique : l’échec technique oblige la pensée à changer de niveau, à fonder une nouvelle axiomatique qui incorpore de manière homogène, en les compatibilisant, les schèmes figuraux de l’opération technique et la représentation des limites que la nature impose à l’efficacité de ces schèmes figuraux dans le geste technique : c’est le concept qui est cette nouvelle représentation instituant la compatibilité notionnelle. La science est conceptuelle non parce qu’elle sort des techniques, mais parce qu’elle est un système de compatibilité entre les gestes techniques et les limites que le monde impose à ces gestes ; si elle sortait directement des techniques, elle ne serait faite que de schèmes figuraux, et non de concepts. Les qualités naturelles, les φύσεις, pensées comme supports des gestes techniques, constituent le type le plus primitif de concepts, et marquent les débuts de la pensée scientifique inductive.

SIMO1958.27 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 207 : L’autre résultat de cette disjonction est l’apparition d’une pensée pratique non insérée dans le réel, mais faite elle aussi d’une collection de schèmes, séparés les uns des autres à l’origine. Ces optatifs libérés de leur application au geste technique se coordonnent les uns avec les autres, comme les virtualités objectives du monde, et forment un ensemble pratique selon un processus analogue à celui de l’induction dans le savoir théorique. C’est là une des bases d’une morale pratique, avec des valeurs comme celles de l’efficacité de l’effort, de la non-absurdité de l’action ; de telles valeurs doivent avoir été éprouvées et vécues dans l’action insérée dans le monde, avant d’être groupées et systématisées ; elles ne peuvent d’ailleurs jamais être complètement systématisée, car elles aboutissent à une pluralité de valeurs différentes, tout comme le savoir inductif théorique aboutit à une pluralité de propriétés des choses et de lois du réel. La pensée théorique et la pensée pratique qui sortent des techniques restent pluralistes, en raison de leur caractère inductif. On ne peut dire pourquoi c’est une valeur, pour une action, d’être simple, aisée à accomplir, et pourquoi c’en est une autre d’être efficace ; il n’y a pas de lien analytique entre la facilité et l’efficacité ; pourtant, c’est une valeur pour une action d’être à la fois simple et efficace. Seule l’épreuve technique antérieure, réellement appliquée et insérée dans le hic et nunc, peut fournir le fondement de cette table de valeurs pluraliste de la morale pratique. Constituées en pensée pratique, ce ne sont plus des normes techniques, mais elles procèdent de l’épreuve de l’action technique rencontrant l’échec, et explicitant corrélativement ses fondements objectifs en savoir théorique inductif et ses fondements subjectifs en normes de morale pratique.

SIMO1958.28 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 209 : L’emploi du nombre dans les sciences paraît bien être d’origine religieuse plus que d’origine technique ; le nombre, en effet, est essentiellement structure permettant la déduction et permettant de saisir une réalité particulière dans sa référence à l’ensemble, pour l’y intégrer ; c’est le nombre des philosophes, défini par Platon qui oppose la métrétique philosophique à celle des marchands, pur procédé pratique ne permettant pas de connaître l’existence des relations entre les êtres, et entre les êtres et le tout, conçu comme cosmos. Les nombres idéaux sont des structures qui permettent la relation de participation. La critique que fait Aristote des idées-nombres dans la Métaphysique ne retient pas ce caractère éminemment structural des idées-nombres de Platon, parce qu’Aristote, suivant les schèmes d’une pensée inductive, considère les nombres à travers l’opération de nombrer ; or, la pensée théorique qui utilise les nombres est essentiellement contemplative, d’origine religieuse. Elle ne veut pas compter ou mesurer les êtres, mais estimer ce qu’ils sont dans leur essence par rapport à la totalité du monde ; c’est pourquoi elle recherche dans le nombre la structure essentielle de chaque chose particulière. La pensée religieuse, caractérisée par la fonction de totalité et l’inspiration moniste, est la seconde source du savoir théorique. Il est à remarquer que son intention est de saisir des réalités figurales universelles, un ordre du monde, une économie du tout de l’être ; elle est métaphysique et non physique dans cette recherche, car elle ne vise pas, comme la pensée technique se dissociant, une accumulation inductive de réalités de fond locales, les pouvoirs ou φύσεις ; elle recherche les lignes structurales universelles, la figure du tout. On peut donc supposer que la recherche issue de la source déductive du savoir théorique ne pourra jamais complètement rencontrer les résultats de la recherche inductive, puisque ces démarches sont fondées l’une sur une réalité de fond et l’autre sur une réalité figurale.

SIMO1958.29 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 218-219 : L’effort réflexif appliqué aux techniques se caractérise par le fait qu’une technique de toutes les techniques peut se développer par la généralisation des schèmes. De même que l’on définit des sciences pures, on peut songer à fonder une technique pure, ou technologie générale, très différente des sciences théoriques dont les applications sont traduites en techniques ; en effet, il est exact qu’une découverte faite dans le domaine des sciences peut permettre la naissance de nouveaux dispositifs techniques ; mais ce n’est pas de façon directe, par déduction, qu’une découverte scientifique devient dispositif technique : elle donne à la recherche technique des conditions nouvelles, mais il faut que l’effort d’invention s’exerce pour que l’objet technique apparaisse ; autrement dit, il faut que la pensée scientifique devienne schème opératoire ou support de schèmes opératoires. Tout au contraire, ce qu’on peut nommer technologie pure est au point de concours de plusieurs sciences, et aussi de plusieurs domaines techniques traditionnels répartis entre plusieurs professions. Ainsi, les schèmes d’action circulaire et leurs divers régimes ne sont la propriété d’aucune technique particulière ; ils ont été remarqués et conceptuellement définis pour la première fois dans les techniques relatives à la transmission de l’information et à l’automatisme, parce qu’ils y jouent un rôle pratique important, mais ils étaient déjà employés dans des techniques comme celle des moteurs thermiques, et Maxwell les avait étudiés théoriquement. Or, toute pensée dont le contenu recouvre une pluralité de techniques, ou tout au moins s’applique à une pluralité ouverte de techniques, dépasse par là même le domaine technique. Certains processus inclus dans le fonctionnement du système nerveux peuvent être pensés au moyen des schèmes de causalité récurrente, de même que certain phénomènes naturels ; ainsi, le schème de relaxation est toujours identique à lui-même, qu’il soit appliqué à un dispositif technique, au fonctionnement d’une fontaine intermittente ou au phénomène du tremblement de Parkinson. Une théorie générale des causalités et des conditionnements dépasse la spécificité d’un domaine, même si les origines conceptuelles de cette théorie sortent d’une technique particulière. Pour cette raison, les schèmes de la technologie généralisée s’élèvent au-dessus de l’objet technique séparé ; ils permettent, en particulier, de penser de manière adéquate le rapport entre les objets techniques et le monde naturel, c’est-à-dire d’assurer l’insertion des techniques dans le monde d’une manière qui dépasse l’empirisme. L’objet technique, placé au milieu du faisceau d’actions et de réactions dont le jeu est prévu et calculable, n’est plus cet objet séparé du monde, résultat d’une rupture de la structuration primitive du monde magique ; le rapport figure-fond, rompu par l’objectivation technique, est retrouvé dans la technologie générale ; par là même, l’objet technique est inventé selon le milieu dans lequel il doit s’insérer, et le schème technique particulier reflète et intègre les caractères du monde naturel ; la pensée technique s’étend en incorporant les exigences et le mode d’être du milieu associé à l’individu technique.

SIMO1958.30 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 220-221 : Cependant, on peut se demander dans quelle mesure la création d’une technologie générale rapproche les techniques de la religion ; la reconnaissance des véritables schèmes opératoires complexes et de l’intégration des ensembles techniques ne suffirait pas à permettre ce rapprochement s’il n’y avait pas en même temps qu’une conscience théorique des processus une valeur normative contenue en eux. En effet, les structures réticulaires des techniques intégrées ne sont plus seulement des moyens disponibles pour une action et transportables abstraitement n’importe où, utilisables à n’importe quel moment ; on change d’outils et d’instruments, on peut construire ou réparer soi-même un outil, mais on ne change pas de réseau, on ne construit pas soi-même un réseau : on ne peut que se raccorder au réseau, s’adapter à lui, participer à lui ; le réseau domine et enserre l’action de l’être individuel, domine même chaque ensemble technique. D’où une forme de participation au monde naturel et au monde humain, qui donne une normativité collective incoercible à l’activité technique ; ce n’est plus seulement une solidarité un peu abstraite des métiers telle que celle qui est évoquée par Sully Prudhomme (la solidarité des spécialistes, le maçon, le boulanger), mais une solidarité extrêmement concrète et actuelle, existant instant par instant par le jeu de conditionnements multiples ; à travers les réseaux techniques, le monde humain acquiert un haut degré de résonance interne. Les puissances, les forces, les potentiels qui poussent à l’action existent dans le monde technique réticulaire comme elles pouvaient exister dans l’univers magique primitif : la technicité fait partie du monde, elle n’est pas seulement un ensemble de moyens, mais un ensemble de conditionnements de l’action et d’incitations à agir ; l’outil ou l’instrument n’ont pas de pouvoir normatif parce qu’ils sont de manière permanente à la disposition de l’individu  ; les réseaux techniques prennent d’autant plus de pouvoir normatif que la résonance interne de l’activité humaine est plus grande à travers les réalités techniques.

SIMO1958.31 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 226-227 : Or, si les techniques de l’homme manquent à leur fonction d’analyse des éléments, et agissent globalement par des procédés empiriques (ce que traduit le conceptualisme statistique, se développant dans un nominalisme commode), c’est parce qu’elles acceptent de se détacher de l’objet réel, élément, individu ou ensemble. Il ne peut y avoir de véritables techniques séparées du monde humain ; les techniques du monde humain doivent avoir un support objectif, ne pas être purement psychologiques, sous peine de devenir des procédés, autrement dit, c’est par un élargissement des ensembles techniques comportant à la fois une insertion au monde naturel et au monde humain que l’on peut agir sur le monde humain, à travers cet ensemble et selon cet ensemble naturel et humain : médiation entre le monde naturel et le monde humain, la pensée technique ne peut agir sur le monde humain que par l’intermédiaire de cette médiation. La réalité humaine ne peut être objet de technique que lorsqu’elle est déjà engagée dans une relation technique. Il n’y a légitimement technique que de la réalité technique ; la pensée technique doit développer le réseau de points relationnels de l’homme et du monde, en devenant une technologie, c’est-à-dire une technique au second degré qui s’occupe d’organiser ces points relationnels. Mais il ne saurait y avoir d’application légitime de la pensée technique à une réalité non-technique, par exemple à ce qu’on pourrait nommer le monde humain naturel et spontané la technologie ne peut se développer que sur une réalité déjà technique. La pensée réflexive doit réaliser une promotion de la technologie, mais elle ne doit pas tenter d’appliquer les schèmes et les procédés techniques en dehors du domaine de la réalité technique. Autrement dit, ce n’est pas la réalité humaine, et en particulier ce qui de la réalité humaine peut être modifié, à savoir la culture, intermédiaire actif entre les générations successives, les groupes humains simultanés et les individus successifs ou simultanés, qui doit être incorporé aux techniques comme une matière sur laquelle le travail est possible ; c’est la culture, considérée comme totalité vécue, qui doit incorporer les ensembles techniques en connaissant leur nature, pour pouvoir régler la vie humaine d’après ces ensembles techniques. La culture doit rester au-dessus de toute technique, mais elle doit incorporer à son contenu la connaissance et l’intuition des schèmes véritables des techniques. La culture est ce par quoi l’homme règle sa relation au monde et sa relation à lui-même ; et, si la culture n’incorporait pas la technologie, elle comporterait une zone obscure et ne pourrait apporter sa normativité régulatrice au couplage de l’homme et du monde. Car, dans ce couplage de l’homme et du monde, qui est celui des ensembles techniques, il existe des schèmes d’activité et de conditionnement qui ne peuvent être clairement pensés que grâce à des concepts définis par une étude réflexive mais directe. La culture doit être contemporaine des techniques, se reformer et prendre son contenu d’étape en étape. SI la culture est seulement traditionnelle, elle est fausse, parce qu’elle comporte implicitement et spontanément une représentation régulatrice des techniques d’une certaine époque ; et elle apporte faussement cette représentation régulatrice dans un monde auquel elle ne peut s’appliquer. Ainsi, l’assimilation des réalités techniques à des ustensiles est un stéréotype culturel, fondé sur la notion normative d’utilité, à la fois valorisante et dévalorisante. Mais cette notion d’ustensile et d’utilité est inadéquate au rôle effectif et actuel des ensembles techniques dans le monde humain ; elle ne peut donc être régulatrice de manière efficace. Privé de l’apport de la régulation culturelle passant par l’intermédiaire d’une représentation adéquate des réalités techniques, le couplage de l’homme et du monde se développe à l’état isolé, de manière non-intégrée, anomique. Par contre-coup, ce développement sans régulation des réalités techniques enveloppant l’homme justifie, tout au moins de manière apparente, la défiance implicite de la culture envers les techniques ; une culture auto-justificative se développe dans les milieux humains promouvant une technique, pendant que la culture générale devient inhibitrice, mais non régulatrice, de toutes les techniques.

SIMO1958.32 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 229-230 : Or, les institutions de participation technique ne sont pas opposées aux forces et aux qualités de la pensée religieuse et politico-sociale. La pensée politico-sociale est continue par rapport à la pensée religieuse lorsqu’elle est non pas à proprement parler une totalité actuelle et déjà réalisée (car la totalité est ce qu’elle est, elle est un absolu et ne peut pousser à l’action), mais la sous-jacence d’ensembles plus vastes sous les structures actuelles, et la validité de cette annonce de structures nouvelles ; c’est la relation de la totalité par rapport à la partie, de la totalité virtuelle par rapport à la partie actuelle qu’exprime la pensée politico-sociale. Elle exprime la fonction de totalité relative, tandis que les religions expriment la fonction de totalité absolue et la fonction de totalité actuelle. Or, il peut y avoir relation complémentaire entre les institutions d’intégration aux ensembles techniques et les institutions politico-sociales, parce que les institutions techniques expriment le résultat de l’histoire et du conditionnement de la vie , du hic et nunc, tandis que les institutions politico-sociales sont un projet vers l’avenir, l’expression active de potentiels. Les pensées politico-sociales sont l’expression des tendances et des forces qui dépassent toute structure actuelle donnée ; les institutions relatives aux ensembles techniques expriment ce que l’humanité a fait, ce qui est fait, et ce qui est structuré parce que fait, accompli. Ainsi, le pouvoir figural peut rester investi dans les techniques et le pouvoir de fond dans la pensée politico-sociale, dans la mesure où la réalité figurale est ce qui est donné dans le système de l’actualité tandis que le pouvoir de fond contient des potentiels et tient en réserve le devenir. Impossible au niveau du rapport entre l’élément technique objectivé et la pensée religieuse universelle, la relation redevient possible lorsqu’elle s’institue entre les ensembles techniques, expression de l’actualité, et la pensée politico-sociale, expression de la virtualité. Il y a compatibilité entre l’actualité et la virtualité par le devenir réel et ayant un sens, tendu entre cette actualité et cette virtualité. La pensée philosophique saisit la corrélation de l’actualité et de la virtualité, et elle la maintient en instituant la cohérence de cette relation. C’est donc le sens du devenir, la capacité des techniques de faire devenir à la fois le monde naturel et le monde humain qui rend compatible l’intuition élémentaire et l’intuition d’ensemble ; l’intuition technique, au niveau des ensembles, exprime le devenir en tant que base et résultat obtenu ; l’intuition politico-sociale est l’insertion des tendances, expression des virtualités et des forces du devenir, dans la même réalité. Au niveau de la pensée technique attachée aux outils, et de la pensée religieuse universalisante, il ne peut y avoir rencontre directe des deux types de pensée, parce que la médiation du devenir n’est pas possible ; chaque outil, chaque technique séparée manipulatrice d’outils se donnent comme stables et définitifs. La pensée religieuse universalisante se donne aussi pour stable et définitive, en référence à un fond d’intemporalité. Au contraire, l’introduction de la technicité dans les ensembles qui comportent l’homme à titre d’organisateur ou d’élément rend les technique évolutives ; dans la même mesure et en même temps, ce caractère évolutif de groupements humains devient conscient et cette conscience crée la pensée politico-sociale. Nés l’un et l’autre du devenir, exprimant l’un le passé défini qui sert de base et l’autre l’avenir possible qui sert de but, la pensée technique des ensembles et la pensée politico-sociale sont couplées par leurs conditions d’origine et leurs points d’insertion dans le monde.

SIMO1958.33 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 237-238 : Dans la pensée philosophique, le rapport entre technique et religion n’est pas dialectique ; car, dans la mesure précisément où technique et religion sont deux aspects opposés et complémentaires d’un mode primitif d’être au monde, ces deux pôles doivent être maintenus ensemble dans le couple qu’ils forment : ils sont simultanés. Une élucidation des problèmes philosophiques ne peut être valable en acceptant le caractère unimodal de la pensée issue d’une seule phase. La vision esthétique de la réalité ne peut satisfaire la recherche philosophique, car elle ne s’applique qu’à des domaines choisis du réel, ceux en lesquels la coïncidence des réalités figurales et des réalités de fond est possible sans élaboration ultérieure. La pensée esthétique n’est pas directement active ; elle ne retentit pas sur le réel dont elle part ; elle se borne à l’exploiter en s’en détachant ; elle réfracte des aspects de la réalité, mais ne les réfléchit pas. Au contraire, la pensée philosophique va plus loin que l’activité esthétique, car, partant du devenir génétique, elle se réinsère en lui pour l’accomplir. L’intuition est en effet relation à la fois théorique et pratique avec le réel ; elle le connaît et agit sur lui, parce qu’elle le saisit au moment où il devient ; la pensée philosophique est aussi geste philosophique venant s’insérer dans la structure réticulaire figure-fond qui se détermine dans l’être ; la philosophie intervient comme pouvoir de structuration, comme capacité d’inventer des structures qui résolvent les problèmes du devenir, au niveau de cette nature intermédiaire entre la pluralité et la totalité qui est la diversité réticulaire des domaines d’existence.

SIMO1958.34 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 246 : C’est le paradigme du travail qui pousse à considérer l’objet technique comme utilitaire ; l’objet technique ne porte pas en lui à titre de sa définition essentielle son caractère utilitaire ; il est ce qui effectue une opération déterminée, ce qui accomplit un certain fonctionnement selon un schème déterminée ; mais, précisément à cause de son caractère détachable, l’objet technique peut être employé comme maillon d’une chaîne de causes et d’effets de façon absolue, sans que cet objet soit affecté par ce qui advient aux deux bouts ; l’objet technique peut accomplir l’analogue d’un travail, mais il peut aussi véhiculer une information en dehors de toute utilité pour une production déterminée. C’est le fonctionnement, et non le travail, qui caractérise l’objet technique : aussi n’y a-t-il pas deux catégories d’objets techniques, ceux qui servent aux besognes utilitaires et ceux qui servent à la connaissance ; tout objet technique peut être scientifique, et inversement ; tout au contraire, on pourrait nommer scientifique un objet simplifié qui ne saurait servir qu’à l’enseignement : il serait moins parfait qu’un objet technique. La distinction hiérarchique du manuel et de l’intellectuel ne retentit pas dans le monde des objets techniques.

SIMO1958.35 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 247-249 : Ainsi, l’objet technique apporte une catégorie plus vaste que celle du travail : le fonctionnement opératoire. Ce fonctionnement opératoire suppose à la base, comme condition de possibilité, un acte d’invention. Or, l’invention n’est pas du travail ; elle ne suppose pas médiation jouée par l’homme somato-psychique, entre la nature et l’espèce humaine. L‘invention n’est pas seulement une réaction adaptative et définitive ; elle est une opération mentale, un fonctionnement mental qui est du même ordre que le savoir scientifique. Il y a parité de niveau entre la science et l’invention technique ; c’est le schème mental qui permet invention et science ; c’est lui encore qui permet l’usage de l’objet technique comme productif, dans un ensemble industriel, ou comme scientifique, dans un montage expérimental. La pensée technique est présente en toute activité technique, et la pensée technique est de l’ordre de l’invention ; elle peut être communiquée ; elle autorise la participation. Dès lors, au-dessus de la communauté sociale de travail, au delà de la relation interindividuelle qui n’est pas supportée par une activité opératoire, s’institue un univers mental et pratique de la technicité, dans lequel les êtres humains communiquent à travers ce qu’ils inventent. L’objet technique pris selon son essence, c’est-à-dire l’objet technique en tant qu’il a été inventé, pensé et voulu, assumé par un sujet humain, devient le support et le symbole de cette relation que nous voudrions nommer transindividuelle. L’objet technique peut être lu comme porteur d’une information définie ; s’il est seulement utilisé, employé, et par conséquent asservi, il ne peut apporter aucune information, pas plus qu’un livre qui serait employé comme cale ou piédestal. L’objet technique apprécié et connu selon son essence, c’est-à-dire selon l’acte humain d’invention qui l’a fondé, pénétré d’intelligibilité fonctionnelle, valorisé selon ses normes internes, apporte avec lui une information pure. On peut nommer information pure celle qui n’est pas événementielle, celle qui ne peut être comprise que si le sujet qui la reçoit suscite en lui une forme analogue aux formes apportées par le support d’information ; ce qui est connu dans l’objet technique, c’est la forme, cristallisation matérielle d’un schème opératoire et d’une pensée qui a résolu un problème. Cette forme, pour être comprise, nécessite dans le sujet des formes analogues : l’information n’est pas un avènement absolu, mais la signification qui résulte d’un rapport de formes, l’une extrinsèque et l’autre intrinsèque par rapport au sujet. Donc, pour qu’un objet technique soit reçu comme technique et non pas seulement comme utile, pour qu’il soit jugé comme résultat d’invention, porteur d’information, et non comme ustensile, il faut que le sujet qui le reçoit possède en lui des formes techniques. Par l’intermédiaire de l’objet technique se crée alors une relation interhumaine, qui est le modèle de la transindividualité. On peut entendre par là une relation qui ne met pas les individus en rapport au moyen de leur individualité constituée les séparant les uns des autres, ni au moyen de ce qu’il y a d’identique en tout sujet humain, par exemple les formes a priori de la sensibilité, mais au moyen de cette charge de réalité pré-individuelle, de cette charge de nature qui est conservée avec l’être individuel, et qui contient potentiels et virtualité. L’objet qui sort de l’invention technique emporte avec lui quelque chose de l’être qui l’a produit, exprime de cet être ce qui est le moins attaché à un hic et nunc ; on pourrait dire qu’il y a de la nature humaine dans l’être technique, au sens où le mot de nature pourrait être employé pour désigner ce qui reste d’originel, d’antérieur même à l’humanité constitué en l’homme ; l’homme invente en mettant en œuvre son propre support naturel, cet ἄπειρον, qui reste attaché à chaque être individuel. Aucune anthropologie qui partirait de l’homme comme être individuel ne peut rendre compte de la relation technique transindividuelle. Le travail conçu comme productif, dans la mesure où il provient de l’individu localisé hic et nunc, ne peut rendre compte de l’être technique inventé ; ce n’est pas l’individu qui invente, c’est le sujet, plus vaste que l’individu, plus riche que lui, et comportant, outre l’individualité de l’être individué, une certaine charge de nature, d’être non individué. Le groupe social de solidarité fonctionnelle, comme la communauté de travail, ne met en relation que les êtres individués. Pour cette raison, il les localise et les aliène d’une manière nécessaire, même en dehors de toute modalité économique telle que celle que décrit Marx sous le nom de capitalisme : on pourrait définir une aliénation pré-capitaliste essentielle au travail en tant que travail. Par ailleurs, de manière systémique, la relation interindividuelle psychologique ne peut non plus mettre en rapport autre chose que les individus constitués ; au lieu de les mettre en rapport par le fonctionnement somatique, comme le travail, elle les met en rapport au niveau de certains fonctionnements conscients, affectifs et représentatifs, et elle les aliène autant. On ne peut compenser l’aliénation du travail par une autre aliénation, celle du psychique détaché : ce qui rend compte de la faiblesse des méthodes psychologiques appliquées au problème du travail et voulant résoudre des problèmes au moyen de fonctionnements mentaux. Or, les problèmes du travail sont les problèmes relatifs à l’aliénation causée par le travail, et cette aliénation n’est pas seulement économique, par le jeu de la plus-value ; ni le marxisme, ni ce contre-marxisme qu’est le psychologisme dans l’étude du travail à travers les relations humaines ne peuvent trouver la véritable solution, parce qu’ils placent l’un et l’autre la source de l’aliénation en dehors du travail, alors que c’est le travail lui-même en tant que travail qui est source d’aliénation. Nous ne voulons pas dire que l’aliénation économique n’existe pas ; mais il se peut que la cause première d’aliénation soit dans le travail à titre essentiel, et que l’aliénation décrite par Marx ne soit que l’une des modalités de cette aliénation : la notion d’aliénation mérite d’être généralisée, afin que l’on puisse situer l’aspect économique de l’aliénation ; selon cette doctrine, l’aliénation économique serait déjà au niveau des superstructures, et supposerait un fondement plus implicite, qui est l’aliénation essentielle à la situation de l’être individuel dans le travail.

SIMO1958.36 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 249-250 : Si cette hypothèse est juste, la véritable voie pour réduire l’aliénation ne se situerait ni dans le domaine du social (avec la communauté de travail et la classe), ni dans le domaine des relations interindividuelles que la psychologie sociale envisage habituellement, mais au niveau du collectif transindividuel. L’objet technique a fait son apparition dans un monde où les structures sociales et les contenus psychiques ont été formés par le travail : l’objet technique s’est donc introduit dans le monde du travail, au lieu de créer un monde technique ayant de nouvelles structures. La machine est alors connue et utilisée à travers le travail et non à travers le savoir technique , le rapport du travailleur à la machine est inadéquat, car le travailleur opère sur la machine sans que son geste prolonge l’activité d’invention. La zone obscure centrale caractéristique du travail s’est reportée sur l’utilisation de la machine : c’est maintenant le fonctionnement de la machine, la provenance de la machine, la signification de ce que fait la machine et la manière dont elle est faite qui est la zone obscure. La primitive obscurité centrale du schéma hylémorphique est conservée : l’homme connaît ce qui entre dans la machine et ce qui en sort, mais non ce qui s’y fait : en présence même de l’ouvrier s’accomplit une opération à laquelle l’ouvrier ne participe pas même s’il la commande ou la sert. Commander est encore rester extérieur à ce que l’on commande, lorsque le fait de commander consiste à déclencher selon un montage préétabli, fait pour ce déclenchement, prévu pour opérer ce déclenchement dans le schéma de construction de l’objet technique. L’aliénation du travailleur se traduit par la rupture entre le savoir technique et l’exercice des conditions d’utilisation. Cette rupture est si accusée que dans un grand nombre d’usines modernes la fonction de régleur est strictement distincte de celle d’utilisateur de la machine, c’est-à-dire d’ouvrier, et qu’il est interdit aux ouvriers de régler eux-mêmes leur propre machine. Or, l’activité de réglage est celle qui prolonge le plus naturellement la fonction d’invention et de construction : le réglage est une invention perpétuée, quoique limitée. La machine, en effet, n’est pas jetée une fois pour toutes dans l’existence à partir de sa construction, sans nécessité de retouches, de réparations, de réglages. Le schème technique originel d’invention est plus ou moins bien réalisé en chaque exemplaire, ce qui fait que chaque exemplaire fonctionne plus ou moins bien. C’est par référence non pas à la matérialité et à la particularité de chaque exemplaire d’un objet technique, mais par référence au schème technique d’invention que réglages et réparations sont possibles et efficaces ; ce que l’homme reçoit, ce n’est pas le produit direct de la pensée technique, mais un exemplaire de fabrication accomplie avec plus ou moins de précision et de perfection à partir de la pensée technique ; cet exemplaire de fabrication est symbole de pensée technique, porteur de formes qui doit rencontrer un sujet pour prolonger et achever cet accomplissement de la pensée technique. L’utilisateur doit posséder en lui des formes pour que, de la rencontre de ces formes techniques avec les formes véhiculées par la machine, et plus ou moins parfaitement réalisée en elle, surgisse la signification, à partir de laquelle le travail sur un objet technique devient activité technique et non simple travail. L’activité technique se distingue du simple travail, et du travail aliénant, en ce que l’activité technique comporte non seulement l’utilisation de la machine, mais aussi un certain coefficient d’attention au fonctionnement technique, entretien, réglage, amélioration de la machine, qui prolonge l’activité d’invention et de construction. L’aliénation fondamentale réside dans la rupture qui se produit entre l’ontogénèse de l’objet technique et l’existence de cet objet technique. Il fait que la genèse de l’objet technique fasse effectivement partie de son existence, et que la relation de l’homme à l’objet technique comporte cette attention à la genèse continue de l’objet technique.

SIMO1958.37 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 251-253 : Les concepts économiques sont insuffisants pour rendre compte de l’aliénation caractéristique du travail. C’est en elles-mêmes que les attitudes de travail sont inadéquates à la pensée technique et à l’activité technique, car elles ne comportent pas les formes et le mode de savoir explicite, proche des sciences, qui permettrait la connaissance de l’objet technique. Pour réduire l’aliénation, il faudrait ramener à l’unité dans l’activité technique l’aspect de travail, de peine, d’application concrète impliquant usage du corps, et l’interaction des fonctionnements ; le travail doit devenir activité technique. Mais par ailleurs il est exact que les conditions économiques amplifient et stabilisent cette aliénation : l’objet technique n’appartient pas aux hommes qui l’utilisent, dans la vie industrielle. La relation de propriété est d’ailleurs très abstraite, et il ne suffirait pas que les travailleurs soient propriétaires des machines pour que l’aliénation soit brusquement réduite ; posséder une machine n’est pas la connaître. Cependant, la non-possession augmente la distance entre le travailleur et la machine sur laquelle le travail s’accomplit ; elle rend la relation encore plus fragile, plus extérieure, plus précaire. Il faudrait pouvoir découvrir un mode social et économique dans lequel l’utilisateur de l’objet technique soit non seulement le propriétaire de cette machine, mais aussi l’homme qui la choisit et l’entretient. Or, le travailleur est mis en présence de la machine sans l’avoir choisie ; la mise en présence de la machine fait partie des conditions d’emploi, elle est intégrée à l’aspect économico-social de la production. En sens inverse, la machine est fabriquée le plus souvent comme objet technique absolu, fonctionnant en lui-même, mais peu adapté à l’échange d’information entre la machine et l’homme. Le human engineering ne va pas assez loin en cherchant à découvrir la meilleure disposition des organes de commande et des signaux de contrôle ; c’est là une recherche extrêmement utile, et qui est le point de départ de la recherche des conditions véritables du couplage entre la machine et l’homme. Mais ces recherches risquent de rester peu efficaces si elles ne vont pas au fondement même de la communication entre l’homme et la machine. Pour qu’une information puisse être échangée, il faut que l’homme possède en lui une culture technique, c’est-à-dire un ensemble de formes qui, rencontrant les formes apportées par la machine, pourront susciter une signification. La machine reste une des zones obscures de notre civilisation, à tous les niveaux sociaux. Cette aliénation existe dans la maîtrise autant que chez les ouvriers. Le centre véritable de la vie industrielle, ce par rapport à quoi tout doit s’ordonner selon des normes fonctionnelles, c’est l’activité technique. Se demander à qui appartient la machine, qui a le droit d’employer des machines nouvelles et qui a le droit de les refuser, c’est renverser le problème ; les catégories du capital et du travail sont inessentielles par rapport à l’activité technique. Le fondement des normes et du droit dans le domaine industriel n’est ni le travail ni la propriété, mais la technicité. La communication interhumaine doit s’instituer au niveau des techniques à travers l’activité technique, non à travers des valeurs du travail ou des critères économiques ; les conditions sociales et les facteurs économiques ne peuvent être harmonisés parce qu’ils font partie d’ensembles différents ; il ne peuvent trouver une médiation que dans une organisation à dominance technique. Ce niveau de l’organisation technique où l’homme rencontre l’homme non comme membre d’une classe mais comme être qui s’exprime dans l’objet technique, homogène par rapport à son activité, est le niveau du collectif dépassant l’interindividuel et le social donné.

SIMO1958.38 Cf. Simondon, Du mode d’existence des objets techniques, op. cit., p. 254 : Le critère de rendement, la volonté de caractériser l’activité technique par le rendement ne peuvent pas conduire à une résolution du problème ; le rendement, par rapport à l’activité technique, est très abstrait et ne permet pas d’entrer dans cette activité pour en voir l’essence ; plusieurs schèmes techniques très différents peuvent conduire à des rendements identiques ; un chiffre n’exprime pas un schème ; l’étude des rendements et des moyens de les améliorer laisse subsister l’obscurité de la zone technique aussi complètement que le schéma hylémorphique ; elle ne peut que contribuer à embrouiller les problèmes théoriques, même si elle joue un rôle pratique dans les structures actuelles.

SIMO2013 L’individuation à la lumière des notions de forme et d’information

Gilbert SIMONDON, L’individuation à la lumière des notions de forme et d’information, Paris, Éditions Jérôme Millon, 2013, édition de l’ensemble de la thèse soutenue en 1958 publiée initialement dans L’individu et sa genèse physico-biologique et L’individuation psychique et collective, Paris. Aubier, 1989, suivi d’un texte inédit, Histoire de la notion d’individu, rédigé en même temps que la thèse.

SIMO2013.1 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 28 : on ne peut assimiler le vivant à un automate qui maintiendrait un certain nombre d’équilibres ou qui chercherait des compatibilités entre plusieurs exigences, selon une formule d’équilibre complexe composé d’équilibres plus simples ; le vivant est aussi l’être qui résulte d’une individuation initiale et qui amplifie cette individuation, ce que ne fait pas l’objet technique auquel le mécanisme cybernétique voudrait l’assimiler fonctionnellement. Il y a dans le vivant une individuation par l’individu et non pas seulement un fonctionnement résultant d’une individuation une fois accomplie, comparable à une fabrication ; le vivant résout des problèmes, non pas seulement en s’adaptant, c’est-à-dire en modifiant sa relation au milieu (comme une machine peut faire), mais en se modifiant lui-même, en inventant des structures internes nouvelles, en s’introduisant lui-même complètement dans l’axiomatique des problèmes vitaux [C’est par cette introduction que le vivant fait œuvre informationnelle, devenant lui-même un nœud de communication interactive entre un ordre de réalité supérieur à sa dimension et un ordre inférieur à elle, qu’il organise.]. L’individu vivant est système d’individuation, système individuant et système s’individuant ; la résonance interne et la traduction du rapport à soi en information sont dans ce système du vivant. Dans le domaine physique, la résonance interne caractérise la limite de l’individu en train de s’individuer ; dans le domaine vivant, elle devient le critère de tout l’individu en tant qu’individu ; elle existe dans le système de l’individu et non pas seulement dans celui que l’individu forme avec son milieu ; la structure interne de l’organisme ne résulte plus seulement (comme celle du cristal) de l’activité qui s’accomplit et de la modulation qui s’opère à la limite entre le domaine d’intériorité et le domaine d’extériorité ; l’individu physique, perpétuellement excentré, perpétuellement périphérique par rapport à lui-même, actif à la limite de son domaine, n’a pas de véritable intériorité ; l’individu vivant a au contraire une véritable intériorité, parce que l’individuation s’accomplit au-dedans ; l’intérieur aussi est constituant, dans l’individu vivant, alors que la limite seule est constituante dans l’individu physique, et que ce qui est topologiquement intérieur est génétiquement antérieur. L’individu vivant est contemporain de lui-même en tous ses éléments, ce que n’est pas l’individu physique, qui comporte du passé radicalement passé, même lorsqu’il est encore en train de croître. Le vivant est à l’intérieur de lui-même un nœud de communication informative ; il est système dans un système, comportant en lui-même médiation entre deux ordres de grandeur [Cette médiation intérieure peut intervenir comme relais par rapport à la médiation externe que l’individu vivant réalise, ce qui permet au vivant de faire communiquer un ordre de grandeur cosmique (par exemple l’énergie lumineuse solaire) et un ordre de grandeur infra-moléculaire.].

SIMO2013.2 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 31 : Un tel ensemble de réformes des notions est soutenu par l’hypothèse d’après laquelle une information n’est jamais relative à une réalité unique et homogène, mais à deux ordres en état de disparation : l’information, que ce soit au niveau de l’unité tropistique ou au niveau du transindividuel, n’est jamais déposée dans une forme pouvant être donnée ; elle est la tension entre deux réels disparates, elle est la signification qui surgira lorsqu’une opération d’individuation découvrira la dimension selon laquelle deux réels disparates peuvent devenir système ; l’information est donc une amorce d’individuation, une exigence d’individuation, elle n’est jamais chose donnée ; il n’y a pas d’unité et d’identité de l’information, car l’information n’est pas un terme ; elle suppose tension d’un système d’être ; elle ne peut être qu’inhérente à une problématique ; l’information est ce par quoi l’incompatibilité du système non résolu devient dimension organisatrice dans la résolution ; l’information suppose un changement de phase d’un système car elle suppose un premier état préindividuel qui s’individue selon l’organisation découverte ; l’information est la formule de l’individuation, formule qui ne peut préexister à cette individuation ; on pourrait dire que l’information est toujours au présent, actuelle, car elle est le sens selon lequel un système s’individue [Cette affirmation ne conduit pas à contester la validité des théories quantitatives de l’information et des mesures de la complexité, mais elle suppose un état fondamental – celui de l’être préindividuel – antérieur à toute dualité de l’émetteur et du récepteur, donc à tout message transmis. Ce qui reste de cet état fondamental dans le cas classique de l’information transmise comme message, ce n’est pas la source de l’information, mais la condition primordiale sans laquelle il n y a pas d’effet d’information, donc pas d’information : la métastabilité du récepteur, qu’il soit être technique ou individu vivant. On peut nommer cette information “information première”.].

SIMO2013.3 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 91-92 : le devenir ne s’oppose pas à l’être ; il est relation constitutive de l’être en tant qu’individu.[…] Nous voulons par ce travail montrer que l’individu peut maintenant être objet de science, et que l’opposition affirmée par Socrate entre la Physique et la pensée réflexive et normative doit prendre fin. Cette démarche implique que la relativité du savoir scientifique ne soit plus conçue à l’intérieur d’une doctrine empiriste. Et nous devons noter que l’empirisme fait partie de la théorie de l’induction pour laquelle le concret est le sensible, et le réel, identique au concret. La théorie de la connaissance doit être modifiée jusqu’à ses racines, c’est-à-dire la théorie de la perception et de la sensation. La sensation doit apparaître comme relation d’un individu vivant au milieu dans lequel il se trouve. Or, même si le contenu de cette relation ne constitue pas d’emblée une science, il possède déjà une valeur en tant qu’il est relation. La fragilité de la sensation vient avant tout du fait qu’on lui demande de révéler des substances, ce qu’elle ne peut à cause de sa fonction fondamentale. S’il y a un certain nombre de discontinuités de la sensation à la science, ce n’est pas une discontinuité comme celle qui existe ou qui est supposée exister entre les genres et les espèces mais comme celle qui existe entre différents états métas tables hiérarchisés. La présomption d’empirisme, relative au point de départ choisi, ne vaut que dans une doctrine substantialiste. Comme cette épistémologie de la relation ne peut s’exposer qu’en supposant défini l’être individuel, il nous était impossible de l’indiquer avant de l’utiliser ; c’est pour cette raison que nous avons commencé l’étude par un paradigme emprunté à la physique : c’est par la suite seulement que nous avons dérivé des conséquences réflexives à partir de ce point de départ. Cette méthode peut paraître très primitive : elle est en effet semblable à celle des “Physiologues” Ioniens ; mais elle se présente ici comme postulat, car elle vise à fonder une épistémologie qui serait antérieure à toute logique.

SIMO2013.4 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 97 : En continuant dans cette voie, nous trouverions que l’aspect de continuité peut se présenter comme un cas particulier de la réalité discontinue, tandis que la réciproque de cette proposition n’est pas vraie. Le discontinu est premier par rapport au continu. C’est pour cette raison que l’étude de l’individuation, saisissant le discontinu en tant que discontinu, possède une valeur épistémologique et ontologique très grande : elle nous invite à nous demander comment s’accomplit l’ontogénèse, à partir d’un système comportant potentiels énergétiques et germes structuraux ; ce n’est pas d’une substance mais d’un système qu’il y a individuation, et c’est cette individuation qui engendre ce qu’on nomme une substance, à partir d’une singularité initiale. Cependant, conclure de ces remarques à un primat ontologique de l’individu, ce serait perdre de vue tout le caractère de fécondité de la relation. L’individu physique qu’est le cristal est un être à structure périodique, qui résulte d’une genèse en laquelle se sont rencontrées dans une relation de compatibilité une condition structurale et une condition hylémorphique, contenant matière et énergie. Or, pour que l’énergie ait pu être asservie par une structure, il fallait qu’elle fût donnée sous forme potentielle, c’est-à-dire répandue dans un milieu primitivement non polarisé, se comportant comme un continu. La genèse de l’individu exige le discontinu du germe structural et le continu fonctionnel du milieu amorphe préalable. Une énergie potentielle, mesurable par une grandeur scalaire, peut être asservie par une structure, faisceau de polarités représentables de manière vectorielle. La genèse de l’individu s’opère par la relation de ces grandeurs vectorielles et de ces grandeurs scalaires. Il ne faut donc pas remplacer le substantialisme par un monisme de l’individu constitué. Un pluralisme monadologique serait encore un substantialisme. Or, tout substantialisme est un monisme, unifié ou diversifié, en ce sens qu’il ne retient qu’un des deux aspects de l’être : les termes sans la relation opératoire. L’individu physique intègre dans sa genèse l’opération commune du continu et du discontinu, et son existence est le devenir de cette genèse continuée, prolongée dans l’activité, ou en suspens. Ceci suppose que l’individuation existe à un niveau intermédiaire entre l’ordre de grandeur des éléments particulaires et celui de l’ensemble molaire du système complet ; à ce niveau intermédiaire, l’individuation est une opération de structuration amplifiante qui fait passer au niveau macrophysique les propriétés actives de la discontinuité primitivement microphysique ; l’individuation s’amorce à l’échelon où le discontinu de la molécule singulière est capable - dans un milieu en “situation hylémorphique” de métastabilité de moduler une énergie dont le support fait déjà partie du continu, d’une population de molécules aléatoirement disposées, donc d’un ordre de grandeur supérieur, en relation avec le système molaire. La singularité polarisante amorce dans le milieu amorphe une structuration cumulative franchissant les ordres de grandeur primitivement séparés : la singularité, ou information, est ce en quoi il y a communication entre ordres de grandeur ; amorce de l’individu, elle se conserve en lui.

SIMO2013.5 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 101 : La notion de discontinuité doit devenir essentielle à la représentation des phénomènes pour qu’une théorie de la relation soit possible : elle doit s’appliquer non seulement aux masses, mais aussi aux charges, aux positions de stabilité que des particules peuvent occuper, aux quantités d’énergie absorbées ou cédées dans un changement de structure. Le quantum d’action est le corrélatif d’une structure qui change par sauts brusques, sans états intermédiaires.

SIMO2013.6 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 161 : Le problème de l’individuation serait résolu si nous savions ce qu’est l’information dans son rapport aux autres grandeurs fondamentales comme la quantité de matière ou la quantité d’énergie.

SIMO2013.7 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 161 : Le caractère quantique de l’action discontinue vient s’opposer au caractère continu de la connaissance constructrice de synthèses pour constituer ce mixte de continu et de discontinu qui se manifeste dans les qualités régulatrices servant au rapport entre l’intégration et la différenciation. Les qualités apparaissent dans la réactivité par laquelle le vivant apprécie sa propre action ; or, ces qualités ne permettent pas de réduire ce rapport à une simple conscience du décalage entre le but et le résultat, donc à un simple signal. C’est ce qui manque à l’automate pour être un être vivant ; l’automate ne peut que s’adapter d’une manière convergente à un ensemble de conditions en réduisant de plus en plus l’écart qui existe entre son action et le but prédéterminé ; mais il n’invente pas et ne découvre pas des buts au cours de son action, car il ne réalise aucune véritable transduction, la transduction étant l’élargissement d’un domaine initialement très restreint qui prend de plus en plus de structure et d’étendue ; les espèces biologiques sont douées de cette capacité de transduction, grâce à laquelle elles peuvent s’étendre indéfiniment. Les cristaux aussi sont doués de ce pouvoir de s’accroître indéfiniment ; mais, tandis que le cristal a toute sa puissance de s’accroître localisée sur sa limite, ce pouvoir est, dans l’espèce, dévolu à un ensemble d’individus qui s’accroissent pour eux-mêmes, de l’intérieur aussi bien que de l’extérieur, et qui sont limités dans le temps et dans l’espace mais qui se reproduisent et sont illimités grâce à leur capacité de se reproduire.

SIMO2013.8 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 163-164 : Par là également, on comprendrait que l’affectivité soit la seule fonction capable, grâce à son aspect relationnel, de donner un sens à la négativité : le néant d’action, comme le néant de connaissance, sont insaisissables sans un contexte positif dans lequel ils interviennent comme une limitation ou un manque pur ; par contre, pour l’affectivité, le néant peut se définir comme le contraire d’une autre qualité ; comme Platon l’a noté, toute qualité réalisée apparaît comme insérée selon une mesure dans une dyade indéfinie de qualités contraires et absolues ; les qualités vont par couples d’opposés, et cette bipolarité de toute relation qualitative se constitue comme une permanente possibilité d’orientation pour l’être qualifié et qualifiant ; le néant a un sens dans l’affectivité, parce que deux dynamismes s’y affrontent à tout instant ; la relation de l’intégration à la différenciation s’y constitue comme le conflit bipolaire dans lequel s’échangent et s’équilibrent les forces. C’est grâce à cette orientation de l’être par rapport à lui-même, à cette polarisation affective de tout contenu et de tout constituant psychique, que l’être conserve son identité. L’identité semble fondée sur la permanence de cette orientation au cours de l’existence, orientation qui se déploie grâce à la qualification de l’action et de la connaissance. Certaines intuitions très profondes des philosophes présocratiques montrent comment un dynamisme qualitatif échange les structures et les actions dans l’existence, soit à l’intérieur d’un être, soit d’un être à un autre. Héraclite et Empédocle en particulier ont défini une relation de la structure et de l’opération qui suppose une bipolarité du réel, selon une multitude de voies complémentaires. L’affectivité réalise un type de relation qui, en termes d’action, serait conflit, et, en termes de connaissance, incompatibilité ; cette relation ne peut exister qu’au niveau de l’affectivité, parce que sa bipolarité lui permet de faire l’unité de l’hétérogène ; la qualité est transductive par nature, car tout spectre qualitatif relie et distingue des termes qui ne sont ni identiques ni étrangers les uns aux autres ; l’identité du sujet est précisément de type transductif, en particulier à travers la première de toutes les transductivités, celle du temps, qui peut autant qu’on le voudra être fragmenté en instants ou saisi comme une continuité ; chaque instant est séparé de ceux qui le suivent ou qui le précèdent par cela même qui le relie à ces instants et constitue sa continuité par rapport à eux ; distinction et continuité, séparation et relation sont les deux aspects complémentaires du même type de réalité. Le type fondamental de transduction vitale est la série temporelle, à la fois intégratrice et différenciatrice ; l’identité de l’être vivant est faite de sa temporalité. On ferait une erreur en concevant la temporalité comme pure différenciation, comme nécessité de choix permanente et toujours recommencée ; la vie individuelle est différenciation dans la mesure où elle est intégration ; il Y a ici une relation complémentaire qui ne peut perdre un de ses deux termes sans cesser d’exister elle-même en se commuant en une fausse différenciation, qui est en réalité une activité esthétique par laquelle, à l’intérieur d’une personnalité dissociée, chaque choix est connu comme choix par la conscience du sujet, et devient une information à intégrer, alors qu’il était une énergie à différencier : c’est le choix qui est choisi, plus que l’objet du choix ; l’orientation affective perd son pouvoir relationnel à l’intérieur d’un être dont le choix constitue toute l’activité relationnelle, prenant appui en quelque sorte sur elle-même dans sa réactivité. Le choix doit être éminemment discontinu pour représenter une véritable différenciation ; un choix continu, chez un sujet conscient du fait qu’il choisit, est en réalité un mixte de choix et d’information ; de cette simultanéité du choix et de l’information résulte l’élimination de l’élément de discontinuité caractéristique de l’action ; une action mêlée d’information par une récurrence de cette espèce devient en réalité une existence mixte, à la fois continue et discontinue, quantique, procédant par sauts brusques qui introduisent un revirement dans la conscience ; une action de ce type ne peut aboutir à une véritable affectivité constructive, mais seulement à une stabilité précaire, dans laquelle une illusion de choix est donnée par une récurrence qui aboutit à des oscillations de relaxation. La relaxation diffère du choix constructif en ce que le choix ne ramène jamais le sujet à des états antérieurs, tandis que la relaxation ramène périodiquement le sujet à un état neutre qui est le même que les états neutres antérieurs ; un sentiment tel que celui de l’absurde vide (que nous cherchons à distinguer de l’absurde mystérieux) correspond précisément à cet état de retour au néant, dans lequel toute réactivité ou récurrence est abolie par une inactivité et une absence d’information absolues ; c’est que, dans cet état, l’activité valorise l’information, et l’absence d’activité cause un vide complet de l’information : si des éléments d’information se présentent alors venant de l’extérieur, ils sont délaissés comme absurdes parce que non valorisés ; ils ne sont pas qualifiés, parce que l’affectivité directe du sujet ne joue plus et a été remplacée par une récurrence de l’information et de l’action. Cette existence est le caractère de tout esthétisme ; le sujet en état d’esthétisme est un sujet qui a remplacé son affectivité par une réactivité de l’action et de l’information selon un cycle fermé, incapable d’admettre une action nouvelle ou une information nouvelle. En un certain sens, on pourrait traiter l’esthétisme comme une fonction vicariante de l’affectivité ; mais l’esthétisme détruit le recours à l’affectivité en constituant un type d’existence qui élimine les circonstances dans lesquelles une véritable action ou une véritable information pourraient prendre naissance ; la série temporelle est remplacée par une série d’unités cyclochroniques qui se succèdent sans se continuer, et réalisent une fermeture du temps, selon un rythme itératif. Toute artificialité, renonçant à l’aspect créateur du temps vital, devient condition d’esthétisme, même si cet esthétisme n’emploie pas la construction de l’objet pour réaliser le retour de causalité de l’action à l’information, et se contente plus simplement d’un recours à une action qui modifie de manière itérative les conditions d’appréhension du monde.

SIMO2013.9 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 190-191 : L’individu n’est pas un être mais un acte, et l’être est individu comme agent de cet acte d’individuation par lequel il se manifeste et existe. L’individualité est un aspect de la génération, s’explique par la genèse d’un être et consiste en la perpétuation de cette genèse ; l’individu est ce qui a été individué et continue à s’individuer ; il est relation transductive d’une activité, à la fois résultat et agent, consistance et cohérence de cette activité par laquelle il a été constitué et par laquelle il constitue ; il est la substance héréditaire, selon l’expression de Rabaud, car il transmet l’activité qu’il a reçue ; il est ce qui fait passer cette activité, à travers le temps, sous forme condensée, comme information. Il emmagasine, transforme, réactualise et exerce le schème qui l’a constitué ; il le propage en s’individuant. L’individu est le résultat d’une formation ; il est résumé exhaustif et peut redonner un ensemble vaste ; l’existence de l’individu est cette opération de transfert amplifiant. Pour cette raison, l’individu est toujours en relation double et amphibologique avec ce qui le précède et ce qui le suit. L’accroissement est la plus simple et la plus fondamentale de ces opérations de transfert qui établissent l’individualité. L’individu condense de l’information, la transporte, puis module un nouveau milieu. […] L’individualité peut donc être présentée, indépendamment de toute genèse, comme caractérisée par l’autonomie fonctionnelle ; mais cela n’est vrai que si l’on donne au mot autonomie son plein sens : régulation par soi-même, fait de n’obéir qu’à sa propre loi, de se développer selon sa propre structure ; ce critère coïncide avec la substantialité héréditaire ; est autonome l’être qui régit lui-même son développement, qui emmagasine lui-même l’information et régit son action au moyen de cette information. L’individu est l’être capable de conserver ou d’augmenter un contenu d’information. Il est l’être autonome quant à l’information, car c’est en cela qu’est la véritable autonomie.

SIMO2013.10 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 191-192 : C’est le régime de l’information qu’il faut étudier dans un être pour savoir quel est le degré d’individualité des parties par rapport au tout ; l’individu se caractérise comme unité d’un système d’information ; quand un point de l’ensemble reçoit une excitation, cette information va se réfléchir dans l’organisme et revient sous forme de réflexe moteur ou sécrétoire plus ou moins généralisé ; cette réflexion de l’information a lieu parfois dans la partie même où l’excitation s’est produite, ou dans une partie qui constitue avec elle une même unité organique ; mais ce réflexe est pourtant placé sous la dépendance d’un centre, si le tout est individualisé ; ce centre crée facilitation ou inhibition. Il y a en ce cas un centre où l’individu emmagasine l’information passée et au moyen duquel il commande, surveille, inhibe ou facilite (“contrôle”, dans le vocabulaire anglais) le passage d’une information centripète à une réaction centrifuge. C’est l’existence de ce centre par lequel l’être se gouverne et module son milieu qui définit l’individualité. Plus ce contrôle est fort, plus le tout est fortement individualisé, et moins les parties peuvent être considérées comme des individus autonomes. Un régime de l’information parcellaire montre une faible individualisation du tout. Chez les animaux dont les parties sont très différenciées, comme les Mammifères, le régime de l’information est très centralisé ; l’information reçue par une partie quelconque du corps retentit immédiatement sur le système nerveux central, et toutes les parties du corps répondent en un temps assez court par une réaction appropriée, tout au moins celles qui sont directement placées sous la dépendance du système nerveux central. Chez les animaux qui ont un système nerveux peu centralisé, la relation s’établit plus lentement entre les différentes parties ; l’unité du système d’information existe, mais avec moins de rapidité. […] En résumé, c’est le régime de l’information qui définit le degré d’individualité ; pour l’apprécier, il faut établir un rapport entre la vitesse de propagation de l’information et la durée de l’acte ou de l’événement auquel cette information est relative. Dès lors, si la durée de propagation de l’information est petite par rapport à la durée de l’acte ou de l’événement, une région importante de l’être, voire tout l’être, pourra prendre les attitudes et réaliser les modifications convenant à cet acte ; dans le cas contraire, l’événement ou l’acte restera une réalité locale, même si, par après, le retentissement existe pour l’ensemble de la colonie ; l’individualité est marquée par rapport à un type d’acte ou d’événement déterminé par la possibilité de réaction, donc de contrôle, d’utilisation de l’information en fonction de l’état de l’organisme, et par conséquent d’autonomie ; la zone autonome, c’est-à-dire la zone dans laquelle l’information a le temps de se propager dans un sens centripète puis dans un sens centrifuge assez vite pour que l’autorégulation de l’acte puisse avoir lieu efficacement, est la zone qui fait partie d’une même individualité. C’est la récurrence de l’information centripète puis centrifuge qui marque les limites de l’individualité. Cette limite est par nature fonctionnelle ; mais elle peut être anatomique, car les limites anatomiques peuvent imposer un retard critique à l’information.

SIMO2013.11 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 194 : Cette expression “signaux d’information” est employée pour maintenir la différence entre l’information proprement dite qui est une manière d’être d’un système supposant potentialité et hétérogénéité, et les signaux d’information, nommés en général information, alors qu’ils n’en sont qu’un instrument non nécessaire, particulièrement développé lorsque les parties formant système sont éloignées l’une de l’autre, comme c’est le cas dans un macro-organisme ou dans une société.

SIMO2013.12 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 212 : Pour rendre compte de l’activité du vivant, il faut remplacer la notion d’équilibre stable par celle d’équilibre métastable, et celle de bonne forme par celle d’information ; le système dans lequel l’être agit est un univers de métastabilité ; la disparation préalable entre les mondes perceptifs devient condition de structure et d’opération en état d’équilibre métastable : c’est le vivant qui par son activité maintient cet équilibre métas table, le transpose, le prolonge, le soutient. L’univers complet n’existe qu’autant que le vivant entre dans l’axiomatique de cet univers ; si le vivant se dégage ou échoue, l’univers se défait en mondes perceptifs de nouveau disparates. Le vivant, entrant parmi ces mondes perceptifs pour en faire un univers, amplifie la singularité qu’il porte. Les mondes perceptifs et le vivant s’individuent ensemble en univers du devenir vital.

SIMO2013.13 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 219 : On pourrait se demander alors comment représenter la fonction d’individuation lorsqu’elle se développe dans le vivant. Il faudrait pouvoir définir une notion qui serait valable pour penser l’individuation dans la nature physique aussi bien que dans la nature vivante, et ensuite, pour définir la différenciation interne du vivant qui prolonge son individuation en séparant les fonctions vitales en physiologiques et psychiques. Or, si nous reprenons le paradigme de la prise de forme technologique, nous trouvons une notion qui paraît pouvoir passer d’un ordre de réalité à un autre, en raison de son caractère purement opératoire, non lié à telle ou telle matière, et se définissant seulement par rapport à un régime énergétique et structural : la notion d’information. […] L’individuation est une modulation. Or, la notion d’information nous est livrée à l’état séparé par les techniques nommées techniques de l’information, à partir desquelles a été édifiée la théorie de l’information. Mais il est difficile de retirer de ces techniques multiples, dans lesquelles la notion d’information est utilisée et conduit à l’emploi de quantités, une notion univoque d’information. En effet, la notion d’information apparaît de deux manières presque contradictoires.

SIMO2013.14 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 219-220 : Dans un premier cas, l’information est, comme l’exprime Norbert Wiener, ce qui s’oppose à la dégradation de l’énergie, à l’augmentation de l’entropie d’un système ; elle est essentiellement négentropique. Dans un système où toutes les transformations possibles auraient été effectuées, où tous les potentiels se seraient actualisés, plus aucune transformation ne serait possible ; rien ne se distinguerait de rien. Ainsi, l’information, dans la transmission d’un message, est ce qui s’oppose au nivellement général de l’énergie modulée par le signal ; […] Le signal d’information apporte la décision entre des possibles, en ce premier sens ; il suppose diversité possible des états, non-confusion, distinction. Il s’oppose en particulier au bruit de fond, c’est-à-dire à ce qui advient selon le hasard, comme l’agitation thermique des molécules ; lorsque le véhicule énergétique du signal est discontinu par essence, comme un courant électrique formé de charges élémentaires en transit, il faut que chaque élément du signal module un grand nombre d’unités élémentaires de l’énergie porteuse pour que le message soit correctement transmis ; […] Le signal d’information est donc pouvoir de décision, et la “quantité d’information” qui peut être transmise ou enregistrée par un système est proportionnelle au nombre de décisions significatives que ce système peut transmettre ou enregistrer. […] Le signal d’information est en ce sens ce qui n’est pas prévisible, ce qui découpe le prévisible au point que l’énergie qui véhicule ce signal, ou les supports qui l’enregistrent, doivent avoir des états qui, à l’ordre de grandeur des signaux d’information (durée ou étendue selon le cas), peuvent être considérés comme prévisibles, pour que l’imprévisibilité des états du support ou de l’énergie modulée n’interfère pas avec celle du signal d’information.

SIMO2013.15 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 220-221 : Cependant, en un autre sens, l’information est ce qui implique régularité et retour périodique, prévisibilité. Le signal est d’autant plus facile à transmettre qu’il est plus facilement prévisible ; […] C’est que dans ce cas le signal n’est pas seulement émis ou transmis par modulation d’une énergie : il est aussi reçu par un dispositif qui a son fonctionnement propre et qui doit intégrer le signal d’information à l’intérieur de son fonctionnement en lui faisant jouer un rôle d’information efficace : le signal d’information n’est pas seulement ce qui est à transmettre, sans détérioration causée par le bruit de fond et les autres aspects de hasard et de dégradation de l’énergie ; il est aussi ce qui doit être reçu, c’est-à-dire prendre une signification, avoir une efficacité pour un ensemble ayant un fonctionnement propre. Comme, en général, les problèmes relatifs à l’information sont des problèmes de transmission, les aspects de l’information seuls retenus et soumis à l’appréciation technologique sont ceux qui sont relatifs à la non-dégradation des signaux en cours de transmission ; le problème de la signification des signaux ne se pose pas, parce que les signaux non dégradés ont à l’arrivée la signification qu’ils auraient eue au point de départ s’ils n’avaient pas été transmis mais simplement livrés directement ; c’est le sujet humain qui est récepteur au bout de la ligne de transmission comme il le serait si aucune distance ne le séparait de l’origine des signaux. Par contre, le problème est très différent lorsque les signaux ne sont pas seulement techniquement transmis mais aussi techniquement reçus, c’est-à-dire reçus par un système doué de fonctionnement propre et qui doit les intégrer à ce fonctionnement. On trouve alors que les grandeurs relatives à la transmission des signaux et celles qui sont relatives à leur signification sont antagonistes. Les signaux sont d’autant mieux transmis qu’ils se confondent moins avec l’uniformisation du prévisible ; mais pour qu’ils soient reçus, pour qu’ils s’intègrent au fonctionnement d’un système, il faut qu’ils présentent une analogie aussi parfaite que possible avec ceux qui pourraient être émis par le dispositif récepteur si on l’utilisait comme émetteur ; il faut qu’ils soient presque prévisibles ;

SIMO2013.16 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 221-223 : En plus de la quantité de signaux d’information transmissibles par un système donné, il faut donc considérer leur aptitude à être reçus par un dispositif récepteur ; cette aptitude ne peut directement s’exprimer en termes de quantité. Il est difficile aussi de la nommer qualité, car la qualité paraît être une propriété absolue d’un être, alors qu’ici il s’agit d’une relation ; telle énergie modulée peut devenir signaux d’information pour un système défini et non pour tel autre. On pourrait nommer cette aptitude de l’information, ou plutôt ce qui fonde cette aptitude, l’eccéité de l’information : c’est ce qui fait que ceci est de l’information, est reçu comme tel, alors que cela n’est pas reçu comme information [Il n ’y a information que lorsque ce qui émet les signaux et ce qui les reçoit donne système. L’information est entre les deux moitiés d’un système en relation de disparation. Cette information ne passe pas nécessairement par des signaux (par exemple dans la cristallisation) ; mais elle peut passer par des signaux, ce qui permet à des réalités éloignées l’une de l’autre de former système.] ; le terme de qualité désigne trop des caractères génériques ; celui d’eccéité particularise trop et enferme trop dans un caractère concret ce qui est aptitude relationnelle. Il importe seulement d’indiquer que cette aptitude relationnelle est attachée au schème de prévisibilité des signaux de l’information ; pour que les signaux prennent un sens dans un système, il faut qu’ils n’y apportent pas quelque chose d’entièrement nouveau ; un ensemble de signaux n’est significatif que sur un fond qui coïncide presque avec lui ; si les signaux recouvrent exactement la réalité locale, ils ne sont plus information, mais seulement itération extérieure d’une réalité intérieure ; s’ils en diffèrent trop, ils ne sont plus saisis comme ayant un sens, ils ne sont plus significatifs, n’étant pas intégrables. Les signaux doivent rencontrer pour être reçus des formes préalables par rapport auxquelles ils sont significatifs ; la signification est relationnelle. […] De même, pour qu’un signal reçoive une signification, non pas seulement dans un contexte psychologique, mais dans un échange de signaux entre objets techniques, il faut qu’il existe une disparation entre une forme déjà contenue dans le récepteur et un signal d’information apporté de l’extérieur. Si la disparation est nulle, le signal recouvre exactement la forme, et l’information est nulle, en tant que modification de l’état du système. Au contraire, plus la disparation augmente, plus l’information augmente, mais jusqu’à un certain point seulement, car au delà de certaines limites, dépendant des caractéristiques du système récepteur, l’information devient brusquement nulle, lorsque l’opération par laquelle la disparation est assumée en tant que disparation ne peut plus s’effectuer. […] l’intégration des signaux à un système en fonctionnement est d’autant plus facile que la répartition de l’énergie dans une seule période du signal est plus voisine de la répartition d’énergie dans les échanges locaux ;

SIMO2013.17 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 223 : {{On peut nommer signal ce qui est transmis, forme ce par rapport à quoi le signal est reçu dans le récepteur, et information proprement dite ce qui est effectivement intégré au fonctionnement du récepteur après l’épreuve de disparation portant sur le signal extrinsèque et la forme intrinsèque. Un enregistrement d’information est en fait une fixation de signaux, non un véritable enregistrement d’information ; le ruban magnétique ou la pellicule photographique enregistrent des signaux sous forme d’un ensemble d’états locaux, mais sans épreuve de disparation ; le ruban magnétique ou la pellicule doivent alors être utilisés comme source secondaire de signaux devant un véritable récepteur qui les intégrera ou ne les intégrera pas selon l’existence ou l’inexistence en lui de formes adéquates pour l’épreuve de disparation ; le ruban magnétique doit être réactualisé sous forme de signaux, et la pellicule photographique doit être éclairée ; elle module alors point par point la lumière comme la modulaient les objets photographiés. Si la disparation entre deux signaux externes est nécessaire à la perception, l’enregistrement doit livrer séparément deux ensembles ou séries de signaux : il faut deux photographies séparées pour donner la perception du relief, et deux pistes sur le ruban magnétique pour donner le relief sonore. Cette nécessité de deux enregistrements bien séparés montre que l’enregistrement véhicule des signaux, mais non de l’information directement intégrable : la disparation n’est pas faite, et ne peut pas être faite, car elle n’est pas au niveau des signaux, et ne donne pas naissance à un signal mais à une signification, qui n’a de sens que dans un fonctionnement ; il faut un récepteur en fonctionnement pour que la disparation ait lieu ; il faut un système avec structures et potentiels. Les conditions de bonne transmission des signaux ne doivent pas non plus être confondues avec les conditions d’existence d’un système. Le signal ne constitue pas la relation.}

SIMO2013.18 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 230 : La Théorie de la Forme n’établit pas la distinction essentielle entre un ensemble, dont l’unité n’est que structurale, non énergétique, et un système, unité métastable faite d’une pluralité d’ensembles entre lesquels existe une relation d’analogie, et un potentiel énergétique. L’ensemble ne possède pas d’information. Son devenir ne peut être que celui d’une dégradation, d’une augmentation de l’entropie. Le système peut au contraire se maintenir en son être de métastabilité grâce à l’activité d’information qui caractérise son état de système. La Théorie de la Forme a pris pour une vertu des totalités, c’est-à-dire des ensembles, ce qui est en fait une propriété que seuls possèdent les systèmes ; or les systèmes ne peuvent pas être totalisés, car le fait de les considérer comme somme de leurs éléments ruine la conscience de ce qui en fait des systèmes : séparation relative des ensembles qu’ils contiennent, structure analogique, disparation et, en général, activité relationnelle d’information. Ce qui fait la nature d’un système est le type d’information qu’il recèle ; or, l’information, activité relationnelle, ne peut être quantifiée abstraitement, mais seulement caractérisée par référence aux structures et aux schèmes du système où elle existe ; on ne doit pas confondre l’information avec les signaux d’information, qui peuvent être quantifiés, mais qui ne sauraient exister sans une situation d’information, c’est-à-dire sans un système.

SIMO2013.19 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 234-235 : Le problème physique de l’individualité n’est pas seulement un problème de topologie, car ce qui manque à la topologie est la considération des potentiels ; les potentiels, précisément par ce qu’ils sont des potentiels et non des structures, ne peuvent être représentés comme des éléments graphiques de la situation. La situation dans laquelle prend naissance l’individuation physique est spatio-temporelle, car elle est un état métastable. Dans ces conditions, l’individuation physique, et plus généralement l’étude des formes physiques, relève d’une théorie de la métastabilité, envisageant les processus d’échange entre les configurations spatiales et les séquences temporelles. Cette théorie peut se nommer allagmatique. Elle doit être en rapport avec la théorie de l’information, qui envisage la traduction de séquences temporelles en organisations spatiales, ou la transformation inverse ; mais la théorie de l’information, procédant sur ce point comme la théorie de la Forme, envisage plutôt des séquences ou des configurations déjà données, et ne peut guère définir les conditions de leur genèse. C’est au contraire la genèse absolue comme les échanges mutuels des formes, des structures et des séquences temporelles qu’il faut envisager. Une pareille théorie pourrait alors devenir le fondement commun de la théorie de l’Information et de la théorie de la Forme en Physique. Ces deux théories en effet sont inutilisables pour l’étude de l’individu parce qu’elles emploient deux critères mutuellement incompatibles. La théorie de la Forme privilégie en effet la simplicité et la prégnance des formes ; au contraire, la quantité d’information que définit la théorie de l’information est d’autant plus élevée que le nombre de décisions à apporter est plus grand ; plus la forme est prévisible, correspondant à une loi mathématique élémentaire, plus il est facile de la transmettre avec une faible quantité de signaux. C’est au contraire ce qui échappe à toute monotonie, à toute stéréotypie qui est difficile à transmettre et exige une quantité élevée d’information. La simplification des formes, l’élimination des détails, l’augmentation des contrastes correspond à une perte de la quantité d’information. Or, l’individuation des êtres physiques n’est assimilable ni à la bonne forme géométrique simple ni à la haute quantité d’information entendue comme grand nombre de signaux transmis : elle comporte les deux aspects, forme et information, réunis en une unité ; aucun objet physique n’est seulement une bonne forme mais par ailleurs la cohésion et la stabilité de l’objet physique ne sont pas proportionnelles à sa quantité d’information, ou plus exactement à la quantité de signaux d’information qu’il faut utiliser pour transmettre correctement une connaissance à son sujet. D’où la nécessité d’une médiation ; l’individuation de l’objet physique n’est ni du discontinu pur comme le rectangle ou le carré, ni du continu comme les structures exigeant pour être transmises un nombre de signaux d’information qui tend vers l’infini.

SIMO2013.20 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 239 : Cette existence d’une polarité perceptive joue un rôle prépondérant dans la ségrégation des unités perceptives ; ni la bonne forme ni la quantité de signaux ne peuvent rendre compte de cette ségrégation. Le sujet perçoit de manière à s’orienter par rapport au monde. Le sujet perçoit de manière à accroître non la quantité de signaux d’information ni la qualité d’information, mais l’intensité d’information, le potentiel d’information d’une situation. Percevoir, c’est, comme le dit Norbert Wiener, lutter contre l’entropie d’un système, c’est organiser, maintenir ou inventer une organisation, Il ne suffit pas de dire que la perception consiste à saisir des touts organisés ; en fait elle est l’acte qui organise des touts ; elle introduit l’organisation en reliant analogiquement les formes contenues dans le sujet aux signaux reçus : percevoir est retenir la plus grande quantité de signaux possible dans les formes les plus profondément ancrées dans le sujet ; ce n’est pas seulement saisir des formes ou enregistrer des données multiples juxtaposées ou successives ; ni la qualité, ni la quantité, ni le continu, ni le discontinu ne peuvent expliquer cette activité perceptive ; l’activité perceptive est médiation entre la qualité et la quantité ; elle est intensité, saisie et organisation des intensités dans la relation du monde au sujet.

SIMO2013.21 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 318-320 : En généralisant cette relativisation de l’individu et en la transposant dans le domaine réflexif, on peut faire de l’étude de l’individuation une théorie de l’être. L’individuation est alors située par rapport à l’être. Elle apparaît comme une modification de l’être à partir de laquelle sa problématique s’enrichit : elle est apparition de l’information à l’intérieur du système de l’être. Au lieu de traiter l’information comme une grandeur absolue, estimable et quantifiable dans un nombre limité de circonstances techniques, il faut la rattacher à l’individuation : il n’y a d’information que comme échange entre les parties d’un système qui comporte individuation, car pour que l’information existe il faut qu’elle ait un sens, qu’elle soit reçue, c’est-à-dire qu’elle puisse servir à effectuer une certaine opération ; l’information se définit par la manière dont un système individué s’affecte lui-même en se conditionnant : elle est ce par quoi existe un certain mode de conditionnement de l’être par lui-même, mode que l’on peut nommer résonance interne : l’information est individuante et exige un certain degré d’individuation pour pouvoir être reçue ; elle est ce par quoi chemine l’opération d’individuation, ce par quoi cette opération se conditionne elle-même. La prise de forme par laquelle on représente en général l’individuation suppose information et sert de base à de l’information ; il n’y a d’information échangée qu’entre des êtres déjà individués et à l’intérieur d’une systématique de l’être qui est une nouvelle individuation : on pourrait dire que l’information est toujours interne ; il ne faut pas confondre l’information avec les signaux et supports de signaux qui constituent son médiateur. L’information doit être comprise dans les conditions véritables de sa genèse, qui sont les conditions mêmes de l’individuation dans lesquelles elle joue un rôle : l’information est un certain aspect de l’individuation ; elle exige qu’avant elle, pour qu’elle soit comprise comme ayant un sens (ce sans quoi elle n’est pas information, mais seulement énergie faible), il y ait un certain potentiel ; le fait qu’une information est véritablement information est identique au fait que quelque chose s’individue ; et l’information est l’échange, la modalité de résonance interne selon laquelle cette individuation s’effectue. Toute information est à la fois informante et informée ; elle doit être saisie dans cette transition active de l’être qui s’individue [Dans la même mesure, l’individu, issu d’une communication entre ordres de grandeurs primitivement isolés, emporte le message de leur dualité, puis reproduit l’ensemble par amplification. L’information conserve le préindividuel dans l’individu.] Elle est ce par quoi l’être se déphase et devient. Dans ses aspects séparés, enregistrés, médiatement transmis, l’information exprime encore une individuation accomplie et la résurgence de cet accomplissement qui peut se prolonger en d’autres étapes d’amplification : l’information n’est jamais après l’individuation seulement, car si elle exprime une individuation accomplie c’est par rapport à une autre individuation capable de s’accomplir : expression d’une information accomplie, elle est le germe autour duquel une nouvelle individuation pourra s’accomplir : elle établit la transductivité des individuations successives, les rangeant en série parce qu’elle les traverse en portant de l’une à l’autre ce qui peut être repris. L’information est ce qui déborde d’une individuation sur l’autre, et du préindividuel sur l’individué, parce que le schème selon lequel une individuation s’accomplit est capable d’amorcer d’autres individuations : l’information a un pouvoir extérieur parce qu’elle est une solution intérieure ; elle est ce qui passe d’un problème à l’autre, ce qui peut rayonner d’un domaine d’individuation à un autre domaine d’individuation ; l’information est information significative parce qu’elle est d’abord le schème selon lequel un système a réussi à s’individuer ; c’est grâce à cela qu’elle peut le devenir pour un autre. Ceci suppose qu’il y ait une analogie entre les deux systèmes, le premier et le second. Or, dans une doctrine qui évite de faire appel à un postulat créationiste, pour qu’il y ait analogie entre deux systèmes il faut que ces deux systèmes fassent partie d’un système plus vaste ; ceci signifie que lorsque de l’information apparaît dans un sous-ensemble comme schème de résolution de ce sous-ensemble, elle est déjà résolution non pas seulement de ce sous-ensemble mais aussi de ce qui en lui exprime son appartenance à l’ensemble : elle est d’emblée susceptible d’être transférée aux autres sous-ensembles, elle est d’emblée intérieure au sous-ensemble d’origine et déjà intérieure à l’ensemble comme exprimant ce qui en chaque sous-ensemble est sa marque d’appartenance à l’ensemble, c’est-à-dire la façon dont il est modifié par les autres sous-ensembles constituant avec lui l’ensemble. On pourrait dire que l’information est à la fois intérieure et extérieure ; elle exprime les limites d’un sous-ensemble ; elle est médiation entre chaque sous-ensemble et l’ensemble. Elle est résonance interne de l’ensemble en tant qu’il comporte des sous-ensembles : elle réalise l’individuation de l’ensemble comme cheminement de solutions entre les sous-ensembles qui le constituent : elle est résonance interne des structures des sous-ensembles à l’intérieur de l’ensemble : cet échange est intérieur par rapport à l’ensemble et extérieur par rapport à chacun des sous-ensembles. L’information exprime l’immanence de l’ensemble en chacun des sous-ensembles et l’existence de l’ensemble comme groupe de sous-ensembles, incorporant réellement la quiddité de chacun, ce qui est la réciproque de l’immanence de l’ensemble à chacun des sous-ensembles. S’il ya en effet une dépendance de chaque sous-ensemble par rapport à l’ensemble, il y a aussi une dépendance de l’ensemble par rapport aux sous-ensembles [C’est la condition de communication, qui se trouve une première fois au moment de l’individuation, et une seconde fois quand l’individu s’amplifie en collectif.]. Cette réciprocité entre deux niveaux désigne ce que l’on peut nommer résonance interne de l’ensemble, et définit l’ensemble comme réalité en cours d’individuation.

SIMO2013.22 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 335-336 : On pourrait faire remarquer que dans une pareille conception la conscience morale semble n’avoir plus de rôle à jouer. En fait, il est impossible de dissocier la véritable conscience morale de l’action ; la conscience est la réactivité du sujet par rapport à lui-même, qui lui permet d’exister comme individu, en étant à lui-même la norme de son action ; le sujet agit en se contrôlant, c’est-à-dire en se mettant dans la communication la plus parfaite possible avec lui-même ; la conscience est ce retour de causalité du sujet sur lui-même, quand une action optative est sur le point de résoudre un problème. La conscience morale diffère de la conscience psychologique en ce que la conscience psychologique exprime le retentissement dans le sujet de ses actes ou des événements en fonction de l’état présent du sujet. Elle est jugement selon une détermination actuelle ; au contraire, la conscience morale rapporte les actes ou les débuts d’actes à ce que le sujet tend à être au terme de cet acte ; elle ne le peut que de façon extrêmement précaire, en “extrapolant” en quelque manière pour tenir compte de l’actuelle transformation du sujet ; elle est d’autant plus fine qu’elle arrive mieux à juger en fonction de ce que le sujet sera ; c’est pour cette raison qu’il y a une relative indétermination dans le domaine de la conscience morale, car la conscience morale instaure d’abord un premier type de réactivité, comme la conscience simplement psychologique, et ensuite un deuxième type de réactivité, qui vient de ce que les modalités de ce retour de causalité dépendent du régime d’action qu’elles contrôlent : dans cette récurrence de l’information, le sujet n’est pas seulement un être doué d’une téléologie interne simple, mais d’une téléologie elle-même soumise à une auto-régulation : la conscience psychologique est déjà régulatrice ; la conscience morale est une conscience régulatrice soumise à une auto-régulation interne ; cette conscience doublement régulatrice peut être nommée conscience normative. Elle est libre parce qu’elle élabore elle-même son propre régime de régulation. Cette liberté ne peut se trouver en aucun être ou aucun système qui ne dépendrait que d’un seul ensemble de conditions ; elle aboutirait à une indétermination ou à une activité itérative, oscillatoire ou par relaxation ; cette liberté ne peut se trouver que dans l’auto-création d’un régime de compatibilité entre des conditions asymétriques comme celles que nous trouvons à la base de l’action. Un mécanisme téléologique peut imiter le fonctionnement de la conscience psychologique, qui peut être instantanée ; mais le mécanisme téléologique ne peut imiter la conscience morale, car il n’a jamais un conditionnement double et simultané ; il faut que l’organique et le technique soient déjà présents, prêts à être mis en relation, pour que la conscience morale puisse exister. La conscience valorisante définit donc un niveau d’activité téléologique qui ne peut être ramené à aucun automatisme. La solution au problème moral ne peut être cherchée par ordinateur.

SIMO2013.23 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 341 : Tout groupe social est un mixte de communauté et de société, définissant en tant que communauté un code d’obligations extrinsèques par rapport aux individus et en tant que société une intériorité par rapport aux individus. L’effort communautaire et l’effort technique sont antagonistes dans une société déterminée ; les forces communautaires tendent à incorporer les techniques dans un système d’obligations sociales, en assimilant l’effort technique à un travail ; mais l’effort technique oblige la communauté à rectifier toujours sa structure pour incorporer des créations toujours nouvelles, et il soumet au jugement selon ses propres valeurs la structure de la communauté, en analysant ses caractères dynamiques que cette structure prédétermine. Le technicisme positiviste est un exemple très net de la manière dont une pareille pensée introduit des valeurs nouvelles dans la communauté. Une sociologie qui, croyant saisir la réalité humaine dans sa spécificité, élimine la considération de l’individu pur et par conséquent des techniques dans leur genèse, définit le social par l’obligation, mais laisse de côté une part importante de la réalité sociale, part qui peut devenir prépondérante dans certains cas. La réalité collective est indissolublement communautaire et sociale, mais ces deux caractères sont antagonistes, et la sociologie moniste ne peut rendre compte de cet antagonisme.

SIMO2013.24 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 342 : On pourrait objecter que la création technique est chose rare, et que dans ces conditions la conduite individuelle ne peut être que très exceptionnelle ; cependant, il y a une irradiation des valeurs autour d’une conduite, et une conduite n’est pas isolée dans la somme des actions de l’individu, pas plus qu’un individu n’est isolé dans le milieu social où il existe ; il est de la nature même de l’individu de communiquer, de faire rayonner autour de lui l’information qui propage ce qu’il crée ; c’est cela qui est rendu possible par l’invention technique, qui est illimitée dans l’espace et dans le temps ; elle se propage sans s’affaiblir, même quand elle s’associe à un autre élément, ou s’intègre à un tout plus complexe ; l’œuvre de l’individu peut en effet se propager de deux manières au delà de l’individu lui-même : comme œuvre technique proprement dite ou comme conséquence de cette œuvre sous la forme d’une modification des conditions collectives d’existence, qui impliquent des exigences et des valeurs. Ainsi, l’invention d’un moyen rapide de communication n’est pas anéantie par la découverte d’un moyen plus rapide ; même si les procédés techniques sont totalement transformés, il subsiste une continuité dynamique qui consiste en ce que l’introduction dans la communauté du premier mode de transport a développé une exigence de rapidité qui sert à promouvoir avec force le second mode : le premier a créé la fonction et l’a insérée dans l’ensemble des dynamismes de la communauté. Tout dispositif technique modifie dans une certaine mesure la communauté, et institue une fonction qui rend possible l’avènement d’autres dispositifs techniques ; il s’insère donc dans une continuité qui n’exclut pas le changement mais le stimule, parce que les exigences sont toujours en avance sur les réalisations. Par là, l’être technique se convertit en civilisation ; par ailleurs, un être technique, même peu intégré dans la communauté, vaut comme objet à comprendre ; il exige un type de perception et de conceptualisation qui vise à comprendre l’être technique en le recréant ; l’être technique existe donc comme un germe de pensée, recélant une normativité qui s’étend bien au delà de lui-même. L’être technique constitue donc de cette seconde manière une voie qui transmet de l’individu à l’individu une certaine capacité de création, comme s’il existait un dynamisme commun à toutes les recherches et une société des individus créateurs d’êtres techniques.

SIMO2013.25 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 342-343 : Cette seconde direction est également propre à faire de l’être technique un élément de civilisation. La civilisation est alors l’ensemble des dynamismes de la communauté et des dynamismes des différentes sociétés qui rencontrent dans le monde des êtres techniques une condition de compatibilité. Même si la notion de progrès ne peut être directement acceptée et doit être élaborée par un travail réflexif, c’est bien cette compatibilité de la communauté et des sociétés qui trouve un sens dans la notion de développement progressif. Le progrès est le caractère du développement qui intègre en un tout le sens des découvertes successives discontinues et de l’unité stable d’une communauté. C’est par l’intermédiaire du progrès technique que communauté et société peuvent être synergiques. Enfin, la consistance propre de l’être technique se constitue comme une réalité en expansion dans la continuité temporelle de l’univers technique, où une double solidarité, simultanée et successive, relie par un conditionnement mutuel les êtres techniques les uns aux autres ; on pourrait parler d’une résonance interne de l’univers technique, dans lequel chaque être technique intervient effectivement comme condition d’existence réelle des autres êtres techniques ; chaque être technique est ainsi comme un microcosme qui renferme dans ses conditions d’existence monadique un très grand nombre d’autres êtres techniques valides ; une causalité circulaire crée une réciprocité de conditions d’existence qui donne à l’univers technique sa consistance et son unité ; cette unité actuelle se prolonge par une unité successive qui rend l’humanité comparable à cet homme dont parle Pascal qui apprendrait toujours sans jamais oublier. La valeur du dialogue de l’individu avec l’objet technique est donc de conserver l’effort humain, et de créer un domaine du transindividuel, distinct de la communauté, dans lequel la notion de liberté prend un sens, et qui transforme la notion de destinée individuelle, mais ne l’anéantit pas. Le caractère fondamental de l’être technique est d’intégrer le temps à une existence concrète et consistante ; il est en cela le corrélatif de l’auto-création de l’individu.

SIMO2013.26 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 344 : L’être technique reproduit et divulgué par l’industrie perd sa valeur surréelle dans la mesure où l’anesthésie de l’usage quotidien ôte la perception des caractères singuliers de l’objet. Vu comme ustensile, l’être technique n’a plus de sens pour l’individu. La communauté se l’approprie, le normalise, et lui donne une valeur d’usage qui est étrangère à son essence dynamique propre. Mais tout objet technique peut être retrouvé par l’individu dont le “goût technique” et la “culture technique” sont assez développés. Ainsi, l’objet technique est un surréel, mais il ne peut être senti comme tel que s’il est saisi par l’individu pur, par un homme capable d’être créateur, et non par un utilisateur qui traite l’objet technique en mercenaire ou en esclave.

SIMO2013.27 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 345 : Or, l’être technique est plus qu’outil et moins qu’esclave ; il possède une autonomie, mais une autonomie relative, limitée, sans extériorité véritable par rapport à l’homme qui le construit. L’être technique n’a pas de nature ; il peut être un analogue fonctionnel de l’individu, mais n’est jamais un véritable individu organique. Supposons qu’une machine ait été dotée des mécanismes téléologiques les plus parfaits par ses constructeurs, et qu’elle soit capable d’effectuer les travaux les plus parfaits, les plus rapides ; cette machine, fonctionnellement équivalente à des milliers d’hommes, ne sera pourtant pas un véritable individu ; la meilleure machine à calculer n’a pas le même degré de réalité qu’un esclave ignorant, parce que l’esclave peut se révolter alors que la machine ne le peut ; la machine, par rapport à l’homme, ne peut avoir de véritable extériorité, parce que, en elle-même, elle n’a pas de véritable intériorité. La machine peut se dérégler et présenter alors les caractéristiques de fonctionnement analogues à la conduite folle chez un être vivant. Mais elle ne peut se révolter. La révolte implique en effet une profonde transformation des conduites finalisées, et non un dérèglement de la conduite. La machine est susceptible de conduites auto-adaptatives ; mais il subsiste entre une conduite auto-adaptative et une conversion une différence qu’aucune ressemblance extérieure ne peut masquer : l’homme est capable de conversion en ce sens qu’il peut changer de fins au cours de son existence ; l’individualité est au delà du mécanisme téléologique, puisqu’elle peut modifier l’orientation de cette finalité. Au contraire, la machine est d’autant plus parfaite que son automatisme lui permet de se régler elle-même d’après sa finalité prédéterminée. Mais la machine n’est pas auto-créatrice. Même si l’on suppose que la machine, en cours de fonctionnement, règle ses propres mécanismes téléologiques, on obtient seulement une machine capable, au moyen de cette téléologie agissant sur une téléologie, d’intégrer à titre de données les résultats des étapes précédentes du fonctionnement ; c’est une machine qui réduit de plus en plus la marge d’indétermination de son fonctionnement selon les données du milieu, et conformément à un déterminisme convergent. Cette machine, par conséquent, s’adapte. Mais l’adaptation est possible selon deux processus opposés : celui que nous venons d’évoquer est le dressage, qui aboutit à une conduite de plus en plus stéréotypée, et à une liaison de plus en plus étroite avec un milieu déterminé. La seconde forme d’adaptation est l’apprentissage, qui augmente au contraire la disponibilité de l’être par rapport aux différents milieux dans lesquels il se trouve, en développant la richesse du système de symboles et de dynamismes qui intègrent l’expérience passée selon un déterminisme divergent. Dans ce second cas, la quantité d’information caractérisant la structure et la réserve de schèmes contenue dans l’être augmente ; les sauts brusques successifs que l’on peut nommer conversions marquent les moments où la quantité d’informations non intégrées étant devenue trop grande, l’être s’unifie en changeant de structure interne pour adopter une nouvelle structure qui intègre l’information accumulée.

SIMO2013.28 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 346 : Ce caractère de discontinuité, cette existence de seuils ne se manifeste pas dans l’automate, parce que l’automate ne change pas de structure ; il n’incorpore pas à sa structure l’information qu’il acquiert ; il n’y a jamais incompatibilité entre la structure qu’il possède et l’information qu’il acquiert, parce que sa structure détermine d’avance quel type d’information il peut acquérir ; il n’y a donc jamais pour l’automate un véritable problème d’intégration, mais seulement une question de mise en réserve d’une information par définition intégrable puisqu’elle est homogène par rapport à la structure de la machine qui l’a acquise. L’individu au contraire possède une faculté ouverte d’acquérir de l’information, même si cette information n’est pas homogène par rapport à sa structure actuelle ; il subsiste donc dans l’individu une certaine marge entre la structure actuelle et les informations acquises qui, étant hétérogènes par rapport à la structure, nécessitent des refontes successives de l’être, et le pouvoir de se mettre en question soi-même. Cette capacité d’être soi-même un des termes du problème que l’on a à résoudre n’existe pas pour la machine. La machine a des questions à résoudre, non des problèmes, car les termes de la difficulté que la machine a à résoudre sont homogènes ; au contraire, l’individu a à résoudre une difficulté qui n’est pas exprimée en termes d’information homogène, mais qui comprend un terme objet et un terme sujet. C’est pour cette raison que le mécanisme téléologique des êtres techniques est universellement constitué par une causalité circulaire : le signal de la différence entre le but poursuivi et le résultat effectivement atteint est ramené aux organes de commande de la machine de manière à commander un fonctionnement qui diminue l’écart qui a causé le signal. Cette causalité réactive adapte la machine ; mais dans le cas de l’individu, le signal n’est pas celui d’un écart entre un résultat effectif et un résultat visé : c’est celui d’une dissymétrie entre deux finalités, l’une réalisée sous forme de structure, l’autre immanente à un ensemble d’informations encore énigmatiques et pourtant valorisées.

SIMO2013.29 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 346 : La clarté et la compatibilité n’apparaissent dans ce système virtuel que si le problème est résolu grâce à un changement de structure du sujet individuel, selon une action qui crée une véritable relation entre l’individu antérieurement structuré et sa nouvelle charge d’information. La notion d’adaptation demeure insuffisante pour rendre compte de la réalité de l’individu ; il s’agit en fait d’une auto-création par sauts brusques qui réforment la structure de l’individu. L’individu ne rencontre pas seulement dans son milieu des éléments d’extériorité auxquels il doit s’adapter comme une machine automatique ; il rencontre aussi une information valorisée qui met en question l’orientation de ses propres mécanismes téléologiques ; il l’intègre par transmutation de lui-même, ce qui le définit comme être dynamiquement illimité. La problématique individuelle est au delà du rapport entre l’être et son milieu ; cette problématique exige en effet des solutions par dépassement, et non par réduction d’un écart entre un résultat et un but. La problématique individuelle ne peut se résoudre que par constructions, augmentation de l’information selon un déterminisme divergent, et non par un calcul. Toutes les machines sont comme des machines à calculer. Leur axiomatique est fixe pendant toute la durée d’une opération, et l’accomplissement de l’opération ne réagit pas sur l’axiomatique. Au contraire, l’individu est un être dans lequel l’accomplissement de l’opération réagit sur l’axiomatique, par crises intenses qui sont une refonte de l’être. La continuité du fonctionnement de la machine s’oppose à la continuité entrecoupée de discontinuités qui caractérise la vie de l’individu.

SIMO2013.30 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 347 : Pour cette raison, la réflexion doit refuser l’identification entre l’automate et l’individu. L’automate peut être l’équivalent fonctionnel de la vie, car la vie comporte des fonctions d’automatisme, d’autorégulation, d’homéostasie, mais l’automate n’est jamais l’équivalent fonctionnel de l’individu. L’automate est communautaire, et non individualisé comme un être vivant capable de se mettre en question lui-même. Une communauté pure se conduirait comme un automate ; elle élabore un code de valeurs destinées à empêcher les changements de structure, et à éviter la position des problèmes. Les sociétés au contraire, qui sont des groupements synergiques d’individus, ont pour sens de chercher à résoudre des problèmes. Elles mettent en question leur propre existence, tandis que les communautés cherchent à persévérer dans leur être. Norbert Wiener a analysé la manière dont les pouvoirs de rigidité d’une communauté assurent son homéostasie. La communauté tend à automatiser les individus qui la composent, en leur donnant une signification fonctionnelle pure. Dès lors, la capacité que l’individu possède de se mettre en question est dangereuse pour la stabilité de la communauté ; rien ne garantit en effet le synchronisme des transformations individuelles, et la relation interindividuelle peut être rompue par une initiative individuelle pure. Aussi, comme un coefficient formel supérieur qui conditionne la valeur fonctionnelle d’un individu dans la communauté, la stabilité affective devient le critère fondamental qui permet la permanente intégration de l’individu au groupe ; cette garantie de continuité est aussi une garantie d’automatisme social. Cette stabilité est le corrélatif de la capacité d’adaptation à une communauté. Or, ces qualités d’adaptation directe par assimilation et de stabilité structurale définissent l’automate parfait. Toute civilisation a besoin d’un certain taux d’automatisme pour garantir sa stabilité et sa cohésion. Elle a besoin aussi du dynamisme des sociétés, seules capables d’une adaptation constructive et créatrice, pour ne pas se fermer sur elle-même dans une adaptation stéréotypée, hypertélique, et inévolutive. Or, l’être humain est un assez dangereux automate, qui risque toujours d’inventer et de se donner des structures neuves. La machine est un automate supérieur à l’individu humain en tant qu’automate, parce qu’elle est plus précise dans ses mécanismes téléologiques, et plus stable dans ses caractéristiques.

SIMO2013.31 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 347-348 : On peut alors se demander quelles valeurs sont engagées dans la relation de l’individu à l’être technique. Nous voudrions montrer que toute tentative pour constituer une relation symétrique entre l’homme et l’être technique est destructrice aussi bien des valeurs de l’individu que de celles de l’être technique. On peut en effet essayer d’identifier la machine à l’individu ou l’individu à la machine, de manière également destructive. Dans le premier cas, la machine devient une propriété de l’homme, qui se glorifie de sa créature et ne la produit que pour l’asservir à des besoins ou à des usages de chaque individu, satisfait par ses serviteurs mécaniques jusque dans ses fantaisies les plus singulières : le goût du machinisme dans la vie quotidienne correspond parfois à un désir déréglé de commander en dominant. L’homme se conduit envers les machines comme un maître envers des esclaves, aimant parfois à savourer dans sa démesure le spectacle de leur destruction dramatique et violente. Ce singulier despotisme de civilisé manifeste une identification possible de l’homme à des êtres mécaniques. Les jeux du cirque se retrouvent dans les compétitions de machines, et les combats de gladiateurs dans les affrontements de “stock-cars”. Le cinéma aime à montrer de terribles destructions d’êtres mécaniques. La vision des machines peut prendre une tournure épique ; l’homme y retrouve une certaine primitivité. Mais précisément, cette attitude de supériorité de l ’homme envers la machine correspond surtout aux loisirs, à la détente de l’homme que n’étreint plus la communauté, et qui trouve une compensation dans le despotisme facile sur les sujets mécaniques asservis. L’attitude inverse et complémentaire est celle de l’homme dans sa fonction communautaire : là, il sert la machine, et il s’intègre à cette machine plus vaste qu’est la communauté en servant sa machine particulière selon les valeurs fondamentales du code de l’automatisme (par exemple la rapidité des réponses aux signaux). Parfois, la machine porte elle-même les enregistreurs qui permettront à la communauté de juger la conduite de l’homme au travail (boîte noire). La relation de l’être individuel à la communauté passe par la machine, dans une civilisation fortement industrialisée. Ici, la machine s’assimile l’homme, en définissant les normes communautaires. De plus, une normalité supplémentaire est issue de la machine lorsque cette dernière est utilisée pour le classement des individus d’après leurs performances ou leurs aptitudes ; sans doute, ce n’est jamais la machine qui juge, car elle est pur automate et n’est utilisée que pour calculer. Mais, pour pouvoir utiliser la machine, il faut que les hommes, dans leur rapport à la machine, s’expriment selon des systèmes d’information qui sont aisément traduisibles, avec le codage de la machine, en un ensemble de signaux qui ont un sens pour la machine (c’est-à-dire qui correspondent à un fonctionnement déterminé). Cette nécessité pour l’action humaine d’être traduisible en langage d’automatisme aboutit à une valorisation de la stéréotypie des conduites. Enfin, la quantité d’information elle-même, dans une relation d’individu à individu, devient un obstacle à la transmission de cette information par une voie qui utilise l’automatisme. Par exemple, une civilisation qui adapte ses moyens de communication à une transmission automatique des messages est conduite à remplacer l’expression directe et particulière des sentiments dans les circonstances communautaires déjà soumises à des usages par des formules plus parfaitement stéréotypées, inscrites en petit nombre sur un bordereau au bureau de départ, et imprimées sur des formules toutes faites au bureau d’arrivée ; il suffit alors de transmettre l’adresse du destinataire, le numéro de la formule, et le nom de l’envoyeur. Ici, l’individu atypique est paralysé dans son choix, car aucune formule prévue ne répond très exactement à ce qu’il aurait voulu exprimer. L’atypique, qui cause à la communauté une trop grande dépense d’information est un être déficitaire à partir du moment où l’information est transmise indirectement de l’individu à l’individu par l’intermédiaire d’un dispositif utilisant l’automatisme ; une voix très grave, très aiguë, ou riche en harmoniques est plus déformée par la transmission téléphonique ou l’enregistrement qu’une voix dont les fréquences moyennes se situent dans les bandes téléphoniques et qui ne pose à l’appareillage aucun difficile problème relatif à la transmodulation. La normalité devient une norme, et le caractère moyen une supériorité, dans une communauté où les valeurs ont un sens statistique.

SIMO2013.32 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 348-349 : Or, ces deux attitudes inverses de stéréotypie et de fantaisie, de despotisme privé et d’asservissement communautaire par rapport à l’objet technique viennent de ce que la relation entre l’homme et la machine n’est pas réellement dissymétrique. Elle est une double assimilation, non une relation analogique constructive. Considérons au contraire la relation noble entre l ’homme et la machine : elle vise à ne dégrader ni l’un ni l’autre des deux termes. Son essence réside dans le fait que cette relation a valeur d’être : elle a une fonction doublement génétique, envers l ’homme et envers la machine, alors que dans les deux cas précédents, la machine et l ’homme étaient déjà entièrement constitués et définis au moment où ils se rencontraient. Dans la véritable relation complémentaire, il faut que l ’homme soit un être inachevé que la machine complète, et la machine un être qui trouve en l ’homme son unité, sa finalité, et sa liaison à l’ensemble du monde technique ; homme et machine sont mutuellement médiateurs, parce que la machine possède dans ses caractères l’intégration à la spatialité et la capacité de sauvegarder de l’information à travers le temps, tandis que l’homme, par ses facultés de connaissance et son pouvoir d’action, sait intégrer la machine à un univers de symboles qui n’est pas spatio-temporel, et dans lequel la machine ne pourrait jamais être intégrée par elle-même. Entre ces deux êtres asymétriques s’établit une relation grâce à laquelle une double participation est réalisée ; il y a chiasme entre deux univers qui resteraient séparés ; on pourrait faire remarquer que la machine est issue de l’effort humain, et qu’elle fait partie, par conséquent, du monde humain ; mais en fait, elle incorpore une nature, elle est faite de matière et se trouve directement insérée dans le déterminisme spatio-temporel ; même issue du travail humain, elle conserve par rapport à son constructeur une relative indépendance ; elle peut passer en d’autres mains, elle peut devenir le chaînon d’une série que son inventeur ou son constructeur n’avait pas prévue. Par ailleurs, une machine ne prend son sens que dans un ensemble d’êtres techniques coordonnés, et cette coordination ne peut être pensée que par l’homme, et construite par lui, car elle n’est pas donnée dans la nature.

SIMO2013.33 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 349 : L’homme confère à la machine l’intégration au monde construit, dans lequel elle trouve sa définition fonctionnelle par sa relation aux autres machines ; mais c’est la machine, et chaque machine, en particulier, qui confère à ce monde construit sa stabilité et sa réalité ; elle amène du monde naturel la condition de matérialité, de spatio-temporalité, sans laquelle ce monde n’aurait aucune épaisseur ni consistance. Pour que cette relation puisse exister entre l’homme et la machine, il faut une double condition dans l’homme et dans la machine. Dans l ’homme, il faut une culture technique, faite de la connaissance intuitive et discursive, inductive et déductive, des dispositifs constituant la machine, impliquant la conscience des schèmes et des qualités techniques qui sont matérialisés dans la machine. L’homme doit connaître la machine selon une connaissance adéquate, dans ses principes, ses détails, et son histoire ; alors, elle ne sera plus pour lui un simple instrument ou un domestique qui ne proteste jamais. Toute machine cristallise un certain nombre d’efforts, d’intentions, de schèmes, et investit tel ou tel aspect de la nature des éléments chimiques. Ses caractères sont des mixtes de schèmes techniques et de propriétés des éléments des constituants de la matière, et des lois de transformation de l’énergie. La véritable culture technique exige un savoir scientifique ; elle conduit à ne mépriser aucun être technique même ancien ; sous des caractères extérieurs démodés ou vétustes, elle retrouve le sens d’une loi scientifique et la propriété d’un élément matériel ; l’être technique saisi dans sa réalité définit une certaine médiation entre l ’homme et le monde naturel ; c’est cette médiation que la culture technique permet de saisir dans son authentique réalité.

SIMO2013.34 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 349-350 : Il peut se développer un goût technique, comparable au goût esthétique et à la délicatesse morale. Bien des hommes se conduisent de manière primitive et grossière dans leur relation aux machines, par manque de culture. La stabilité d’une civilisation qui comporte un nombre de plus en plus grand d’êtres techniques ne pourra être atteinte tant que la relation entre l ’homme et la machine ne sera pas équilibrée et empreinte de sagesse, selon une mesure intérieure que seule une technologie culturelle pourra donner. La frénésie de possession et la démesure d’utilisation des machines est comparable à un véritable dérèglement des mœurs. Les machines sont traitées comme des biens de consommation par une humanité ignorante et grossière, qui se jette avec avidité sur tout ce qui présente un caractère de nouveauté extérieure et factice, pour le répudier aussitôt que l’usage a épuisé les qualités de nouveauté. L’homme cultivé doit avoir un certain respect pour l’être technique, précisément parce qu’il connaît sa véritable structure et son fonctionnement réel. À la délicatesse culturelle de l ’homme doivent correspondre la vérité et l’authenticité de la machine. Or, tant que le goût humain est corrompu, la civilisation industrielle ne peut produire des machines véritablement authentiques, parce que cette production est assujettie aux conditions commerciales de la vente ; elle doit se plier alors aux conditions de l’opinion et du goût collectif. Or, si nous considérons les machines que notre civilisation livre à l’usage de l’individu, nous verrons que leurs caractères techniques sont oblitérés et dissimulés par une impénétrable rhétorique, recouverts d’une mythologie et d’une magie collective que l’on arrive avec peine à élucider ou à démystifier. Les machines modernes utilisées dans la vie quotidienne sont pour une large part des instruments de flatterie. Il existe une sophistique de la présentation qui cherche à donner une tournure magique à l’être technique, pour endormir les puissances actives de l’individu et l’amener à un état hypnotique dans lequel il goûte le plaisir de commander à une foule d’esclaves mécaniques, souvent assez peu diligents et peu fidèles, mais toujours flatteurs. Une analyse du caractère “luxueux” des objets techniques montrerait quelle duperie ils recèlent : sur un grand nombre d’appareils, le fétichisme du tableau de commande dissimule la pauvreté des dispositifs techniques, et sous un impressionnant carénage se cachent de singulières négligences de la fabrication. Sacrifiant à un goût dépravé, la construction technique est un art de façade et de prestidigitation. L’état d’hypnose s’étend depuis l’achat jusqu’à l’utilisation ; dans la propagande commerciale elle-même, l’être technique est déjà revêtu d’une certaine signification communautaire : acheter un objet, c’est acquérir un titre à faire partie de telle ou telle communauté ; c’est aspirer à un genre d’existence qui se caractérise par la possession de cet objet : l’objet est convoité comme un signe de reconnaissance communautaire, un σύμβολον (symbole), au sens grec du terme. Puis, l’état d’hypnose se prolonge dans l’utilisation et l’objet n’est jamais connu dans sa réalité, mais seulement pour ce qu’il représente.

SIMO2013.35 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 350-351 : La communauté offre ainsi, à côté des dures contraintes qu’elle impose à l’individu, une compensation qui l’empêche de se révolter et d’avoir une conscience aiguë de ses problèmes : l’état d’inquiétude, toujours latent, est toujours différé par l’hypnose technique, et la vie de l’individu s’écoule dans un balancement entre les contraintes de la rigidité sociale et les états gratifiques que la communauté procure par l’incantation technique. Cet état est stable, parce que la commercialisation de l’industrie trouve une voie plus facile dans l’action sur l’opinion collective que dans la véritable recherche et les perfectionnements techniques réels, qui n’auraient aucune valeur commerciale tant qu’ils resteraient incompris du grand nombre, qui n’est informé que par les voies commerciales. Pour rompre ce cercle vicieux, il ne suffit pas de dire que l ’homme doit commander à la machine au lieu de se laisser asservir par elle ; il faut comprendre que si la machine asservit l’homme, c’est dans la mesure où l’homme dégrade la machine en faisant d’elle une esclave. Si, au lieu de rechercher dans la machine des états d’hypnose, ou une source facile de merveilleux pour l’ignorant, l’homme associe la machine aux états dans lesquels il est véritablement actif et créateur, comme c’est le cas dans la recherche scientifique, l’aspect communautaire de la machine peut disparaître. Si nous considérons les machines qui sont utilisées dans la recherche scientifique, nous verrons que, même quand elles utilisent un automatisme très complexe, elles n’asservissent pas l’homme et ne sont pas non plus asservies par lui ; elles ne sont pas objet de consommation, et ne sont pas non plus des êtres destinés à produire un travail prédéterminé dans ses résultats, attendu et exigé par la communauté qui fait peser son obligation sur l’individu. Dans ces conditions, la machine est intégrée à la chaîne causale de l’effort humain ; la fin de cet effort dépasse la machine que l’on actionne. La machine réalise alors la médiation par rapport à l’objet de la recherche et non par rapport à la communauté. Elle s’efface du champ de perception de l’individu ; il n’actionne pas la machine ; il agit sur l’objet et observe l’objet à travers la machine. Grâce à la machine s’institue un cycle qui va de l’objet au sujet et du sujet à l’objet : la machine prolonge et adapte l’un à l’autre sujet et objet, à travers un enchaînement complexe de causalités. Elle est outil en tant qu’elle permet au sujet d’agir sur l’objet, et instrument en tant qu’elle apporte au sujet des signaux venus de l’objet ; elle véhicule, amplifie, transforme, traduit et conduit dans un sens une action et en sens inverse une information ; elle est outil et moteur à la fois. Le caractère réciproque de cette double relation fait que l’homme ne s’aliène pas en présence de cette machine ; il reste homme et elle reste machine. La position de l’homme et la position de la machine ne sont pas symétriques par rapport à l’objet ; la machine a une liaison immédiate à l’objet, et l’homme, une relation médiate. Ce sont l’objet et l’homme qui sont symétriques par rapport à la machine. L’homme crée la machine pour qu’elle institue et développe la relation. C’est pour cette raison que la relation à la machine n’est valable que si elle traverse la machine pour aller non pas à de l’humain sous forme communautaire, mais à un objet. La relation de l’homme à la machine est asymétrique parce que cette machine institue une relation symétrique entre l ’homme et le monde.

SIMO2013.36 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 351-352 : Une attitude qui consisterait à considérer que la machine peut être véritablement connue et saisie comme geste humain cristallisé laisserait échapper le caractère propre de la machine ; elle la confondrait avec l’ouvrage d’art. L’identification de la machine à l’homme ou de l’homme à la machine ne peut se produire que si la relation s’épuise dans la liaison de l’homme à la machine. Mais si la relation est réellement à trois termes, le terme médiateur reste distinct des termes extrêmes. C’est l’absence du terme objet qui crée la possibilité de domination de l’homme sur la machine ou de la machine sur l’homme. Si l’essence véritable de la machine est d’instituer cette communication, c’est en termes d’information qu’il faut définir une machine afin de pouvoir l’analyser, et non selon son utilisation pratique ; en effet, des types de machines identiques peuvent être employés dans des industries et pour des fins pratiques extrêmement différentes ; toute technologie qui partirait d’un principe de classification issu des métiers ou industries aboutirait à un échec certain dans la tentative visant à constituer une véritable culture technologique. La machine ne se laisse pas connaître par son incorporation à une communauté professionnelle. L’être technique ne peut être défini qu’en termes d’information et de transformation des différentes espèces d’énergie ou d’information, c’est-à-dire d’une part comme véhicule d’une action qui va de l’homme à l’univers, et d’autre part comme véhicule d’une information qui va de l’univers à l’homme. La technologie culturelle devient un mixte d’énergétique et de théorie de l’information. La Cybernétique, théorie inspirée dans une assez large mesure par des considérations tirées du fonctionnement des machines, serait une des bases de la technologie si elle n’avait pas privilégié dès le début un mixte d’action et d’information qui est le “feed-back”, ou action en retour (causalité récurrente) ; une machine, en effet, peut exister sans comporter aucune relation entre la chaîne de causalité véhiculant l’action et la chaîne de causalité véhiculant l’information ; quand elle comporte une telle liaison, elle contient un automatisme ; mais il existe des machines qui ne sont pas des automates, ou qui tout au moins ne comportent des automatismes que pour des fonctions secondaires ou temporaires et occasionnelles (par exemple celles qui assurent la sécurité, la servo-commande, ou la télécommande).

SIMO2013.37 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 352 : La notion de réaction, qui est déjà une notion synthétique, est extrêmement utile, mais n’est pas une notion première ; elle ne prend tout son sens que dans une théorie plus générale des transformations, que l’on peut nommer allagmatique générale. La machine est un être allagmatique. Or, une théorie pragmatiste, préoccupée d’action, ne voit dans la machine que le rôle de moteur commandé par l’homme et agissant sur le monde ; la récurrence d’information par laquelle la machine amène des messages du monde à l’individu est considérée comme naturellement et fonctionnellement subordonnée au rôle moteur. Or, le “feed-back” ne rend pas compte du rôle informateur de toute machine, en ce sens que l’information peut être antérieure à l’action de l’individu. Il n’y a pas une nécessaire antériorité de cette action sur l’information ; la cybernétique, en considérant l’information comme le signal de l’écart entre le résultat de l’action et le but de l’action, dans le “feed-back”, risque d’amener à sous-estimer le rôle de l’information directe, qui n’est pas insérée dans la récurrence du “feed-back”, et qui ne nécessite pas une initiative active de l’individu pour se former. Cette information directe, à l’inverse de l’information récurrente, ne comporte pas une référence à l’action du sujet, et par conséquent n’est pas valorisée en tant que marque d’un succès ou d’un échec. Quand l’information du “feed-back” arrive, elle s’insère comme une forme dans ce fond d’information non récurrente, si bien que l’individu se trouve en présence de deux informations : une information large et permanente, qui l’insère dans le monde comme milieu ; et une information étroite et temporaire, instantanée même, qui est éminemment liée à l’action, variable comme elle, et toujours renouvelée comme l’action. Cette information, qui est de type récurrent, ne comporte pas une aussi grande richesse que la précédente, mais se définit au contraire par quelques signaux concrets mais très simples (couleur, forme, attitude), qui, en raison de leur faible richesse en information, peuvent être aisément remplacés ou rapidement modifiés sans nécessiter une grande dépense d’énergie nerveuse dans l’opérateur, ou une transmission très complexe dans la machine.

SIMO2013.38 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 352-354 : La différence entre ces deux types d’information devient extrêmement sensible dès qu’on est obligé de les traduire l’une et l’autre en une forme unique qui permet de les comparer ; la différence entre les deux rôles se manifeste alors comme une différence considérable entre les quantités d’information. Ainsi, les indications qu’un pilote d’avion reçoit de l’altimètre ne valent que comme “feed-back” permettant au pilote de régler son action de descente ou de montée selon les indications de l’aiguille sur le cadran ; elles s’insèrent comme forme dans un fond qui est la vision globale et synthétique de la région parcourue, et même de l’état de l’atmosphère ou du plafond de nuages ; ce “feed-back” doit être d’autant plus précis que les conséquences pratiques du geste moteur du pilote sont plus importantes ; par exemple, l’altimètre simple des hautes altitudes ne peut servir à apprécier la distance de l’avion par rapport à la piste au moment de l’atterrissage ; on emploie alors un dispositif émettant des ondes électromagnétiques qui se réfléchissent au sol et reviennent avec un certain retard, apprécié grâce à une variation de la fréquence d’émission avec laquelle peut battre la fréquence de l’onde réfléchie : le signal est constitué par ce battement. Dans ce premier cas, quel que soit le système technique employé, le principe est toujours le même : saisir une grandeur variable selon les résultats de l’action de l’individu et ramener au sujet le signal indiquant le résultat de cette action par rapport à un terme de référence fixe et faisant partie du but. Le signal peut alors être présenté au sujet selon une échelle intensive ou extensive simple, correspondant à un axe orienté sur lequel un point ou une ligne figure le but, et un autre point ou une autre ligne le résultat de l’action. Cette information peut être représentée par le déplacement d’un index devant une graduation. Tout au contraire, s’il s’agit de transmettre l’information relative au fond et non à la forme, aucun procédé d’information susceptible de s’inscrire sur une échelle linéaire bipolaire ne peut réussir : la simultanéité d’une multiplicité est nécessaire, et l’individu est le centre qui intègre cette multiplicité. Tous les procédés se heurtent à la nécessité de décomposer la totalité en éléments simples transmis isolément, que cet isolement de la singularité soit réalisé par une multitude de transmissions simultanées et indépendantes (comme dans les premiers dispositifs de télévision) ou par la distribution dans un cycle assurant un synchronisme au départ et à l’arrivée, (chaque élément ayant eu son instant dans le cycle), l’information étant supposée invariable pendant un cycle. Comme dans ce cas ce n’est pas la machine qui joue le rôle d’intégrateur, mais le sujet, la nécessité d’amener au sujet des fonds et non des formes se traduit par une énorme quantité d’information à transporter. C’est cette énorme quantité d’information à collecter et à transmettre sans l’intégrer qui limite la finesse de la détection électromagnétique par le RADAR, qui pose des problèmes graves à la transmission d’images mouvantes en télévision en l’obligeant à adopter des vidéofréquences très élevées et d’autant plus grandes que la définition de l’image est plus haute. La quantité d’information nécessaire à la transmission ne peut être diminuée que grâce à un codage du monde à percevoir, codage connu du sujet, ce qui correspond à un recours à une perception de formes sur un fond qui est déjà connu, et qui n’a plus besoin d’être transmis. Ainsi, il est possible de remplacer l’observation du terrain et des contrées parcourues en avion par une carte sur laquelle le pilote fait le point au moyen des relations de phase entre les signaux venus de trois stations d’émission électromagnétique disposées en triangle, comme dans le système de pilotage Decca, Shoran ou actuellement par les radio-balises. Ici, le pilote emporte un analogue de la contrée survolée (la carte), et grâce à une formalisation du monde, connue et adoptée par convention (la construction des trois émetteurs et du dispositif de synchronisation qui les relie), le pilote réalise sur la carte une intégration beaucoup plus aisée, parce qu’il opère sur des éléments déjà abstraits ; il ya ici deux intégrations concentriques : une première intégration fondamentale de la carte du monde, grâce à laquelle la carte peut avoir une signification, et une deuxième intégration des signaux reçus à la carte emportée, qui est plus facile parce que l’information est déjà sélectionnée par le passage du monde concret à la carte et des signaux visuels multiples aux trois ondes hertziennes en rapport de phase. Le travail se fait ici sur une image (la carte) et des symboles (les signaux provenant des émetteurs synchronisés). Ceci est valable grâce à une double localisation, l’une par laquelle la carte est reconnue comme image de telle région, par le pilote, et l’autre par laquelle les pylônes des trois émetteurs synchronisés ont été construits en fait à tel endroit du territoire géographique et non à tel autre. Les sources des symboles sont localisées dans l’image, ce qui établit une cohérence sans laquelle le pilotage ne serait pas possible.

SIMO2013.39 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 354 : La présence du monde n’est donc jamais éliminée par l’utilisation de la machine ; mais la relation au monde peut être fractionnée, et passer par l’intermédiaire de plusieurs étages de symbolisation, à laquelle correspond une construction technique qui répartit au long du monde des repères valables selon une perception par l’intermédiaire de la machine ; cette perception n’est pas beaucoup plus automatique que la perception directe par les organes sensoriels ; mais elle correspond à une intégration par paliers, et spécialisée dans une certaine mesure selon chaque type d’activité. Mais le concret, même fractionné, reste le concret ; le rapport du fond et de la forme est inaliénable. La pure artificialité conduirait à la confusion du fond et de la forme, si bien que l’individu se trouverait devant un monde simplifié où il n’y aurait plus d’univers ni d’objet. La perception de l’individu intégré totalement dans la communauté est en quelque mesure une semblable perception abstraite ; au lieu de dégager l’objet du monde, elle découpe le monde selon des catégories qui correspondent aux classifications de la communauté, et établit entre les êtres des liens de participation affective selon ces catégories communautaires. Seule une profonde éducation technologique au niveau de l’individu peut dégager du confusionnisme de la perception communautaire stéréotypée. Une image n’est pas un stéréotype.

SIMO2013.40 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 354-355 : Les valeurs impliquées dans la relation de l’individu à la machine ont donné lieu à beaucoup de confusions parce que le récent développement des machines et de leur utilisation par les communautés a modifié le rapport de l’individu à la communauté : cette relation, qui était jadis directe, passe maintenant par la machine, et le machinisme est lié dans une certaine mesure au communautarisme ; la notion de travail n’est plus directement une valeur communautaire, parce que le passage de l’effort humain à travers une organisation mécanique affecte le travail d’un coefficient relatif à ce travail : le rendement ; une morale du rendement est en train de se constituer, qui sera une morale communautaire d’une nouvelle espèce. L’effort individuel n’est pas intrinsèquement valable : il faut en plus qu’il soit rendu efficace par une certaine grâce extrinsèque, qui se concrétise dans la formule du rendement. Cette notion a un certain pouvoir invasif, et se déploie largement au delà des opérations commerciales ou même industrielles ; elle affecte tout système éducatif, tout effort et tout travail. Une certaine résurgence communautaire du pragmatisme confère à l’éthique un nouveau type d’hétéronomie dissimulée sous les espèces d’un désir de rationalité ou de préoccupations concrètes. Quand un idée ou un acte sont rejetés parce qu’ils sont jugés inefficaces et de faible rendement, c’est en réalité parce qu’ils représentent une initiative individuelle créatrice, et que la communauté s’insurge avec un permanent instinct misonéiste contre tout ce qui est singulier. Le misonéisme vise le nouveau, mais surtout dans ce qu’il présente de singulier, donc d’individuel. Le nouveau, collectif, a droit de cité sous la forme de la mode ; il se trouve même éminemment valorisé par la communauté. C’est le nouveau individuel qui est poursuivi et expulsé comme privé de rendement. Le critère de rendement est empreint de subjectivité collective et manifeste la grâce que la communauté accorde ou refuse à la création individuelle. Ce n’est pas parce qu’une civilisation aime l’argent qu’elle s’attache au rendement, mais parce qu’elle est d’abord civilisation du rendement qu’elle devient civilisation de l’argent lorsque certaines circonstances font de ce mode d’échange le critère concret du rendement. Or, malgré les apparences, une civilisation du rendement, en dépit des apparentes libertés civiques qu’elle laisse aux individus, est extrêmement contraignante pour eux et empêche leur développement, parce qu’elle asservit simultanément 1 ’homme et la machine ; elle réalise à travers la machine une intégration communautaire contraignante. Ce n’est pas contre la machine que l’homme, sous l’empire d’une préoccupation humaniste, doit se révolter ; l’homme n’est asservi à la machine que quand la machine elle-même est déjà asservie par la communauté. Et comme il existe une cohésion interne du monde des objets techniques, l ’humanisme doit viser à libérer ce monde des objets techniques qui sont appelés à devenir médiateurs de la relation de l’homme au monde. L’humanisme n’a guère pu incorporer jusqu’à ce jour la relation de l’humanité au monde ; cette volonté qui le définit, de ramener à l’être humain tout ce que les diverses voies d’aliénation lui ont arraché en le décentrant, restera impuissante tant qu’elle n’aura pas compris que la relation de l’homme au monde et de l’individu à la communauté passe par la machine. L’humanisme ancien est resté abstrait parce qu’il ne définissait la possession de soi que pour le citoyen, et non pour l’esclave ; l’humanisme moderne reste une doctrine abstraite quand elle croit sauver l’homme de toute aliénation en luttant contre la machine “qui déshumanise”. Elle lutte contre la communauté en croyant lutter contre la machine, mais elle ne peut arriver à aucun résultat valable parce qu’elle accuse la machine de ce dont elle n’est pas responsable. Se déployant en pleine mythologie, cette doctrine se prive de l’auxiliaire le plus fort et le plus stable, qui donnerait à l ’humanisme une dimension, une signification et une ouverture qu’aucune critique négative ne lui offrira jamais. Selon la voie de recherche qui est présentée ici, il devient possible de rechercher un sens des valeurs autrement que dans l’intériorité limitée de l’être individuel replié sur lui-même et niant les désirs, tendances ou instincts qui l’invitent à s’exprimer ou à agir hors de ses limites, sans se condamner pour cela à anéantir l’individu devant la communauté, comme le fait la discipline sociologique. Entre la communauté et l’individu isolé sur lui-même, il y a la machine, et cette machine est ouverte sur le monde. Elle va au delà de la réalité communautaire pour instituer la relation avec la Nature.

SIMO2013.41 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 458 : Pour Descartes, on connaît la réalité d’une chose quand on sait comment elle peut être construite. La réalité objective de l’idée est de la réalité ; elle n’est pas une simple image sans consistance. Le réalisme est nécessaire pour que la démonstration de l’existence de Dieu dans la Troisième Méditation soit valable. Ici, Descartes emploie un mode de pensée qui non seulement se sépare entièrement de toute théorie non réaliste, mais qui élève au rang d’être véritable ce que nous nommerions aujourd’hui l’information, et qui chez Descartes se nomme la réalité objective d’une idée. Cette information est implicitement quantifiée par Descartes, et non pas seulement qualifiée, puisque la raison pour laquelle l’idée d’infini et de parfait ne peut être reconnue comme factice ou adventice est qu’elle possède une réalité objective supérieure à celle d’aucune autre de nos pensées ; elle ne peut donc avoir été fabriquée par l’esprit qui aurait augmenté et réuni arbitrairement, en un être fictif, les perfections dont il a l’idée d’après l’expérience des sens. L’individu humain, qui est imparfait, n’a pas assez de réalité formelle pour être l’auteur de l’idée d’infini et de parfait, dont la réalité objective est si grande qu’elle exige comme auteur un être lui-même infini et parfait, c’est-à-dire possédant une réalité formelle infinie et parfaite. La réalité objective d’une idée est une réalité qui peut être un des termes de la relation de causalité dont l’autre terme est une réalité formelle ; il n’est donc pas nécessaire de prouver l’existence avant l’essence, car il y a un lien de réalité entre essence et existence. Tel est sans doute l’aspect le plus profond de la pensée de Descartes, et aussi l’aspect le plus nouveau ; en faisant de l’information une réalité, Descartes donne à l’individu le rôle d’un ouvrier d’information ; cet ouvrier a des forces limitées, et il reconnaît un être antérieur et supérieur à lui quand il découvre une œuvre d’information qu’il ne peut avoir faite lui-même.

SIMO2013.42 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 473 : La méthode intellectuelle de Leibniz consiste à partir d’un rapport générateur d’une infinité de termes. L’infiniment petit mathématique en est un exemple ; l’infiniment petit est en effet homogène à la grandeur finie ; l’infiniment petit de la ligne est une ligne infinitésimale ; dès lors, le rapport entre deux droites est indépendant de la dimension absolue des droites, et peut rester le même quand ces droites deviennent infiniment petites. Or, la direction d’une courbe en un de ses points dépend uniquement de la détermination de ce rapport quand ces lignes sont infiniment petites ; ce rapport permet donc l’analyse de l’infini puisque l’on peut trouver grâce à lui la direction de la courbe au point que l’on voudra. D’où l’importance capitale, en toute question, de la découverte d’un algorithme qui joue le rôle de l’algorithme infinitésimal dans le calcul de l’infini. La notion de substance individuelle n’est que la série de ses changements ; il existe de même une loi de la liaison des substances individuelles entre elles. Les problèmes relatifs à l’individualité relèvent d’une intelligibilité de l’infini, apportant une notion dont la fécondité est inépuisable.

SIMO2013.43 Cf. Simondon, L’individuation à la lumière des notions de forme et d’information, op. cit., p. 548-551 : Autrement dit, la Psychologie de la Forme a une valeur exemplaire, parce qu’elle a cherché à réunir la forme aristotélicienne et la forme platonicienne pour interpréter les processus d’interaction, mais elle a un défaut fondamental, car elle présente des processus de dégradation comme des processus de genèse de bonne forme. Serait-il possible, dès lors, de faire appel à une théorie de l’information pour enrichir et pour corriger la notion de forme telle qu’elle nous est présentée par la théorie de la forme ? Serait-il possible de faire appel à la théorie de Shannon, de Fischer, de Hartley, de Norbert Wiener ? Ce qu’il y a de commun à tous les auteurs qui ont fondé la théorie de l’information, c’est que pour eux l’information correspond à l’inverse d’une probabilité ; l’information échangée entre deux systèmes, entre un émetteur et un récepteur, est nulle lorsque l’état de l’objet sur lequel on doit être informé est totalement prévisible, absolument déterminé d’avance. Il y a information nulle, et il n’est pas nécessaire de faire passer un message lorsqu’on est certain de l’état de l’objet : autant vaut ne pas envoyer de message du tout. Si on envoie un message, si on en recherche un, c’est parce que l’état de l’objet n’est pas connu. La théorie de l’Information est le point de départ d’un ensemble de recherches qui ont fondé la notion d’entropie négative (ou négentropie), montrant que l’information correspond à l’inverse des processus de dégradation et que, à l’intérieur du schéma tout entier, l’information n’est pas définissable à partir d’un terme seul, tel que la source, ou tel que le récepteur, mais à partir de la relation entre source et récepteur. La question posée, à laquelle répond fonctionnellement une information, c’est : quel est l’état de la source ? On pourrait dire que le récepteur se pose la question : “Quel est l’état de la source ?” et l’information est ce qui apporte au récepteur la réponse. C’est pourquoi il est possible de présenter la quantité d’information comme – log P, P étant la probabilité de l’état de la source. Pour des raisons secondaires, mais importantes, on a pris les logarithmes à base 2 pour définir l’information en Hartleys ou en bits. Malgré cela, nous ne savons pas si la théorie de l’Information pourrait s’appliquer directement à notre propos, c’est-à-dire pourrait nous permettre de saisir en quoi une forme est une bonne forme ou une forme meilleure qu’une autre. En effet, dans la théorie de l’Information, on considère en fait – très légitimement dans le domaine technologique où cette théorie a un rôle fonctionnel à jouer – comme fondamentale la relation entre un émetteur et un récepteur qui ont besoin d’une corrélation, si bien que l’information est ce par quoi un certain système, le récepteur, peut se guider sur un autre système, l’émetteur ; on pourrait dire que le but du passage d’information, c’est de resserrer la corrélation entre l’émetteur et le récepteur, de rapprocher le fonctionnement du récepteur de celui de l’émetteur ; tel est le cas, par exemple, de la synchronisation ; des signaux de synchronisation sont émis pour permettre au récepteur de se synchroniser sur l’émetteur. Un tel schéma convient à une théorie de l’apprentissage, comme celle qui a été développée par Ombredane et Faverge dans l’ouvrage consacré à l’étude du travail. La théorie de l’information est faite pour cela, pour permettre la corrélation entre émetteur et récepteur dans les cas où il faut que cette corrélation existe ; mais, si on voulait la transposer directement dans le domaine psychologique et sociologique, elle contiendrait un paradoxe : plus la corrélation entre l’émetteur et le récepteur est étroite, moins est grande la quantité d’information. Ainsi, par exemple, dans un apprentissage totalement réalisé, l’opérateur n’a besoin que d’une très faible quantité d’information venant de l’émetteur, c’est-à-dire de l’objet sur lequel il travaille, de la machine qu’il conduit. La meilleure forme serait donc celle qui exige la moindre quantité d’information. Il y a là quelque chose qui ne paraît pas possible. On ne peut pas accepter sans modification la théorie de l’information dans le domaine psycho-social parce que, dans ce domaine, il faudrait trouver quelque chose qui permette de qualifier la meilleure forme comme étant celle qui possède le plus haut degré d’information, et cela ne peut pas être fait à partir du schème négentropique, de la recherche probabilitaire. Autrement dit, il faudrait apporter un terme non probabilitaire à la théorie de l’information. Peut-être serait-il possible et c’est là le point de départ de la thèse personnelle que l’on voudrait présenter maintenant de parler d’une qualité d’information, ou d’une tension d’information. Dans une énergie comme l’énergie électrique, – on tient compte d’un facteur de quantité (Intensité multipliée par Temps), et d’un facteur qualitatif se rapportant à la différence de potentiel entre les bornes de la source. De même, il serait peut-être possible de caractériser la forme, afin d’expliquer les processus d’interaction, non seulement par sa quantité, mais par sa tension, et la bonne forme, ce serait celle qui correspond à une tension élevée. “Tension” paraît évidemment un terme assez singulier ; pourtant, s’il est permis de continuer à employer cette analogie entre les sciences de la nature et ce qui voudrait être l’amorce, le germe structural, d’une science humaine, ne serait-il pas possible de faire appel à une notion de cette espèce ? La quantité d’énergie qu’on peut emmagasiner dans un condensateur est d’autant plus élevée, pour une certaine surface des armatures, qu’elles sont plus rapprochées, tout en restant isolées, sinon on arrive à la décharge disruptive à travers le diélectrique. N’y aurait-il pas quelque chose d’analogue dans la bonne forme ? Ne serait-elle pas celle qui contient en elle un certain champ, c’est-à-dire à la fois un isolement entre deux termes, antithétiques, contradictoires, et pourtant une corrélation ? La bonne forme ne serait-elle pas celle qui contient un champ de forme élevé, c’est-à-dire une bonne distinction, un bon isolement entre les deux termes ou la pluralité de termes qui la constituent, et pourtant, entre eux, un champ intense, c’est-à-dire un pouvoir de produire des effets énergiques si on y introduit quelque chose ? Le fait qu’il y ait un champ électrostatique important entre deux armatures de condensateur se traduit par le fait que si on introduit dans ce champ un corps, il se charge intensément. N’y aurait-il pas quelque chose de semblable dans la bonne forme ? Elle pourrait être, comme l’a pressenti Platon, une dyade ou bien une pluralité de dyades coordonnées ensemble, c’est-à-dire déjà un réseau, un schème, quelque chose d’un et de multiple à la fois, qui contient une corrélation entre des termes différents, une corrélation riche entre des termes différents et distincts. Un et multiple, liaison significative de l’un et du multiple, ce serait la structure de la forme. Si cela était, on pourrait dire que la bonne forme est celle qui est près du paradoxe, près de la contradiction, tout en n’étant pas contradictoire en termes logiques ; et l’on définirait ainsi la tension de forme : fluxle fait de s’approcher du paradoxe sans devenir un paradoxe, de la contradiction sans devenir une contradiction. Ce ne peut être qu’une hypothèse, supposant une analogie entre sciences de la nature et sciences de l’homme. Ainsi, on parlerait d’une tension de forme et, dans la même mesure, d’une qualité d’information, qui serait concentration jusqu’à la limite disruptive, une réunion de contraires en unité, l’existence d’un champ intérieur à ce schème d’information, une certaine dimension réunissant des aspects ou des dynamismes habituellement non compatibles entre eux. Cette bonne forme ou forme riche en potentiel serait un complexe tendu, une pluralité systématisée, concentrée ; dans le langage, elle deviendrait un organisme sémantique. Il y aurait en elle compatibilité et réverbération interne d’un schème. Et peut-être aussi serait-il possible de mesurer le potentiel de forme, la tension de forme, comme on mesure une tension électrique, c’est-à-dire par la quantité d’obstacles qu’elle arrive à vaincre, la résistance extérieure à travers laquelle elle arrive à produire un effet. On peut dire qu’un générateur possède aux bornes une tension plus élevée que celle d’un autre générateur s’il peut arriver à faire passer un même courant à travers une chaîne de résistances plus grande, à travers des résistances dont la somme est plus élevée. Ce serait cette propriété qui caractériserait la prégnance de la forme. La prégnance de la forme, ce ne serait pas sa stabilité au sens de la thermodynamique des états stables et des séries convergentes de transformations, mais sa capacité de traverser, d’animer et de structurer un domaine varié, des domaines de plus en plus variés et hétérogènes. La différence entre cette hypothèse et celle de la théorie de l’information provient du fait qu’une théorie de la tension d’information suppose ouverte la série possible des récepteurs : la tension d’information est proportionnelle à la capacité qu’a un schème d’être reçu comme information par des récepteurs non définis d’avance. Ainsi, tandis qu’une théorie probabilitaire peut s’appliquer à la mesure de la quantité d’information dans la prévision d’un échange entre émetteur et récepteur, une mesure de la tension d’information ne pourrait guère être faite que par expérience, actuellement au moins. Par exemple, on peut dire que le schème hylémorphique, ou la notion d’archétype, possèdent une haute tension d’information parce qu’ils ont suscité des structures de significations à travers vingt-quatre siècles de cultures très variées. La tension d’information serait la propriété que possède un schème de structurer un domaine, de se propager à travers lui, de l’ordonner. Mais la tension d’information ne peut agir seule : elle n’apporte pas avec elle toute l’énergie capable d’assurer la transformation ; elle apporte seulement cette tension d’information, c’est-à-dire un certain arrangement capable de moduler des énergies beaucoup plus considérables, déposées dans le domaine qui va recevoir la forme, qui va prendre une structure. Il ne peut y avoir prise de forme que si deux conditions se trouvent réunies : une tension d’information, apportée par un germe structural, et une énergie recélée par le milieu qui prend forme : le milieu – correspondant à l’ancienne matière – doit être en état métastable tendu, comme une solution sursaturée ou en surfusion, qui attend le germe cristallin pour pouvoir passer à l’état stable en libérant l’énergie qu’il recèle. Ce type particulier de rapport qui existe entre la tension d’information du germe structural et le domaine informable, métastable, recélant une énergie potentielle, fait de l’opération de prise de forme une modulation : la forme est comparable au signal commandant un relais sans ajouter de l’énergie au travail de l’effecteur. Cependant, des structures comparables aux modulateurs techniques sont beaucoup plus rares que les domaines où on relève des processus de prise de forme. Pour que l’hypothèse que nous avons faite puisse s’appliquer à tous les cas, il convient donc d’indiquer selon quel processus peut se dérouler une prise de forme par modulation dans un domaine qui n’est pas contenu dans un modulateur. Nous supposons que l’opération de modulation peut se dérouler dans une micro-structure qui avance progressivement à travers le domaine qui prend forme, constituant la limite mouvante entre la partie informée (donc stable) et la partie non encore informée (donc encore métastable) du domaine. Dans le plus grand nombre des cas de prise de forme, cette opération serait transductive, c’est-à-dire avançant de proche en proche, à partir de la région qui a déjà reçu la forme et allant vers celle qui reste métastable ; nous retrouverions ainsi l’asymétrie motrice du couple hylémorphique, avec la matière capable de tendance, et le pouvoir archétypal de la forme qui préexiste à la prise de forme.

LATO1984 Irréductions

Bruno LATOUR, Les Microbes : guerre et paix, suivi de Irréductions, Paris, Éditions Anne-Marie Métailié, 1984.

LATO1984.1 Cf. Latour, Irréductions, op. cit., p. 199 : 2.1.7.1. Scolie : personne n’a jamais déduit des axiomes et demandes d’Euclide toute la géométrie. Mais “en théorie”, dit-on, “tout le monde peut n’importe où dans le monde et n’importe quand” tirer “toute” la géométrie des “seuls” axiomes d’Euclide. En fait, ce n’est jamais arrivé nulle part à personne. Mais nul n’a jamais eu besoin de tirer les conséquences de ce fait, puisqu’“en théorie” le contraire reste possible. Et vous méprisez les sorciers incapables, dites-vous, de se rendre à l’évidence des faits même lorsque ceux-ci les démentent chaque jour pendant des siècles !

LATO1984.2 Cf. Latour, Irréductions, op. cit., p. 202 : 2.1.11. Si nous appelons “magie” ce corps de pratiques qui donne qui possède certains mots la puissance d’en extraire tous les autres et d’agir sur les choses par ces mots, alors il faut appeler magique le monde de la logique, de la déduction et de la théorie mais c’est notre magie.

LATO1984.3 Cf. Latour, Irréductions, op. cit., p. 230 : 3.4.10. Il ne s’agit pas d’un système (3.2.3. scolie). Conscient que les sources de la puissance ne résident pas dans la pureté d’une force, on peut vouloir la mettre dans un système de forces pures. Ce rêve, lui aussi, est toujours recommencé. Le droit est attaché à l’économie à la biologie au langage à la société à la cybernétique… De belles sphères sont dessinées qui sont reliées par de belles flèches bien épointées. Malheureusement pour les faiseurs de systèmes, les acteurs ne tiennent jamais leur souffle assez longtemps et se dispersent avant qu’on ait pris la photo de groupe : les sphères se vident et bavent les unes sur les autres ; les flèches se mélangent en écheveau ; le droit se disperse dans la biologie qui se diffuse dans la société elle-même en rupture de ban… Non, les alliances ne se nouent pas entre de beaux partis pris, mais au coup par coup et dans un désordre qui paraît horrible à ceux qui veulent la pureté.

STEN2002 Penser avec Whitehead

Isabelle STENGERS, Penser avec Whitehead. Une libre et sauvage création de concepts, Paris, Seuil, 2002.

STEN2002.1 Cf. Stengers, Penser avec Whitehead, op. cit., p. 69 : L’instant répond à un idéal de pensée. Qu’il s’agisse du temps de Newton, qui affirmait la simultanéité absolue, ou du temps d’Einstein, qui l’a rendue relative à l’observateur, ce que les physiciens prennent pour point de départ de leur raisonnement, un mobile, ou un système dynamique, ou un événement, chaque fois en un instant, correspond à une exigence d’exactitude qui n’appartient pas au concept de nature, parce qu’il ne correspond à aucune expérience. Il en est de même pour le point, correspondant à la définition d’une position exacte dans l’espace, et Whitehead montrera que sa construction est bien plus complexe encore que celui de l’instant, puisqu’il présuppose l’idéal d’un espace instantané. Bien évidemment il ne s’agit pas de dénonciation : l’idéal d’exactitude auquel répondent l’instant et le point conditionne les risques spécifiques de la physique, mais la condition ne doit pas être confondue avec ce que requiert toute démarche de connaissance, y compris cette connaissance spécialisée. Whitehead consacrera de longues pages à analyser la procédure d’“abstraction extensive” permettant de caractériser les “chemins d’approximation” qui mènent des entités naturelles authentiques, les “ce dont nous avons l’expérience perceptive”, aux déterminations physico-mathématiques, spatiales et temporelles. La définition des instants, du temps mesurable, de l’espace instantané, des lignes et de la métrique spatio-temporelle comporte ses risques propres, ceux de l’axiomatique. Il s’agit de prendre un point de départ tel qu’aucune étape du raisonnement ne puisse être convaincue d’avoir fait implicitement jouer une propriété qui n’a pas encore été démontrée.

STEN2002.2 Cf. Stengers, Penser avec Whitehead, op. cit., p. 158 : Whitehead a préféré poser le problème sur un mode différent. La question qui le préoccupe encore et toujours est celle de l’abstraction, et plus précisément du manque de résistance caractéristique de l’époque moderne à la dureté intolérante des abstractions qui déclarent frivole, insignifiant ou sentimental tout ce qui leur échappe. Il faut prendre au sérieux le fait que les désastres du monde moderne, sa laideur et sa brutalité font partie de ce qui s’appelle “progrès” : ce qui a été fait l’a été au nom du progrès. Il faut penser ce “fait” d’époque que constitue le caractère largement partagé, plausible, de cette référence au progrès. En d’autres termes, Whitehead pose le problème à partir de ceux qui ont fait “chœur” avec le développement industriel, quitte à en déplorer les excès. Il se demande en particulier pourquoi tant de gens remarquables, et il cite certains de ses collègues, ont pu admettre, voire approuver, définir comme le prix, voire comme la condition, du progrès, la “rationalisation” qui réduit le travailleur à sa force de travail et la nature à un ensemble de ressources exploitables.

STEN2002.3 Cf. Stengers, Penser avec Whitehead, op. cit., p. 351 : Tous les énoncés alternatifs proposés par les modèles qui, aujourd’hui, tentent de connecter l’évolution biologique avec les comportements de systèmes dits “complexes” présentent la même ambiguïté. S’y glisse plus ou moins discrètement un changement de signification des termes par rapport à leurs analogues utilisés en physique et en chimie. […] Le possible, en physique, désigne les probabilités. Le physicien déduit la probabilité de telle ou telle configuration à partir d’une hypothèse d’égalité a priori de toutes les configurations “possibles”. Mais les modèles probabilistes d’évolution biologique impliquent, quant à eux, une notion de possibilité un peu différente : non pas possibilité “de”, mais possibilité “pour”. Ce n’est pas une configuration parmi d’autres qui intéresse, mais une configuration en tant qu’elle peut avoir des conséquences, c’est-à-dire, aussi bien, qu’elle peut ouvrir à des conséquences nouvelles, non formulables dans les termes qui la définissent elle-même. En d’autres termes, les modèles évolutifs requièrent, pour être décrits de manière complète, un type de question qui n’a aucun sens dans le calcul a priori des configurations possibles. Dès que “la vie” est en question, le modélisateur change donc de position pratique : il ne déduit plus, il “envisage”.

STEN2002.4 Cf. Stengers, Penser avec Whitehead, op. cit., p. 420 : Il s’agit donc maintenant de tenir mon engagement et d’explorer ce que peut apporter à cette difficulté la transformation conceptuelle qui a bouleversé la physique avec le formalisme quantique “de deuxième génération”. Ce formalisme a, de fait, exacerbé l’hiatus entre vectoriel et scalaire en opposant la continuité d’une “réalité fonctionnelle” au caractère discret des prises de mesure, et en mettant en scène la nécessité d’un “choix” de la mesure. Elle a, en d’autres termes, donné à la mesure une “place de choix”, ce qui signale une articulation toute nouvelle entre les quantités scalaires issues de cette mesure et la “réalité vectorielle” à propos de laquelle la mesure est effectuée. Et dire “place de choix”, c’est évidemment ouvrir la possibilité de concevoir une actualisation qui ne soit pas ratification d’un choix préalablement établi (settled). Mais pour risquer cette possibilité, il faut bien sûr se situer au plus proche de l’innovation physico-mathématique, c’est-à-dire au plus loin des controverses sur l’interprétation du formalisme. De fait, la possibilité même d’attribuer à la mesure une “place de choix” tient à l’introduction d’une nouvelle notion physico-mathématique, celle d’“opérateur”, et cette notion nous garantit contre toute intrusion intempestive de la spéculation car la pertinence des opérateurs a aujourd’hui été généralisée à l’ensemble des lois physico-mathématiques.

STEN2002.5 Cf. Stengers, Penser avec Whitehead, op. cit., p. 554 : L’engagement au risque du calcul ne signifie pas la fin des disputes, la réconciliation au nom d’une vérité plus haute – et surtout pas celle de la “calculabilité”. Il est affirmation délibérée de ce qui, pour “nous”, n’est pas objet de délibération, puisque c’est ce qui nous a lancés à l’aventure, une confiance dont nous témoignons jusque dans nos dénonciations et nos colères. “Ce qui peut être”, la possibilité de sauver notre aventure tragique et singulière, n’est pas affaire de transcendance, mais il appartient au “non-pouvoir de Dieu”, au worship dont le Dieu construit par Whitehead sauve la possibilité, mais qui ne s’adresse pas à lui, de transformer chacun des ingrédients de cette aventure en une inconnue, appelant adjonctions et condensations.

STEN2002.6 Cf. Stengers, Penser avec Whitehead, op. cit., p. 560-561 : Si Whitehead avait cherché la plausibilité, la possibilité de faire valoir sa description comme “meilleure”, le fait qu’il ne fonde pas en droit ce que la conscience réclame aurait bel et bien été une faiblesse, justifiant une remise en chantier de l’édifice. Mais selon quelles contraintes procéder à cette remise en chantier ? Comment éviter d’aboutir à une forme de “psychologie rationnelle”, authentifiant certaines prétentions, en rejetant d’autres ? Comment affirmer sur le même plan les aventures de Kant et celles d’un shaman, la passion du mathématicien Cantor sentant les catégories de sa pensée démembrées par ce à quoi oblige l’infinité continue des nombres, et la décision du mathématicien Hilbert posant les axiomes qui domestiquent l’infini cantorien ? Bref, comment éviter une sociologie normative, prescrivant la bonne manière de poser le problème, celle qui dicte sa solution, celle qui trie les êtres selon qu’ils ont ou non le droit ontologique à l’existence ? Comment aussi éviter une confrontation entre endurances rivales : le temps est-il nombre du mouvement, désignant les grandes régularités de la nature, ou alors est-il condition subjective de notre intuition humaine, les grandes régularités naturelles devenant alors relatives à l’endurance du sujet de la connaissance ? Donner raison aux prétentions de la continuité, c’est également devoir instituer un tribunal susceptible de juger et de trier ces prétentions. Pour Whitehead, que les “mieux” de ces aventures sociales que nous appelons savoirs soient voués à la divergence va de soi. Ils sont en effet inséparables de ces aventures elles-mêmes divergentes, aventures où se sont inventés, chaque fois pour leur propre compte, des modes d’endurance et des définitions spécifiques de l’importance qui sont, pour Whitehead, autant de valeurs vivantes. La philosophie spéculative n’a pas à entretenir le rêve que le monde serait plus parfait si le loup respectait l’adorable petit agneau, mais elle n’en identifie pas pour autant un savoir humain avec un loup par définition prédateur. Chaque société doit être approchée à partir de ce dont elle pourrait être capable, spéculation, et cette capacité ne désigne pas ses jugements mais les interstices qu’elle abrite. La question est alors de savoir non pas comment “arrêter” le physicien, mais comment modifier ses rêves, c’est-à-dire aussi comment les infecter. C’est le sens de ce que j ’appellerai “présence spéculative”.

STEN2002.7 Cf. Stengers, Penser avec Whitehead, op. cit., p. 566-567 : Il ne s’agit donc surtout pas de renoncer à l’aventure rationaliste, mais de la libérer de ce qui dissimule son originalité, de ce qui lui permet de se présenter comme neutre, destin commun pour tous les humains. Car c’est cette neutralité qui, généralisant le pouvoir de l’argumentation logique, confère à cette aventure le caractère destructif que Whitehead prête au mal. Ce qui est généralisé, en effet, est le pouvoir de définir une situation sur un mode qui fait rimer accord et soumission. Celui qui prétend avoir la logique (et les faits) pour lui prétend pouvoir se mettre à la place de celui à qui il s’adresse – “Mais ne vois-tu pas que…” , “Tout un chacun reconnaîtra que…” – c’est-à-dire prétend à une légitimité par rapport à laquelle lui-même n’est qu’un porte-parole, et qui, en droit, définit locuteur et auditeur comme interchangeables. La divergence est donc réduite à un malentendu qu’un peu de bonne volonté suffirait à dissiper. Ou à une ignorance, qu’un peu de savoir suffirait à réparer. Ou à un manque de tolérance, qu’un peu de relativisme permettrait de raisonner. Autant de négations des valeurs vivantes de la divergence. La divergence n’est jamais un malentendu, elle a l’actualité et la nécessité de toute prise de position. Il ne s’agit évidemment pas de nier la possibilité qu’une argumentation soit logique ou contraignante, simplement de restreindre son pouvoir aux espaces homogènes où l’interchangeabilité présumée est affirmée par chacun. En quoi elle est similaire à l’interaction au sens physique. L’interaction implique des termes susceptibles de maintenir leur identité, alors même qu’ils font une différence l’un pour l’autre. Deux masses qui interagissent restent des masses, ce qui varie est leurs vitesses et leurs positions relatives. De même, si tes arguments me convainquent, je suis censée, à moins d’avouer avoir subi une influence “irrationnelle” , une suggestion indue, pouvoir définir ce que ma position n’avait pas pris en compte, ce qui explique pourquoi, conservant mon identité autonome, j’ai été amenée à changer d’avis.

HARA2007 Manifeste cyborg

Donna HARRAWAY, Manifeste cyborg et autres essais. Sciences – Fictions – Féminismes, Anthologie établie par Laurence ALLARD, Delphine GARDEY & Nathalie MAGNAN, traduit par Marie-Hélène DUMAS, CHarlotte GOULD et Nathalie MAGNAN, Paris, Exils Éditeurs, 2007. Édition originale A Cyborg Manifesto : Science, Technology and Socialist-Feminism in the 1980’s, Socialist Review, n° 0, 1985, p. 65-108.

HARA2007.1 Cf. Harraway, Manifeste cyborg, op. cit., p. 52-53 : Les technologies et biotechnologies de la communication sont des outils décisifs qui refaçonnent notre corps. Ces outils incarnent et mettent en vigueur, pour les femmes du monde entier, un nouveau type de relations sociales. Les technologies et discours scientifiques semblent, en quelque sorte, formaliser, c’est-à-dire geler, les interactions sociales normalement fluides qui les constituent. Mais on peut aussi les considérer comme des instruments qui mettent le sens en vigueur. Entre l’outil et le mythe, entre l’instrument et le concept, entre les systèmes historiques de relations sociales et les anatomies historiques de corps possibles, y compris des objets de connaissance, la frontière est perméable. En vérité, le mythe et l’outil se constituent mutuellement.

HARA2007.2 Cf. Harraway, Manifeste cyborg, op. cit., p. 53-54 : De plus, les sciences de la communication et la biologie moderne sont construites dans un même mouvement - celui où le monde devient un code à découvrir. Celui de la translation, de la traduction, de la recherche d’un langage commun dans lequel toute résistance au contrôle instrumental disparaît et où toute hétérogénéité peut être soumise au démantèlement, au réassemblage, à l’investissement et à l’échange. En sciences de la communication, la translation du monde en code à décrypter s’illustre dans les théories des systèmes cybernétiques (ou systèmes à régulation par réaction) quand elles sont appliquées à la téléphonie, à la conception informatique, au déploiement des armements, ou à la construction et à la maintenance de bases de données. Pour chacune de ces applications, la solution des questions fondamentales repose sur une théorie du langage et du contrôle : l’opération fondamentale consiste à déterminer les taux, les directions et les probabilités de flux d’une quantité que l’on appelle information. Le monde est divisé par des frontières plus ou moins perméables à l’information. L’information est justement ce genre d’élément quantifiable (à partir d’unités, bases de l’unité) qui permet la translation universelle et donc le pouvoir instrumental absolu (que l’on appelle communication effective). Et l’interruption de la communication est la plus grave menace qui pèse sur ce pouvoir. Toute panne de système s’exprime en stress. La métaphore C3I, Command-Control-Communication-Intelligence (Commandement-Contrôle-Communication-Renseignement), symbole de la théorie militaire des opérations, résume les principes fondamentaux de cette technologie. En biologie moderne, la translation du monde en code à décrypter s’illustre dans la génétique moléculaire, l’écologie, la théorie de l’évolution socio-biologique et l’immunobiologie. L’organisme est devenu un problème de code génétique qu’il faut lire. La biotechnologie, technologie d’écriture, influence considérablement la recherche. Les organismes, en un sens, n’existent plus en tant qu’objets de savoir. Ils ont fait place aux composants biotiques, c’est-à-dire à des formes particulières d’instruments de traitement de l’information. L’écologie suit une évolution analogue, il suffit d’étudier l’histoire et l’utilité du concept d’écosystème pour le comprendre. L’immunobiologie, et les pratiques médicales qui lui sont associées, sont particulièrement exemplaires de l’importance du codage et des systèmes de reconnaissance comme objets de connaissance, comme constructions de réalités corporelles. La biologie, ici, constitue une sorte de cryptographie. La recherche est alors nécessairement de l’ordre du renseignement. On est en pleine ironie ! Un système stressé fonctionne mal, le traitement de l’information s’interrompt, le système ne fait plus la différence entre lui et l’autre. Des bébés humains avec des cœurs de babouins, voilà qui provoque une perplexité éthique nationale - au moins autant chez les défenseurs des droits des animaux que chez les gardiens de la pureté humaine. Homosexuels et drogués sont, aux États-Unis, les victimes “préférées” d’une horrible maladie du système immunitaire qui marque (inscrit sur le corps) la confusion des frontières et la pollution morale (Treichler, 1987).

HARA2007.3 Cf. Harraway, Manifeste cyborg, op. cit., p. 54-55 : Heureusement, ces incursions dans les sciences de la communication et la biologie ont été rares. Les transformations fondamentales de la structure du monde, que ces sciences et technologies doivent, à mon avis, nous apporter, s’appuient sur une réalité quotidienne d’ordre largement économique. Les technologies de la communication dépendent de l’électronique. Les États modernes, les multinationales, la puissance militaire, les appareils de l’État providence, les systèmes satellites, les processus politiques, la fabrication de notre imaginaire, les systèmes de contrôle du travail, la construction médicale de nos corps, la pornographie commerciale, division internationale du travail, et l’évangélisme religieux, dépendent intimement de l’électronique . La microélectronique est la base technique du simulacre, copie faite en l’absence de tout original. La microélectronique est le média qui permet les translations par lesquelles on passe du travail à la robotique et au traitement de texte, du sexe aux manipulations génétiques et aux technologies de la reproduction, de l’esprit à l’intelligence artificielle et aux procédures décisionnelles . Les nouvelles biotechnologies débordent le cadre de la reproduction humaine. La biologie, puissante science de l’ingénierie qui permet de repenser matériaux et processus, révolutionne l’industrie, en particulier dans les domaines de la fermentation, de l’agriculture et de l’énergie. Les sciences de la communication et la biologie construisent des objets de connaissance qui sont à la fois d’ordre technique et naturel et dans lesquels la différence entre machine et organisme s’efface en grande partie. Esprit , corps et outil deviennent très intimes. L’organisation matérielle “multinationale” de la production et de la reproduction de la vie quotidienne , et l’organisation symbolique de la production et de la reproduction de la culture et de l’imaginaire semblent y être autant impliquées l’une que l’autre. Les images gardes-frontières qui opposent base et superstructure, privé et public, matériel et idéal n’ont jamais semblé aussi ténues.

HARA2007.4 Cf. Harraway, Manifeste cyborg, op. cit., p. 81-82 : L’imagerie cyborgienne peut aider à exprimer les deux points cruciaux de ce texte. Un, la production d’une théorie totale, universelle, est une erreur énorme qui passe à côté de la réalité, et qui l’a probablement toujours fait, mais qui le fait maintenant de façon certaine. Deux, en prenant la responsabilité des relations sociales de science et de technologie, on refuse la métaphysique antiscience, la démonologie de la technologie, et l’on assume ainsi le difficile travail de reconstruction des frontières de la vie quotidienne, en connexion partielle avec les autres, et en communication avec chaque partie de nous-même. Ce n’est pas seulement que la science et la technologie sont d’éventuels moyens de grande satisfaction humaine aussi bien qu’une matrice de dominations complexes. L’imagerie cyborgienne ouvre une porte de sortie au labyrinthe des dualismes dans lesquels nous avons puisé l’explication de nos corps et de nos outils, d’est le rêve, non pas d’une langue commune, mais d’une puissante et infidèle hétéroglosse. C’est l’invention d’une glossolalie féministe qui glace d’effroi les circuits superévangélistes de la nouvelle droite. Cela veut dire construire et détruire les machines, les identités, les catégories, les relations, les légendes de l’espace. Et bien qu’elles soient liées l’une à l’autre dans une spirale qui danse, je préfère être cyborg que déesse.

CASS2004 Hilbert

Pierre CASSOU-NOGUÈS, Hilbert, Paris, Les Belles Lettres, 2004.

CASS2004.1 Cf. Cassou-Noguès, Hilbert, op. cit., p. 11 : […] le fonctionnement de la pensée, tel qu’il est décrit par le formalisme, est analogue à celui d’une machine, comme un ordinateur. L’esprit est un automate ou, plus précisément, une série d’automates agissant à différents niveaux. En outre, l’esprit, par son fonctionnement mécanique, est supposé capable d’une connaissance adéquate de l’univers des objets. Toute proposition vraie dans l’univers des objets peut être démontrée par l’un des automates qui constituent l’esprit. En faisant de la pensée une mécanique et une mécanique universelle, Hilbert donne une conception rationaliste de l’univers mathématique.

CASS2004.2 Cf. Cassou-Noguès, Hilbert, op. cit., p. 33 : Maintenant, les démonstrations peuvent, en toute rigueur, faire abstraction du sens des termes ou du contenu des notions. Elles sont purement formelles. Elles ne consistent qu’en des manipulations de signes, selon des règles convenues. Ces règles indiquent comment transformer une formule pour en déduire une autre formule. Une démonstration est un dessin, une suite de signes, dont les premières lignes sont des axiomes et dans lequel le passage d’une ligne à une autre est déterminé par des règles explicites. Chacun peut contrôler une démonstration et vérifier qu’elle est correcte. Une théorie mathématique est transformée en un stock de formules enchaînées selon des règles explicites. En deuxième lieu, il s’agit de démontrer la non-contradiction, ou la consistance, des théories formalisées. Or une démonstration, dans une théorie formalisée, est un dessin conforme à des règles explicites. Le problème est de vérifier qu’un tel dessin ne peut pas s’achever sur une contradiction, comme 0 ≠ 0. Dans ce but, Hilbert met en place une théorie de la démonstration, dont les objets sont les dessins de démonstration à l’intérieur des théories formalisées, et dont les raisonnements n’utilisent qu’un infini potentiel, ce qui leur donne une évidence immédiate. En somme, le programme formaliste est de fonder les mathématiques en remplaçant les raisonnements qui supposent un infini actuel par des manipulations de symboles dont on s’assure, au moyen de raisonnements finitistes, qu’elles ne produisent aucune contradiction. La méthode abstraite, qui émerge de l’algèbre et se radicalise dans l’axiomatisation, est poussée jusqu’à ses limites dans le programme formaliste. En effet, il s’agit, au moyen de la méthode abstraite, de formaliser les théories mathématiques et de les remplacer par des enchaînements de formules, vides de sens mais conformes à des règles convenues. La méthode abstraite semble permettre de recréer l’édifice entier des mathématiques. Pourtant, il faut reconnaître aux raisonnements qui n’utilisent que l’infini potentiel une évidence immédiate. Ceux-ci ne consistent pas en procédures formelles. Leur domaine marque les limites de la méthode abstraite.

CASS2004.3 Cf. Cassou-Noguès, Hilbert, op. cit., p. 38 : L’axiomatisation consiste à poser entre des objets, dont on ne précise pas la nature, des relations possédant certaines propriétés. Ces propriétés sont explicitées dans les axiomes. Les axiomes ont le même rôle que les énoncés qui, en algèbre, fixent les lois que vérifient les opérations arithmétiques. Ils définissent une structure entre des objets, quelconques. L’axiomatisation exprime, comme l’algèbre, un primat de la structure. Mais, de l’algèbre à l’axiomatisation, le primat de la structure est renforcé. En effet, en algèbre, on donne une structure à des objets, nombres ou invariants, supposés connus ou définis au préalable. Ainsi, on peut tirer un théorème d’un raisonnement à partir de la structure ou d’un raisonnement sur les objets. En revanche, le but, dans une axiomatisation, est de réduire le raisonnement à la seule déduction à partir des axiomes et de définir les objets par la seule position des axiomes. Idéalement, les axiomes donnent un appareil suffisant pour la définition des objets et pour les démonstrations que l’on peut entreprendre concernant ces objets.

CASS2004.4 Cf. Cassou-Noguès, Hilbert, op. cit., p. 39 : Néanmoins, le système d’axiomes, dans son rôle de définition déguisée, ne fixe pas les objets de façon univoque. En effet, l’axiomatisation, telle que la conçoit Hilbert, dissocie la géométrie de l’expérience sensible de l’espace. On fait abstraction du contenu des notions. La nature des objets, points, droites, plans, reste indéterminée. On se donne un système quelconque d’objets et de relations et on exige qu’il satisfasse aux axiomes. Tout système d’objets entre lesquels existent des relations vérifiant les axiomes est une géométrie. Par conséquent, on peut penser comme points, droites, plans des objets introduits dans d’autres domaines des mathématiques. Ce sont les différents modèles de la géométrie. Les mêmes théorèmes, déduits des axiomes, valent dans les différents modèles. Et, idéalement, ces modèles sont identiques à un isomorphisme près : on peut mettre en correspondance les objets et leurs relations. Pour le mathématicien installé dans son axiomatique, les modèles ne se distinguent pas. Pourtant, les axiomes admettent différentes interprétations et nous verrons que le jeu entre celles-ci est une méthode pour l’investigation des propriétés logiques des axiomes.

CASS2004.5 Cf. Cassou-Noguès, Hilbert, op. cit., p. 42 : Fonder un système d’axiomes, ce n’est pas mettre en relation les notions du système avec des objets de l’expérience, ce n’est pas justifier l’évidence des axiomes, c’est d’abord démontrer que les axiomes sont consistants. Or cela transforme les notions de vérité et d’existence mathématiques. Un axiome est vrai non pas en tant qu’il traduit un fait d’expérience mais en tant qu’il s’insère dans un système consistant. Un objet, ou une notion, existe non pas en tant que donné dans une intuition mais en tant que défini par des axiomes consistants.

CASS2004.6 Cf. Cassou-Noguès, Hilbert, op. cit., p. 51 : Les Principia Mathematica, que Russell et Whitehead publient en trois tomes entre 1910 et 1913, marquent une étape décisive dans le processus de formalisation des mathématiques. Les formalisations ou les axiomatisations que nous avons évoquées jusqu’à présent portaient sur des théories isolées, le calcul des prédicats pour Frege, l’arithmétique pour Peano, la géométrie pour Hilbert, la théorie des ensembles pour Zermelo. En revanche, Russell et Whitehead établissent un seul système formel pour représenter les mathématiques depuis l’arithmétique jusqu’à la théorie des ensembles. Les paradoxes connus, comme celui que Russell a découvert en 1902, sont éliminés. Le système comporte des axiomes et des règles d’inférences explicites et on ne peut pas reproduire, au moyen de ces axiomes et de ces règles, les paradoxes connus. Ceux-ci ne peuvent pas être formulés dans le système. Les Principia Mathematica semblent constituer un cadre sûr, puisque les paradoxes connus disparaissent, et suffisamment large pour les mathématiques. Hilbert verra dans les Principia Mathematica “le couronnement de l’œuvre même d’axiomatisation”. En donnant un système formel, d’axiomes et de règles d’inférence, Russell, qui adopte la même perspective que Frege, a pour but de réduire les mathématiques à la logique. Russell considère que les notions primitives, qui interviennent dans le système, sont des entités logiques, des idées, qui existent dans une sorte de monde superposé au monde spatio-temporel et que l’on connaît par une intuition, analogue à l’intuition sensible. Les notions primitives ont un contenu, qui précède les axiomes. Elles ne sont pas définies par les axiomes mais dans des explications préalables. Les axiomes sont des propositions vraies, en vertu des notions qu’ils contiennent. Une démonstration de consistance ne serait qu’une confirmation de leur vérité. Ainsi, Russell ne donne pas la même portée que Hilbert à la formalisation. En outre, Russell accorde un statut particulier à trois axiomes, dans les Principia Mathematica, l’axiome de réductibilité, l’axiome du choix et l’axiome de l’infini.

CASS2004.7 Cf. Cassou-Noguès, Hilbert, op. cit., p. 52-53 : L’intuitionisme est un mouvement engagé en 1907 par Brouwer, visant à une réforme des mathématiques. L’intuitionisme s’oppose au formalisme de Hilbert et au logicisme de Russell. Si Hilbert et Russell ont une conception différente du fondement, leur but est le même : isoler les procédés suspects, qui conduisent aux paradoxes, délimiter les procédés valides, les fixer dans un système formel et fonder celui-ci, par renvoi à une intuition logique ou par une preuve de consistance. Les paradoxes représentent une excroissance monstrueuse des mathématiques. Il est possible d’éliminer les paradoxes, sans amputer les mathématiques, et de fonder celles-ci, de façon à écarter le risque de nouveaux paradoxes. Pour Brouwer, en revanche, les paradoxes mettent en question les mathématiques classiques. Les paradoxes mettent en évidence un usage abusif des règles logiques. Les règles logiques, lorsqu’elles sont explicitées dans un système formel, permettent de tirer mécaniquement un énoncé d’un autre en ne considérant que la forme des énoncés et en faisant abstraction de leur sens. Or, appliquée de façon aveugle, la logique produit des énoncés dépourvus de sens et, finalement, des paradoxes. Il ne faut donc pas se fier à la logique. Il ne faut pas se fier au langage, dans lequel les mathématiques sont transcrites sous forme d’énoncés. Il faut revenir aux actes de pensée, sous-jacents aux énoncés. Pour Brouwer, les mathématiques sont une activité intérieure, en deçà du langage et de la logique, et une analyse réflexive de cette activité intérieure conduit à une révision des règles logiques et des mathématiques classiques, qui en dépendent. L’activité mathématique prend source dans le passage ou le coup du temps. La conscience est d’abord remplie par une unique sensation. Puis celle-ci donne naissance à une nouvelle sensation. Elle est conservée mais demeure distincte de la sensation présente. La conscience a alors l’intuition de la dyade. Par un nouveau passage du temps, la dyade devient elle-même l’un des membres d’une dyade, ce qui forme une triade. La triade, prise à son tour dans le passage du temps, est suivie d’une multiplicité plus complexe. Et ainsi de suite. Lorsque la conscience fait abstraction du contenu propre des sensations, les multiplicités produites dans le passage du temps deviennent des nombres entiers. Le passage du temps donne l’intuition de la suite indéfinie des entiers. L’activité mathématique consiste ensuite en constructions, comportant un nombre fini mais arbitrairement grand d’opérations élémentaires à partir des nombres entiers. Les objets mathématiques sont engendrés par des constructions effectives à partir des entiers et, en dernier ressort, de la dyade. Or l’exigence d’une construction effective impose des restrictions par rapport aux raisonnements classiques.

CASS2004.8 Cf. Cassou-Noguès, Hilbert, op. cit., p. 53 : En particulier, l’intuitionisme rejette le principe du tiers exclu. Le tiers exclu, qui est un axiome de la logique classique, permet de poser, comme une alternative, la vérité d’une proposition A ou celle de sa négation. De deux choses l’une, ou bien la proposition A est vraie ou bien c’est sa négation non A qui est vraie : il n’y a pas de tierce possibilité. Par exemple, on admet que tous les entiers vérifient une propriété P ou bien, si ce n’est pas le cas, qu’il existe un entier qui ne vérifie pas la propriété P. Le tiers exclu est utilisé dans les démonstrations par l’absurde : on suppose que tous les entiers vérifient la propriété P ; on démontre que cette hypothèse conduit à une contradiction ; on conclut, en vertu du tiers exclu, qu’il existe un entier qui ne vérifie pas la propriété P. Pourtant, on ne sait pas calculer cet entier. Pour Brouwer, c’est une application mécanique d’une règle logique, qui n’est pas sous-tendue par une construction effective. Brouwer refuse donc le principe du tiers exclu. En réalité, pour appliquer le tiers exclu et affirmer a priori la vérité d’une proposition ou celle de sa négation, il faudrait, du point de vue intuitioniste, être sûr de pouvoir en effet ou démontrer ou réfuter toute proposition. Autrement dit, il faudrait pouvoir résoudre tout problème mathématique. Ainsi, “la question de la validité du principe du tiers exclu équivaut à celle de la possibilité de problèmes mathématiques non résolubles.” Brouwer rejette du même coup le principe du tiers exclu et la thèse hilbertienne de la résolubilité de tout problème mathématique.

CASS2004.9 Cf. Cassou-Noguès, Hilbert, op. cit., p. 57 : On dresse un inventaire des signes utilisés, analogue à un alphabet, et on donne des règles, analogues à l’orthographe pour la langue usuelle, déterminant les formules correctes que l’on peut former à partir de cet alphabet. On fixe ensuite les axiomes, logiques et mathématiques, dont partent les démonstrations. Enfin, on explicite les règles d’inférence qui permettent de déduire une formule d’une autre. De cette façon, on définit des systèmes formels. Les théorèmes sont alors des formules comprenant des signes mathématiques et des signes logiques. Les démonstrations sont des suites de formules qui partent de prémisses fixées et s’enchaînent selon des règles explicites. Le raisonnement ne dépend pas du sens des énoncés. On ne considère que la forme des énoncés, que l’on manipule selon les règles convenues.

CASS2004.10 Cf. Cassou-Noguès, Hilbert, op. cit., p. 59 : Pour aller à l’essentiel, le programme formaliste comporte deux tâches : formaliser les théories mathématiques ; prouver la consistance des systèmes formels dans une métamathématique au moyen de raisonnements contentuels, finitistes portant sur les dessins de démonstration. La métamathématique utilise les mêmes raisonnements que la mathématique contentuelle. Ainsi, Hilbert semble transformer le problème des fondements en un exercice mathématique. Le problème des fondements semble se déplacer, de la sphère épistémologique à la sphère mathématique.

CASS2007 Les démons de Gödel

Pierre CASSOU-NOGUÈS, Les démons de Gödel. Logique et folie, Paris, Éditions du Seuil, 2007.

CASS2007.1 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 17 : Personne ne contestera que Gödel soit logicien. Il est l’une des figures les plus marquantes de l’histoire de la logique. Pour dire vite, il y a, dans l’histoire de la logique, une rupture au cours de la seconde moitié du XIXe siècle, qui transforme ce qui était un chapitre de la philosophie en une discipline mathématique. Gödel prend place en une époque où la logique est déjà mathématique et il y produit des résultats. Mais ceux-ci ont une portée exceptionnelle. Ils réorientent le travail logique, en modifiant les buts techniques que les logiciens peuvent se donner. Ils prennent surtout un sens qui dépasse le seul domaine de la logique mathématique. Le théorème le plus fameux de Gödel, le théorème d’incomplétude, est (disons-le sans trop d’emphase) un point d’inflexion dans l’histoire intellectuelle. Oui, il y a dans le théorème d’incomplétude tel qu’il peut être reformulé avec les machines de Turing un moment comparable au cogito cartésien. Cette inférence que semble inventer Descartes, ce Je pense donc je suis, est, à partir de Descartes et jusqu’à nous, un énoncé par rapport auquel toute philosophie doit prendre position ou qu’elle doit situer dans la perspective qu’elle se donne. Il en est de même des machines de Turing et du théorème d’incomplétude. C’est une nouvelle image de l’esprit, une nouvelle formulation de la question des limites de la pensée et de son rapport à une transcendance.

CASS2007.2 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 46 : On y lit à la fois l’ambition philosophique de Gödel et un constat d’échec. Le logicien entend d’abord bel et bien transformer la philosophie et, cela, de deux façons différentes. D’une part, la philosophie doit devenir une véritable théorie, analogue aux théories scientifiques, où figurent clairement les notions primitives, qui déterminent les “constituants” du monde, les monades par exemple, et les relations que les notions primitives entretiennent et qui seront fixées dans des axiomes. En ce sens : “La philosophie vise à être une théorie. Dans une théorie, il faut combiner concepts et axiomes, et les concepts doivent être précis.” [Conversation avec Wang, L. J. Wang, A Logical Journe : From Gödel to Philosophy, Cambridge (Mass.), MIT Press, 1996, p. 306.] […] Cette première transformation concerne la forme de la philosophie. La seconde concerne son domaine, que le logicien entend déplacer de la matière vers l’esprit. Contre l’esprit du temps, qui est embarrassé de préjugés matérialistes, Gödel entend “spiritualiser” la matière (les choses n’étant faites que de monades) et, par exemple, inclure dans le domaine de la philosophie la référence à d’autres esprits, Dieu, les anges, et à d’autres mondes.

CASS2007.3 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 51 : Admettons qu’il y ait, comme Gödel en est convaincu, une intuition mathématique, une expérience directe des objets abstraits. Il reste que nous nous aidons, pour faire des mathématiques, d’un papier et d’un crayon. Nous écrivons des formules, nous dessinons des figures (au moins dans notre tête). Or, demande Gödel, pourquoi, si nous avons une intuition mathématique, avons-nous besoin de nous donner une représentation sensible de ces objets qui sont d’un tout autre ordre ? C’est, continue Gödel, comme si, devant un paysage qui s’étend devant nous, nous avions besoin d’en faire d’abord un tableau, de le dessiner avant de pouvoir l’observer. Il n’y a qu’une solution : c’est que l’œil mathématique soit lié aux centres cérébraux de la perception sensible et du langage (en quelque sorte branché sur eux).

CASS2007.4 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 55-56 : On raisonne sur les nombres : les nombres entiers, ceux que l’on peut compter (cinq comme dans cinq pommes) ; les nombres rationnels, que l’on obtient par division des précédents ; les nombres réels, que l’on associe aux points de la droite mais que l’on ne peut certainement pas distinguer sur la droite et que, à la différence des nombres rationnels, on n’a en général aucun moyen de construire ; les nombres complexes, comme la racine carrée de -1. On raisonne aussi sur des ensembles arbitraires, constitués d’éléments indéterminés. On examine leurs propriétés. Bref, on s’occupe d’un domaine d’objets qui, à première vue, ne figurent pas dans le monde sensible, ce que l’on voit avec les yeux, touche avec les mains. Ces objets ont-ils une existence indépendante, formant donc comme un monde à part, un ciel d’idées, au-dessus du monde sensible, ou bien sont-ils seulement inventés, créés par l’esprit humain ?

CASS2007.5 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 95-96 : La difficulté, que Gödel rétrospectivement souligne à de nombreuses reprises, tient à ce que, en 1931, on ne sait pas de façon précise ce qu’est un système formel. On donne des axiomes, on fixe des règles d’inférence. On exige que les axiomes et les règles d’inférence soient suffisamment précis pour qu’il soit possible de déterminer sans ambiguïté si une formule est un axiome et si une formule est la conséquence d’une ou de plusieurs autres. Mais qu’est-ce que cela veut dire ? “Précis”, “sans ambiguïté”, ce sont des mots du langage naturel qui, justement, ne déterminent pas de façon suffisamment précise le concept de système formel. […] La solution est pourtant là, dans l’idée de machine. On peut considérer que la notion de système formel est fixée en 1937 dans l’article de Turing, qui définit un concept logique de machine. La notion de système formel étant alors bien déterminée, il devient possible d’énoncer les théorèmes d’incomplétude en toute généralité.

CASS2007.6 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 96-97 : Turing, avec ses machines, répond à un problème précis. Qu’est-ce que suivre des règles, des règles qui déterminent nos actions sans ambiguïté et aboutissent réellement à un résultat, réellement c’est-à-dire en un nombre fini d’étapes ? Et que peut calculer, démontrer l’esprit humain en suivant de telles règles ? Il s’agit donc de définir la pensée humaine en tant qu’elle est réglée, ou la pensée réglée et finie (puisque le raisonnement humain, s’il doit pouvoir aboutir, semble devoir rester dans le fini : ne mettre en œuvre qu’un nombre fini d’étapes). Des réponses ont déjà été proposées à cette question : par Alonzo Church, un logicien américain, dont on reparlera, et par Gödel lui-même, en 1934. Seulement, Church pose une thèse qui vise à définir le calcul, la pensée réglée et finie, alors que Gödel donne de fait une définition, qui est équivalente à celle de Church mais qu’il ne considère pas comme telle. Gödel n’est pas convaincu que ces définitions, celle de Church et la sienne, embrassent le calcul dans toute sa généralité. Il manque selon lui une véritable analyse qui justifie ces définitions. Et c’est cette analyse que donne Turing avec sa propre définition, laquelle, équivalente aux deux autres mais plus naturelle, semble les justifier. On parle donc, pour cette définition de la calculabilité (qu’est-ce qu’un calcul, un processus de pensée, réglé et fini ?), de la thèse de Church, de la thèse de Turing ou de la thèse de Church-Turing, suivant l’importance que l’on donne à la précédence temporelle ou à l’analyse philosophique.

CASS2007.8 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 98 : Une machine de Turing est un dispositif susceptible d’un nombre fini d’états internes, et dont les actions (se déplacer sur le ruban, imprimer un symbole, changer d’état) sont déterminées par une liste d’instructions : chaque instruction spécifie des actions en fonction de l’état de la machine et du symbole de la case devant laquelle est stationnée la machine. On suppose également que les symboles que la machine peut imprimer (et reconnaître sur le ruban) appartiennent à un alphabet fini.

CASS2007.9 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 98-99 : tout calcul que nous pouvons réaliser en suivant des règles définies est également susceptible d’être implémenté sur une machine. C’est la thèse de Turing. Il en est de même des démonstrations formelles. On exigeait d’un système formel que les axiomes et les règles d’inférence y soient suffisamment précis pour qu’il soit possible de conduire une démonstration, de déduire de nouvelles formules, en ne considérant les symboles que comme des dessins, en procédant comme dans un jeu de cartes, ces “réussites” où les cartes sont disposées les unes à côté des autres selon leur couleur ou leur figure. C’est dire au fond qu’une machine de Turing doit pouvoir être programmée pour conduire ces démonstrations. Du reste, pour chacun des systèmes imaginés par les mathématiciens (et qu’ils reconnaissent comme “formels”), il est possible de définir une machine de Turing qui écrit les uns à la suite des autres toutes les formules prouvables, tous les théorèmes du système. On peut alors purement et simplement identifier les deux notions : systèmes formels et machines de Turing, ou poser qu’un système formel n’est qu’une liste d’instructions pour une machine de Turing, ou une certaine machine qui déduit les formules que l’on considère comme des théorèmes. C’est, pour Gödel, le sens de la notion de système formel : “Un système formel peut simplement être défini comme une procédure mécanique pour produire des formules que l’on appelle formules prouvables. Cela est requis par le concept de système formel dont l’essence est que le raisonnement y est complètement remplacé par des opérations mécaniques sur les formules.” [Gödel, Collected Works, éd. S. Feferman, J. Dawson et al., Oxford, Clarendon Press, 1986-2003, 5 vol, 1934 (Postscript 1964), t. I, p. 370.] Turing, avec ses machines, donne la véritable définition du concept de formalisme.

CASS2007.10 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 99 : Le théorème de Gödel établit que cette machine est impossible. On peut construire une machine qui résout certains problèmes diophantiens, mais il n’en existe pas qui puisse résoudre tous les problèmes diophantiens. C’est un exemple d’une classe de problèmes qui ne peut pas se résoudre de façon mécanique et qui, si l’esprit humain peut y réussir, exige de celui-ci autre chose que des raisonnements formels : de l’intuition, dira Gödel. Le second théorème de 1931 établit ensuite que la consistance d’un système formel, capable de formuler la totalité des problèmes diophantiens, ne peut pas se démontrer par des raisonnements qui s’expriment dans le système. C’est dire que, si l’on conçoit une machine déduisant les uns à la suite des autres les théorèmes du système, elle n’écrira jamais une formule qui exprimera la consistance de celui-ci (si celui-ci est bien consistant). C’est dire encore qu’une machine de Turing ne peut pas prouver la consistance du système dans lequel elle travaille ou ne peut pas écrire une formule qui exprime la consistance des règles qui déterminent son fonctionnement (si celles-ci sont bien consistantes).

CASS2007.11 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 100 : En réalité, le théorème de Gödel conduit à une alternative, un dilemme : ou bien l’esprit humain est irréductible à une machine de Turing, ou bien il existe des propositions arithmétiques (des problèmes diophantiens, par exemple) indécidables pour l’esprit humain, des problèmes donc qui ne seront jamais résolus par nos mathématiciens

CASS2007.12 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 100-101 : D’un côté, en effet, s’il existe des problèmes indécidables pour l’esprit humain, alors les objets mathématiques gardent, et garderont toujours des propriétés qui nous échappent, ce qui signifie (c’est l’argument de Gödel pour la réalité des objets) que les objets mathématiques ont une existence autonome, et il faut donc admettre un plan de réalité (un troisième monde ou une raison inconsciente) irréductible au monde sensible. De l’autre côté, Gödel est convaincu […] que le cerveau humain est une machine de Turing. Ainsi, si l’esprit humain surpasse toute machine de Turing, son fonctionnement est irréductible au mécanisme du cerveau et révèle une autre réalité, une sorte d’âme, elle-même irréductible au monde sensible. C’est, finalement, dans ce résultat que se résume pour Gödel le théorème d’incomplétude, l’impossibilité de se passer d’un objet non matériel

CASS2007.13 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 112-113 : Plus exactement, Gödel distingue une connaissance de soi factuelle, qui détermine la définition des machines de Turing, et une connaissance de soi essentielle, qui nous amène au fondement des mathématiques et à la connaissance complète de leur édifice. Il est clair que le rôle donné aux machines de Turing suppose une réflexion sur la psychologie du mathématicien. Pour identifier la notion de système formel à celle de machine (poser qu’“un système formel est une procédure mécanique pour produire des formules dites ‘prouvables’”), il faut se convaincre que les opérations que réalise le calculateur humain en suivant des règles, en manipulant des symboles selon des règles qui prescrivent chaque action sans ambiguïté, peuvent également être réalisées par une machine de Turing. Il faut donc analyser les opérations possibles du calculateur humain dans la manipulation des symboles. En affirmant que cette analyse ne relève que d’une connaissance factuelle, et en l’opposant à une connaissance de l’essence de la raison, Gödel laisse entendre, il me semble, que si de fait nous utilisons des symboles, et pratiquons certaines opérations sur eux, ce n’est qu’un accident. Et que d’autres mathématiques sont possibles (les mathématiques de ces anges du ciel des idées), où il n’y a plus de symboles et où les axiomes ont une autre forme. Et que ces mathématiques, nous pouvons néanmoins les approcher en retrouvant en nous, en deçà du fait de notre incarnation, une raison plus profonde.

CASS2007.14 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 113-114 : Mais c’est exactement ce que pourraient dire de nous les anges, ou les hommes d’après la révolution mathématique, dans la cosmologie de Gödel : nous acceptons, d’un côté, des preuves inductives, fondées sur l’observation expérimentale ; nous acceptons de l’autre côté des systèmes formels, qui sont limités par la rigueur même de leurs enchaînements (qui doivent être mécanisables), et nous ignorons l’intuition qui nous ouvrirait le ciel mathématique.

CASS2007.15 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 116 : Il est clair que Gödel attend une révolution en mathématiques qui en transforme l’édifice et les rapproche de cette réalité qu’elles ne reflètent pas : que la réalité soit dans un monde en soi, ou dans une raison sous-jacente à l’ego et qu’il reste à amener à la conscience. Et il semble que cette révolution doive s’appuyer sur une propriété de l’esprit, sa réflexivité, que nos sciences, dans l’esprit du temps, avec leurs préjugés matérialistes, tendent à ignorer. La révolution mathématique serait alors la reconquête de l’esprit par lui-même, une réduction de cette altérité qui demeure dans l’esprit mathématicien, une connaissance de soi “essentielle” qui déborde la connaissance superficielle qui intervient dans la machine de Turing.

CASS2007.16 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 120 : Si un développement des mathématiques est possible, qui complète leur édifice, de sorte, par exemple, qu’il soit possible de résoudre la totalité des problèmes diophantiens, il faut que l’esprit qui mène à bien ce développement soit irréductible à une machine de Turing. Gödel évoque ainsi un esprit, qui “surpasse infiniment les puissances d’une machine finie”, un esprit qui “contient un élément / est quelque chose de / totalement différent d’un mécanisme combinatoire fini”, une raison qui “contient un élément qui dans son action / sous certains aspects / est totalement différent d’un mécanisme combinatoire fini”, une raison qui “contient une partie complètement en dehors du mécanisme (a part completely off mechanism)”. En même temps, Gödel est convaincu que le cerveau se laisse représenter comme une machine de Turing. Cette partie de la raison hors du mécanisme est donc également hors du cerveau, et ses processus ne se reflètent pas dans le fonctionnement cérébral. On décrit le cerveau comme un système de neurones en nombre fini, susceptibles de se connecter les uns aux autres. Admettons que ces connexions ne puissent pas passer par un continuum d’états intermédiaires. Elles sont ou ouvertes ou fermées. L’état du cerveau, à un instant donné, est alors déterminé par les connexions ouvertes entre les neurones. Il n’y a qu’un nombre fini d’états possibles. Le passage d’un état à un autre est déterministe (et ne dépend que de l’état initial et des données extérieures). Le cerveau est bien une machine de Turing.

CASS2007.17 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 122-123 : “Turing […] donne un argument qui est censé montrer que les procédures mentales ne peuvent pas aller plus loin que les procédures mécaniques. Cependant, cet argument n’est pas concluant, car il dépend de la supposition qu’un esprit fini n’est capable que d’un nombre fini d’états distinguables. Ce que Turing néglige complètement est le fait que l’esprit, en usage, n’est pas statique mais en constant développement. Par conséquent, bien qu’à chaque étape du développement de l’esprit le nombre de ses états possibles soit fini, il n’y a aucune raison pour que ce nombre ne puisse converger vers l’infini au cours de ce développement.” [Gödel, Collected Works, éd. S. Feferman, J. Dawson et al., Oxford, Clarendon Press, 1986-2003, 5 vol, t. V, p. 576.] Cette remarque éclaire le fonctionnement de l’esprit gödelien. Le logicien ne conteste pas que l’esprit puisse être représenté comme un dispositif avec des états distincts soumis à des règles déterministes. Il conteste seulement que le nombre des états possibles de l’esprit humain, dans l’ensemble de son développement, soit fini. C’est-à-dire, l’esprit reste fini : à chaque étape de son développement, il n’est passé que par un nombre fini d’états différents. Mais il n’y a pas de borne au nombre des états que ces différentes étapes sont susceptibles d’impliquer. Le développement de l’esprit, dans son cours entier, peut donc mettre en jeu une infinité d’états. L’esprit, si l’on prend en compte l’ensemble de son développement, est une machine déterministe mais infinie. Cet esprit gödelien est proche de l’automate spirituel de Leibniz (qui est également déterministe et infini).

CASS2007.18 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 123 : En réalité, dans l’exemple qui suit, l’un des rares exemples concrets que donne Gödel pour illustrer ce développement indéfini, l’esprit est détaché du cerveau : “Pour décrire la situation rapidement : il est parfaitement possible que nous soyons capables d’une infinité d’états mentaux nettement distingués bien que, à chaque moment, seulement un nombre fini de ces états aient été actualisés. En fait, cela contredit la ‘finitude’ de l’esprit humain aussi peu que la vie éternelle. Cette dernière présuppose également la possibilité d’une infinité d’expériences bien distinguées dans un être fini. C’est seulement un préjugé matérialiste qui exclut cela à cause de la finitude de notre ‘tête’.” [Papiers Gödel, 8c, 106, item 040332.]

CASS2007.19 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 124-125 : Résumons. Gödel est convaincu que l’esprit humain peut résoudre tous les problèmes qu’il peut se poser (et, par exemple, tous les problèmes diophantiens). Cela suppose de développer nos mathématiques pour les transformer en un édifice complet. Cette révolution, que Gödel attend, changera les concepts à la base des mathématiques, apparemment en faisant intervenir une analyse de la réflexivité de l’esprit, c’est-à-dire une analyse de la conscience, que les sciences de notre époque ignorent. Mais, d’un autre côté, pour que les mathématiques puissent être développées en un édifice complet, il faut que l’esprit humain soit autre chose qu’une machine de Turing. Or, si l’esprit humain se distingue de la machine de Turing, c’est dans la mesure où il est susceptible d’un développement indéfini, qui semble ne pouvoir s’accomplir que dans une autre vie. Est-ce à dire qu’il faut attendre la mort pour assister à la révolution mathématique ? Il me semble vraisemblable qu’à côté de ce développement progressif Gödel ait aussi envisagé la possibilité d’une intuition absolue qui révélerait dès maintenant la réalité mathématique, ses concepts fondamentaux et la structure de son édifice : une expérience analogue à celle des philosophes (Platon, Husserl, Descartes ou Leibniz), une connaissance absolue et qui vient d’un seul coup. Cependant, cette intuition suppose, à nouveau, une disjonction entre le cerveau, qui n’est susceptible que d’un nombre fini d’états, et l’esprit, qui, pour dépasser la machine de Turing, doit passer par une infinité d’états. Il faut que, dans l’intuition, l’esprit pense indépendamment du cerveau. Or, penser sans le cerveau, c’est vraisemblablement penser hors du temps et penser sans mots, parce que les mots, le langage, exigent des images sensibles et cet appareil pour les traiter qu’est le cerveau. Ce serait une intuition, comme cet “entendement” que Gödel mentionne au détour d’une phrase, “si parfait qu’il n’a pas besoin de marques sur le papier (ou d’images mémorisées dans le cerveau) (qui en tant que processus matériels ne sont possibles que dans le temps et l’espace) comme béquilles mais saisit toutes les relations conceptuelles d’un seul regard”. Une telle intuition est-elle possible ? Comment se lie-t-elle à nos vécus habituels, dans le temps ?

CASS2007.20 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 160-161 : Je ne dirais pas que la logique est neutre, ce qui supposerait qu’elle puisse ne rien dire. Nous la prenons, semble-t-il, toujours dans une superstructure qui la rend signifiante. La logique est plutôt ambiguë : elle autorise une multiplicité de “folies” et cette multiplicité même fait surgir le spectre d’une autre folie, une folie absolue. Chacun peut prendre les énoncés logiques dans un réseau d’images et de peurs pour les développer, les transformer dans une certaine direction, comme Post veut le faire, ou, comme Gödel se le propose, y appuyer une superscience que l’esprit du temps, avec son propre réseau d’images et de peurs, dira “folle”. La logique est complice de ces “folies”. Elle est susceptible de les justifier. Il n’y a de logique que sous la figure d’une “folie”, dans un réseau d’images et de peurs parmi d’autres possibles. Seulement, la contingence de ces figures fait signe vers un véritable extérieur qui les transgresserait, qui serait comme caché derrière cet éventail de possibilités et n’aurait alors rien de relatif : une folie en soi.

CASS2007.21 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 164-165 : On l’a vu, nos théories mathématiques sont incomplètes. Gödel attend une révolution qui transforme et le langage de nos théories et les concepts qui en forment la base. Néanmoins, certaines notes laissent entendre que cette révolution mathématique exige un développement de l’esprit incompatible avec son incarnation ou, disons, son union avec un cerveau de taille finie. C’est donc seulement à la mort, quand l’esprit se détache du cerveau, qu’il découvre la réalité mathématique et une réalité qui est différente des mathématiques humaines. Dans ce cas, il faut croire que les mathématiques d’après la mort, ou d’après la fin du monde, ne sont pas les mêmes que celles que nous connaissons.

CASS2007.22 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 169 : Gödel rapporte d’abord son intérêt pour Leibniz au thème de la caractéristique universelle. Sous ce titre, Leibniz entendait fonder une méthode de raisonnement permettant “par un simple calcul” de donner une réponse à toute question se laissant concevoir. Gödel interprète tour à tour la caractéristique universelle de deux façons différentes. Tantôt le logicien prend le mot “calcul” au sens moderne, et strict, de procédure algorithmique. La caractéristique universelle aurait alors représenté un système formel, tel qu’il aurait répondu à toute question qu’il aurait permis de formuler. Or, après le théorème d’incomplétude, on sait qu’un tel système, supposé consistant et exprimant suffisamment d’arithmétique, est impossible : “[La caractéristique universelle] n’existe pas : toute procédure pour résoudre des problèmes de toutes les sortes (of all kinds) doit être non mécanique.” Ou encore, en 1939 : “On peut prouver que le programme leibnizien du ‘calculemus’ ne peut pas être réalisé, c’est-à-dire que l’on sait que l’esprit humain ne pourra jamais être remplacé par une machine.” Tantôt, pourtant, Gödel prend, dans les énoncés de Leibniz, le mot “calcul” en un sens large, et voit dans la caractéristique universelle une méthode pour résoudre tout problème mathématique, dont Leibniz saurait qu’elle n’est pas mécanique. C’est une telle procédure que Gödel cherche depuis le résultat de Turing, et il n’exclut pas que Leibniz ait pu la trouver, sans la publier. “Dans ses écrits sur la Caractéristique universelle, Leibniz n’a pas parlé d’un projet utopique. Si l’on en croit ses énoncés, il avait dans une large mesure déjà développé ce calcul mais attendait pour sa publication que la graine puisse tomber dans une terre fertile.”

CASS2014a Les rêves cybernétiques de Norbert Wiener

Pierre CASSOU-NOGUÈS, Les rêves cybernétiques de Norbert Wiener, Paris, Éditions du Seuil, 2014.

CASS2014a.1 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 23 : Kurt Gödel publie en 1931 (il a alors vingt-six ans) l’un des plus célèbres théorèmes de logique, le théorème d’incomplétude. Celui-ci implique (pourvu que l’arithmétique élémentaire soit non contradictoire) que si l’esprit est une machine, ou se comporte comme une machine à calculer, alors il existe des problèmes d’arithmétique élémentaire qui resteront absolument indécidables : des problèmes de théorie des nombres (des équations polynomiales dont il faut trouver les solutions sur l’ensemble des entiers) ne pourront jamais être résolus. Gödel donne différentes interprétations de son théorème. Il y voit la preuve de l’immortalité de l’âme, un signe de l’existence du diable, qui est toujours susceptible de nous tromper, de nous donner de fausses évidences et contre lequel nous ne pouvons pas absolument nous prémunir. Le sens que Gödel donne à ses théorèmes peut nous sembler aberrant. C’est pourtant dans cette perspective qu’il choisit de nouvelles directions de travail.

CASS2014a.2 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 55-56 : Tandis que la cybernétique et l’usine automatique n’étaient pas d’un point de vue scientifique aussi révolutionnaires que la bombe atomique, leur potentialité sociale, pour le bien ou pour le mal, était énorme. J’ai essayé de comprendre dans quelle direction mon devoir me conduisait et si, par hasard, je ne devais pas exercer sur moi-même un droit au secret personnel, parallèle à ce droit au secret défense que se donne le gouvernement, bref supprimer mes idées et le travail que j’avais accompli . J’en vins à la conclusion que c’était impossible . Je décidai donc de passer du plus grand secret à la plus grande publicité et d’attirer l’attention sur les possibilités et les dangers liés à ces nouveaux développements. [“Moral Reflections of a Mathematician” (1956), Collected Works, P. Masani et al. (éd.), Cambridge, MIT Press, 1985, t. IV, p. 756.]

CASS2014a.3 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 56 : Dans le récit que donne Wiener des origines de la cybernétique, ce sont ses recherches sur le canon aérien durant la guerre qui le conduisent à l’idée de rétroaction [Laquelle est développée dans un article de 1943 écrit en collaboration avec J. Bigelow et A. Rosenblueth, “Behavior, Purpose, and Teleology”.], l’idée donc qu’une machine peut corriger ses processus au vu de leurs résultats, de sorte qu’elle semble s’approcher peu à peu d’un but, ou d’un état d’équilibre, et adopter un comportement téléologique comparable à celui de l’animal. L’idée de rétroaction, à son tour, conduit Wiener à l’image de l’usine automatique : une usine qui tournerait d’elle-même sans ouvriers. Cette usine automatique peut représenter aussi bien la libération du travailleur, qui se consacrerait à autre chose qu’au travail, que son obsolescence, sa mort, le travailleur restant déterminé par sa fonction, le travail, et celle-ci devenant inutile. Que faire ? Wiener doit-il détruire ses recherches, cacher les plans de l’usine automatique et, à nouveau, disparaître ? Ou bien peut-il espérer que l’usine automatique soit un instrument de libération et, dans ce cas, continuer à travailler, développer ses idées sur les possibilités techniques et morales des nouvelles machines, machines à rétroaction mais aussi machines à calculer, ordinateurs, et prévenir enfin le monde du travail de ce qui se prépare, dans des ouvrages populaires et pas seulement techniques ? Le champ de la cybernétique est ouvert : Wiener s’y lance.

CASS2014a.4 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 57 : Dès l’introduction de Cybernétique, Wiener annonce que cette nouvelle discipline appartient “au monde qui existe autour de nous, et ce monde est celui de Bergen-Belsen et d’Hiroshima”. Et, en effet, la cybernétique suppose la guerre, les camps nazis et la bombe atomique. Ou, plus exactement, elle est leur autre. Elle ouvre un autre plan sur lequel la question de la science peut être rejouée.

CASS2014a.5 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 59 : Cependant, la question porte bien sur la cybernétique : savoir s’il y a danger et si Wiener n’aurait pas dû s’enfuir devant ses machines ou, mieux, ne pas les lâcher dans la nature. C’est de la cybernétique que vient le danger. Et il y a plusieurs façons de mettre en danger l’humain. Sur le plan du réel, les machines peuvent prendre le travail et le salaire des humains, ou de certains humains, les remplacer donc et, ce faisant, les éliminer : c’est l’automatisation de l’usine qui rend inutile le travail ouvrier. Mais les machines peuvent agir aussi sur d’autres plans, théoriques, juridiques, imaginaires : modifier la façon dont nous nous voyons, les théories que nous pouvons nous appliquer ou les lois que nous nous donnons, concernant l’usage que nous pouvons faire de nos corps par exemple. Les modifier à tel point que nos descendants mêlés à ces machines ne se considéreraient plus comme, et ne seraient en effet plus, “humains”. C’est une autre voie pour éliminer l’humain, non plus en supprimant physiquement les humains mais en rendant caduque la notion même d’humain.

CASS2014a.6 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 124 : Une machine pourrait-elle nous gouverner ? Nous gouvernerait-elle mieux que nous ne le faisons nous-mêmes ? Devrions-nous remplacer le gouvernement par un ordinateur, qui prendrait les décisions à sa place ? La machine risquerait-elle de se détraquer ou tenterait-elle de nous asservir ? La question, le danger, pour Wiener, n’est pas tout à fait là. Il est plutôt que “de telles machines, bien qu’inoffensives par elles-mêmes, soient utilisées par un être humain, ou un groupe d’êtres humains, pour gagner le contrôle sur la race humaine”.

CASS2014a.7 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 177 : l’une des opérations, sinon l’opération essentielle, qui sous-tend l’idée du posthumain, remonte à la cybernétique et consiste à donner une caractérisation abstraite de l’humain qui néglige son incarnation. La cybernétique, plus exactement, développe une théorie de l’information et thématise l’humain dans ce cadre comme système de traitement d’information de sorte que l’humain peut alors être assimilé à, couplé avec, reproduit dans, ces machines à traiter de l’information que sont les ordinateurs.

CASS2014a.8 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 178-179 : Cela dit, alors que K. Hayles voit dans la cybernétique l’origine de cette désincarnation qui définit le posthumain, M. Triclot a sans doute raison de renvoyer plutôt au programme de l’intelligence artificielle, de J. McCarthy, A. Newell et H. Simon notamment, et d’opposer celui-ci au projet cybernétique. Quoi qu’il en soit de la théorie de l’information, il est certain que, dans cet espace entre science, philosophie et fiction que ménagent des textes comme L’Usage humain des êtres humains, Wiener esquisse une conception abstraite de l’individu qui pousse celui-ci du côté du posthumain. Néanmoins, cette abstraction a son origine ailleurs. Elle renvoie avant tout aux machines de Turing et se développe principalement dans l’intelligence artificielle et le fonctionnalisme d’un H. Putnam par exemple. Il faut reconnaître que la cybernétique représente dans l’élaboration de cette conception abstraite de l’être humain un rameau parallèle, et relativement mineur.

CASS2014a.9 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 178-180 : J’utilise le mot d’abstraction en référence à l’abstraction mathématique. On raconte que le mathématicien D. Hilbert, au début du XXe siècle, a déclaré à ses étudiants, après son cours, dans un café, que l’on pourrait en géométrie parler de bières, de tabourets et de tables plutôt que de points, de droites et de plans. Il voulait vraisemblablement dire que seule importe en mathématiques la structure du domaine, et non ses termes. Sans doute, la géométrie, telle que nous la connaissons, traite de points, de droites et de plans. Nous posons entre ces objets différentes relations, qui sont explicitées dans les axiomes. Ceux-ci définissent une certaine structure, qui détermine les opérations susceptibles d’être accomplies. La nature des objets n’est pas prise en compte. Ce pourrait donc aussi bien être des bières, des tabourets et des tables du moment qu’ils entretiennent les mêmes relations et obéissent à la même structure que les points, les droites et les plans. L’effort de l’axiomatisation, dont le travail de Hilbert marque une étape décisive, a été de définir ces structures pour elles-mêmes, les isolant ainsi de leur domaine d’origine. Or c’est dans le même sens que l’homme télégraphié est abstrait de son incarnation singulière. Il est identifié à une configuration (pattern), une forme (form), c’est-à-dire certaines relations qu’entretiennent des objets (molécules constituant le corps, messages entrants et messages sortants) dont la nature même, la matière propre n’importent pas. “Pour récapituler : l’individualité du corps est celle de la flamme plutôt que de la pierre, celle de la forme plutôt que d’un morceau de substance. Cette forme peut être transmise ou modifiée et dupliquée”. Wiener identifie ici le “corps” à une forme. Ailleurs, dans le même chapitre, il évoque (et rapporte à une forme ou une configuration) “l’organisme”, “l’identité personnelle”, “l’individualité humaine”, “l’identité physique de l’individu”. Mais la première formule est d’autant plus remarquable. Le corps même, dans son identité permanente, et non seulement l’individu, peut être considéré comme une structure abstraite. Cependant, c’est d’abord avec Turing que cette abstraction de la structure est appliquée à l’être humain et à l’esprit. Définir une machine de Turing, c’est poser certaines règles déterminant la façon dont la machine agit, et modifie le cas échéant son état interne, en fonction de son état antérieur et des données extérieures. Mais, à nouveau, la nature des états internes de la machine n’importe pas. Les états internes peuvent être constitués par la position de roues crantées, celle d’une série d’interrupteurs ou de tubes à vide mais également consister en des états mentaux, des états d’esprit. Bien que ses états internes appartiennent au domaine mental, l’esprit qui calcule en suivant un certain algorithme est la même machine de Turing que l’ordinateur qui calcule selon le même algorithme. Et il est essentiel dans la thèse de Turing, pour la définition de ce qu’est un calcul, que l’esprit qui calcule puisse être décrit comme une machine au même titre qu’un dispositif matériel. Bref, la machine de Turing est une structure abstraite susceptible d’être réalisée sur des supports différents. Au cours des années soixante, dans le cadre du “fonctionnalisme” qui entend montrer que le problème du corps et de l’esprit peut être posé dans les mêmes termes pour l’humain et pour la machine de sorte que rien finalement ne nous permet de nous distinguer d’une machine, H. Putnam a fait un large usage de la notion de machine de Turing. Or, lorsqu’il revient rétrospectivement sur l’importance de cette notion pour la philosophie de l’esprit, c’est sur l’idée de structure abstraite qu’il met l’accent : “Les machines nous ont obligés à distinguer entre une structure abstraite et sa réalisation concrète. Non pas que cette distinction ait été mise au jour pour la première fois avec les machines. Mais, dans le cas des machines computationnelles, nous ne pouvions pas éviter de nous confronter au fait que ce que nous devions considérer comme la même structure pouvait être réalisé d’une étonnante diversité de façons” Ainsi, cette abstraction qui intervient dans l’épisode de l’homme télégraphié prend son origine dans l’axiomatisation de Hilbert et dans les machines de Turing, c’est-à-dire en dehors et en amont de la cybernétique. La configuration, le pattern auquel Wiener renvoie l’identité individuelle est abstrait dans le même sens que le programme, “la table d’instruction” de la machine de Turing. Ce n’est pas cependant que Wiener se situe immédiatement dans le sillage de Turing. Ces deux structures abstraites, le pattern et le programme, auxquelles l’être humain peut être identifié, ne sont pas les mêmes. Wiener abstrait une structure, comme Turing, mais ce n’est pas la même structure : la configuration qu’évoque Wiener n’est pas le programme d’une machine de Turing. En fait, l’identification de l’être, ou de l’esprit, humain à un programme, dans le droit fil de la perspective de Turing, conduit à l’intelligence artificielle et à un projet différent de la cybernétique.

CASS2014a.10 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 181 : La différence dans la programmation de ces deux machines, l’ordinateur de Pohl et le diamant de Egan, exprime parfaitement l’écart entre l’intelligence artificielle et le projet cybernétique. Dans la nouvelle de Egan et la perspective cybernétique, le cerveau, l’esprit, est une boîte noire, que l’on ne tente pas d’ouvrir mais seulement d’imiter. Il s’agit, dans les textes de Wiener déjà, de reproduire le rapport entre entrée et sortie sur une machine qui peut procéder d’une façon différente de celle du cerveau, ou de l’esprit, humain. En revanche, l’informaticien de Pohl et l’intelligence artificielle entendent analyser le mécanisme de l’esprit humain et implémenter ce mécanisme ainsi analysé sur l’ordinateur. Il s’agit donc de formaliser les enchaînements de pensée, le “programme” de l’être humain, et d’énoncer le système de connaissances qui en forme les prémisses. C’est ce projet d’analyse qui définit l’intelligence artificielle.

CASS2014a.11 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 185-186 : Sans doute, la machine de Turing représente d’abord la rigueur mathématique. Une théorie formelle, une théorie mathématique au sens le plus fort, c’est une machine de Turing qui enchaîne des théorèmes. L’esprit mathématicien, l’esprit qui démontre, se décrit comme une machine de Turing. La machine de Turing est le modèle que donne de lui-même l’esprit mathématicien. Mais, dans le monde cybernétique, cette identification à la machine, à l’intérieur des mathématiques, ne peut qu’être solidaire de la mécanisation de l’humain que sous-tend l’usine automatique. La machine de Turing constitue une autre façon de mécaniser l’humain, l’autre versant d’un processus qui ne se contente pas de jouer dans la pratique mais s’exprime aussi dans le domaine conceptuel, dans la superstructure si l’on veut. Descartes décrit le corps humain comme une machine. Il en isole l’esprit qui est une chose pensante et en lui-même étranger à la spatialité des machines. Turing propose, trois siècles environ après Descartes, une façon de concevoir également l’esprit comme une machine. Ainsi, plus rien de l’humain n’échappe à la mécanisation. Pourquoi voulons-nous nous voir comme des machines ? Une réponse serait que, dans le régime capitaliste, nous travaillons en général pour le compte d’un autre, qui possède les moyens de production que nous utilisons. Nous travaillons en cela avec une machine et comme une machine. Ce serait pourquoi alors nous nous identifions à des machines, de toutes formes, décrivons notre esprit comme une machine aussi bien que nous nous imaginons remplacés par des machines dans l’usine. Nous tendons vers l’état de robot, nous nous voyons comme des robots, au sens de Čapek, et de façon toujours plus adéquate. Sous différentes formes, la mécanisation imaginaire de l’humain progresse, nous y travaillons depuis Descartes, la rendant toujours plus complète jusqu’au moment où, avec le posthumain peut-être, elle aboutit : notre humanité n’est qu’un souvenir. Le posthumain est un robot qui s’ignore.

CASS2014a.12 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 190 : Le posthumain a perdu cette partie humaine : son esprit peut être considéré comme une machine de Turing et celle-ci implémentée sur un ordinateur. Le posthumain est tout entier du côté de la machine et, dans cette mesure, tout entier produit et moyen de production, tout entier exploitable. Il ne s’agit pas de revenir à l’humain. La cybernétique l’a tenté, avec ce cyborg dans lequel la machine devait se soumettre à l’humain, et cette figure du cyborg a éclaté pour ainsi dire, s’est volatilisée en une suite de 0 et de 1, dans le tic-tac du télégraphe, un simple message. Si l’on ne veut pas tomber dans le posthumain, il ne suffit donc pas de chercher à freiner le processus de mécanisation. La pression est trop forte. Il faut faire un pas de côté. Il faut utiliser d’autres catégories, constituer une image de nous-mêmes qui ne doive plus rien à la machine mais se fonde sur d’autres éléments.

CASS2014a.13 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 207 : le thème de la machine met en évidence la spécificité de la science et des mathématiques. Les mathématiques marquent, on l’a vu, le cadre dans lequel l’humain a d’abord pu s’identifier à la machine sans reste. Dans la perspective dominante, la perspective des manuels de logique où un théorème doit pouvoir être déduit formellement des axiomes ensemblistes, la machine de Turing représente adéquatement l’esprit mathématicien. Penser mathématiquement, c’est se faire machine, au plus près, autant que possible.

ARSA1987 Les machines à penser

Jacques ARSAC, Les machines à penser. Des ordinateurs et des hommes, Paris, Éditions du Seuil, 1987.

ARSA1987.1 Cf. Arsac, Les machines à penser, op. cit., p. 7-8 : Réfléchissant à ce que peut être l’information, dont je leur parlais souvent, il me vint un jour à l’esprit qu’elle n’était qu’une suite de caractères, peut-être douée de signification et apportant des connaissances nouvelles à certains, mais de façon invérifiable. Ceci voulait dire que l’informatique traitait la “forme” des textes, pas leur sens. Et du coup, pour moi, tout s’éclairait. La machine n’est pas un cerveau électronique : elle manipule des caractères, alors que par mon esprit je réfléchis à des idées. J’étudiais alors les grandes applications de l’informatique, pour constater que ce schéma était en accord avec ce que j’observais. Il en résulta pour moi une grande tranquillité devant l’agitation autour des “machines pensantes” : exagération de journalistes ou de personnes qui ne connaissent pas l’informatique et se laissent abuser par les apparences. Certes, j’entendis parfois des scientifiques soutenir la possibilité pour les machines de faire des travaux dits “intelligents”. Mais qu’est-ce que cela veut dire ? C’est en 1984, lorsque l’ouvrage de Hubert Dreyfus Mythes et Limites parut en France, que je réalisai tout à coup qu’une bataille s’était engagée autour de l’intelligence artificielle, à laquelle je ne pouvais rester indifférent, parce qu’elle met en jeu une vision de l’homme : si une intelligence artificielle est possible, alors je suis une machine. Tout mon système de valeurs s’oppose à une telle idée. Il fallait que je le dise. Cela me paraissait d’autant plus important que la bataille semblerait engagée entre des informaticiens d’un côté, qui croiraient possible ou déjà réalisée une intelligence mécanique, et des philosophes de l’autre, qui refuseraient de voir l’évidence, et chercheraient l’homme dans les échecs de la science. Il fallait que je témoigne que l’expérience cruciale tranchant le débat n’a pas eu lieu. Il fallait que je dise mon scepticisme sur la possibilité d’une intelligence artificielle, à partir de ma propre vision de l’informatique. Mais il ne suffit pas de dire, il faut montrer au lecteur que l’on a quelques raisons de dire. Or l’affaire ne se situe pas à l’intérieur de la pensée scientifique. L’informatique est jeune : quarante ans au maximum. Qu’est-ce, face aux deux mille ans des mathématiques ? Un consensus ne s’est pas encore fait sur sa nature même. Science ou technique ? Science de quoi ? Branche des mathématiques, ou science ayant son objet et ses méthodes propres ?

ARSA1987.2 Cf. Arsac, Les machines à penser, op. cit., p. 10-11 : Avant que Pascal ait construit sa machine arithmétique, on croyait que faire une addition était un privilège de l’esprit humain. Nous avons besoin de savoir quelles activités de notre cerveau pourraient être transférées à des machines. Mais l’intelligence artificielle fait problème parce que, extrapolant à partir de résultats partiels, certains affirment que toutes les activités intellectuelles de l’homme peuvent être transférées aux machines, qui les feront mieux que nous. C’est cette affirmation qui sera discutée, et non la légitimité de recherches spécialisées sur des sujets difficiles. J’essaierai de montrer, bien que je ne sois pas philosophe, que les problèmes posés par cette idée d’intelligence artificielle ne sont pas nouveaux. De grandes questions ont traversé toute l’histoire de la pensée : les mots ont-ils un sens ? Nos raisonnements sont-ils tous réductibles à des calculs, même dans un sens élargi du terme ? L’homme est-il un corps matériel semblable à celui des animaux, mais d’une plus grande complexité, ou a-t-il un esprit animant ce corps ? Si les questions sont anciennes, peut-être la façon de les considérer a-t-elle changé, parce que de querelles philosophiques, elles sont devenues enjeu de puissance technique. Elles sont entrées dans la “physique”. Pour moi, elles restent “métaphysiques”, et je ne pense pas que la science les tranchera.

ARSA1987.3 Cf. Arsac, Les machines à penser, op. cit., p. 33-34 : Une firme américaine demanda au mathématicien John von Neumann de proposer un schéma de machine à calcul extrêmement puissante. Il prit pour guide le fonctionnement même du cerveau humain, qui a deux fonctions essentielles : mémoriser des informations, les traiter. L’ordinateur devait donc être organisé avec une mémoire et une unité de traitement. L’idée fondamentale de Neumann fut que le programme commandant le fonctionnement de la machine devait être enregistré dans la mémoire […] Ainsi, dès l’origine, l’ordinateur fut conçu pour être sur le modèle du cerveau. Cette recherche se situait dans les prolongements des travaux et réflexions des cybernéticiens qui cherchaient à fabriquer un homme artificiel. Le schéma de Von Neumann était génial. Toutes les machines ont été construites sur ce schéma.

ARSA1987.4 Cf. Arsac, Les machines à penser, op. cit., p. 35 : Trois chercheurs : Herbert Simon (qui a reçu depuis le prix Nobel d’économie), Allen Newell et Cliff Shaw s’attaquèrent à un programme général de résolution de problèmes (GPS : general problem solver). Entendons-nous bien : il ne s’agissait pas de savoir résoudre des équations mathématiques.

ARSA1987.5 Cf. Arsac, Les machines à penser, op. cit., p. 41 : disons très simplement que l’informatique est la science du traitement de l’information.

ARSA1987.6 Cf. Arsac, Les machines à penser, op. cit., p. 65 : on utilise un ordinateur pour résoudre un problème ; on possède certaines connaissances, données du problème, et l’on cherche à en tirer de nouvelles connaissances, dites “résultats”. L’informatique ne traite pas les connaissances, mais seulement les informations. On va donc représenter les connaissances données par des informations, suites de lettres ou de chiffres. On traitera celles-ci en s’appuyant sur leur seule forme. On obtiendra comme résultat des suites de lettres ou de chiffres. L’utilisateur les interprétera comme la réponse à son problème. […] On passe des connaissances-données aux informations-données en les représentant dans une langue convenable (y compris la langue des chiffres). On peut aussi dire qu’on les code. On applique aux informations-données un traitement qui se base sur leur seule forme (opérations arithmétiques sur les nombres, comparaisons sur les lettres) et fournit des informations-résultats. On interprète celles-ci, ce qui leur restitue un sens dont on espère que c’est la connaissance-résultat cherché.

ARSA1987.7 Cf. Arsac, Les machines à penser, op. cit., p. 178 : L’affirmation que la machine ne fait que ce qu’on lui dit de faire doit être comprise ainsi : je peux prévoir dans le programme des choix aléatoires, gouvernés par des lois que j’y aurai inscrites, mais dont je ne sais pas ce qu’elles vont produire.

ARSA1987.8 Cf. Arsac, Les machines à penser, op. cit., p. 186 : La logique formelle est devenue une branche importante des mathématiques, et l’un des piliers de l’informatique théorique, pour la raison que les manipulations de systèmes formels sont évidemment faisables sur ordinateur : selon notre thèse, l’informatique ne traite que la forme, tout ce qu’elle fait se situe dans des systèmes formels. La notion d’interprétation pose des problèmes intéressants. Si je fabrique un système formel, je dispose d’un beau jouet avec lequel je peux me distraire en cherchant si telle formule est ou n’est pas un théorème. Mais c’est un jeu gratuit en l’absence d’interprétation. Associer une interprétation à un système formel, c’est créer un monde, ou trouver une portion de notre monde, dont le système est un modèle mathématique. Pour que ce soit cohérent, il faut que toute formule démontrée vraie dans le système corresponde à une vérité dans le monde de l’interprétation associé, et, réciproquement, il faut que toute vérité dans ce monde soit représentée par un théorème du système formel. Si le système est cohérent, je peux remplacer l’établissement d’une vérité par la dérivation d’un théorème dans le système formel. C’est la source principale de motivation des recherches sur les systèmes formels. Déjà Leibniz pensait que l’on allait pouvoir fabriquer un langage formel dans lequel il serait facile d’établir toutes les vérités… Nous avons dit que l’on pouvait attacher un sens à un système formel en interprétant les formules qu’il produit […].

ARSA1987.9 Cf. Arsac, Les machines à penser, op. cit., p. 219-221 : Pour Hobbes, tout raisonnement est un calcul, mais la notion de calcul doit être étendue au traitement des mots à partir de leur seule forme […] Ainsi le domaine de la raison pour Hobbes est exactement le domaine de ce que l’on peut faire avec un ordinateur. Hobbes est le véritable père de l’informatique, et aussi de l’intelligence artificielle. À la même époque, Pascal soutient la thèse adverse. Il oppose dans ses Pensées l’“esprit de géométrie” et l’“esprit de finesse”. Les “principes” (nous dirions aujourd’hui les axiomes) de l’esprit de géométrie sont “palpables, mais éloignés de l’usage commun […]. Mais dans l’esprit de finesse, les principes sont dans l’usage commun et devant les yeux de tout le monde […]. Il n’est question que d’avoir bonne vue, mais il faut l’avoir bonne ; car les principes sont si déliés et en si grand nombre, qu’il est presque impossible qu’il n’en échappe. Or l’omission d’un principe mène à l’erreur […].” Ainsi l’esprit de géométrie raisonne par déduction à partir d’un petit nombre de principes. Pascal explique leur genèse dans un autre texte : De l’esprit géométrique et de l’art de persuader. On est amené à définir un objet au moyen d’une suite de mots, par exemple “les nombres qui se divisent également en deux parties”. On choisit alors un nom que l’on dépouille de toute autre signification qu’il aurait pu avoir, par exemple “pair”, et on l’attache à cette définition. L’esprit de finesse doit au contraire faire face à un très grand nombre de petits principes qui ne sont pas à notre discrétion, mais existent autour de nous dans le sens commun. Leur nombre même est la principale source de différence entre la géométrie et la finesse : “Ce sont choses tellement délicates et si nombreuses, qu’il faut un sens bien délicat et bien net pour les sentir, et juger droit et juste selon ce sentiment, sans pouvoir le plus souvent les démontrer par ordre comme en géométrie, parce qu’on ne possède pas ainsi les principes, et que ce serait une chose infinie de l’entreprendre. Il faut tout d’un coup voir la chose d’un seul regard, et non pas par progrès du raisonnement, au moins jusqu’à un certain degré.” […] Pour Pascal, donc, il y a des jugements qui échappent à la méthode discursive du calcul. Ainsi les deux thèses en présence se trouvent-elles bien caractérisées. Leibniz adopta l’idée de réduire tout raisonnement à un calcul. Il pensait qu’un jour tous les philosophes pourraient résoudre leurs différends par le calcul, un calcul bien sûr très différent de l’algèbre. En 1677 (Vers une caractéristique universelle) il parla de ce qu’il appelait sa découverte stupéfiante, à savoir comment toutes les pensées humaines pourraient être réduites à un alphabet dont les lettres, convenablement combinées, conduiraient à la découverte de toutes les vérités. Il pensa d’abord que ce serait chose aisée : un petit nombre de personnes convenablement choisies mèneraient l’affaire à bien en cinq ans. En 1679, il révisa son projet : les efforts de beaucoup de grands talents seraient nécessaires, et pour une période indéfinie. Mais il pensait que, une fois cet alphabet créé, il serait si simple et si naturel que tout le monde l’apprendrait en quelques semaines… En d’autres termes, Leibniz croyait à la possibilité d’un système formel modélisant la totalité de notre univers conceptuel, et dans lequel tout serait démontrable (rêve que le théorème de Gödel est venu casser). Encore une étonnante préfiguration de l’informatique Au XIXe siècle, le mathématicien Boole entreprit de fournir les règles du calcul des propositions. Il ne faisait ainsi que faire apparaître le calcul sous-jacent aux raisonnements par syllogismes, ainsi que nous l’avons suggéré plus haut. À la fin du XIXe siècle, le mathématicien Gottlob Frege, professeur à l’université d’Iéna, entreprit la création d’un langage idéographique se situant dans la perspective ouverte par Leibniz afin de représenter tous les raisonnements de l’arithmétique. Son alphabet était trop complexe pour que le travail eût un grand retentissement. Mais il servit de base à Bertrand Russell et Whitehead dans leur développement de la logique formelle. Nous avons vu ce qu’est un système formel, jeu sur des caractères pris en dehors de toute signification qu’on peut leur attacher. L’informatique théorique prend ses fondements dans la théorie de ces systèmes, dans la droite ligne des travaux de Russell, prolongés par ceux de Turing, puis des logiciens contemporains. Qu’un ordinateur puisse supporter les calculs de la logique formelle va de soi : ces systèmes opèrent à partir de la forme seule. Seule la complexité des calculs pourrait faire temporairement difficulté. Mais le logicien Gödel montra vers 1930 que pour tout système formel, quelque complexe qu’il soit, il y a des théorèmes qui ne peuvent pas être démontrés avec les seuls moyens offerts par ce système […].

ARSA1987.10 Cf. Arsac, Les machines à penser, op. cit., p. 223 : Si une intelligence artificielle est un jour réalisée, c’est que tous nos jugements sont des calculs, car la machine ne peut faire autre chose. Réciproquement, si tous nos jugements sont des calculs, alors une intelligence artificielle est faisable, car tous les calculs sont mécanisables, au moins en théorie. Il faudrait réserver la possibilité qu’ils soient tellement complexes qu’on ne puisse les faire sur machine en raison des limitations induites par les lois de la physique (la vitesse des particules est limitée par la vitesse de la lumière ; il y a les incertitudes de Heisenberg…). Mais on ne sait pas où est cette limite. Et si l’esprit humain opère par calculs, comme il n’est guère habile en ce domaine, il serait étonnant que l’on butât sur une telle difficulté. En conséquence, on peut estimer que la possibilité d’une intelligence artificielle est totalement équivalente au fait que tous nos jugements soient des calculs…

ARSA1987.11 Cf. Arsac, Les machines à penser, op. cit., p. 226 : Tout au long de ce livre, j’ai développé la thèse que l’informatique traite les textes à partir de leur seule forme, sans accéder à leur signification. Un ensemble convergent de faits soutient cette hypothèse : Le traitement des nombres se fait sur ordinateur sans aucune difficulté de principe. Or ils n’ont pas de signification. La traduction des langues se fait à partir de la seule forme des textes, par des analyses morphologiques, structurelles, et des voisinages de mots. Elle achoppe sur le fait que la forme n’implique pas totalement le sens. Le traitement d’une réponse, par exemple dans un système d’enseignement assisté par ordinateur, ne se fait proprement que si la réponse est codée d’une façon simple (QCM, réponse par un mot…). Un système expert ne traite pas le sens des entités qu’il renferme, mais seulement des relations formelles entre elles, établies par un homme qui a accès au sens. La logique formelle est le support de l’informatique théorique. Dans le cas le plus général, les connaissances à traiter étant codées dans des informations qui ne les impliquent pas totalement, il y a une perte de sens qui rend les résultats plus ou moins suspects. C’est un phénomène que l’on observe. Si les ordinateurs ne peuvent traiter que la forme des textes, et si une intelligence artificielle est un jour fabriquée, c’est que l’ensemble des activités intellectuelles de l’homme est réalisable à partir de la seule forme des textes. Ou encore, c’est que le sens n’intervient pas dans ces traitements.

ARSA1987.12 Cf. Arsac, Les machines à penser, op. cit., p. 228 : De fait, la séparation du sens et de la forme, la prise en compte de la forme par l’informatique sont une évidence à l’intérieur de cette discipline. Les chercheurs ont exploré des voies pour prendre en compte la sémantique, en la formalisant. Elle devient alors formelle, c’est-à-dire syntaxe. Reste-t-il alors quelque chose de non formel, ce que nous appelons sens ? La longue quête de la logique formelle, de Frege à Russell, Gödel, Turing et l’informatique contemporaine, peut être vue comme une tentative pour l’élimination du sens.

ARSA1987.13 Cf. Arsac, Les machines à penser, op. cit., p. 234 : Le problème est beaucoup plus vieux que l’informatique. Le schéma de la science qu’a développé Claude Bernard, et que j’ai rappelé au chapitre 3, montre qu’elle n’appréhende pas le réel : elle le modélise. Elle substitue un modèle formel à la réalité, et c’est sur ce modèle qu’elle fait de la théorie et des prédictions. Le modèle construit par la science est formel, c’est-à-dire ne possède pas en lui-même de signification. Le sens n’est pas dans la science. La science ne donne pas un sens au monde : elle le remplace par un modèle abstrait pour pouvoir le traiter.

ZENI2013 Introducing the Computable Universe

Hector ZENIL, Introducing the Computable Universe, in A Computable Univers: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

ZENI2013.1 Cf. Zenil, Introducing the Computable Universe, op. cit., p. 1 : Some contemporary world views approach objects and physical laws in terms of information and computation, to which they assign ultimate responsibility for the complexity in our world, including responsibility for complex mechanisms and phenomena such as life. In this view, the universe and the things in it are seen as computing themselves. Our computers do no more than re-program a part of the universe to make it compute what we want it to compute.

ZENI2013.2 Cf. Zenil, Introducing the Computable Universe, op. cit., p. 4 : It is a fait accompli in fields such as gravitation and movement, electricity and magnetism, electromagnetism and most electronuclear forces, areas of physics that today model with frightening accuracy large portions of nature using simple laws than can be programmed in a computer and can in principle (and often de facto) provide perfect prescriptions and predictions about the world. In fact we have physical laws and computer programs for pretty much everything; what we lack is a single theory that encompasses all other theories.

ZENI2013.3 Cf. Zenil, Introducing the Computable Universe, op. cit., p. 6-7 : Biology has witnessed a transformation during the last century, beginning with Mendel’s discoveries regarding the transfer of certain traits in pea plants, a phenomenon amounting to an information transfer between generations. Later rediscovered, his laws would lay the foundation for what is today the modern science of genetics, which has established that living organisms store and bequeath information comprising instructions for their full development encoded – as Watson and Crick discovered – in ribonucleic and nucleic acids. The code of life is digital; two bits per base pair are needed to encode the DNA. Rules determining the way DNA replicates may be algorithmic in nature, like those governing other types of physical phenomena, leading us to sometimes discover strong similarities in their pattern distribution. Processes of DNA are relatively simple. A subset of purely digital operations can match their operations with computational ones, operations such as joining, copying, partitioning, complementation, trimming, or replacing. Which implies that layer upon layer of the code of life has been built up over billions of years in a deep algorithmic process with its own characteristic rules, making processes like protein folding appear highly complex to us. If we ignore the algorithm of protein folding, there is no reason to think that protein folding cannot be carried out by a (deterministic) machine (whether in polynomial time or not). In the case of structures whose final state is certain (whether a folded protein or the division of a cell), the solution is either the result of an algorithm or of a random process. It is unlikely that protein folding is random because an incorrectly folded protein would obviously cause disease. One of the most important properties of life is robustness, which we think may be explained by algorithmic probability. If computation is the driving force producing structure in the world, one can use it as a basis for manipulating the direction of complexity.

SWAD2013 Origins of Digital Computing

Doron SWADE, Origins of Digital Computing: Alan Turing, Charles Babbage, and Ada Lovelace, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

SWAD2013.1 Cf. Swade, Origins of Digital Computing, op. cit., p. 26 : A towering figure in the history of automatic computation is that of Charles Babbage, whose designs for vast calculating engines rank as one of the startling intellectual achievements the 19th century. We find in his work practically all the core ideas of modern general-purpose digital computing. Babbage’s epiphany is captured in the well-known vignette in which, in 1821 in London, he and John Herschel were checking astronomical tables calculated by human computers. Dismayed at the number of errors he recounts that he exclaimed ‘I wish to god these calculations had been executed by steam’. The appeal to steam can be read as a metaphor for the infallibility of machinery as well as for the idea of mechanised production as a means of solving the problem of supply. The ‘unerring certainty of mechanical agency’ would ensure error-free tables as and when needed. Babbage devoted much of the rest of his life to the realisation of mechanised calculation.

SWAD2013.2 Cf. Swade, Origins of Digital Computing, op. cit., p. 33 : The Difference Engine was what we would now call a calculator: it performed a specific set of functions to which its operation was absolutely limited. It is Babbage’s designs for the Analytical Engine, conceived in 1834, that mark the essential transition from calculation to general-purpose computation. There are detailed and extensive designs for the Analytical Engine which he worked on intermittently till he died in 1871, though yet again, like the difference engines, the Analytical Engine was never built. The Analytical Engine, an automatic programmable general purpose computing machine, was capable of executing any sequence of arithmetical operations under program control, and it embodies another set of logical and architectural features in addition to many of those featured in the difference engines. These features, explicit by 1840, include: Parallel bus (the simultaneous transfer of digits of multi-digit numbers on a multipath ‘highway’); Separation of the Store and the Mill (architectural feature in which memory and central processing are identifiably distinct subsystems); Internal repertoire of automatically executable functions (including direct multiplication and division); Conditional control (automatically taking one or another route depending on intermediate outcome); Serial operation and a ‘fetch-execute’ cycle; Anticipating carriage (simultaneous multi-digit carriage of tens); Programmability using punched cards; Iterative looping (automatic repetition of a sequence of operations a predetermined number of times); Parallel processing (multiple Mills); Punched card input; Printed, punched card, graph plotter output; Up to 50-digit ‘registers’ with double precision results; ‘Buffering’. The separation of Store and Mill, serial operation involving a fetch-execute cycle, and input-output devices, all of which are featured in the Analytical Engine designs, are essential features of classic computer architecture described by Von Neumann in his seminal paper published in 1945. The eponymous Von Neumann architecture has dominated computer design to this day.

SWAD2013.3 Cf. Swade, Origins of Digital Computing, op. cit., p. 35 : While Babbage made clear that finding roots of equations by mechanical process was a critical new feature of his machine, and while he incorporated mechanisms to automatically halt the machines on the occurrence of specific conditions including the occurrence of roots, he nowhere, at least in his published writings, trumpeted as a specially significant theoretical finding the notion of halting as a criterion of solubility. For him it was a practical issue: the machine would halt when it found a solution. However, Babbage’s notions of a machine cycle, of stepwise operational procedure, and of algorithmic process were explicit, and have intrinsic to them concepts of ‘definite method’ and ‘mechanical process’ that pre-echo seminal concepts in Turing’s work a century later. For Babbage, in his world of cogs, levers and ratchets, ‘mechanical process’ was something literal rather than metaphorical though, ironically, his unbuilt engines were virtual rather than real.

SWAD2013.4 Cf. Swade, Origins of Digital Computing, op. cit., p. 37 : In the stated purpose of the engine there is no mention of anything outside mathematics and number, nor is there mention of anything more general in the potential of the machine. It was Lovelace who made explicit the transition from calculation to computation. She speculated that if the rules of harmony and composition were appropriately represented then the Analytical Engine ‘might compose elaborate and scientific pieces of music of any degree of complexity or extent’. She also wrote of the machine operating on numbers directly representing entities other than quantity ‘as if they were letters or any other general symbols’ and that the Analytical Engine might produce outputs in notational form. It seems that Lovelace saw the potential of computing in the general capacity of machines to manipulate symbols according to rules and that the power of computers lay in bridging the internal states of the machine to the world through the representational content of the symbols it was able to manipulate. Latterly Lovelace has been widely celebrated, and four main claims tend to feature in her posthumous fêting. She is variously described as a mathematics genius, as someone who made an inspirational contribution to the conception and development of Charles Babbage’s calculating engines, as being the first programmer, and, finally, she is frequently heralded as a prophet of the computer age. Of these four claims only one has credible foundation. There is no compelling evidence for the first. The second claim is readily disproved by the simple chronology of events. The third claim (that she was the first programmer) is understandable but wrong. But the tribute of being a visionary of the computer age is fully deserved and it is appropriate that she is properly celebrated. It was she who appears to have understood better than anyone the potential of computation in its more general sense.

SWAD2013.5 Cf. Swade, Origins of Digital Computing, op. cit., p. 39 : In specific relation to Turing, the areas of shared or overlapping interests with Babbage and Lovelace are striking: the notion of mechanical process, the role of halting in the context of computability, speculation about machine intelligence, and what Lovelace referred to in 1844 as ‘a Calculus of the Nervous System’. She appears to share Turing’s view of the unrestricted potential of intelligent machines when she wrote ‘it does not appear to me that cerebral matter need be more unmanageable to mathematicians than sidereal and planetary matters and movements, if they would but inspect it from the right point of view’. Amongst the questions that emerge are the extent of Turing’s knowledge of Babbage and Lovelace, and also whether any such knowledge predates his critical work on computability.

DEMO2013 Generating, Solving and the Mathematics of Homo Sapiens

Liesbeth DE MO, Generating, Solving and the Mathematics of Homo Sapiens. Emil Post’s Views on Computation, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

DEMO2013.1 Cf. De Mo, Generating, Solving and the Mathematics of Homo Sapiens, op. cit., p. 46 : Since 1936, the year Church and Turing each proposed their theses, these questions have only gained in significance, perhaps not so much because of advancements in mathematical logic, but rather due to the development of what is often understood as the physical realization of computability – the digital, electronic stored-program and general-purpose computer. It was and is this machine that has effectively widened the scope of the computable and brought computations to people who are and were not really interested in the problems of mathematical logic. It is this machine which has made it possible to physically implement a wide range of computational processes, problems and objects and it was hence the computer that made it relevant to non-logicians to broaden and study the field of the computable and the non-computable, making it necessary to pose questions like: what could be a high-quality weather prediction software? It is exactly this extension of the scope of the computable that explains why it is no longer considered “heretical” to say that all processes in “nature” – going from the human mind to the growth of plants – can be understood as computations, or, much stronger, that everything in “nature” can be computed by a Turing machine. Despite or perhaps due to the fact that the scope of the computable has effectively been extended beyond the field of mathematical logic, the Church-Turing thesis, as a philosophical thesis but also as a mathematical definition, is still the uncontested delimiter of the computable. It is here that lies part of its beauty, viz., its two-facedness of opening up the field of computation and, at the same time, imposing a fundamental limitation on it and hence also setting the stage for the non-computable. It is this ‘Janus face’ of the Church-Turing thesis, going to the core of the thesis, that is sometimes too much underestimated in current debates on the Church-Turing thesis.

DEMO2013.2 Cf. De Mo, Generating, Solving and the Mathematics of Homo Sapiens, op. cit., p. 47 : In 1936 both Church and Turing published their celebrated theses. They proposed their respective theses as formal definitions of an otherwise vague and intuitive notion. It were these definitions that allowed Church and Turing to tackle the famous Entscheidungsproblem for first-order logic. Indeed, in order to prove the incomputability of this problem, it was necessary to have a formal definition of computability. In his definition , Church identified the vague notion of an effectively calculable function of positive integers with the formal notions of general recursive functions (or, equivalently, λ-definable function). Turing identified the vague notion of computable numbers, i.e., “the real numbers whose expressions as a decimal are calculable by finite means”, with those numbers computable by a Turing machine. Even though in the literature Church’s thesis and Turing’s thesis are mostly not differentiated but put together under the header “Church-Turing thesis” because of their logical equivalence, it is Turing’s that is usually considered as being superior to Church’s thesis. To put it in Church’s words: “[Turing’s thesis makes] the identification with effectiveness in the ordinary (not explicitly defined) sense evident immediately” Gödel also shared this view and judged that with Turing’s work one has “for the first time succeeded in giving an absolute definition of an interesting epistemological notion”. Soare recently even went a step further by stating that “[i]t was Turing alone who […] gave the first convincing formal definition of a computable function”.

COOP2013 The Mathematician’s Bias

Barry COOPER, The Mathematician’s Bias – and the Return to Embodied Computation, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

COOP2013.1 Cf. De Mo, The Mathematician’s Bias, op. cit., p. 126 : What was clearly new about the Turing model of computation was its successful disembodiment of the machine. For practical purposes, this was not as complete as some post-Turing theoreticians like to pretend: the re-embodied computer which is now a familiar feature of the modern world was hard won by pioneering engineers. But, for the purposes of the stored program computer, and for the proof of incomputability of the Halting Problem, the essential disembodiment was that delivering program-data convergence. It was this universality that John von Neumann recognised as a theoretical anticipation of the stored program computer. The apparent omnipotence even led Turing to talk of his post-war ACE project as aimed at building ‘a brain’. This paradigm has achieved a strong grip on subsequent thinking. Within the philosophy of mind there is a strong tendency towards physicalism and functionalism, both of which open the door to some version of the Turing model. The functionalist (see Hilary Putnam) stresses what a computer does as something realisable in different hardware. An important expression of the functionalist view in computer science is provided by the notion of a virtual machine, whereby one expects to achieve software implementation of a given programmable machine. Aaron Sloman and others have usefully applied the concept to AI.

BAUE2013 Intuitionistic Mathematics and Realizability in the Physical World

Andrej BAUER, Intuitionistic Mathematics and Realizability in the Physical World, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

BAUE2013.1 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 143 : Constructive mathematics, whose main proponent was Erret Bishop[Bishop’s constructivism is compatible with respect to classical mathematics, and should not be confused with the intuitionism of L.E.J. Brouwer, which assumes principles that are classically false.], lives at the fringe of mainstream mathematics. It is largely misunderstood by mathematicians, and consequently by physicists as well. Contrary to the popular opinion, constructive mathematics is not poorer but richer in possibilities of mathematical expression than its classical counterpart. It differentiates meaning where classical mathematics asserts equivalence and thrives on geometric and computational intuitions that are banned by the classical doctrine.

BAUE2013.2 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 143-144 : If classical and constructive mathematicians just disagreed about what was true, the matter would be resolved easily. Unfortunately they use the same words to mean two different things, which is always an excellent source of confusion. The origin of the schism lies in the criteria for truth, i.e., in what makes a statement true. Speaking vaguely, intuitionistic logic demands positive evidence of truth, while classical logic is happy with lack of negative evidence. The constructive view is closer to the criterion of truth in science, where a statement is accepted only after it has been positively confirmed by an experiment.

BAUE2013.3 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 144 : The BHK interpretation leaves the meaning of “evidence” and “method” unexplained. Its formalization leads to the realizability interpretationflux […]. Let us apply the BHK interpretation to the archetypical example, the Law of excluded middle: “Every proposition is either true or false.” The criterion by which a classical mathematician judges the law is “Is it the case that each proposition is either true or false?” whereas an intuitionistic mathematician is more demanding: “Is there a method for determining, given any proposition, which of the two possibilities holds?”

BAUE2013.4 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 145 : The intuitionistic mathematician does not accept the Law of excluded middle. When asked to produce counterexamples, he states that there are none, and makes things worse by claiming that there is in fact no proposition which is neither true nor false.

BAUE2013.5 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 146 : The intuitionistic and classical understanding of ¬¬-stable statements coincide. This is fortunate because we can all agree on what the universal laws of physics say. However, a disagreement is reached when we discuss which things exist in our universe, for intuitionistic existence requires explicit evidence where classical existence is satisfied with lack of negative evidence. Again we see the similarity between intuitionistic and scientific thinking.

BAUE2013.6 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 152 : Theorem: Decidability of reals is real-world realized if, and only if, we can build the Halting oracle for Turing machines.

WIED2013 The Many Forms of Amorphous Computational Systems

Jiřı́ WIEDERMANN, The Many Forms of Amorphous Computational Systems, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

WIED2013.1 Cf. Wiedermann, The Many Forms of Amorphous Computational Systems, op. cit., p. 245-246 : The last and the most important motivation for considering amorphous computing systems is their considerable application potential. The respective devices could, e.g., be spread from an airplane on the surface over a certain region (on the Earth, or on an other planet, perhaps) in order to monitor certain parameters of the environment, such as temperature, humidity, or precipitation. These measurements can be broadcast into a base station that will make the data processing. The information can be used, e.g., in agriculture to increase the yields of plants, in space exploration to discover life, etc. Such gadgets can also be used for object surveillance – once spread over the respective perimeter they can monitor the environment in order to detect intruders. Another application is in medical sciences – the devices can be attached to patients and spread over the hospitals in order to monitor the patients’ movements and life functions. A nano-size device of such kind can even enter human bodies in order to perform genetic manipulations at the cell level, to strengthen the immune system, to heal up injuries, to cure heart or brain strokes, to substitute the red cells in the blood, etc. Real bacteria represent a template for such systems already existing in nature. Substitutional tissues and organs can be grown in this way, too. Ray Kurzweil, an artificial intelligence guru and the prophet of the Singularity, sees an irreplaceable role of nanobots (i.e., of nano-sized swarms of robots operating like amorphous computing systems) in bringing the mankind towards a point in time in the near future (the Singularity point), when the technological means allow to create a super-human intelligence.

CHAI2013 Life as Evolving Software

Gregory CHAITIN, Life as Evolving Software, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

CHAI2013.1 Cf. Chaitin, Life as Evolving Software, op. cit., p. 277-278 : Few people remember Turing’s work on pattern formation in biology (morphogenesis), but Turing’s famous 1936 paper “On Computable Numbers…” exerted an immense influence on the birth of molecular biology indirectly, through the work of John von Neumann on self-reproducing automata, which influenced Sydney Brenner who in turn influenced Francis Crick, the Crick of Watson and Crick, the discoverers of the molecular structure of DNA. Furthermore, von Neumann’s application of Turing’s ideas to biology is beautifully supported by recent work on evo-devo (evolutionary developmental biology). The crucial idea: DNA is multi-billion year old software, but we could not recognize it as such before Turing’s 1936 paper, which according to von Neumann creates the idea of computer hardware and software. We are attempting to take these ideas and develop them into an abstract fundamental mathematical theory of evolution, one that emphasizes biological creativity, inventiveness and the generation of novelty. […] In our opinion, Turing’s ideas are of absolutely fundamental importance in biology, since biology is all about digital software.

VEZA2013 Computability and Algorithmic Complexity in Economics

K. Vela VELUPILLAI and Stefano ZAMBELLI, Computability and Algorithmic Complexity in Economics, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

VEZA2013.1 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 311-313 : Thus, our claim is that the existential predictions made by the purely theoretical part of mathematical economics, game theory and economic theory ‘will not be borne out by calculations.’ There is, therefore, a serious epistemological deficit – in the sense of economically relevant knowledge that can be processed and accessed computationally and experimentally – in all of the above approaches, claims to the contrary notwithstanding, that is unrectifiable without wholly abandoning their current mathematical foundations. This is an epistemological deficit even before considering the interaction between appeals to infinite – even uncountably infinite – methods and processes in proofs, where both the universal and existen tial quantifiers are freely used in such contexts, and the finite numerical instances with which they are, ostensibly, ‘justified’. This epistemological deficit requires even ‘deeper’ mathematical and philosophical considerations in Cantor’s Paradise of ordinals, where combinatorics, too, have to be added to computable and constructive worlds to make sense of claims by various mathematical economists and agent based modeling practitioners. Against this backdrop, within the framework of what we will now call classical computable economics, the following are some of the results that have been derived: (1). Nash equilibria of (even) finite games are constructively indeterminate; (2). The Arrow-Debreu equilibrium is uncomputable (and its existence is proved nonconstructively); (3). The Uzawa Equivalence Theorem is uncomputable and nonconstructive; (4). Computable General Equilibria are neither computable nor constructive; (5). The Two Fundamental Theorems of Welfare Economics are Uncomputable and Nonconstructive, respectively; (6). The Negishi method is proved nonconstructively and the implied procedure in the method is uncomputable; (7). There is no effective procedure to generate preference orderings; (8). Rational expectations equilibria are uncomputable and are generated by uncomputable and nonconstructive processes; (9). Policy rules in macroeconomic models are noneffective; (10). Recursive Competitive Equilibria (RCE), underpinning the Real Business Cycle (RBC) model and, hence, the Dynamic Stochastic General Equilibrium (DSGE) benchmark model of Macroeconomics, are uncomputable; (11). Dynamical systems underpinning growth theories are incapable of computation universality; (12). There are games in which the player who in theory can always win cannot do so in practice because it is impossible to supply him with effective instructions regarding how he/she should play in order to win; (13). The theoretical benchmarks of Algorithmic Game Theory are uncomputable and non-constructive; (14). Boundedly rational agents,satisfying, formalised within the framework of (metamathematical) decision problems are capable of effective procedures of rational choice.

VEZA2013.2 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 314 : The three most important classes of decision problems that almost characterise the subject of computational complexity theory, underpinned by a model of computation – in general, the model of computation in this context is the Nondeterministic Turing Machine – are the P, NP and NP-Complete classes. Concisely, but not quite precisely, they can be described as follows: (1) P defines the class of computable problems that are solvable in time bounded by a polynomial function of the size of the input; (2) NPretenue is the class of computable problems for which a solution can be verified in polynomial time; (3) A computable problem lies in the class called NP-Complete if every problem that is in NP can be fluxreduced to it in polynomial time

VEZA2013.3 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 315 : The process of rational choice – i.e., boundedly rational choice – by an economic agent is formally equivalent to the computing activity of a suitably programmed (Universal) Turing machine.

VEZA2013.4 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 324 : At least since Walras devised the tâtonnement process and Pareto’s appeal to the market as a computing device, there have been sporadic attempts to find mechanisms to solve a system of supply-demand equilibrium equations, going beyond the simple counting of equations and variables. But none of these attempts to devise mechanisms to solve a system of equations were predicated upon the elementary fact that the data types – the actual numbers – realised in, and used by, economic processes were, at best, rational numbers. The natural equilibrium relation between supply and demand, respecting the elementary constraints of the equally natural data types of market – or any other kind of economy – should be framed as a Diophantine decision problems, and the way arithmetic games are formalised and shown to be effectively unsolvable in analogy with the Unsolvability of Hilbert’s Tenth Problem […].

VEZA2013.5 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 325 : Therefore, if orthodox algorithmic game theory, orthodox mechanism theory and computable general equilibrium theory have succeeded in computing their respective equilibria, then they would have to have done it with algorithms that are not subject to the strictures of the Church-Turing Thesis or do not work within the (constructive) proof-as-algorithm paradigm. This raises the mathematical meaning of the notion of algorithm in algorithmic game theory, orthodox mechanism theory and computable general equilibrium theory (and varieties of so-called computational economics). Either they are of the kind used in numerical analysis and so-called ‘scientific computing’ (as if computing in the recursion and constructive theoretic traditions are not ‘scientific’; […]) and, if so, their algorithmic foundations are, in turn, constrained by either the Church-Turing Thesis […] or the (constructive) proof-as-algorithm paradigm; or, the economic system and its agents and institutions are computing the formally uncomputable and deciding the algorithmically undecidable (or are formal systems that are inconsistent or incomplete).

BEHA2013 Information-Theoretic Teleodynamics in Natural and Artificial Systems

Anthony F. BEAVERS and Christopher D. HARRISON, Information-Theoretic Teleodynamics in Natural and Artificial Systems, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

BEHA2013.1 Cf. Beavers & Harrison, Information-Theoretic Teleodynamics in Natural and Artificial Systems, op. cit., p. 350 : Information-Theoretic Teleodynamics (ITT) is an approach to intelligence in both natural and artificial systems that uses the quantity and distribution of information to drive goal-oriented behavior without recourse to semantic content. By “intelligence” we mean simply massive adaptability to one’s changing environment, including the ability to be surprised by failed expectations, respond accordingly and act on the basis of desired ends. By invoking the “quantity and distribution of information” we mean to make a direct connection to Claude Shannon’s information theory, and, in particular, to his notion of information entropy. Measuring information in this way to get goal-oriented behavior is what permits us to derive such behavior “without recourse to semantic content.” This is to say that we will not “look inside” a piece of information to determine what it means; rather the measure of information, insofar as it tracks similarity and difference (along with its spread) across a networked system, provides a way to modulate conditions of attraction and repulsion that pull a system in one direction and push it away from another […].

BEHA2013.2 Cf. Beavers & Harrison, Information-Theoretic Teleodynamics in Natural and Artificial Systems, op. cit., p. 351 : Setting algorithmic theories aside, our hypothesis is that it is possible to reduce semantic information to the quantification of information flow provided that other conditions respecting the internal structure of an agent and its relations to its environment are met.

BEHA2013.3 Cf. Beavers & Harrison, Information-Theoretic Teleodynamics in Natural and Artificial Systems, op. cit., p. 353-354 : Information “entropy” was originally used by Shannon as a measure of the uncertainty of a piece of information, the term being suggested to him by John von Neumann because of its isomorphism with entropy in thermodynamics, though whether or not this recommendation was fitting has been a matter of some debate. There is some overlap between the two conceptions nonetheless. Floridi notes that the concept of information entropy is easily grasped when we think of information in terms of its ability to decrease our ignorance or in terms of a data deficit. The toss of a coin has become the canonical example. If the coin is fair, then we cannot predict whether it will land heads or tails. Thus, tossing the coin stands to decrease our ignorance when it lands. If the coin is weighted, however, such that it will always land heads (and we know this fact), then we stand to learn nothing new when it lands. In Shannon’s terms, the information entropy in the toss of the fair coin is higher, that is, more uncertain, then that of the weighted coin. Though Shannon famously claimed that his attempts to quantify information in engineering had little to do with semantic content, his word was not the last on the subject and has also been a matter of some debate. Barwise and Seligman noted semantic corollaries to Shannon in what has been identified as the Inverse Relationship Principle (IRP). IRP says that the more rare a piece of information is, the more informative it is, and vice versa. Thus, within the domain of one’s general knowledge of animals, in the phrase, “a four-legged animal that quacks,” the range of the term “animal” is larger than that of “four-legged,” and hence is less informative. The term “quacks” is less likely to occur and is thus the most informative. (Notwithstanding the fact that there are no four-legged animals that quack, it would not be surprising if the reader’s immediate reaction to the above phrase were to think of a duck, even though it does not have four legs, because very few animals (only ducks?) quack and many animals have four legs.)

SCHM2013 The Fastest Way of Computing All Universes

Jürgen SCHMIDHUBER, The Fastest Way of Computing All Universes, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

SCHM2013.1 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 381-382 : In the 1940s, Konrad Zuse already speculated that our universe is computable by a deterministic computer program (Horst Zuse, personal communication, 2006), like the virtual worlds of today’s video games. In 1967 he published the first scientific paper on this idea, soon to be followed by his book Calculating Space, focusing on cellular automata as computational devices. We shall see that contrary to common belief, Zuse’s hypothesis is compatible with all known observations of quantum physics. Since computable universes are much simpler than non-computable ones, and since one should prefer simple explanations over complex ones, we shall accept his hypothesis as long as there is no evidence to the contrary. Somewhat surprisingly, there must then exist a very short and in a sense optimally fast algorithm that not only computes the entire history of our own universe, but also those of all other logically possible universes. If the computation of our world indeed is indeed based on such an optimal method, then we may derive non-trivial predictions about its future.

SCHM2013.2 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 382-383 : Or is the universe perhaps not computable at all, because it somehow contains or depends on non-computable numbers? As of today there is no compelling reason whatsoever to assume that. Most physicists are indeed convinced that the universe is quantized by smallest discrete units of time and space and energy. On the other hand, they like to predict macroscopic phenomena using calculus based on the axioms of real numbers, and most real numbers are not even computable (because there are uncountably many real numbers, but only countably many finite programs, such as the non-halting program computing all digits of π). Even quantum physicists who are ready to give up the assumption of a continuous universe usually do take for granted the existence of continuous probability distributions on their discrete universes, and Stephen Hawking explicitly said: “Although there have been suggestions that space-time may have a discrete structure I see no reason to abandon the continuum theories that have been so successful.” Note, however, that all physicists in fact have only manipulated discrete symbols, thus generating finite, describable proofs of their results derived from enumerable axioms. That real numbers really exist in a way transcending the finite symbol strings used by everybody may be a figment of imagination – compare Brouwer’s constructive mathematics and the Löwenheim-Skolem Theorem which implies that any first order theory with an uncountable model such as the real numbers also has a countable model. As Kronecker put it: “Die ganze Zahl schuf der liebe Gott, alles Übrige ist Menschenwerk” (“God created the integers, all else is the work of man”). Kronecker greeted with scepticism Cantor’s celebrated insight that there are uncountably many real numbers, mathematical objects Kronecker believed did not even exist. Anyway, calculus does yield very good macro-level approximations of whatever discrete computable processes may really be happening on the microscopic level.

SCHM2013.3 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 383-384 : Obviously the universe at least partially obeys simple program-like rules: apples fall to the ground again and again in similar ways; all electrons apparently act the same. Many quantum physicists, however, believe that the history of the universe also includes an incredible number of principally unpredictable, random events on the quantum level. If that were true, then it would not have a short description, since truly random, irregular data has maximal Kolmogorov complexity, being incompressible by definition. Here physicists like to refer to Werner Heisenberg (1901-1976), whose famous uncertainty principle says that an observer cannot simultaneously precisely determine impulse and location of a physical object. For example, to measure the state of an electron, one needs to shoot other particles at it, thus changing its state. To mathematically quantify the resulting uncertainty, quantum mechanics replaces precise deterministic predictions by probabilistic ones. Many physicists believe this uncertainty to be not only a practical measurement problem, but a fundamental property of nature, claiming that God does not obey Albert Einstein’s famous quote: Gott würfelt nicht (God does not play dice). According to this view, history would not be pre-determined, and neither compactly describable nor precisely predictable, not even in principle. It is possible, however, to imagine a computer-generated, pseudo-random, totally deterministic world that makes its inhabitants believe that it is partially random and only partially observable, thanks to Heisenberg-like observation limits. A hypothetical programmer of this world could interrupt the computation at any time, dump the current storage into a file, and analyze every little detail, including precise impulse and location of every bitstring-encoded elementary particle. Later he could continue the program’s execution, without any internal observer even noticing the pause.

SCHM2013.4 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 384 : Most scientists appreciate the rule of William Occam (1280-1347): Among all hypothesis explaining the observations, favor the simplest one. In modern terms: Among all programs reproducing or compressing the observations, favor the shortest one. The principle is widely accepted not only in the inductive sciences such as physics, but even in the fine arts. 50 I will later sharpen it a bit, taking into account not only program size but also computation time.

SCHM2013.5 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 386 : Observers inhabiting a computable universe may talk about mathematical paradoxons and things that are incomputable in a sense, such as the halting probability of a universal Turing machine, which is closely related to Gödel’s incompleteness theorem. This does not involve any inconsistencies. For example, the processes that correspond to our brain firing patterns and the sound waves they provoke by controlling our voices may still correspond to computable substrings of our universe’s evolution. The same holds for talk about inconsistent worlds in which, say, time travel is possible.

SCHM2013.6 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 386-387 : (here l(p) denotes the length of program p, a bitstring) Algorithm FAST for i := 1, 2, … do Run each program p with l(p) ≤ i for at most 2i−l(p)</sup> steps and reset storage modified by p end for That is, in phase i, FAST generates all universes computable by some program p satisfying l(p) + log t(p) ≤ i, where t(p) is the runtime of p, and log denotes the binary logarithm. […] It is easy to see that FAST will generate the n-th bit of each universe as quickly as if it were computed by this universe’s fastest program, save for a constant factor that does not depend on n. Following standard practice of theoretical computer science, we may therefore call FAST the asymptotically fastest way of computing all computable universes. For any God-like Great Programmer, FAST offers a natural, optimally efficient way of computing all logically possible worlds. If our universe is one of the computable ones, then FAST will eventually produce a detailed representation of its first few billion years of local time (note that nearly 14 billion years have passed since the big bang).

SCHM2013.7 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 389 : Note that if somebody indeed found the shortest and fastest program of our world, this would not necessarily help to figure out the future faster than by waiting for it happen. The computer on which to run this program would have to be built within our universe, and as a small part of the latter would be unable to run as fast as the universe itself.

SCHM2013.8 Cf. Schmidhuber, The Fastest Way of Computing All Universes, op. cit., p. 392-393 : The theory of computable universes provides a purely rational and technologically oriented access to basic questions of philosophy and theology. At least in principle, everybody could become some sort of God by programming the algorithm FAST […] on a computer, systematically creating all constructively computable universes, including ours. In some of them, programmers occasionally will intervene in the worlds computed by their programs, reminiscent of well-known religious role models. In some, the computable contents of simulated brains will be occasionally copied from one computable world to another, implementing variants of heaven or hell. Beings evolved in some of the simulated universes will again build computers to simulate universes, in recursively nested fashion. This begs the question: Where does the computer of the top universe in the hierarchy come from? It must remain open for now. The fact that there are mathematically optimal ways of creating and computing all the logically possible worlds, however, opens a new and exciting field hardly discussed in today’s mainstream philosophy and theology.

HUTT2013 The Subjective Computable Universe

Marcus HUTTER, The Subjective Computable Universe, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

HUTT2013.1 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 399 : Nearly all theories developed for our world are computational. The fundamental theories in physics can be used to emulate on a computer ever more aspects of our universe. This and the ubiquity of computers and virtual realities has increased the acceptance of the computational paradigm. A computable theory of everything seems to have come within reach. Given the historic progression of theories from ego- to geo- to helio-centric models to universe and multiverse theories, the next natural step was to postulate a multiverse composed of all computable universes. Unfortunately, rather than being a theory of everything, the result is more a theory of nothing, which actually plagues all too-large universe models in which observers occupy random or remote locations. The problem can be solved by incorporating the subjective observer process into the theory. While the computational paradigm exposes a fundamental problem of large-universe theories, it also provides its solution.

HUTT2013.2 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 412 : (i) Bit-string ontology: The observers’ raw experience of the world can be cast into a single temporal binary sequence o. All other physical and epistemological concepts are derived. What exactly knowledge is and how humans acquire it is philosophically still controversial. Discussions revolve around justification, truth, and belief, which are themselves subtle concepts. These problems are avoided by operating on the much lower ontological “data” level, namely that of an observer capable of perceiving an ordered stream of bits, and nothing else. For a robot or a human in a cyber-world we can take the binarized and linearized data stream from all sensors. For a human in the real world we can approximately digitally record all raw sensory input. All higher-level interpretations of this bit-string (leading to what is traditionally called ‘knowledge’) is theory-laden, where suitable theories are induced via CToE selection.

HUTT2013.3 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 412-413 : (ii) Realism: There exists an objective world independent of any particular observer in it. Although solipsists claim that the world and other minds do not exist outside and independent of their own mind, and idealists place ideas and spiritual experience at the center of existence, pragmatically, realism is the least controversial assumption. It can (much better than the alternatives) explain many features of our experience e.g. evolution and society. In any case, the CToE selection principle is powerful enough to determine whether the a-priori assumption of an objective world is warranted (Length(q*) ≫ 0) or not (Length(q*) ≈ 0). Indeed, it can determine precisely which and how much of our experience should be ascribed to an objective world (namely q*) and what is subjective (namely s*).

HUTT2013.4 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 413 : (iii) Computable universe: The world is computable, i.e. there exists an algorithm (a finite binary string) which, when executed, outputs the entire space-time universe. The idea of a mechanical universe is old and has been expressed by many researchers. The more we understand our world, the more plausible it becomes. […] physical theories describe (aspects of) our universe with increasing precision and scope. All those theories are computable in the sense that they can simulate the physical phenomena on a computer, although quantum randomness and aspects of string theory complicate this picture. Given this trend, it is natural to conjecture that the total world u is computable. Note that this assumption implicitly assumes (i.e. implies) that temporally stable binary strings exist, which connects it with assumption (i).

HUTT2013.5 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 413 : (iv) Computable observer process: The observer is a computable process within the objective world. If/since the universe is computable, then an observer who is part of it, is obviously computable too, hence the observation bit-string o should be a computable function of the universe u. This is not at odds with free will […]. The important point is to acknowledge that the observer process is important, even if we are/were only interested in objective theories or aspects of the world. Note that observer localization is neither based on the controversial anthropic principle, nor has it anything to do with the quantum-mechanical observation process, although there may be some deeper yet to be explored connections.

HUTT2013.6 Cf. Hutter, The Subjective Computable Universe, op. cit., p. 413-414 : (v) Ockham’s razor principle: Choose the simplest theory consistent with the observations. Ockham’s razor principle has so far been invaluable for understanding our world. The assumption is that the models selected by it will continue to lead to most-likely-correct predictions. Minimum encoding length principles, rooted in (algorithmic) information theory, quantify Ockham’s razor principle, and have led to a quantitative, pragmatic and universal foundation of inductive reasoning. Indeed, it seems to be a necessary and sufficient founding principle of science itself, in contrast e.g. to the popular but insufficient falsifiability principle. Until other necessary and sufficient principles are found, it is prudent to accept Ockham’s razor as the foundation of science. A-priori justifications of Ockham’s razor are possible too, but of course they must rest themselves on (other) assumptions. For instance, if one assumes that a-priori all universe and observer programs (q, s) are equally likely, then one can show that Ockham’s razor ‘works’. Hence one could replace (v) by this so-called universal self-sampling assumption (not to be confused with informal anthropic arguments or the no free lunch myth).

WOLF2013 What Is Ultimately Possible in Physics?

Stephen WOLFRAM, What Is Ultimately Possible in Physics?, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

WOLF2013.1 Cf. Wolfram, What Is Ultimately Possible in Physics?, op. cit., p. 417-419 : In the history of mathematics, particularly in the 1800s, many “impossibility results” were found. Squaring the circle. Trisecting an angle. Solving a quintic equation. But these were not genuine impossibilities. Instead, they were in a sense only impossibilities at a certain level of mathematical technology. It is true, for example, that it is impossible to solve any quantic –if one is only allowed to use square roots and other radicals. But it is perfectly possible to write down a finite formula for the solution to any quintic in terms, say, of elliptic functions. And indeed, by the early 1900s, there emerged the view that there would ultimately be no such impossibilities in mathematics. And that instead it would be possible to build more and more sophisticated formal structures that would eventually allow any imaginable mathematical operation to be done in some finite way. Yes, one might want to deal with infinite series or infinite sets. But somehow these could be represented symbolically, and everything about them could be worked out in some finite way. In 1931, however, it became clear that this was not correct. For Gödel’s theorem showed that in a sense mathematics can never be reduced to a finite activity. Starting from the standard axiom system for arithmetic and basic number theory, Gödel’s theorem showed that there are questions that cannot be guaranteed to be answered by any finite sequence of mathematical steps – and that are therefore “undecidable” with the axiom system given. One might still have thought that the problem was in a sense one of “technology”: that one just needed stronger axioms, and then everything would be possible. But Gödel’s theorem showed that no finite set of axioms can ever be added to cover all possible questions within standard mathematical theories. At first, it wasn’t clear how general this result really was. There was a thought that perhaps something like a transfinite sequence of theories could exist that would render everything possible – and that perhaps this might even be how human minds work. But then in 1936 along came the Turing machine, and with it a new understanding of possibility and impossibility. The key was the notion of universal computation: the idea that a single universal Turing machine could be fed a finite program that would make it do anything that any Turing machine could do. In a sense this meant that however sophisticated one’s Turing machine technology might be, one would never be able to go beyond what any Turing machine that happened to be universal can do. And so if one asked a question, for example, about what the behavior of a Turing machine could be after an infinite time (say, does the machine ever reach a particular “halt” state), there might be no possible systematically finite way to answer that question, at least with any Turing machine. But what about something other than a Turing machine? Over the course of time, various other models of computational processes were proposed. But the surprising point that gradually emerged was that all the ones that seemed at all practical were ultimately equivalent. The original mathematical axiom system used in Gödel’s theorem was also equivalent to a Turing machine. And so were all other reasonable models of what might constitute not only a computational process, but also a way to set up mathematics. There may be some quite different way to set up a formal system than the way it is done in mathematics. But at least within mathematics as we currently define it, we can explicitly prove that there are impossibilities. We can prove that there are things that are genuinely infinite, and cannot meaningfully be reduced to something finite. We know, for example, that there are polynomial equations involving integers where there is no finite mathematical procedure that will always determine whether the equations have solutions. It is not – as with the ordinary quintic equation – that with time some more sophisticated mathematical technology will be developed that allows solutions to be found. It is instead that within mathematics as an axiomatic system, it is simply impossible for there to be a finite general procedure. So in mathematics there is in a sense “genuine impossibility”. Somewhat ironically, however, mathematics as a field of human activity tends to have little sense of this. And indeed there is a general belief in mathematics – much more so than in physics – that with time essentially any problem of “mathematical interest” will be solved. A large part of the reason for this belief is that known examples of undecidable – or effectively impossible – problems tend to be complicated and contrived, and seem to have little to do with problems that could be of mathematical interest.

SUTN2013 Universality, Turing Incompleteness and Observers

Klaus SUTNER, Universality, Turing Incompleteness and Observers, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

SUTN2013.1 Cf. Sutner, Universality, Turing Incompleteness and Observers op. cit.'', p. 435-439 : The development of the mathematical theory of computability was motivated in large part by the foundational crisis in mathematics. D. Hilbert suggested an antidote to all the foundational problems that were discovered in the late 19th century: his proposal, in essence, was to formalize mathematics and construct a finite set of axioms that are strong enough to prove all proper theorems, but no more. Thus a proof of consistency and a proof of completeness were required. These proofs should be carried only by strictly finitary means so as to be beyond any reasonable criticism. As Hilbert pointed out, to carry out this project one needs to develop a better understanding of proofs as objects of mathematical discourse […] Furthermore, Hilbert hoped to find a single, mechanical procedure that would, at least in principle, provide correct answers to all well-defined questions in mathematics […]. Initially encouraging progress was made towards the realization of Hilbert’s dream: first propositional logic was shown to be complete by Hilbert’s student Ackermann […], then predicate logic by Gödel. Predicate logic appeared to be the right framework for Hilbert’s project since it conformed nicely to his ideas about mathematical existence: unless the assumption of existence produces an inconsistency, the alleged object indeed exists. Alas, in his seminal 1931 paper, Gödel showed that logical completeness does not translate into mathematical completeness. Specifically, any attempt to formalize even just elementary arithmetic is already doomed to fail in the sense that, no matter how carefully the system is constructed, there will always be unprovable yet true statements (assuming, of course, the system is indeed consistent). This result is central to proof theory, but we can also interpret it computationally. In a formal system of the type Gödel considered, proofs are perfectly finitary objects and can be generated in a purely mechanical fashion without any particular insight into their meaning. In a certain sense, producing proofs is just a problem of word processing. As a consequence, the collection of provable theorems is semidecidable: there is a semi-algorithm that halts and reports “yes” if that is indeed the correct answer; otherwise it fails to halt. On the other hand, the collection of true statements of arithmetic is not even located within the arithmetic hierarchy […]. The Entscheidungsproblem is unsolvable for arithmetic, and, as we now know, for many other areas of mathematics such as group theory, lattice theory or the theory of the rationals. Gödel was very clear about the importance of computability in this context […] The question as to how precisely the notion of computability itself should be formalized was finally solved to Gödel’s satisfaction by Turing’s ground-breaking paper. It is noteworthy that Gödel initially resisted attempts to declare either the Gödel-Herbrand or the Church approach as the canonically correct solution. Just a few years after Gödel’s discovery, Alan Turing and John von Neumann both made critical contributions to an entirely new development: the construction of powerful and practical computers, machines that could actually carry out computations that had thus far been limited to purely theoretical discourse. In particular Turing’s abstract idea of a universal computer, a device that can perform all possible computations whatsoever, turned out to be technologically realizable. The reason for this, in the most abstract sense, is the fact that physics supports computation: we can build concrete devices whose behavior is described by the laws of physics that implement Turing machines in a very obvious fashion. For reasons of efficiency, one usually employs a model referred to as a random access machine, but it is easy to see that these devices are very closely related to Turing machines in computational power (at least if one is willing to accept a polynomial slow-down). Thus, for any area of mathematics for which the Entscheidungsproblem does have a solution, we can build a physical device that will answer all questions put to it. For example, if we limit arithmetic to just addition, there is a decision algorithm for all sentences in this weak system as shown by Presburger. Indeed, the algorithm has found practical use in model checking and helps to verify the correctness of certain computer programs. On the other hand, any realization of the decision algorithm is also plagued by a lower bound result due to Fischer and Rabin that shows that it is necessarily doubly exponential in the worst case. This connection between computation and physics may seem merely a matter of pragmatism; having the ability to perform large and complicated computations on actual and concrete physical devices is obviously a great advantage for mathematics. […] Naturally the question arises whether any type of physically realizable process could correspond to a computation outside of this framework. In other words, could a physical process break through the Turing barrier or is there a physical version of the Church-Turing thesis that rules out the existence of any such process. In order to give a truly satisfactory answer to this question, one would first have to resolve Hilbert’s 6th problem in a strong form and axiomatize physics, in its totality. At present there seems little hope for any such formalization of physics, all one can manage is a discussion of the computational implications of some particular physical theory such as Newtonian mechanics, general relativity, quantum mechanics, quantum field theory and so on. It is of course of interest to study the strength of physical theories such as Newtonian mechanics, even if they are known not to be in total agreement with actual physical reality. However, the ultimate question of physical realizability will require a stronger approach. […] is it possible, in the context of physical computation, to break through the Turing barrier in the downward direction? The background for this question is a celebrated result in the theory of computation: there are semidecidable sets that are neither decidable nor as complicated as the Halting problem, the most complicated semidecidable set. These sets are said to be intermediate or of intermediate degree, a degree being a collection of all sets of the same level of complexity. The question of whether such sets exist is commonly referred to as Post’s problem and its solution required the invention of a new proof technique, the so-called priority method, which has since become one of the hallmarks of computability theory […] In particular with respect to the construction of sets of intermediate degrees, the corresponding priority argument undoubtedly produces the required set, but is disappointing in the sense that the set so constructed is entirely ad hoc, it has no qualities other than to provide a solution to Post’s problem. By contrast, many sets of full degree such as the Halting problem or the set of solvable Diophantine equations are entirely natural; likewise, at the other end of the complexity spectrum, there are lots of examples of complicated yet decidable sets.

DEUT2013 What is Computation?

David DEUTSCH, What is Computation? (How) Does Nature Compute?, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

DEUT2013.1 Cf. Deutsch, What is Computation?, op. cit., p. 557-558 : So, quite generally: things that happen in reality are governed by the laws of physics, period. And therefore I can now give the definitive answer to the question that is the title of my talk and the title of the conference: “What is (a) computation?” A computation is a physical process in which physical objects like computers, or slide rules or brains are used to discover, or to demonstrate or to harness properties of abstract objects—like numbers and equations. fluxHow can they do that? The answer is that we use them only in situations where to the best of our understanding the laws of physics will cause physical variables like electric currents in computers (representing bits) faithfully to mimic the abstract entities that we’re interested in. The reliability of the proof therefore depends on the accuracy with which those physical symbols do indeed mimic the abstract entities of interest. If we changed our mind about what the laws of physics are, we might indeed have to change our mind about whether a proposition we thought we’d proved was really true. Hence the reliability of our knowledge of mathematics, nothing to do with whether propositions are true or false, just our knowledge of mathematics, remains forever subsidiary to our knowledge of physical reality. Every mathematical proof depends absolutely, for its validity, on our being right about the rules that govern the behavior of some physical object like computers, or ink and paper, or our brains. So, contrary to what Hilbert thought, contrary to what mathematicians since antiquity believed and continue to believe to this day, proof theory can never be made into a branch of mathematics nor is it helpful to think of it as a metamathematics, as it’s sometimes known. Proof theory is a science, and specifically it is computer science. So that’s what computers are, that’s what computation is, that’s what proofs are—physical phenomena. That enables me now to tie into the subsidiary question: “Does Nature Compute?” or “How Does Nature Compute?” So, well, in one sense: yes, of course, computations are physical processes and every physical process can be regarded as a computation if we just give abstract labels to all the input states and all the output states and then just let the system evolve under the laws of physics. But precisely because you could always do that—no matter what the world was like—calling everything a computation doesn’t in itself gain us any understanding of the world. But the world also has that amazing property that I referred to at the beginning: more broadly, its computational universality. All those different computations embodied in physical processes are expressible in terms of a single finite set of elementary physical operations. They share a single, uniform, physical distinction between finite and infinite operations, and they can all be programmed to be performed on a single physical object: a universal computer, a universal quantum computer to be exact. And that’s an object that can perform every computation that every other physically possible object can perform. And to the best of our knowledge the laws of physics do have that property of computational universality and it?s because of that that physical objects like ourselves can understand other physical objects (i.e., to do science). And it’s also because of that same universality that mathematicians (like Hilbert) can build up an intuition of proof and then mistakenly think that it’s independent of physics. It’s not independent of physics, it’s just universal in the physics that governs our world.

LLOY2013 The Universe as Quantum Computer

Seth LLoyd, The Universe as Quantum Computer, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

LLOY2013.1 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 569-570 : The primary inventor of the modern digital computer, however, was Charles Babbage. In 1812, Babbage had the insight that the calculations carried out by mathematicians could be broken down into sequences of less complicated steps, each of which could be carried out by a machine – note the strong similarity to Turing’s insight into the origins of the Turing machine more than a century later. The British government fully appreciated the potential impact of possessing a mechanical digital computer, and funded Babbage’s work at a high level. During the 1820s he designed and attempted to build a series of prototype digital computers that he called ‘difference engines.’ Nineteenth century manufacturing tolerances turned out to be insufficiently precise to construct the the all-mechanical difference engines, however. The first large-scale computing project consumed over seventeen thousand pounds sterling of the British taxpayers’ money, a princely expenditure for pure research at the time. Like many computing projects since, it failed. Had they been constructed, difference engines would have been able to compute general polynomial functions, but they would not have been capable of what Turing termed universal digital computation. After the termination of funding for the difference engine project, Babbage turned his efforts to the design of an ‘analytic engine.’ Programmed by punched cards like a Jacquard loom, the analytic engine would have been a universal digital computer. The mathematician Ada Lovelace devised a program for the analytic engine to compute Bernoulli numbers, thereby earning the title of the world’s first computer programmer. The insights of Babbage and Lovelace occurred more than a century before the start of the information processing revolution. Turing was born in the centenary of the year in which Babbage had his original insight. The collection in which this paper appears could equally be dedicated to the two-hundredth anniversary of Babbage’s vision. But scientific history is written to celebrate winners (see Pythagoras, above). Turing ‘won’ the title of the inventor of the digital computer because his insights played a direct role in the vision of the creators of the first actual physical computers in the mid-twentieth century. The science fiction genre known as ‘steam-punk’ speculates how the world might have evolved if nineteenth century technology had been up to the task of constructing the difference and analytical engines. (Perhaps the best-known example of the steampunk genre is William Gibson and Bruce Sterling’s novel ‘The Difference Engine’.) The mathematical development of digital logic did not occur until after Babbage’s mechanical development. It was not until the 1830s and 1840s that the British logician Augustus de Morgan and the mathematician George Boole developed the bit-based logic on which current digital computation is based. Indeed, had Babbage been aware of this development at the time, the physical construction of the difference and analytic engines might have been easier to accomplish, as Boolean, bit-based operations are more straightforward to implement mechanically than base-ten operations. As will be seen, the relative technological simplicity of bit-based operations would play a key role in the development of electronic computers. By the time that Turing began working on the theory of computation, Babbage’s efforts to construct actual digital computers were a distant memory. Turing’s work had its direct intellectual antecedents in the contentious arguments on the logical and mathematical basis of set theory that were stirred up at the beginning of the twentieth century. At the end of the nine-teenth century, the German mathematician David Hilbert had proposed an ambitious programme to axiomatize the whole of mathematics. In 1900, he famously formulated this programme at the International Congress of Mathematicians in Paris as a challenge to all mathematicians – a collection of twenty three problems whose solution he felt would lead to a complete, axiomatic theory not just of mathematics, but of physical reality. Despite or because of its grand ambition to establish the logical foundations of mathematical thought, cracks began to appear in Hilbert’s programme almost immediately. The difficulties arose at the most fundamental level, that of logic itself. Logicians and set theorists such as Gottfried Frege and Bertrand Russell worked for decades to make set theory consistent, but the net result of their work was call into question the logical foundations of set theory itself. In 1931, just when the efforts of mathematicians such as John von Neumann had appeared to patch up those cracks, Kurt Gödel published his beautiful but disturbing incompleteness theorems, showing that any system of logic that is powerful enough to describe the natural numbers is fundamentally incomplete in the sense that there exist well-formulated proposition within the system that cannot be resolved using the system’s axioms. By effectively destroying Hilbert’s programme, Gödel’s startling result jolted the mathematical community into novel ways of approaching the very notion of what logic was.

LLOY2013.2 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 571-573 : Turing’s great contribution to logic can be thought of as the rejection of logic as a Platonic ideal, and the redefinition logic as a process. Turing’s famous paper of 1936, ‘On Computable Numbers with an application to the Entscheidungsproblem,’ showed that the process of performing Boolean logic could be implemented by an abstract machine, subsequently called a Turing machine. Turing’s machine was an abstraction of a mathematician performing a calculation by thinking and writing on pieces of paper. The machine has a ‘head’ to do the thinking, and a ‘tape’ divided up in squares to form the machine’s memory. The head has a finite number of possible states, as does each square. At each step, in analogy to the mathematician looking at the piece of paper in front of her, the head reads the state of the square on which it sits. Then, in analogy to thinking and writing on the paper, the head changes its state and the state of the square. The updating occurs as a function of the head’s current state and the state of the square. Finally, in analogy to the mathematician either taking up a new sheet of paper or referring back to one on which she has previously written, the head moves one square to the left of right, and the process begins again. Turing was able to show that such machines were very powerful computing devices in principle. In particular, he proved the existence of ‘universal’ Turing machines, which were capable of simulating the action of any other Turing machine, no matter how complex the actions of its head and squares. Unbenownst to Turing, the American mathematician Alonzo Church had previously arrived at a purely formal logical description of the idea of computability, the so-called Lambda calculus. At the same time as Turing, Emil Post devised a mechanistic treatment of logical problems. The three methods were all formally equivalent, but it was Turing’s that proved the most accessible. Perhaps the most fascinating aspect of Turing’s mechanistic formulation of logic was how it dealt with the self-contradictory and incomplete aspects of logic raised by Gödel’s incompleteness theorems. Gödel’s theorems arise from the ability of logical systems to have self-referential statements – they are a formalization of the ancient ‘Cretan liar paradox,’ in which a statement declares itself to be false. If the statement is true, then it is false; if it is false, then it is true. Regarding proof as a logical process, Gödel restated the paradox as a statement that declares that it can’t be proved to be true. There are two possibilities. If the statement is false, then it can be proved to be true – but if a false statement can be proved to be true, then the entire system of logic is inconsistent. If the statement is true, then it can’t be proved to be true, and the logical system is incomplete. In Turing’s formulation, logical statements about proofs are translated into actions of machines. The self-referential statements of Gödel’s incompleteness theorems then translate into statements about a universal Turing machine that is programmed to answer questions about its own behavior. In particular, Turing showed that no Turing machine could answer the question of when a Turing machine ‘halts’ – i.e., gives the answer to some question. If such a machine existed, then it would be straightforward to construct a related machine that halts only when it fails to halt. In other words, the simplest possible question one can ask of a digital computer – whether it gives any output at all – cannot be computed! The existence of universal Turing machines, together with their intrinsic limitation due to self-contradictory behavior as in the halting problem, has profound consequences for the behavior of existing computers. In particular, current electronic computers are effectively universal Turing machines. Their universal nature expresses itself in the fact that it is possible to write software that can be compiled to run on any digital computer, no matter whether it is made by HP, Lenovo, or Apple. The power of universal Turing machines manifests itself in the remarkable power and flexibility of digital computation. This power is expressed in the so-called Church-Turing hypothesis, which states that any effectively calculable function can be computed using a universal Turing machine. The intrinsically self-contradictory nature of Turing machines and the halting problem manifest themselves in the intrinsically annoying and frustrating behavior of digital computers – the halting problem implies that there is no systematic way of debugging a digital computer. No matter what one does, there will always be situations where the computer exhibits surprising and unexpected behavior (e.g., the ‘blue screen of death’). Concurrent with the logical, abstract development of the notion of computation, including Turing’s abstract machine, engineers and scientists were pursuing the construction of actual digital computers. In Germany in 1936, Konrad Zuse designed the Z-1, a mechanical calculator whose program was written on perforated 35mm film. In 1937, Zuse expanded the design to allow universal digital computation a la Turing. When completed in 1938, the Z-1 functioned poorly due to mechanical imprecision, the same issue that plagued Babbage’s difference engine more than a century earlier. By 1941, Zuse had constructed the Z-3, an electronic computer capable of universal digital computation. Because of its essentially applied nature, and because it was kept secret during the second world war, Zuse’s work received less credit for its seminal nature than was its due (see the remark above on winner’s history). Meanwhile, in 1937, Claude Shannon’s MIT master’s thesis, ‘A Symbolic Analysis of Relay and Switching Circuits,’ showed how any desired Boolean function – including those on which universal digital computation could be based – could be implemented using electronic switching circuits. 8 This work had a profound influence on the construction of electronic computers in the United States and Great Britain over the next decades.

LLOY2013.3 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 573 : Turing’s ideas on computation had immediate impact on the construction of actual digital computers. While doing his Ph.D. at Princeton in 1937, Turing himself constructed simple electronic models of Turing machines. The real impetus for the development of actual digital computers came with the onset of the second world war. Calculations for gunnery and bombing could be speeded up electronically. Most relevant to Turing’s work, however, was the use of electronic calculators for the purpose of cryptanalysis During the war, Turing became the premier code-breaker for the British cryptography effort. The first large-scale electronic computer, the Colossus, was constructed to aid this effort. In the United States, IBM constructed the Mark I at Harvard, the second programmable computer after Zuse’s Z-3, and used it to perform ballistic calculations. Zuse himself had not remained idle: he created the world’s first computer start-up, designed the follow-up to the Z-3, the Z-4, and wrote the first programming language. The end of the war saw the construction of the Electronic Numerical Integrator and Computer, or ENIAC. To build a computer requires and architecture. Two of the most influential proposals for computer architectures at the end of the war were the Electronic Discrete Variable Automatic Computer, or EDVAC, authored by von Neumann, and Turing’s Automatic Computing Engine, or ACE. Both of these proposals implemented what is called a ‘von Neumann’ computer architecture, in which program and data are stored in the same memory bank. Stored program architectures were anticipated by Babbage, implicit in Turing’s original paper, and had been developed previously by J. Presper Eckert and John Mauchly in their design for the ENIAC. The Pythagoras syndrome, however, assigns their development to von Neumann, who himself would have been unlikely to claim authorship.

LLOY2013.4 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 574-576 : The physical universe bears little resemblance to the collection of wires, transistors, and electrical circuitry that make up a conventional digital computer. How then, can one claim that the universe is a computer? The answer lies in the definition of computation, of which Turing was the primary developer. According to Turing, a universal digital computer is a system that can be programmed to perform any desired sequence of logical operations. Turing’s invention of the universal Turing machine makes this notion precise. The question of whether the universe is itself a universal digital computer can be broken down into two parts: (I) Does the universe compute? and (II) Does the universe do nothing more than compute? More precisely, (I) Is the universe capable of performing universal digital computation in the sense of Turing? That is, can the universe or some part of it be programmed to simulate a universal Turing machine? (II) Can a universal Turing machine efficiently simulate the dynamics of the universe itself? At first the answers to these questions might appear, straightforwardly, to be Yes. When we construct electronic digital computers, we are effectively programming some piece of the universe to behave like a universal digital computer, capable of simulating a universal Turing machine. Similarly, the Church-Turing hypothesis implies, that any effectively calculable physical dynamics – including the known laws of physics, and any laws that may be discovered in the – can be computed using a digital computer. But the straightforward answers are not correct. First, to simulate a universal Turing machine requires a potentially infinite supply of memory space. In Turing’s original formulation, when a Turing machine reaches the end of its tape, new blank squares can always be added: the tape is ‘indefinitely extendable.’ Whether the universe that we inhabit provides us with indefinitely extendable memory is an open question of quantum cosmology, and will be discussed further below. So a more accurate answer to the first question is ‘Maybe.’ The question of whether or not infinite memory space is available is not so serious, as one can formulate notions of universal computation with limited memory. After all, we treat our existing electronic computers as universal machines even though they have finite memory (until, of course, we run out of disc space!). The fact that we possess computers is strong empirical evidence that laws of physics support universal digital computation. The straightforward answer to question (II) is more doubtful. Although the outcomes of any calculable laws of physics can almost certainly be simulated on a universal Turing machine, it is an open question whether this simulation can be performed efficiently in the sense that a relatively small amount of computational resources are devoted to simulating what happens in a small volume of space and time. The current theory of computational complexity suggests that the answer to the second question is ‘Probably not.’ An even more ambitious programme for the computational theory of the universe is the question of architecture. The observed universe possesses the feature that the laws of physics are local – they involve only interactions between neighboring regions of space and time. Moreover, these laws are homogeneous and isotropic, in that they appear to take the same form in all observed regions of space and time. The computational version of a homogeneous system with local laws is a cellular automaton, a digital system consisting of cells in regular array. Each cell possesses a finite number of possible states, and is updated as a function of its own state and those of its neighbors. Cellular automata were proposed by von Neumann and by the mathematician Stanislaw Ulam in the 1940s, and used by them to investigate mechanisms of self-reproduction. Von Neumann and Ulam showed that cellular automata were capable of universal computation in the sense of Turing. In the 1960s, Zuse and computer scientist Edward Fredkin proposed that cellular automata could be used as the basis for the laws of physics – i.e., the universe is nothing more or less than a giant cellular automaton. More recently, this idea was promulgated by Stephen Wolfram. The idea that the universe is a giant cellular automaton is the strong version of the statement that the universe is a computer. That is, not only does the universe compute, and only compute, but also if one looks at the ‘guts’ of the universe – the structure of matter at its smallest scale – then those guts consist of nothing more than bits undergoing local, digital operations. The strong version of the statement that the universe is a computer can be phrased as the question, (III) ‘Is the universe a cellular automaton?’ As will now be seen, the answer to this question is No. In particular, basic facts about quantum mechanics prevent the local dynamics of the universe from being reproduced by a finite, local, classical, digital dynamics.

ZIZZ2013 When Humans Do Compute Quantum

Paola ZIZZI, When Humans Do Compute Quantum, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

ZIZZ2013.1 Cf. Zizzi, When Humans Do Compute Quantum, op. cit., p. 621 : We make the formal distinction between ordinary thought and meta-thought. Ordinary thought can be conscious or unconscious, and in both cases it is essentially computational, in a classical mode in the first case, and in a quantum mode in the second one. The metalogic description of the quantum meta-thought is Quantum Metalanguage, which is the language speaking about the quantum object-language of the quantum thought. The unconscious thought seem to be driven by mental processes which are very fast, much more than those concerning the conscious thought. This already suggests that the above processes are quantum-computational, as a quantum computer is much faster than its classical counterpart. Moreover, the sudden decision-makings or understandings, creativity, imagination and discoveries arising from an unconscious state of the mind, are just the results of a given mental process, whose intermediate steps, however, remain unknowable. This is also a fact well known in quantum computing: one can get the result of a computation with a given probability, but the intermediate steps are not available. Then, these two features seem to indicate that the unconscious mind is indeed quantum-computational. The logic of the computational mode of the unconscious mind must be therefore the logic of quantum information.

ZUSE2013 Calculating Space

Konrad ZUSE, Calculating Space (Rechnender Raum), in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

ZUSE2013.1 Cf. Zuse, Calculating Space, op. cit., p. 734-735 : We distinguish between two classes of computers: analog computers and digital computers. In an analog computer, the steps in the calculation are performed in an “analog” model. Magnitudes representing numerical values are theoretically represented through continual physical magnitudes, such as positions of mechanical parts (torsion angle), tension, velocities, and the like. The machine operates essentially without end. The represented values lie obviously below certain technical limits. These are established by maximum values and by the accuracy of the system. The maximum values are given by a clearly-defined upper limit which corresponds to the technical limits of the system. In contrast, the accuracy has no clearly-defined magnitude, because it depends on change and on external influences (temperature, moisture, the presence of disturbing fields, etc.) One well-known analog computer is the slide rule. Figure 5 shows a mechanical adding mechanism the form of a lever which can be replaced with a rotating mechanism with gears, as in Fig. 6. This mechanism is known in engineering by the inappropriate term “differential mechanism” and is employed in the rear axle of every automobile. A typical construction element of analog machines is represented by the integration mechanism shown in Fig. 7. This operates with a friction disc A in contact with a friction wheel B. The distance r of the friction wheel B from the axle of A can be varied. In this way, the mechanism can be used for integration. In modern analog instruments, these mechanical elements are replaced by electronic ones. An integration can, for example, be carried out by charging a condenser. Noncontinuous processes are generally not reproducible with analog instruments; in other words, analog computers are poorly designed for these processes.

ZUSE2013.2 Cf. Zuse, Calculating Space, op. cit., p. 735-736 : With digital computers, all values are represented by numbers. Because a digital computer can hold only a certain limited sum of numbers, there is available for the representation of continuous values only a limited supply of values. This implies considerable divergence from mathematical models. Mathematical values are subject to the concept of infinity in two respects. First, the absolute magnitude of the numbers is unlimited; furthermore, between any two given values an infinite number of intermediate values may be assumed to exist. For this reason, computers have (independent of the number code employed) maximum values which, out of technical considerations (number of places of the register and storage), cannot be exceeded. In addition, the values proceed in step-fashion. There are neighboring values between which no additional intermediate values may be inserted. This results in limited accuracy among other consequences. In contrast to the analog computers, the accuracy of digital computers is strictly defined and is not subject to any coincidental influences. A further conclusion is that no digital computer can precisely reproduce the results of processes defined by arithmetic axiom. Thus, for example, the mathematical formula a · b / a = b has general validity, with the one exception that a cannot be equal to 0. There is no finite automaton capable of reproducing this fact precisely and generally. It is possible, nevertheless, by increasing the number of places before and after the decimal point, for a digital computer to approach infinitely close to the laws of arithmetic.

ZUSE2013.3 Cf. Zuse, Calculating Space, op. cit., p. 736 : We in the field of mathematics have already become so accustomed to the concept of infinity that we accept it without considering that every infinite term is related to a series expansion or to a limiting process (“for every number there is one which follows it”). By relating this process to automaton theory, we obtain in place of a static, predetermined, finite automaton a series of automatons which are constructed according to a definite plan and differ from one another only in the number of places. The plan for construction of an automaton with n places is given; in addition, there are instructions for converting an n-place automaton to one with n + 1 places. By use of the limiting process limn→∞ with the aid of series expansion the automaton rule for arithmetic operations is obtained. The digital computer, because of its special ability to handle not only numbers but also general information (in contrast to the analog computer), has opened up completely new fields, discussed below in greater detail. In general, all calculation problems can be solved on a digital computer, whereas analog computers are better suited to special tasks. It must be stressed that digital computers work in a strictly determinative way. Us- ing the same algorithm (i.e., the same program) and introducing the same input values, the same results must always be obtained. The limited accuracy always results in the same degree of inaccuracy in the results when an operation is performed several times on the same inputs. This is in contrast to the analog computer, in which the limited accuracy has a different effect each time the program is run and can be expressed only in terms of statistical probability.

SEGA2020 Le zéro et le un

Jérôme SÉGAL, Le zéro et le un. Histoire de la notion scientifique d’information au XXe siècle, Paris, Éditions Matériologiques, 2020 [2003].

SEGA2020.1 Cf. Ségal, Le zéro et le un, op. cit., p. 20 : À partir du moment où l’information est définie comme notion scientifique, que ce soit avec des zéros et des uns ou sous des formes plus compliquées ou moins clairement définies, les attitudes oscillent entre rationalisme appliqué et fascination mystique.

SEGA2020.2 Cf. Ségal, Le zéro et le un, op. cit., p. 102-103 : Avec la parution en 1847, de Mathematical Analysis of Logic, la logique devient à la fois symbolique et mathématique puisque le calcul des propositions peut dès lors s’effectuer à partir d’une structure algébrique. En somme, pour rendre compte brièvement de ce développement on pourrait considérer, dans une interprétation positiviste, que la logique quitte l’herméneutique philosophique pour se ranger sous une discipline mathématique, la théorie des anneaux et des algèbres. Le raisonnement devient ”calcul” indépendamment de l’interprétation qu’on peut donner aux symboles. Si nous décrivons ici (à très grands traits) le cadre historique dans lequel se situent les travaux de Boole, c’est bien parce que Shannon s’intéresse directement aux écrits du logicien britannique tout le long de son mémoire intitulé “De l’analyse symbolique des circuits de relais et de commutateurs”.

SEGA2020.3 Cf. Ségal, Le zéro et le un, op. cit., p. 126 : Au sujet de ses recherches en DCA, Wiener écrit en 1958 : “J’avais en vue une méthode de prédiction basée sur des considérations mathématiques purement abstraites.”

SEGA2020.4 Cf. Ségal, Le zéro et le un, op. cit., p. 274-275 : Très schématiquement, il est possible de considérer que l’ingénieur des télécommunications (ou le cryptographe) dispose de données qu’il doit transmettre et qu’il doit d’abord caractériser. Le statisticien doit quant à lui trouver les données qui représentent une population, et, enfin, le physicien conçoit des expériences qui, grâce à des mesures, lui apportent des données. Ceci correspond au schéma général de MacKay dans lequel il est toujours question de création ou d’addition de représentation. Dans chaque cas, on peut définir des sélections qui permettent d’arriver à une expression mathématique de la notion d’information et c’est précisément la valeur heuristique de cette définition qui permet à un psychiatre qui n’est pas neurophysiologiste ou un mathématicien qui n’est pas ingénieur des communications (mais intéressé par la cryptographie) d’apporter des points de vue résolument novateurs dans des disciplines qui ne sont pas les siennes. C’est cette démarche qui est typique de la théorie de l’information plus que de la théorie mathématique de la communication.

SEGA2020.5 Cf. Ségal, Le zéro et le un, op. cit., p. 380 : L’automatisation qui y était rattachée [à la cybernétique] rappelait trop certains aspects du taylorisme et se présentait en opposition face à l’automatisation vue par les Soviétiques, à savoir un moyen de libérer l’ouvrier pour lui rendre possible un travail plus créatif [“Et voilà comment les mêmes données technologiques conduisent, selon la classe qui s’en empare, à la libération de l’homme comme en URSS ou à la mécanisation de l’homme comme aux USA” (LENTIN A., “La cybernétique : problèmes réels et mystification”, La Pensée, n° 47, mars-avril 1953, p. 59).]. Dans ce cadre, la définition même du travail à partir de la théorie de l’information (d’où seront issues des notions comme celle de capital humain) aurait pu pour le moins relativiser l’importance des rapports de classe et se serait heurtée à la variante soviétique du marxisme.

SEGA2020.6 Cf. Ségal, Le zéro et le un, op. cit., p. 381 : […] la cybernétique représentait un certain danger pour quelques disciplines : en économie, la cybernétique pouvait justifier avec la théorie des systèmes autorégulés le système capitaliste, tel qu’il était vulgarisé dans des règles comme “l’offre et la demande déterminent le marché”. En 1952, la revue de vulgarisation Scientific American avait déjà présenté le schéma de Keynes de l’économie à l’aide des représentations cybernétiques. Cette présentation prenait immanquablement l’apparence d’une justification [TUSTIN A., “Feedback”, Scientific American, 186, sept. 1952, p. 48-55. À une époque où les sciences dites exactes s’imposent en modèle de la connaissance, le simple fait de représenter une théorie économique suivant un formalisme éprouvé par les scientifiques suffit à certains pour y voir là une légitimation.].

SEGA2020.7 Cf. Ségal, Le zéro et le un, op. cit., p. 381 : […] de nombreux écrits des premiers cybernéticiens ou théoriciens de l’information amenaient à considérer l’argent comme une valeur essentielle. Le fait que l’information soit présentée comme une nouvelle grandeur, entre l’énergie et celles qui concernent la matière, conduisit quelques scientifiques à comparer l’information et la monnaie ou même à exprimer l’information en dollars. MacKay, qui définit l’information en rapport avec une expérimentation physique, écrit par exemple en 1950 que le but de sa publication est “d’isoler le concept abstrait qui représente la devise réelle des échanges scientifiques”. Lors de la discussion qui suit l’exposé de MacKay à la huitième conférence Macy, un an plus tard, nous avons signalé cette phrase quelque peu provocante de Savage, “la valeur de l’information c’est sa valeur cash, prenant ‘cash’ dans un sens métaphorique”. On conçoit que ce type de métaphore ne soit pas du goût des marxistes. De plus, toute une interprétation de la théorie des jeux faisait l’objet d’interprétations dans le même sens et plaçait de facto la cybernétique dans des enjeux idéologiques. Mandelbrot explique ainsi dans sa thèse que la théorie des jeux de stratégie de Borel s’applique à l’économie politique, car il s’agit dans les deux cas “d’organiser des mouvements en une stratégie en vue d’un gain” et que dans ce cas c’est “la mathématique du conflit” qui s’impose.

SEGA2020.8 Cf. Ségal, Le zéro et le un, op. cit., p. 391 : Les formations personnelles ont aussi leur importance. Shannon consacre une thèse de mathématiques à la création d’une algèbre applicable à la génétique mendélienne et, travaillant de plus sur des modes de cryptographie séquentiels, il en vient rapidement à penser tous les phénomènes de télécommunications selon des modèles mathématiques discrets. Il n’utilise que rarement les intégrales portant sur l’ensemble des nombres réels alors que Wiener qui avait travaillé depuis son analyse du mouvement brownien sur l’analyse harmonique aborde la notion d’information en partant de la théorie des filtres et de la théorie mathématique de la prédiction.

SEGA2020.9 Cf. Ségal, Le zéro et le un, op. cit., p. 481 : Les physiciens décrivent le langage à l’aide de mathématiques continues comme l’analyse de Fourier ou la fonction d’autocorrélation. Au lieu de cela, les linguistes décrivent le langage en utilisant des mathématiques discontinues ou discrètes nommées ‘linguistiques’. La nature de ce calcul singulier est soulignée et justifiée ici. La communication par la parole est traitée comme ayant une structure télégraphique (les non-linguistes n’arrivent normalement pas à s’orienter dans cette discipline, car ils traitent la parole par analogie avec le téléphone). La structure code-télégraphe du langage est examinée de bas en haut et à chacun de ses niveaux de complexité (comparée au niveaux du code Morse) on montre comment sa structure est définie par les possibilités ou impossibilités de combinaison parmi les unités de son niveau. Au-dessus du niveau le plus haut, on trouve, à la place de telles restrictions absolues, des probabilités conditionnelles d’occurrence : c’est le champ sémantique, en dehors de la linguistique, où les sociologues peuvent travailler. En dessous du niveau le plus bas, on trouve, à la place de telles restrictions absolues, des probabilités conditionnelles de la qualité phonétique : c’est le champ phonétique, en dehors de la linguistique, où les physiciens peuvent travailler. Ainsi la linguistique est particulière parmi les systèmes mathématiques en ce sens qu’elle s’appuie sur la réalité en deux endroits à la place d’un. Cette déclaration équivaut à définir une langue comme un système symbolique ; c’est-à-dire comme un code.” [JOOS M., “Description of Language Design”, The Journal of the Acoustical Society of America, 22, 1, o. 701, nous soulignons.]

SEGA2020.10 Cf. Ségal, Le zéro et le un, op. cit., p. 560 : Dès 1949, Weaver avait signalé l’incapacité du modèle de Shannon à rendre compte de la dimension sémantique de l’information. Le sens de l’information n’apparaît que si l’on accorde un rôle actif au récepteur, ce que ne prévoit pas son schéma. En génétique moléculaire le message est un ordre, il est donc intrinsèquement lié à l’activité du récepteur et c’est ce qui fait dire à Keller qu’il y a un “abîme” entre les deux notions d’information, en génétique et dans la théorie mathématique de la communication.

SEGA2020.11 Cf. Ségal, Le zéro et le un, op. cit., p. 639 : L’informatique ne concerne pas tant la transmission d’information que son traitement dans plusieurs voies de communication. Là encore, la dimension sémantique de la notion commune d’information n’est pas prise en compte et si dans une voie de communication habituelle (du type de Shannon, concernant avant tout les télécommunications) ce sont l’émetteur et le récepteur qui “interprètent” l’information, la combinaison de plusieurs voies de communication dans l’ordinateur suscite une évolution conceptuelle importante que reflètent encore aujourd’hui des termes comme “interpréteur de commande” ou “langage machine”.

SEGA2020.12 Cf. Ségal, Le zéro et le un, op. cit., p. 642-643 : C’est parce que l’informatique ne peut traiter le sens des messages, activité éminemment “humaine”, que l’intelligence artificielle est condamnée à la simple réalisation d’objectifs qui pour l’Homme nécessiteraient une certaine forme d’intelligence (seulement logico-mathématique). Attribuer une “intelligence” à la machine relève alors d’une vision avant tout réductionniste et, là encore, fortement anthropomorphique.

SEGA2020.13 Cf. Ségal, Le zéro et le un, op. cit., p. 657 : On doit cesser selon [Licklider] de considérer l’ordinateur comme une calculatrice hyperrapide et l’utiliser davantage comme un outil de modélisation.

SEGA2020.14 Cf. Ségal, Le zéro et le un, op. cit., p. 676 : C’est cette déréalisation progressive des processus de connaissance qui donne naissance à ce “monde du virtuel” dont les publicitaires profitent aujourd’hui en lançant des expressions comme “cyberespace”, “cybersexe” ou encore “cyberpunk” dans lesquelles seul le préfixe “cyber” témoigne du rôle de la théorie de la communication et de la cybernétique.

SEGA2020.15 Cf. Ségal, Le zéro et le un, op. cit., p. 676-677 : Cette abstraction progressive de ce qui est au départ un acte profondément humain, la communication, s’inscrit dans un processus historique marqué par la mathématisation rendue possible par le modèle de Shannon (plus connu que ceux de Gabor, MacKay, etc.), par l’essor de l’informatique (l’ordinateur comme boîte noire chez Zemanek et le “collègue” pour Licklider), par l’automatisation introduite de façon résolument fondamentale par la cybernétique (appliquée dans des objectifs militaires comme le projet SAGE) et, enfin, par des techniques et des algorithmes qui confient à la machine le soin d’acheminer l’information par une voie quelconque. Telles sont, à partir de la théorie de l’information et du discours qu’elle engendre, les grandes modifications qui se dessinent dans l’évolution des rapports de l’Homme à la technique.

SEGA2020.16 Cf. Ségal, Le zéro et le un, op. cit., p. 696 : Une fonction portant sur une suite de chiffres binaires est dite calculable s’il existe une machine de Turing qui, partant de la même suite, donne le même résultat. La thèse de Church-Turing stipule que toute fonction calculable dans un sens intuitif (par un homme par exemple) l’est dans le sens formel ici exposé. La machine universelle de Turing est alors une machine sur laquelle on peut exécuter toutes les tâches qu’on accomplirait avec des machines de Turing particulières.

SEGA2020.17 Cf. Ségal, Le zéro et le un, op. cit., p. 725 : Définie dans un cadre probabiliste, l’information définie par Shannon est aussi un concept mathématique et au regard des études sur la calculabilité et l’algorithmique, l’information est au centre de toute réflexion sur la signification des résultats sortant d’un ordinateur.

SEGA2020.18 Cf. Ségal, Le zéro et le un, op. cit., p. 789 : Retenant généralement sous la dénomination “théorie de l’information” une théorie aux frontières mal définies regroupant la cybernétique et la théorie mathématique de la communication, nous avons déjà plusieurs fois été amenés à évoquer le thème de l’unité des sciences. Qu’il s’agisse des visées universalistes de Wiener lorsqu’il rédige Cybernetics, des recherches mathématiques de Schützenberger, Mandelbrot ou Kullak visant au début des années 1950 à démontrer “l’unité” sous-jacente aux différentes définitions de la notion scientifique d’information, ou encore de l’application “totale” de la cybernétique décrétée en RDA au cours des années 1960, l’unité des sciences apparaît souvent comme une motivation philosophique, comme la justification de nouvelles applications ou comme l’ambition d’un programme scientiste tendant à tout soumettre à une même procédure scientifique. La première étude historique sur la théorie de l’information permet déjà de cerner le cadre de notre propos. Cherry écrit en 1951 [CHERRY E.C., “A History of the Theory of Information”, The Proceedings of the Institution of Electrical Engineers, Part III, 1951, p. 389.] : “C’est apparemment pendant les années juste avant la Seconde Guerre mondiale que les idées, concepts de base et méthodes de l’ingénierie des communications devinrent largement applicables à d’autres domaines spécialisés de la science. Depuis 200 ans, aucun homme n’avait été capable de se repérer dans toute la science. L’intensité de la spécialisation a sans cesse augmenté et a été nécessairement accompagnée de la duplication de beaucoup de travaux. Aujourd’hui, s’aventurer hors de son propre domaine de recherche est se soumettre à l’accusation de dilettantisme. Le filon a été pris par Norbert Wiener qui, avec Rosenblueth, a appelé ce champ cybernétique.”

SEGA2020.19 Cf. Ségal, Le zéro et le un, op. cit., p. 826-827 : Sur le plan philosophique, c’est dans les écrits de Gilbert Simondon qu’on trouve, dix ans auparavant, en 1958, une distinction entre “forme” et “information” qui s’appuie également sur les caractéristiques du vivant. Il fait d’ailleurs le parallèle entre la théorie de l’information et l’énergétique pour mettre en avant une “nouvelle phase de la philosophie des techniques”, l’information étant, conformément à l’esprit du modèle de Shannon, “à mi-chemin entre le hasard et la régularité absolue”. Le philosophe de la technique écrit : “Un important hiatus existe en effet entre le vivant et la machine, et par conséquent entre l’homme et la machine, qui vient de ce que le vivant a besoin d’information, alors que la machine se sert essentiellement de formes, et est pour ainsi dire constituée avec des formes.” Ces formes sont pour Simondon des “conditions d’information” puisque l’information n’est que la variabilité des formes. La signification demeure une production humaine, le sens donné par le sujet à l’information. C’est l’homme qui découvre les significations : la signification est le sens que prend un événement par rapport à des formes qui existent déjà ; la signification est ce qui fait qu’un événement a valeur d’information. Ainsi, c’est immanquablement par une allusion au sens commun du mot “information” qu’il peut être question de sémantique.

SEGA2020.20 Cf. Ségal, Le zéro et le un, op. cit., p. 829-830 : Si Shannon s’est toujours gardé de vouloir appliquer sa théorie mathématique de la communication dans des domaines étrangers aux techniques de télécommunication, le fait d’avoir défini une “unité” dans une théorie mathématique (utilisant un néologisme) a suscité au moins la curiosité chez bon nombre de chercheurs. Bien que défini de façon très précise dans la publication de 1948 (sous les hypothèses rappelées plus haut), le bit fut parfois utilisé de façon très peu rigoureuse, un peu à la manière des monades de Leibniz censées représenter l’expression de la multiplicité dans l’unité. En ce sens, on peut considérer que la théorie de l’information a pu s’imposer comme un outil essentiel dans toute pensée du discret qui cherche à s’appuyer sur une théorie quantitative. La définition d’une nouvelle constante physique à partir de l’information, tel que Gilles Cohen-Tannoudji a pu le proposer, ne fait que renforcer cette thèse selon laquelle l’information serait une grandeur fondamentale discontinue. De plus, le fait de pouvoir “mesurer” l’information, grâce à la définition d’une unité, contribue à rendre cette grandeur réelle et objective, objet emblématique d’un ralliement traversant les disciplines. On voit donc comment les deux sens du mot “unité”, la “chose qui est une” et le “caractère qui est un” se répondent mutuellement, l’unité des sciences étant rendue possible par la définition d’une unité d’information.

SEGA2020.21 Cf. Ségal, Le zéro et le un, op. cit., p. 834 : Le sens technique de la théorie de l’information à laquelle on rattache ici l’automation pose de manière frontale le problème du rapport de l’Homme à la technique dans ses aspects éthiques. Le thème de la déresponsabilisation fait ainsi partie des questions de société qui mériteraient sans doute d’être davantage débattues. Notre analyse de la dimension sémantique de l’information nous a amené rapidement à nous pencher sur le sens non seulement de la notion d’information, mais aussi, à un niveau logique supérieur, de la théorie de l’information. Schématiquement, la théorie de l’information reflète trois tendances parfois contradictoires. La théorie de l’information peut premièrement se présenter comme une théorie en devenir visant à rendre compte de tous les phénomènes impliquant la notion d’information quel que soit le sens du mot “information” et le domaine d’étude envisagé. Deuxièmement, il peut être question d’un sens “mathématique”, l’application d’un formalisme mathématique lorsque les hypothèses nécessaires sont vérifiées. Enfin, la théorie de l’information peut relever d’un sens technique, tantôt simple expression de résultats limitatifs d’ordre général et tantôt emblématique de l’automation dans ce qu’elle implique dans la philosophie de la technique. Ainsi, s’il devait être question d’une “culture de l’information”, avec tous les risques de confusion inhérents au choix d’une expression concise et déjà figée pour décrire une idée encore protéiforme, cela pourrait correspondre à ce réseau dans lequel s’entrelacent les trois significations de la théorie de l’information que nous venons de décrire.

SEGA2020.22 Cf. Ségal, Le zéro et le un, op. cit., p. 876 : […] un article publié dès 1945 sur “le rôle des modèles dans la science” par Wiener et Rosenblueth mérite notre attention. Leur définition du modèle formel est la suivante : “L’abstraction consiste à remplacer une partie de l’univers en considération par un modèle de structure similaire, mais plus simple. […] Un modèle formel est une assertion symbolique en terme logiques d’une situation simple relativement idéalisée partageant les propriétés structurelles du système d’origine factuelle [ROSENBLUETH A. & WIENER N., “The Role of Models in Science”, Philosophy of Science, 12, 1945, p. 316, nous soulignons].” Si l’attention particulière portée à la structure ne suffit pas à qualifier ces propos de structuralistes (ce qui serait d’ailleurs anachronique et nous avons vu par exemple que l’étude comportementale menée par ces deux auteurs avec Bigelow, deux ans plus tôt n’a rien de “behavioriste”), on voit cependant comment la modélisation cybernétique sera amenée à privilégier une vision synchronique aux dépens d’une analyse diachronique prenant en compte l’historicité de la problématique scientifique.

SEGA2020.23 Cf. Ségal, Le zéro et le un, op. cit., p. 877 : Avec les recherches très pragmatiques menées pendant la Seconde Guerre mondiale, la modélisation a pris une place importante, même si les réflexions quant au “modèle” scientifique ont bien entendu une historicité propre. Amy Dahan-Dalmedico rappelle à bon escient cette phrase de von Neumann : “Les sciences n’essayent pas d’expliquer, elles essayent tout juste d’interpréter et font surtout des modèles [Von Neumann cité par DAHAN DALMEDICO A., “L’essor des mathématiques appliquées aux États-Unis : l’impact de la Seconde Guerre mondiale”, Revue d’histoire des mathématiques, 2, 1996, p. 179.].” L’approche synchronique qui caractérise les écrits de von Neumann, Rosenblueth ou Wiener explique dans une certaine mesure comment le modèle mathématique acquiert au sortir de la Seconde Guerre mondiale une valeur intrinsèque aux yeux des non-mathématiciens. […] Avec l’expansion de la théorie de l’information au-delà de son cadre de naissance, c’est l’information qui devient la grandeur de toute simulation et se fait ainsi l’outil d’abstraction.

CECO2020 Apocalypse et révolution

Giorgio CESARANO et Giani COLLU, Apocalypse et révolution, Bordeaux, Éditions la Tempête, 2020 [1972].

CECO2020.1 Cf. Cesarano & Collu, Apocalypse et révolution, Préface de l’éditeur, op. cit., p. 30 : Dans le même mouvement, le capital se fait communauté (Gemeinshaft). “Avec le développement de la cybernétique on constate que le capital s’approprie, s’incorpore le cerveau humain ; avec l’informatique, il crée son langage sur lequel doit se modeler celui des hommes, etc. À ce niveau, ce ne sont plus seulement les seuls prolétaires – ceux qui produisent de la plus-value – qui sont soumis au capital, mais tous les hommes, dont la plus grande partie est prolétarisée. C’est la domination réelle sur la société, celle où tous les hommes sont esclaves du capital […]. Le procès d’incarnation (Einverleibung) du capital, commencé en occident il y a près de cinq siècle, est terminé. Le capital est désormais l’être commun oppresseur des hommes” (Camatte, Capital et Gemeinwesen).

CECO2020.2 Cf. Cesarano & Collu, Apocalypse et révolution, Préface de l’éditeur, op. cit., p. 31 : Lorsque le capital devient l’intégralité de l’activité humaine réifiée, le fétichisme ne fait pas face aux hommes dans leurs produits, mais structure leur existences et s’oriente vers une domination parfaite, fût-elle maquillée par l’écologie et l’économie sociale et solidaire. Le processus de rationalisation cybernétique, se présentant comme nouvelle lumière, a pris dans la “révolution informatique” son virage le plus radicalement totalitaire. Jamais, peut-être, l’homme n’a autant eu le sentiment de “faire usage” d’outils qui font en vérité usage de lui, et jamais il ne se sera proclamé aussi libre que dans ce parfait pilotage des existences.

CECO2020.3 Cf. Cesarano & Collu, Apocalypse et révolution, op. cit., p. 56 : L’histoire du capital montre comment le procès a pu croître et s’autonomiser grâce à un automatisme typique des systèmes s’autorégulant capables de transcroître, par intégration et actions rétroactives, à partir du niveau typique des systèmes autorégulants, capables de transcroître – au moment où s’opère une tendance à la clôture, niveau virtuellement bloqué par une limite critique – vers un niveau supérieur virtuellement ouvert, sas se dépouiller de leur propre collapsus jusqu’à ce qu’ils aient atteint la limite de saturation de toute transcroissance ultérieure praticable : le point où la contradiction matérielle elle-même et son propre fond d’énergie se trouvent devant une telle limite.

CECO2020.4 Cf. Cesarano & Collu, Apocalypse et révolution, op. cit., p. 148 : L’apparition explosive de la qualité avait ébranlé de façon irréparable le règne jusque là impuni de la quantité. Le capital est “discours”, organisation des sens fictifs enchaînés, machine logique, jeu serré de Représentations. S’il supporte, mithridatisé, toute attaque de la critique prisonnière de la pensée séparée, il ne tolère pas de démentis réels. Rien n’est plus incompatible avec l’organisation des apparences que l’apparition éblouissante du concret libéré. De cela – et avec un automatisme qui se révèle être la seule riposte possible à la spontanéité révolutionnaire –, le capital se rendit instantanément conscient. Plus rien ne peut arriver par hasard sous la domination absolue de l’inauthenticité programmée. Les chars d’assaut de De Gaulle, comme les fusils de la police mexicaine ou les gaz aveuglants du pouvoir politique, réussirent à masquer la contre-attaque la plus meurtrière que l’internationale capitaliste ait jamais projetée : le contrôle scientifique, et scientifiquement “politique”, de ses propres contradictions démodées, l’élévation de la ratio au service de la survie, l’identification publique cybernétiquement validée et axiomatisée, de son propre destin à celui de l’espèce.

CESA2019 Manuel de survie

Giorgio CESARANO, Manuel de survie, Bordeaux, Éditions la Tempête, 2019 [1974].

CESA2019.1 Cf. Cesarano, Manuel de survie, op. cit., p. 60 : Le capital n’a pas d’autre dessein que de devenir le géant cybernétique et quantificateur de “l’Autre”, dans le bouillon de culture des “communes” auto-analytiques où chacun autogère sa restructuration décentralisée (où chacun se transforme en un “terminal” du computer qui le réduit statistiquement à l’échelle d’un “quantum” d’énergie mobilisée dont il participe à son insu), er où personne ne puisse plus – sous peine d’être sur l’heure dépecé eucharistiquement par les gardes rouges de quelque service d’ordre du néo-christianisme – oser se percevoir comme individu qui prétendent accéder, en tant que tel, à la totalité, et qui sache pratiquement que, pour ce faire, il faudra avant tout détruire violemment toutes les formes fictives prises par la communion totalitaire dans le Grand Néant.

CESA2019.2 Cf. Cesarano, Manuel de survie, op. cit., p. 62-63 : “L’état de fait” (Sache) ordinaire est avant tout l’État des Choses (Ding) : l’objectivation forcée, la sujétion qui se trouve imposée ab initio – mais non point ab imis, comme nous le verrons – à la subjectivité réelle de la présence corporelle (l’enfant dans sa totalité sensorielle encore en suspens, tout évolutivement orientée qu’elle soit par le trauma de la naissance immature), d’un complexe “corps” de normes qui la contraignent, non sans combat ni douleurs mémorables, à se méconnaître graduellement en tant que corps concret, plongé dans la corporéité concrète de l’univers sensoriel, et à se re-connaître toujours davantage comme objet-symbole, dans un monde “compassé” d’objets symboliques, qui fonctionne comme une machine reproduisant en elle – dans la subjectivité assujettie – une fonctionnalité syncrétique à sa téléologie.

CESA2019.3 Cf. Cesarano, Manuel de survie, op. cit., p. 166-167 : Avant de se transformer significativement en science de la prévision et de la planification, la cybernétique est née “accidentellement” d’exigences guerrière : il s’agissait, moyennant l’accélération du calcul, de permettre à la volonté de destruction concrétisée en projectile d’atteindre l’objectif “ennemi”. Mais c’est sur son terrain actuel qu’elle découvre sa vocation première : apparaître pour l’objectif auquel tendait depuis toujours la pensée abstraite par excellence, le calcul eidétique, qui trouve dans la cybernétique la limite de son usage aliéné et son point d’explosion. À peine a-t-elle totalisé en elle les “données” du “monde” dans la forme pour elle exclusive de la quantification (où tous les symboles deviennent des alternatives binaires), la voici “étrangement”, annoncer la finitude du calcul in concreto, la crise de la planification. Tout ce qu’elle peut encore prévoir, c’est l’échéance abstraite de la grande crise. Mais la crise est d’abord celle de l’univers eidétique, brusquement poussé sur une terre “finie”. Quant au processus réel, il n’a rien à voir avec tout cela, sinon que l’on ne puisse pour l’instant encore dissocier – extériorité à soi doublée de l’enfermement dans l’autre – son propre cours de la domination pragmatique que la dictature des “systèmes” exerce sur les occasions qu’il a de se manifester de manière explosive. C’est d’ailleurs contre ce lien que son énergie s’exerce, en ce concentrant chaque jour davantage. Au fur et à mesure que le contrôle des programmateurs planifie en termes planétaires et totalitaires les échéances de sa crise, qui vont s’accélérant, le mouvement réel laisse en arrière ses propres apparences phénoménales, et tend à se donner une cohérence d’ensemble ‑ un processus autoconscient – de moins en moins aveugle et de plus en plus difficile à aveugler sur la fin qu’elle vise réellement.

CESA2019.4 Cf. Cesarano, Manuel de survie, Postface de l’éditeur, op. cit., p. 275-277 : Deux champs d’investigation permirent, de façon non monolithique, de comprendre l’externalisation. La première est une analyse de la révolution néolithique, durant laquelle l’homme s’outille de façon nouvelle, trouve une médiation technique spécifique entre lui et la nature. La deuxième, commence avec la révolution industrielle, durant laquelle l’homme perd l’outil, se trouve dépossédé de toute technique, et délègue son savoir faire à la machine. C’est cette distinction radicale entre outil et machine que Marx analyse dans Le Capital et que Cesarano reprend à son compte pour étudier dès 1972 le bouleversement anthropologique que produit le phénomène-capital, et ses plus récents développements avec la cybernétique. Leroi-Gourhan décrit le parcours des hominidés comme lente acquisition de la posture debout, qui induisait un développement unique et parallèle de la main et de la face, en direction d’’un langage articulé. Le langage des humains est distinct des autres espèces dans la mesure où il peut décrire une émotion, un sentiment, dont il n’est pas sous l’emprise directe. Le symbole, au même titre que la domestication du feu, entre dans ce procès millénaire (non finaliste). Si les hommes sont de la matière spécifiquement outillée, ils participent et témoignent des formes physiques qu’impose la matière à l’existence, formes qui, n’étant pas strictement déterminées, ont une tendance à l’équilibre (dite aussi “beauté”). Les formes qui induisent une rupture de l’équilibre sont des formes non-viables et tendent à disparaître ou s’autodétruire. Leroi-Gourhan, s’attardait par exemple plus longuement sur les différence formelles de symbolisation et de narration. Une des différences fondamentales qu’il dégage, et qui traverse les différentes formes de structuration du langage, est celle qui existe entre mythogramme et pictogramme. Avec le mythogramme, la narration dépend dans une large mesure de son caractère oral, elle convoque des symboles très larges qui ne décrivent pas un enchaînement d’actions qui se déroulent linéairement dans le temps, mais plutôt une image archétypique, complète, qui n’évoque pas un rapport spécifique au temps. “Un pictogramme, c’est une figure ou une suite de figures qui dépeignent concrètement une action. Ce qui caractérise le pictogramme, dans ses liens avec l’écriture, c’est sa linéarité : comme c’est le cas par l’alignement successif des phases d’une action. Quand on représente les états successifs d’une action en de petits dessins, comme en ont fait les Eskimos, on est indiscutablement en présence d’un pictogramme. On peut étendre cela même à une action où le geste évoque le déroulement du temps, comme on le voit à Lascaux : l’homme renversé par le bison, c’est un pictogramme, c’est-à-dire une image qui a un passé, un présent et un futur. Le mouvement même du bison qui renverse l’homme fait qu’il y a eu un “avant” où l’homme n’était pas encore renversé, un “pendant”, et un “après” où l’acte était fini. Le mythogramme, lui, présente non pas les états successifs d’une action, mais les personnages non structurés linéairement qui sont les protagonistes d’une opération mythologique. Dans les peintures australiennes, par exemple, de nombreux documents sont de simples mythogramme. Lorsqu’on représente un personnage, et à côté de lui une lance, un oiseau ou un autre personnage, ces spécimens, alignés les uns à côté des autres ou confondus dans un motif général, sont mythologiques. Ils ne tiennent que sur la tradition orale. Et ce sont des occasions de raconter telle ou telle légende ou tel mythe.” [A. Leroi-Gourhan, Les racines du monde, p. 67-68] Chez Leroi-Gourhan, on se souviendra que des pointes de pictographie habitent déjà le mythogramme. Les bisons d’Altamira se roulent dans la poussière et l’urine, pour marquer leur territoire. De façon toute dialectique, l’iconographie contemporaine contient aussi une part de mythogramme. C’est le caractère unique par exemple de l’écriture chinoise, “cette écriture qui laisse une aura d’incertitude autour de soi, et qui, en même temps, trace des pistes qu’il peut paraître superflu d’emprunter ; et pourtant…”, “des arbres, des feuilles, des femmes, des animaux, c’est-à-dire tout un monde qui gravite autour du caractère […] écritures en épaisseur, celles qui ont un arrière-plan, une énième dimension […]”. Un piège récurent consiste à cloisonner le monde “mythique” en monde de la cyclicité statique et inversement à dire historique ontologiquement, le seul monde “raisonné”. Une fois défaite la partition à grands traits, les différences n’en sont pas annulées, aplaties, mais rendues plus difficiles. À chaque langage correspond une manière de faire un monde ; les lèvres suivent la plante du pied. Ce que l’heure oblige à tirer au clair, c’est la distance vitale qui nous sépare du mythe, de l’oralité, etc. Ces césures – ces prothèses – qui sont une direction et qui imposent, en des strates immenses, la linéarité que nous connaissons, le monde qu’elle induit, qui peut se passer de mémoire vivante à mesure qu’elle s’inscrit et ordonne tout comme on tient un registre commercial. L’homme n’est pas le seul time-binder, que la faculté du souvenir caractériserait de façon univoque. Il faut alors l’appréhender via sa faculté d’annihilation, et rejeter tout ce qu’il engage de force nihilistes pour faire avancer une connaissance qui, à chaque génération, se détruit avec plus de ferveur, une science qui délègue chaque jour un peu plus à des prothèses la génération et la reproduction.

GITU1999 La machine de Turing

Jean-Yves GIRARD et Alan TURING, La machine de Turing, Paris, Seuil, 1999.

GITU1999.1 Cf. Girard & Turing, La machine de Turing, op. cit., p. 14 : On peut résoudre tous les problèmes : voilà un résumé sommaire du scientisme fin de siècle incarné par Hilbert. Parmi ces problèmes, il en est de fondamentaux, comme d’étayer une fois pour toutes les bases du raisonnement par des démonstrations de cohérence, ce qui mène au programme de Hilbert, réfuté par le théorème de Gödel. Il en est de plus traditionnels, comme de trouver une solution générale à une classe de problèmes : ainsi, le problème de la décision des équation diophantiennes (dit dixième problème de Hilbert) n’est rien d’autre que le problème de trouver un algorithme résolvant un certain type d’équations [Par “équation diophantienne”, on entend une équation P(ni, … nk) = 0, où P est un polynôme à coefficient entiers (positifs ou négatifs) et dont on cherche des solutions, entières elles aussi. Le dixième problème de Hilbert dans la fameuse liste de 1900 est précisément de résoudre en général ce type d’équations : la partie la plus difficile de cette résolution est bien sûr l’existence ou non de solutions.]. En général, on cherche à décider les solutions à réponse oui/non (décider un problème, une propriété, un prédicat) et plus généralement à calculer toutes sortes de fonctions : dans les deux cas on est amené à préciser ce qu’on entend derrière les expressions synonymes algorithme, calcul, procédé mécanique.

GITU1999.2 Cf. Girard & Turing, La machine de Turing, op. cit., p. 107 : Le premier texte de Turing, profondément ancré dans l’univers délimité par Gödel, ne présageait l’informatique que malgré lui ; il en va tout autrement de ce second texte, écrit quinze ans plus tard : à la “machine de papier” est venu se substituer le calculateur électronique, brontosaure inefficace, mais qui saura s’adapter…

GITU1999.3 Cf. Girard & Turing, La machine de Turing, op. cit., p. 110 : La logique formelle ne s’adresse qu’à la forme, c’est-à-dire aux relations externes qu’entretiennent les éléments d’un raisonnement. Cela apparaît déjà dans le syllogisme classique “Tout homme est mortel, tout Athénien est un homme, donc tous les Athéniens sont mortels” : ni la signification concrète des mots “Athénien”, “homme”, “mortel”, ni la façon dont les prémisses du syllogisme ont été justifiées (l’expérience ou un autre syllogisme) n’importent pour juger de la validité de ce morceau de raisonnement. C’est ce qui donne, dans les bons cas, un caractère prédictif au raisonnement : on n’a pas besoin d’ouvrir un dictionnaire pour savoir que Socrate est mort (le “comment”, c’est-à-dire la ciguë, reste caché).

GITU1999.4 Cf. Girard & Turing, La machine de Turing, op. cit., p. 115 : Rappelons enfin que, quel que soit le futur vers lequel on se projette, l’ordinateur reste limité d’abord par l’incomplétude et l’indécidabilité, et, même quand ces facteurs ne jouent pas, par le fait que beaucoup de questions décidables ne sont pas faisables en termes de complexité algorithmique.

FLUS2019 Post-histoire

Vilém FLUSSER, Post-histoire, Paris, Éditions Cité du design / T&P work unit, 2019.

FLUS2019.1 Cf. Flusser, Post-histoire, op. cit., p. 49 : La notion de la programmation du monde et de l’existence est relativement récente. Nous n’avons pas encore mesuré jusqu’où peut nous conduire une telle notion. La tradition nous a habitués à la notion du destin, qui dirige le monde et l’existence. La science, elle, nous a habitués à vivre avec la notion de causalité qui ordonne le monde et l’existence. C’est maintenant qu’il nous faut examiner ces deux notions familières, et pour cela, le faire à la lumière de la notion de programme.

FLUS2019.2 Cf. Flusser, Post-histoire, op. cit., p. 49 : Notre héritage religieux, et l’expérience mythique qui le soutient, établissent l’image d’une existence dans le monde qui obéit à des propos supérieurs dans une visée rigoureuse. Ces propos, par leur obscurité, et cette visée, par son opacité, séduisent l’homme et le mènent mystérieusement à s’y opposer, pour forger son propre destin. Cette démarche, quoiqu’incompréhensible, n’est pas nouvelle pour nous (Prométhée, Adam et Ève). La science s’est opposée à cette image traditionnelle du destin. Pour elle, tout événement est l’effet de causes précises, et la cause d’effets précis. L’existence se trouve prise dans un tissu de chaînes causales. Les deux images, celle du destin et celle de la cause, ne sont plus, à présent ; elle n’ont plus cours. Nous savons maintenant qu’elles sont, les deux, des extrapolations naïves d’une situation concrète. D’une situation “programmée”. Nous le savons grâce à l’analyse épistémologique, et aussi grâce à l’observation de la scène politique. La notion du destin et la notion de la causalité deviennent manifestement des notions “idéologiques”.

FLUS2019.3 Cf. Flusser, Post-histoire, op. cit., p. 49-50 : À la notion du destin se rattache la pensée finaliste. Une pensée pour laquelle tout mène à une fin. Au centre, le problème de la liberté humaine. Comment l’homme peut-il opposer sa volonté à celle du destin, et jusqu’à quelle limite ? C’est la question de l’émancipation humaine hors de la tutelle des “motifs” qui le manœuvrent. Et par là même, la question du péché. C’est clair : la notion du destin est en fait une vision du monde éthique et politique. À la notion de cause se rattache la pensée causale. Une pensée pour laquelle tout a des causes. Le problème de la liberté n’y est pas central. C’est une vision mécaniste, et par là même a-politique et a-éthique. Malgré tout le problème de la liberté y est. Bien sûr, une telle vision poussée à la limite mène ou au déterminisme total, ou au chaos absolu, et cela élimine la liberté. À l’intérieur de ces deux attitudes excessives, la liberté est concevable. Les causes sont tellement complexes, et les effets tellement imprévisibles, qu’il est permis à l’homme de se comporter comme s’il était “subjectivement” libre, alors qu’il est “objectivement” déterminé. Enfin, à la notion de programme se rattache la pensée formelle. Une pensée pour laquelle tout peut être formalisé, et mis dans la mémoire d’un ordinateur. Le problème de la liberté y est en suspens : il n’est pas encore formalisable. Dans un tel contexte, il n’y a pas de signification opérationnelle pour le terme “liberté”. Complication qui va être illustrée de quelques exemples : la cosmologie, l’anthropologie et l’éthique.

FLUS2019.4 Cf. Flusser, Post-histoire, op. cit., p. 50-51 : Pour la cosmologie finaliste, l’univers est une situation transitoire dans la perspective pré-établie : le dernier jugement, le Royaume des Cieux, l’Âge messianique. Pour la cosmologie causale, l’univers est une situation qui est le résultat nécessaire de situation précédentes, et qui aura des conséquences nécessaires. Le système planétaire est le résultat des forces de la gravitation, et il aura pour conséquence la trajectoire des satellites artificiels. Pour la cosmologie programmatique, l’univers est une situation dans laquelle se sont réalisées des virtualités contenues dans son origine, virtualités réalisées par hasard, et l’univers contient d’autres virtualités qui se réaliseront accidentellement, dans le futur. Pour l’anthropologie finaliste l’homme est l’être le plus accompli, et le plus proche de la destination de la création. Pour l’anthropologie causale l’“homo sapiens sapiens” est une espèce de l’ordre des Primates, qui est une évolution nécessaire, et à partir de laquelle d’autres espèces évolueront par nécessité. Pour l’anthropologie programmatique l’homme est une permutation, parmi d’autres permutations, de l’information génétique, commune à tout être vivant, et qui s’est réalisée par le jeu accidentel des gènes. Pour l’éthique finaliste le comportement humain est une suite de mouvement inspirés par des motifs. Pour l’éthique causale le comportement humain est une succession de réflexes provoqués par des causes externes et internes. Pour l’éthique programmatique le comportement humain est le déroulement de manifestation accidentelles des virtualités latentes dans l’homme et dans son milieu. À ces trois domaines la pensée programmatique applique les modèles suivants : à la cosmologie le modèle thermodynamique, selon lequel l’univers est un processus de dégradation entropique. À l’anthropologie le modèle de la biologie moléculaire, selon lequel la structure de certains acides nucléaires contient toute les formes possibles des organismes. À l’éthique le modèle psychanalytique, selon lequel le comportement humain est la manifestation des virtualités contenues dans l’inconscient. On peut aisément étendre la vision programmatique à d’autres domaines : la logique, la linguistique, la sociologie, l’économie, la politologie. Dans tous les cas le type de modèle sera le même : tous les modèles sont des programmes.

FLUS2019.5 Cf. Flusser, Post-histoire, op. cit., p. 51-52 : La notion fondamentale de la vision programmatique du monde et de l’existence est donc celle du hasard. C’est cela l’apport nouveau. Pour la pensée finaliste il n’y a pas de hasard en tant que tel. Tout ce qui paraît être un hasard est un propos non encore dévoilé. Pour la pensée causale, il n’y a pas non plus de hasard en tant que tel. Tout ce qui paraît être un hasard est une cause non encore découverte. La pensée programmatique, elle, donne droit de cité au hasard en tant que tel. Tout ce qui a été établi comme propos ou comme cause le doit à une interprétation naïve et idéologique du monde. La pensée finaliste est naïve, parce qu’elle recherche derrière tout événement fortuit un dessein, pour lui donner une signification. La pensée causale est naïve, parce qu’elle recherche derrière tout événement fortuit des causes, pour l’ordonner. En fait : les programmes ressemblent à des desseins si on les anthropophise. Ils ressemblent à des causes, si on les chosifie. La pensée programmatique montre que la pensée finaliste est une idéologie anthropomorphisante, et la pensée causale une idéologie chosifiante. Ainsi la pensée programmatique démythifie les deux idéologies, elle les met en silence provisoire. Elle se plie à l’absurdité du monde.

FLUS2019.6 Cf. Flusser, Post-histoire, op. cit., p. 52 : {{Or, la pensée programmatique est devenue inévitable dans tous les domaines. Dans la science toute “explication” finale et causale mène à une impasse. La finale, parce qu’elle explique le présent par le futur, c’est-à-dire par ce qui n’est pas encore. La causale, parce qu’elle explique le présent par le passé, c’est-à-dire par ce qui n’est plus. Seule l’explication formelle, programmatique, explique le présent par le présent, c’est-à-dire le réel par le réel.}

FLUS2019.7 Cf. Flusser, Post-histoire, op. cit., p. 53 : Le problème posé par l’existence de la pensée programmatique tient à cet “impérialisme” : aucune pensée ne peut plus vivre en dehors d’elle. Cette situation est obsédante pour la science et pour l’art, mais elle devient angoissante dans la politique. Parce que, en politique, il n’est question que de la liberté, de l’émancipation de l’homme, qui doit se libérer des motifs qui viennent des autres hommes et de lui-même. Or la liberté, l’émancipation, ont une signification seulement à l’intérieur de la pensée finale. Étant donné l’importance de la pensée programmatique, nous sommes contraints d’apprendre à penser “non finalistiquement” en politique. Voilà le paradoxe. Si nous continuons à penser finalistiquement, si nous cherchons des “motifs” derrière les programmes qui nous manipulent, nous seront fatalement les victimes d’une telle programmation. Chercher des motifs derrière les programmes, c’est vouloir les démythifier. Or, tout cet effort de démythification est précisément déjà programmé. Ainsi, celui qui cherche des motifs derrière les programmes devient, lui-même, fonctionnaire de ces programmes qu’il voudrait démythifier.

FLUS2019.8 Cf. Flusser, Post-histoire, op. cit., p. 54 : C’est que la pensée programmatique n’est pas seulement théorique, mais aussi fonctionnelle. La pensée finaliste n’a plus cours. Bien sûr : derrière les programmes il y a des programmeurs. Mais si nous persistons à vouloir démythifier les programmes en désignant les programmeurs et leurs motifs, nous perdons de vue la véritable scène politique. Les démarche de toute Kulturitik sont devenues anachroniques. À présent, les programmes sont autonomes des motifs de leurs programmeurs. Les appareils fonctionnent de plus en plus automatiquement. Déjà il y a des appareils qui sont programmés par d’autres appareils. Les motifs qui ont produit les premiers appareils sont périmés lorsqu’on en est à ceux-là. Même les programmeurs sont souvent programmés à leur tour par des appareils. Ils peuvent toujours penser garder encore leur vertu de décision, mais ils ont été précisément programmés pour le penser. e sont des fonctionnaires des appareils, dont la spécialité est de penser qu’ils décident. La Kulturitik est naïve, elle est victime de la même méprise. Quand un militant de la Kulturitik s’attache à analyser le fonctionnaire des décision, au lieu d’analyser le programme automatique en fonction duquel les décision ont été prises, il devient lui-même fonctionnaire de ce programme, mais dans une autre compétence. Et si nous continuons à penser “politiquement” comme le fait le militant de la Kulturitik, nous devenons tous des fonctionnaires, et c’en sera fini de la liberté.

FLUS2019.9 Cf. Flusser, Post-histoire, op. cit., p. 54-55 : Nous ne devons ni anthropomorphiser ni objectiver les appareils. Mais les atteindre dans leur concrétude idiote : celle d’un fonctionnement programmé par le hasard et pour le hasard. Dans leur absurdité. Nous devons apprendre à accepter l’absurde, si nous voulons nous libérer du fonctionnement. La liberté est concevable, désormais, comme jeu absurde avec des appareils absurdes. Comme jeu avec les programmes. Accepter que la politique est un jeu absurde, accepter que l’existence est un jeu absurde. C’est à ce prix douloureux que nous pourrons un jour donner un sens à nos jeux. Ou accepter la leçon le plus tôt possible, ou devenir des robots. Devenir des joueurs ou des pions. Des pièces du jeu ou des meneurs du jeu.

FLUS2019.10 Cf. Flusser, Post-histoire, op. cit., p. 58 : Une nouvelle ontologie, fondée sur une nouvelle praxis, est en train de s’établir. Pour la comprendre il faut suivre la praxis du fonctionnaire. Il est assis derrière une table. Il reçoit des papiers recouverts de symboles (lettres et chiffres). D’autres fonctionnaires les lui ont fournis. Il les classe ou il les jette. Il remplit d’autres papiers avec des symboles. Ces papiers-là, il les transmet à d’autre fonctionnaires. Il est récepteur, transmetteur et émetteur de symboles. Son travail consiste à manipuler des symboles. Sa praxis est absorbée par le monde des codes. On peut substituer au fonctionnaire des appareils de même fonction, comme les word processors. C’est cette praxis-là qui va donner son caractère à la société post-industrielle.

FLUS2019.11 Cf. Flusser, Post-histoire, op. cit., p. 59 : Jusqu’à présent, “travailler” c’était changer le monde concret. Bien qu’il soit coupé du monde concret, le fonctionnaire peut passer pour quelqu’un qui “travaille” à changer le monde. Il peut passer pour quelqu’un dont la praxis rejoint les praxis précédentes. Les symboles qui sont son matériel de travail représentent (“signifient”), en dernière analyse, des phénomènes concrets. Tous les symboles, y compris les “théoriques” qui, bien qu’ils signifient d’autres symboles, finissent par signifier des phénomènes concrets par l’intermédiaire de ces derniers. Par exemple : le symbole “chien” signifie un animal concret par l’intermédiaire du symbole “Médor”, qui est le nom propre de ce chien. Il existe aussi des symboles “vides“, qui ne représentent aucun phénomène concret (exemple : “cercle carré”), mais ces symboles ne sont pas manipulables. Ainsi, le fonctionnaire, en manipulant des symboles manipulables, manipule, malgré tout, la réalité concrète. Encore faut-il être capable de déchiffrer ses symboles à lui. Une telle interprétation de la praxis du fonctionnaire est fausse. Pour le montrer, il suffit d’observer le fonctionnement du fonctionnaire. L’appareil qui est le lieu du fonctionnaire dispose de trous de sorties (de trous pour output) : comme les guichets où les papiers remplis de symboles sont délivrés à des personnes concrètes (des personnes “physiques”). C’est le cas des passeports. L’analyse logique proposée ci-dessus suggèrerait que les passeports soient des symboles qui signifient des personnes concrètes. Il se trouve que pour le fonctionnaire émetteur, le vecteur de signification s’est inverti. En effet pour lui c’est seulement la personne concrète qui signifie le passeport, et c’est elle qui devient le symbole. La personne devient le signifiant, le numéro sur le passeport le signifié. Pour le fonctionnaire, le concret donné c’est le passeport. La personne là-dehors est une abstraction. Absorbé dans son monde des codes, le fonctionnaire ne se sent pas concerné par la personne là-dehors. Son travail à lui consiste à changer le monde des codes. Tel est le caractère propre à tout fonctionnement : invertir les vecteurs des significations.

FLUS2019.12 Cf. Flusser, Post-histoire, op. cit., p. 59-60 : Le monde des codes est la seul réalité du fonctionnaire. C’est là que se passe sa vie tout entière (sa “carrière”). Son art de manipuler les symboles décidera de son “emploi”, de son “avancement”, de son “salaire”, de la qualité de ses “vacances”, de ses “loisirs”, de ses “médecins” et de sa “retraite“. C’est dans ce monde des codes que le fonctionnaire agit, souffre et pense. C’est là que sont inscrits ses devoirs, c’est là qu’il manifeste ses droits. C’est pourquoi le monde des codes est la réalité au sens épistémologique, esthétique et éthique du terme. Toute autre otologie serait, de son point de vue, “aliénante”.

FLUS2019.13 Cf. Flusser, Post-histoire, op. cit., p. 60 : C’est la dimension éthique et politique de cette nouvelle ontologie qui est troublante. Pour le paysan qui vit dans un monde animé, le but de sa vie est d’occuper sa “place juste” dans l’ordre organique des choses. Sa “place juste”, c’est ses terres, et si on le chasse de là, il se rebelle. L’ontologie qui domine le paysan fait qu’il est conservateur. Pour l’ouvrier qui vit dans un monde de production, le but de sa vie est de pouvoir jouir du produit de son travail. Quand il constate qu’on l’empêche de le faire (la “plus-value”), il se révolte. Par son ontologie, l’ouvrier est révolutionnaire. Le cas du fonctionnaire est différent. Il vit dans un monde codifié, un monde programmé par des appareils. Ces appareils ont pour devoir de lui garantir ses droits. S’ils ne le font pas, c’est qu’ils ont été mal programmés. Il faut les réparer. Le fonctionnaire n’a pas d’impératifs. Ses jugements de valeur sont des propositions formelles, des “fonctions”. Par son ontologie, il est formaliste. Il ne juge pas politiquement. Ainsi dans la société post-industrielle, la “droite” et la “gauche”, le conservatisme et la révolution perdent toute signification. La politique, c’est-à-dire l’histoire, n’a plus de place dans une telle réalité.

FLUS2019.14 Cf. Flusser, Post-histoire, op. cit., p. 60-61 : On pourrait conclure que la société post-industrielle sera bureaucratique. Une société gouvernée par le fonctionnaire. C’est une erreur. Dans la société post-industrielle le fonctionnaire n’occupe pas la place du propriétaire des terres dans l’agriculture, ni celle du propriétaire des usines dans l’industrie. Il occupe la place des serfs et des ouvriers. C’est pourquoi les sociétés bureaucratiques actuelles ne sont pas encore des sociétés post-industrielles au vrai sens du terme. Ce sont des sociétés encore mal programmées. Dans la véritable société post-industrielle la bureaucratie sera automatisée, invisible et efficace. Les fonctionnaires humains et automatisés fonctionneront comme fonctionnent les rouages de l’intérieur d’une caisse noire. En apparence, ce seront les programmeurs des caisses noires qui gouverneront. La technocratie. En réalité, ce seront les appareils eux-mêmes qui gouverneront. Les programmeurs seront eux-mêmes programmés pour programmer les appareils, et ils seront programmés par d’autres appareils. En réalité, ce sera une société “trans-humaine“.

FLUS2019.15 Cf. Flusser, Post-histoire, op. cit., p. 61 : Malgré tout : les technocrates, les programmeurs représentent des hommes nouveaux. Homines novi. Leur travail consiste à manipuler des programmes. Des virtuoses dans l’art des programmes. Des “joueurs”, homines ludentes. Pour eux, les symboles ne sont pas, comme ils le sont pour les fonctionnaires, la réalité tout court. Les symboles sont, au contraire, les pièces du jeu, et c’est le jeu qui est la réalité. Le monde est un engrenage de jeux. Pour les technocrates, toute recherche d’une “réalité transcendante“ par rapport aux jeux est de la “métaphysique” au sens péjoratif. Tout ce qui dépasse le jeu des symboles est, par définition, inarticulable. Tout ce qu’on ne pas pas dire, il faut le taire. Les technocrates sont des néo-positivistes, non par théorie, mais par leur praxis même. Pour ces analystes de systèmes, ces politologues, ces “scénaristes”, vivre c’est jouer avec des symboles. Ils sont des jongleurs de symboles des “iocatores”. Et tout, le monde des choses et e monde des hommes, n’est qu’un pré-texte à symbolisation et à jeu.

FLUS2019.16 Cf. Flusser, Post-histoire, op. cit., p. 61-62 : Une telle ontologie programmatique a suscité l’invention d’ordinateurs et d’instruments intelligents. Elle mène à la transformation de la société en système cybernétique composé d’appareils et de fonctionnaires. Les hommes sont programmés pour fonctionner comme pièces du jeu symbolique. Ils sont chiffrés et numérotés. Ils deviennent computables dans des statistiques et des cartons perforés. Ils sont programmés d’une manière telle qu’ils acceptent volontiers leur programmation. Le fonctionnaire est un homme programmé, non seulement pour fonctionner, mais aussi pour accepter son fonctionnement. Bien sûr, une telle société post-industrielle n’est pas encore arrivée à son stade de réalisation parfaite. Mais nous avons déjà ses modèles : Eichmann comme modèle du fonctionnaire, Kissinger comme modèle du programmeur, Auschwitz comme modèle de la société entière.

FLUS2019.17 Cf. Flusser, Post-histoire, op. cit., p. 62 : Ce qui manque encore, c’est un nouveau type de théorie pour soutenir l’ontologie post-industrielle. Dans la société agraire, la “théorie” était la vision des formes immuables. Dans l’industrie, l’élaboration de modèles toujours plus raffinés. Dans la post-industrie, elle sera la stratégie des jeux. Il y a, dès maintenant, toute une série de disciplines qui sont des “théories” dans ce nouveau sens : l’informatique, la cybernétique, la théorie des décisions, celle des jeux. Toutes ces disciplines-là s’appuient sur la logique et la mathématique, elles sont donc des “théories formelles” au sens grec. Mais elles servent toutes au fonctionnement des jeux symboliques. Ce qui fait défaut, c’est une théorie générale. Une telle théorie est, par nécessité, une théorie de l’intersubjectivité. Qui dit “stratégie des jeux” dit règles et conventions reconnues par les joueurs. Consensus. Une telle théorie supposera le consensus. Par là même, la société post-industrielle serait “démocratique”. Une démocratie ni libérale, ni populaire, mais désormais “consensuelle”. Pour le moment, c’est un rêve. En fait, nous vivons le contraire. Ce sont les appareils qui nous programment tous, y compris les programmeurs. Nous sommes tous programmés pour fonctionner pour et par les appareils.

FLUS2019.18 Cf. Flusser, Post-histoire, op. cit., p. 69 : La science est devenue un jeu symbolique. L’univers de la science est devenu un univers de symboles, et la science joue de ces symboles. Les vecteurs de signification de ces symboles se sont invertis. L’observation scientifique n’a plus pour but de donner une signification quelconque aux symboles. Au contraire, c’est à l’observation à nourrir les symboles. Avant, une hypothèse signifiait des faits observés, maintenant e sont les faits observés qui signifient l’hypothèse. Le fait devient le signifiant, l’hypothèse le signifié. En somme : la science actuelle est le reflet de la société post-industrielles, comme la science newtonienne l’est pour la société industrielle, et la science aristotélicienne pour la société agraire. La science est devenue un jeu de programmeurs. Elle est appareil.

FLUS2019.19 Cf. Flusser, Post-histoire, op. cit., p. 72 : La science moderne est née à partir du moment où la praxis artisanale est devenue prédominante dans la société occidentale. Quand l’univers, au lieu d’être conçu comme organisme vivant, comme il l’était auparavant, est devenu un espace étendu comprenant, en même temps que des êtres inanimés, des être animés. Une telle théorie contient, dans son programme, la notion de quantification. La chose étendue a une structure ponctuelle : les corps sont décomposables en plans, les plans en lignes, les lignes en points. La chose pensante, pour faire l’adéquation voulue, doit posséder une structure adéquate. Elle doit être décomposable, elle aussi, en éléments ponctuels, clairs et distincts (chiffres). Le modèle de la connaissance exacte (“dure”) est celui de l’adéquation de tout point de la chose étendue à un chiffre. Connaître c’est numéroter.

FLUS2019.20 Cf. Flusser, Post-histoire, op. cit., p. 72-73 : Ainsi se trouve posé le problème de la relation entre la géométrie et l’arithmétique, problème central de l’épistémologie moderne. L’arithmétique est une structure “vide” : il y a intervalle entre les chiffres, même les plus proches. La géométrie, elle, est “pleine” : les points sur la ligne se touchent. Toute adéquation de l’arithmétique à la géométrie laisse échapper un nombre infini de points par les vides entre les chiffres. Le problème épistémologique est précisément celui de remplir ces vides. Le calcul, par les intégrales et les infinitésimales remplit ces vides. Mais les intégrales et les infinitésimales sont, elles aussi, claires et distinctes : il y a toujours intervalle. La connaissance quantifiante est restée toujours problématique. Néanmoins, on pouvait ne pas en tenir compte quand il ne s’agissait que de quantifier les choses inanimées (comme la mécanique, l’astronomie, l’électromagnétique le font). Aucune difficulté théorique n’a pu empêcher une telle quantification d’être efficace. À partir du moment où l’intérêt scientifique s’élargit au point d’inclure des choses animées (botanique, zoologie), et plus tard l’homme lui-même (psychologie, sociologie, économie), le problème épistémologique posé par la mathématique, dont il était question plus haut, a pris une dimension troublante. Bien sûr, on peut quantifier les choses animées, mais chaque fois qu’on le fait, il nous échappe un aspect essentiel à travers les intervalles. L’aspect qui, précisément, différencie la chose animée de l’inanimée. L’aspect de vie et de la vie. C’est pourquoi la science du XIXe siècle a dû faire un choix. Ou bien continuer à quantifier, et par là se résigner à perdre l’essentiel dans le phénomène de la vie. Ou bien élaborer une théorie de la connaissance nouvelle, non quantifiable, et par là se résigner à perdre la dimension de l’exactitude. La science du XIXe siècle a choisi les deux méthodes sans exclure ni l’une ni l’autre. Elle s’est divisée en sciences “dures” (quantifiées) et en science “molles” (non quantifiables). Nous souffrons, jusqu’à aujourd’hui, de ce partage.

FLUS2019.21 Cf. Flusser, Post-histoire, op. cit., p. 73-74 : La science quantifiée fonctionne avec efficacité. La preuve en est la Révolution industrielle. Mais elle perd de vue le phénomène de vie et de la vie. La Révolution industrielle est la preuve aussi de cela. La science non quantifiée ne fonctionne pas, ou elle fonctionne mal. Les “sciences de l’esprit” en sont la preuve. C’est pourquoi au XXe siècle, on essaie de “durcir” les sciences “molles”. Exemples : économie statistique, behaviorisme, politologie. Cela fonctionne plus ou moins. Plutôt moins que plus : voir la crise économique. De toute façon, jouer ainsi avec les chiffres dans les sciences de l’homme est scandaleux. Comme nous l’avons vu pour la médecine. Sans doute touchons-nous là à une limite de la connaissance. Nous n’avons plus rien à gagner en quantifiant davantage.

FLUS2019.20 Cf. Flusser, Post-histoire, op. cit., p. 73 : En tant que sujet, l’homme pose un problème épistémologique qui est à l’extérieur de la science moderne. La rencontre entre des sujets est marquée de reconnaissance mutuelle. Il s’agit d’une relation dialogique de la connaissance. Une telle relation échappe à toute théorie de la connaissance scientifique. Toute théorie de la connaissance, pour être scientifique, suppose nécessairement qu’il y a un objet à connaître, même si cet objet peut être conçu comme hypothèse de travail. Toute théorie de la connaissance qui ne suppose pas un objet de connaissance est irrecevable pour la science moderne, qui est “objective”. Or, la rencontre entre sujets fait naître un type de connaissance qui n’est pas scientifique, et qui exige donc une autre théorie de la connaissance. Ainsi la science moderne est incompétente pour e type de connaissance. Pour la rendre compétente, il faudrait re-structurer la science. C’est le contraire qui a lieu. On restructure la connaissance pour rendre la science compétente pour de telles rencontres, en transformant le sujet en objet.

FLUS2019.21 Cf. Flusser, Post-histoire, op. cit., p. 79-80 : Il y a, dans la communication, deux moments. Celui de l’emmagasinement de l’information, et celui de la production de l’information. La production n’est pas une création ex nihilo. L’information est produite par synthèse d’informations existantes. Cette méthode de synthèse est appelée “dialogue”. L’emmagasinement de l’information se fait grâce à la transmission des informations existantes vers des mémoires (humaines ou autres) pour y être stockées. Cette méthode de distribution est appelée “discours”. Tout discours exige un dialogue préalable, c’est-à-dire : une information issue d’informations passées au crible du dialogue. Tout dialogue exige un discours préalable, c’est-à-dire : des informations distribuées au dialogue. Ainsi la société se révèle comme tissu communicatif fait de discours et de dialogues en interaction. C’est le dynamisme propre à l’histoire. La société est un équilibre précaire entre dialogues et discours. Si l’une de ces deux méthodes de communication prévaut, la société est alors en péril de décomposition.

FLUS2019.22 Cf. Flusser, Post-histoire, op. cit., p. 103-104 : S’exercer à lire et à écrire des textes amène à reculer d’un pas de la plate-forme de la conscience imaginative, par laquelle les images sont chiffrées et déchiffrées. Émerge alors une nouvelle plate-forme, la plate-forme de la conscience conceptuelle. La conscience imaginative est informée par les images, représentations d’un monde constitué de scènes. Monde vécu à travers la médiation de surfaces. La conscience conceptuelle est informée par les textes, représentations d’un monde constitué de processus. Monde vécu à travers la médiation de lignes. Pour la conscience structurée par les images, le monde est une situation (Sachverhalt). La situation soulève la question de la relation entre les éléments qui la constituent. Conscience magique. Pour la conscience structurée par les textes, le monde est un devenir. Le devenir soulève la question de l’événement. Conscience historique. L’avènement de l’écriture est le point de départ de l’histoire au sens strict.

FLUS2019.23 Cf. Flusser, Post-histoire, op. cit., p. 105-106 : S’exercer à faire des photos et à les déchiffrer (coder et décoder les techno-images) amène à reculer de deux pas de la plate-forme de la conscience imaginative par laquelle les images traditionnelles (peintures, mosaïques, vitraux) sont chiffrées et déchiffrées et déchiffrées. Émerge alors une imagination toute nouvelle. La plate-forme d’une conscience toute nouvelle, la conscience post-historique. Plate-forme à laquelle nous n’accédons encore que l’instant d’un éclair lumineux. Très vite nous retombons dans notre historicité linéaire, dans les textes. Nous sommes, par rapport aux techno-images, dans la situation des illettrés par rapport aux textes. Comme les enfants d’Israël adoraient les tables de la loi au lieu de les lire, nous adorons la télévision au lieu de la déchiffrer. Nous manquons de techno-imagination. Les techno-images nous programment.

FLUS2019.24 Cf. Flusser, Post-histoire, op. cit., p. 106-107 : Pour apprendre la techno-imagination, il faut avant tout savoir ce qui fait la différence entre une techno-image et une image traditionnelle. Si la deuxième est faite par un homme, la première l’est par un appareil. Le peintre pose des symboles sur une surface, pour signifier une scène. L’appareil est une boîte noire programmée pour absorber les symptômes d’une scène, et pour les recoder en symboles, en photographies. Il transcode des symptômes en symboles. Le programme de l’appareil lui est prescrit par des textes, par exemple les équations de l’optique et de la chimie. La techno-image, la photographie, est le résultat du transcodage de symptômes en images par un programme textuel. Une explication terminologique : un symptôme est l’effet de ce qu’il signifie. La trace d’un ski est le symptôme du si, le si est sa cause. La trace que les rayons solaires impriment sur le négatif photographique est le symptôme d’une scène, cette scène est sa cause. Un symbole, au contraire, doit sa signification à une convention qui intervient entre lui et son signifié. Le mot “chien” doit sa signification, celle d’un animal, à une convention linguistique. Le symptôme est lié à sa signification par une chaîne causale, ininterrompue. Le symbole, au contraire, exige qu’on connaisse la convention qui le fixe, pour qu’on puisse le déchiffrer. Le symptôme est “objectivement” décodable, dès l’instant où on connaît sa cause. Le symbole est “intersubjectivement” décodable, à condition qu’on partage le code conventionné, qu’on détienne la clef du code.

FLUS2019.25 Cf. Flusser, Post-histoire, op. cit., p. 108 : Nous sommes alors amenés à reculer d’un troisième pas de la plate-forme imaginative par laquelle les images traditionnelles (peintures, mosaïques, vitraux) sont chiffrées et déchiffrées. Émerge alors la véritable conscience post-historique, dont le recul permet de critiquer les techno-images. C’est une conscience formelle, telle qu’elle s’articule déjà dans l’informatique, la cybernétique et la théorie des jeux. Si nous ne parvenons pas à nous armer de techno-imagination, à faire ce pas vers le “néant” pour dépasser le monde codifié par les techno-images, nous serons fatalement les victimes complices de leur programmation. Seule cette véritable conscience post-historique peut nous émanciper de la tyrannie des techno-images.

FLUS2019.26 Cf. Flusser, Post-histoire, op. cit., p. 168 : À la différence des époques précédentes le monde n’est plus pour nous ensemble d’objets, ni suite d’événements mais contexte de relations. Ni situation, ni processus, mais champ. Un tel modèle relationnel ne s’applique pas seulement au monde connu (modèle épistémologique) mais aussi au monde vécu (modèle d’expérience). Nous avons de plus en plus tendance à vivre dans le monde comme dans un filet dont les mailles nous tiennent prisonniers. C’est surtout notre vie sociale que nous vivons de la sorte. Comme un tissu de relations qui nous lient les uns aux autres, et qui font que nous sommes ce que nous sommes. Qui que je sois, je le suis par rapport à un autre quel qu’il soit. Je suis “je”, parce qu’un autre m’appelle “tu”. Je suis père par rapport à mon fils, écrivain par rapport au lecteur, citoyen par rapport à l’État. Chaque fois qu’il m’arrive de faire abstraction de toutes les relations qui m’attache au tissu social, le sentiment me saisit que je ne suis strictement rien. Je ne découvre alors aucune “essence”, aucun “noyau”, aucune “âme”, aucune “identité”. Tout ce que je découvre c’est un crochet imaginaire sur lequel sont suspendues les relations. Le terme “je” ne signifie aucune réalité absolue, mais un nœud où se nouent les relations du tissu social. Le modèle relationnel débouche sur la découverte de la vacuité de l’existence. Une telle ontologie devrait en finir avec toute éthique de l’égoïsme. Si tout ce que je suis n’est que relations qui me lient à autrui, je devrais me comporter en fonction d’autrui. Si les pronoms personnels “je”, “tu”, “nous”, “vous” apparaissent comme noms de relations, et non pas de personnes, et si ce fait devient conscient, je devrais dépasser toute idéologie de l’individualisme et de l’égoïsme. Je devrais m’ouvrir vers une conscience intersubjective. L’ontologie relationnelle devrait entraîner une éthique “post-individualiste”. Il n’en est rien. Nous assistons, en fait, à une dépolitisation massifiante.

VIVE2021 Le regard du jaguar

Eduardo VIVEIROS DE CASTRO, Le reguard du jaquar, Bordeaux, Éditions la Tempête, 2021.

VIVE2021.1 Cf. Viveiros de Castro, Le regard du jaguar, op. cit., p. 206 : La diversité des formes de vie est consubstantielle à la vie en tant que forme de la matière. Cette diversité est le mouvement de la vie en tant qu’information, prise de manière à ce qu’elle intériorise la différence pour produire encore plus de différence, c’est-à-dire plus d’information. La vie, en ce sens, est une tendance exponentielle, une reproduction ou une multiplication de la différence par elle-même.

VARE2016 Épistémologie des modèles et des simulations

Franck VARENNE, Épistémologie des modèles et des simulations : tour d’horizon et tendances, in Les modèles, possibilités et limites. Jusqu’où va le réel ?, drection Jean-Michel Levy, Paris, Éditions Matériologiques, 2016.

VARE2016.1 Cf. Varenne, Épistémologie des modèles et des simulations, op. cit., p. 20 : {{n’a-t-on pas excessivement congédié le réel pour lui préférer ce qui passe le plus souvent pour sa représentation ou sa copie, à savoir le modèle ou la simulation ?}

VARE2016.2 Cf. Varenne, Épistémologie des modèles et des simulations, op. cit., p. 43 : l’informatique est en elle-même une technologie de l’enchevêtrement délégué – mais maîtrisable – des chemins de la référence au réel, comme de la référence aux divers aspects et aux diverses échelles du réel observable ou concevable.

BRMA16 Évolution du climat, modélisation, incertitudes

Pascale BRACONNOT et Valérie MASSON-DELMOTTE, Évolution du climat, modélisation, incertitudes, in Les modèles, possibilités et limites. Jusqu’où va le réel ?, drection Jean-Michel Levy, Paris, Éditions Matériologiques, 2016.

BRMA2016.1 Cf. Braconot & Masson-Delmotte, Évolution du climat, modélisation, incertitudes, op. cit., p. 80 : La modélisation du climat est actuellement un domaine en pleine expansion. Son histoire récente est associée à la montée en puissance des ordinateurs, ce qui a permis de passer en à peine vingt ans d’études à l’aide de modèle d’atmosphère à des modèles couplant les différents éléments du système climatique et permettant d’étudier de nombreuses rétroactions. Les avancées futures sont aussi fortement conditionnées par l’accès à des supercalculateurs répondant à nos besoins.

BRMA2016.1 Cf. Braconot & Masson-Delmotte, Évolution du climat, modélisation, incertitudes, op. cit., p. 80 : Ce constat nous appel à rester humbles vis-à-vis de la modélisation et à reconnaître qu’aucun modèle n’est actuellement capable de représenter correctement les multiples facettes du climat. Il reste des questions fondamentales qui nécessitent un raffinement toujours plus grand dans l’observation et la représentation du monde qui nous entoure. Elles nécessitent de renforcer aussi les approches conjointes entre modélisation et observations à toutes les échelles de temps.

DREY1992 What Computers Still Can’t Do

Hubert Lederer DREYFUS, What Computers Still Can’t Do: A Critique of Artificial Reason, Cambridge, MIT Press, 1992.

DREY1992.1 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 24 : all of these ideas can be boiled down to ways of constructing and manipulating symbolic descriptions, and, as we have seen, the notion that human cognition can be explained in terms of formal representations does not seem at all obvious in the face of actual research on perception, and everyday concept formation.

DREY1992.2 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 155 : In spite of grave difficulties, workers in Cognitive Simulation and Artificial Intelligence are not discouraged. In fact, they are unqualifiedly optimistic. Underlying their optimism is the conviction that human intelligent behavior is the result of information processing by a digital computer, and, since nature has produced intelligent behavior with this form of processing, proper programming should be able to elicit such behavior from digital machines, either by imitating nature or by out-programming her.

DREY1992.3 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 155-156 : All artificial intelligence work is done on digital computers because they are the only general-purpose information-processing devices which we know how to design or even conceive of at present. All information with which these computers operate must be represented in terms of discrete elements. In the case of present computers the information is represented by binary digits, that is, in terms of a series of yeses and noes, of switches being open or closed. The machine must operate on finite strings of these determinate elements as a series of objects related to each other only by rules. Thus the assumption that man functions like a general-purpose symbol-manipulating device amounts to 1. A biological assumption that on some level of operationusually supposed to be that of the neuronsthe brain processes information in discrete operations by way of some biological equivalent of on/off switches. 2. A psychological assumption that the mind can be viewed as a device operating on bits of information according to formal rules. Thus, in psychology, the computer serves as a model of the mind as conceived of by empiricists such as Hume (with the bits as atomic impressions) and idealists such as Kant (with the program providing the rules). Both empiricists and idealists have prepared the ground for this model of thinking as data processinga third-person process in which the involvement of the "processor" plays no essential role. 3. An epistemological assumption that all knowledge can be formalized, that is, that whatever can be understood can be expressed in terms of logical relations, more exactly in terms of Boolean functions, the logical calculus which governs the way the bits are related according to rules. 4. Finally, since all information fed into digital computers must be in bits, the computer model of the mind presupposes that all relevant information about the world, everything essential to the production of intelligent behavior, must in principle be analyzable as a set of situation-free determinate elements. This is the ontological assumption that what there is, is a set of facts each logically independent of all the others.

DREY1992.3 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 162 : Thus the view that the brain as a general-purpose symbol-manipulating device operates like a digital computer is an empirical hypothesis which has had its day. No arguments as to the possibility of artificial intelligence can be drawn from current empirical evidence concerning the brain. In fact, the difference between the “strongly interactive” nature of brain organization and the noninteractive character of machine organization suggests that insofar as arguments from biology are relevant, the evidence is against the possibility of using digital computers to produce intelligence.

DREY1992.4 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 231-232 : The psychological, epistemological, and ontological assumptions have this in common: they assume that man must be a device which calculates according to rules on data which take the form of atomic facts. Such a view is the tidal wave produced by the confluence of two powerful streams: first, the Platonic reduction of all reasoning to explicit rules and the world to atomic facts to which alone such rules could be applied without the risks of interpretation; second, the invention of the digital computer, a general-purpose information-processing device, which calculates according to explicit rules and takes in data in terms of atomic elements logically independent of one another. In some other culture, the digital computer would most likely have seemed an unpromising model for the creation of artificial reason, but in our tradition the computer seems to be the very paradigm of logical intelligence, merely awaiting the proper program to accede to man’s essential attribute of rationality. The impetus gained by the mutual reinforcement of two thousand years of tradition and its product, the most powerful device ever invented by man, is simply too great to be arrested, deflected, or even fully understood. The most that can be hoped is that we become aware that the direction this impetus has taken, while unavoidable, is not the only possible direction; that the assumptions underlying the conviction that artificial reason is possible are assumptions, not axiomsin short, that there may be an alternative way of understanding human reason which explains both why the computer paradigm is irresistible and why it must fail.

DREY1992.5 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 280 : Man’s nature is indeed so malleable that it may be on the point of changing again. If the computer paradigm becomes so strong that people begin to think of themselves as digital devices on the model of work in artificial intelligence, then, since for the reasons we have been rehearsing, machines cannot be like human beings, human beings may become progressively like machines. During the past two thousand years the importance of objectivity; the belief that actions are governed by fixed values; the notion that skills can be formalized; and in general that one can have a theory of practical activity, have gradually exerted their influence in psychology and in social science. People have begun to think of themselves as objects able to fit into the inflexible calculations of disembodied machines: machines for which the human form-of-life must be analyzed into meaningless facts, rather than a field of concern organized by sensory-motor skills. Our risk is not the advent of superintelligent computers, but of subintelligent human beings.

DREY1992.6 Cf. Dreyfus, What Computers Still Can’t Do, op. cit., p. 281 : This alternative conception of man and his ability to behave intelligently is really an analysis of the way man’s skillful bodily activity as he works to satisfy his needs generates the human world. And it is this world which sets up the conditions under which specific facts become accessible to man as both relevant and significant, because these facts are originally organized in terms of these needs. This enables us to see the fundamental difference between human and machine intelligence. Artificial intelligence must begin at the level of objectivity and rationality where the facts have already been produced. It abstracts these facts from the situation in which they are organized and attempts to use the results to simulate intelligent behavior. But these facts taken out of context are an unwieldy mass of neutral data with which artificial intelligence workers have thus far been unable to cope. All programs so far “bog down inexorably as the information files grow.”

DUPU2005 Aux origines des sciences cognitives

Jean-Pierre DUPUY, Aux origines des sciences cognitives, Paris, La Découverte, 2005.

DUPU2005.1 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 19 : De bonnes anthologies d’intelligence artificielle font de Thomas Hobbes le précurseur de la discipline et consacrent leur premier chapitre à un extrait du Léviathan. L’imputation est loin d’être absurde ou anachronique. Hobbes conçoit l’État ou Commonwealth sur le modèle d’un “automate qui se meut par ressorts et rouages comme une horloge”. Qu’est-ce que le Léviathan ? Un immense “homme (ou animal) artificiel”. Les sciences cognitives se reconnaissent volontiers dans la formule : “Thinking is reckoning” (Penser, c’est calculer). Or derrière cette communauté de mots, il y a une véritable parenté philosophique.

DUPU2005.2 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 22 : Connaître, c’est produire un modèle du phénomène et effectuer sur lui des manipulations réglées. Toute connaissance est reproduction, représentation, répétition, simulation. Cela, nous l’avons vu, caractérise le mode scientifique, rationnel de connaissance. Les sciences cognitives font de ce mode le mode unique de toute connaissance. Pour elles, tout “système cognitif” se rapporte au monde comme le savant à son objet. On ne s’étonne pas que la notion de représentation occupe une place centrale dans la science de la cognition. L’analogie, cependant, est encore plus profonde. Soit un système cognitif matériel : savant, homme, animal, organisme, organe, machine. Ce qui fait que ce système connaît par modèles et représentations doit pouvoir lui-même être modélisé en abstrayant du substrat matériel chaque fois différent le système de relations fonctionnelles responsable de la faculté de connaître. Le fonctionnalisme de la science de la cognition se situe donc à (au moins) deux niveaux logiquement emboîtés : celui de la représentation élémentaire ; et celui de la représentation de la faculté de représentation. C’est à ce second niveau qu’une science de la cognition peut tout à la fois se déclarer matérialiste ou physicaliste et revendiquer son autonomie par rapport aux sciences de la nature (et de la vie). L’esprit, compris comme le modèle de la faculté de modéliser, a retrouvé sa place dans l’univers matériel. Ou, pour le dire en d’autres termes, aujourd’hui plus familiers, il y a de l’information (et même du sens) dans le monde physique. Les facultés de l’esprit ne sont jamais que des propriétés de systèmes à traiter de l’information. Connaître, c’est effectuer, sur des représentations, des manipulations réglées. Cette proposition est fidèle à l’esprit du paradigme dominant en sciences cognitives et cependant, il lui manque l’essentiel. L’essentiel, c’est la nature logique des manipulations et des règles en question Le modèle scientifique, avons-nous dit, prend le plus souvent une forme mathématique – et, plus précisément encore, il se ramène à un système d’équations différentielles reliant des grandeurs. L’époque qui précède immédiatement l’histoire que nous allons conter a produit des modèles mathématiques tant du système nerveux que des circuits électriques. Il aura cependant fallu le génie de McCulloch et Pitts d’un côté, de Shannon de l’autre, pour comprendre que la modélisation pertinente était en fait de type logique – donc que l’on pouvait décrire en termes logiques le fonctionnement de certaines systèmes matériels, mais qu’inversement ces systèmes matériels pouvaient se représenter comme réalisant, voire incarnant la logique, cette forme supérieure de la pensée.

DUPU2005.3 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 31 : On a oublié que la cybernétique, dans ses beaux jours, suscita les plus grands enthousiasmes et les plus folles espérances. Son projet théorique, idéologique et technique a façonné notre époque comme nul autre. Il ne faut donc pas s’étonner que sa lignée soit aussi nombreuse et variée. Elle aura, en vrac et sans souci d’exhaustivité : introduit la conceptualisation et le formalisme logico-mathématiques dans les sciences du cerveau et du système nerveux ; conçu l’organisation des machines à traiter de l’information et jeté les fondements de l’intelligence artificielle ; produit la “métascience” des systèmes, laquelle a laissé son empreinte sur l’ensemble des sciences humaines et sociales, de la thérapie familiale à l’anthropologie culturelle ; fortement inspiré des innovations conceptuelles en économie, recherche opérationnelle, théorie de la décision et du choix rationnel, théorie des jeux, sociologie, sciences du politique et bien d’autres disciplines ; fourni à point nommé à plusieurs “révolutions scientifiques” du XXe siècle, très diverse puisqu’elles vont de la biologie moléculaire à la relecture de Freud par Lacan, les métaphores dont elles avaient besoin pour marquer leur rupture par rapport à des paradigmes établis.

DUPU2005.4 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 36 : L’article de McCulloch et Pitts radicalise la démarche de Wiener et de ses collaborateurs sur deux plans. Alors que ceux-ci dénient toute réalité à l’esprit et réduisent l’évocation de ses facultés à de simple commodités de langage, McCulloch part en quête des mécanismes matériels et logiques qui incarnent l’esprit […]. McCulloch en vérité, introduit l’“étude comportementale des phénomènes naturels”, chère à Wiener, Rosenblueth et Bigelow, à l’intérieur du cerveau. Certes le “contenu” de cela même qui est capable de comportement est maintenant considéré comme justifiable d’une démarche scientifique, mais ce contenu se décrit lui-même en termes de comportements d’unités plus petites, à l’“intérieur” desquelles il n’est pas question de pénétrer et que l’on n’envisage que dans leurs relations avec leur environnement, c’est-à-dire comme opérateurs transformant des Inputs en Outputs : les neurones. Ce n’est donc pas d’opposition qu’il faut parler, mais bien de radicalisation puisque l’approche comportementale et communicationnelle est transposée à un niveau logique inférieur. L’autre élément de radicalisation concerne les rapports entre organismes et machines. La cybernétique telle que l’a popularisé Wiener se présente comme la science des analogies maîtrisées entre organismes et machines. On peut résumer la position de McCulloch par cette citation, extraite d’un texte de 1955 : “Plus nous apprenons de choses au sujet des organismes, plus nous sommes amenés à conclure qu’ils ne sont pas simplement analogues aux machines, mais qu’ils sont machines.” La différence est double. Elle est d’abord de point de vue. Wiener raisonne en mathématicien appliqué, il lui suffit d’établir un isomorphisme mathématique pour conclure à l’analogie. C’est une prise de position ontologique qu’en regard défend McCulloch. Par ailleurs – mais les deux choses évidemment sont liées – les machines dont parle Wiener sont de “vraies” machines, des artefacts, des machines artificielles, des objets techniques. Pour McCulloch, la machine est un être logico-mathématique incarné dans la matière de l’organisme : c’est, si l’on veut, une “machine naturelle”, ou bien une “machine logique”, nature et logique étant ici parfaitement équivalentes l’une à l’autre. C’est donc sans incohérence aucune que McCulloch prendra fréquemment ses distances par rapport aux analogies parfois légères établies par ses collègues entre automates artificiels et automates naturels – ces analogies qui feront tant pour discréditer la cybernétique aux yeux des scientifiques “sérieux”, c’est-à-dire disciplinaires.

DUPU2005.5 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 43-44 : Sa démarche [à McCulloch] était donc fonctionnaliste – un fonctionnalisme certes fort éloignés de ce que sera le fonctionnalisme computationnel et représentationnel de l’esprit comme machine de Turing, qui constituera la marque distinctive de l’intelligence artificielle et du courant dominant de la science cognitive à venir. […] Voilà pourquoi McCulloch insistait sur le fait que les mécanismes matériels qu’il proposait pour rendre compte des facultés de l’esprit étaient suffisants, mais en rien nécessaires. Ils étaient tout à la fois possibles, comme le montraient les connaissances anatomiques et physiologiques de l’époque, et capables de manifester ces facultés. Mais d’autres “incarnations” ou d’autres théories de ce incarnations, eussent été concevables. C’est déjà l’idée de “réalité multiple”, dont nous avons vu qu’elle est solidaire de la pratique de la modélisation. Or cette idée assure l’émancipation du modèle, lequel peut dès lors voler de ses propres ailes… Si quelqu’un comprit fort bien cela à l’époque, c’est von Neumann. Parlant de l’article de McCulloch et Pitts de 1943, il écrit : “Ils voulaient traiter des neurones. Il décidèrent qu’ils ne souhaitaient pas s’attacher aux caractéristiques physiologiques et chimiques d’un neurone réel dans toutes leurs complexité. Ils ont eu recours à ce que l’on nomme en mathématique la méthode axiomatique, qui consiste à énoncer un certain nombre de postulats simples et à ne pas se préoccuper des moyens dont la nature se sert pour réaliser l’objet en question.

DUPU2005.6 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 44 : Une comparaison vient à l’esprit, qui est d’autant moins hors de propos que la Théorie des jeux de von Neumann et Morgenstern, achevé en cette même année 1943 et publiée l’année suivante, va fournir un ingrédient appréciable au débat cybernétique. C’est la représentation de l’acteur par la théorie économique. Un économiste pur et dur peut s’intéresser à titre personnel aux connaissances accumulées par la psychologie dans son exploration des profondeurs de l’âme humaine, cela ne l’incitera en rien à renoncer à son modèle de l’homo œconomicus, ce calculateur “input-output” qui est à l’homme complet ce que le neurone formel est au neurone réel. Il y a une profonde communauté d’esprit entre la modélisation cybernétique et la modélisation en économie mathématique, et l’on ne s’étonne pas que les nombreux avatars de la première (théorie des systèmes, recherche opérationnelle, théorie du contrôle optimal, théorie de la décision, etc.) aient procuré à la seconde maints de ses outils.

DUPU2005.7 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 49 : L’ENIAC était une machine parallèle, comme celle de McCulloch. La machine conçue par von Neumann allait s’appeler l’EDVAC et fonctionner de façon séquentielle. C’est en comparant automates naturels et automates artificiels que von Neumann devait théoriser cette innovation. Les neurones sont extrêmement nombreux dans le cerveau et ils fonctionnent lentement : c’est l’organisation en parallèle qui optimise le traitement de l’information. En revanche, les composants d’un calculateur artificiel peuvent atteindre de très grandes vitesses et ils sont relativement peu nombreux : il faut les monter en série. Aujourd’hui encore, presque tous les ordinateurs – on les appelle pardois “machines de von Neumann” – sont des machines séquentielles. Cette domination est si forte que même les réseaux neuronaux du connexionnisme, ces machines hautement parallèles, sont simulés sur des machines de von Neumann.

DUPU2005.8 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 49-50 : Norbert Wiener, Arturo Rosenblueth, Julien Bigelow, Warren McCulloch et Walter Pitts : les auteurs des deux articles fondateurs parus en 1943 sont ceux qu’à l’instar de Steve Heims nous nommerons les “cybernéticiens”. Mais, de même que les trois mousquetaires étaient quatre, les cinq cybernéticiens étaient six. Du d’Artagnan de l’équipe, certes plus juif d’Europe centrale que gascon, mais doté de la même faconde et rayonnant du même panache, nous avons par la force des choses déjà beaucoup parlé. Il n’est cependant pas possible d’enfermer la personnalité de John von Neumann à l’intérieur de la seule cybernétique. Ses travaux, qui ont, pour le meilleur ou pour le pire, ouvert à la science et aux techniques des chemins nouveaux dans un nombre impressionnant de domaines, recoupent cette dernière en deux points au moins. C’est d’abord sa Theory of Games and Economic Behavior, publiée en 1944 en collaboration avec l’économiste autrichien Oskar Morgenstern. C’est surtout son élaboration d’une théorie générale des automates, naturels et artificiels, dont nous avons déjà dit qu’elle avait trouvé son impulsion initiale dans la lecture de McCulloch et Pitts. Nous venons de rappeler le rôle décisif que von Neumann allait jouer dans la conception des ces automates artificiels que sont les ordinateurs actuels. On connaît moins, en général, sa contribution au problème même qui tourmentait McCulloch : les rapports circulaires entre logique et cerveau. Von Neumann dut apprendre beaucoup de neurophysiologie pour pouvoir élaborer une comparaison systématique du cerveau et de l’ordinateur. Il en présenta les prolégomènes lors de sa conférence historique au symposium Hixon, en 1948, sous le titre “The General and Logical Thery of Automata”. Plus tard, il allait aborder deux problèmes qu’il jugeait essentiels pour la compréhension de la logique des organismes : comment des composants non fiables peuvent constituer un automate fiable ; et quels principes d’organisation sont suffisants pour donner à un automate la capacité d’autoreproduction. Sa mort prématurée, en 1957, devait interrompre ces recherches. Mais en 1948, tout en rendant hommage à la découverte de McCulloch et Pitts, il prend ses distances par rapport à elle, de façon fort intéressante. Il commence par évoquer la question de la taille du cerveau capable d’incarner telle ou telle fonction, ou propriété de l’esprit. Comme nous avons déjà eu l’occasion de le voir, aux conférences Macy et ailleurs, il conjecturera que le nombre de neurones formels nécessaires à la production de ces propriétés risque fort d’être très nettement supérieur au nombre de neurones réels. Puis vient sa critique essentielle. Tout comportement descriptible sans ambiguïté en un nombre fini de mots est computable par un réseau de neurones formels, c’est là un résultat remarquable, reconnaît-il – trop rapidement, pour la raison que nous avons expliquée. Mais nos comportements les plus complexes – et par “comportements”, von Neumann entend ici, en bon cybernéticien, les facultés de l’esprit : pensée, formation des concepts, mémoire, apprentissage, etc. – sont-ils descriptibles, en pratique, totalement et sans ambiguïté, au moyen de mots ? Localement, c’est toujours possible, par exemple s’il s’agit de décrire notre capacité à reconnaître la même forme triangulaire derrière deux triangles empiriques, de tracés, de tailles et de positions différents. Mais s’il s’agit de caractériser globalement notre capacité à établir des “analogies visuelles” ? Alors, conjecture von Neumann, on peut être dans un cas où le moyen le plus simple de décrire un comportement est de décrire la structure qui l’engendre – le gain en complexité de description pouvant tendre vers l’infini. Il est, dans ces conditions, dépourvu de sens de “découvrir” que tel comportement peut être incarné dans un réseau de neurones puiqu’il n’est pas possible de définir le comportement autrement qu’en décrivant le réseau. La morale de l’affaire, von Neumann ne fait que l’esquisser, car il est assez paradoxal pour lui, mathématicien, de la défendre face au neurophysiologiste McCulloch : celui-ci expliquait la neurophysiologie au moyen de la logique ; il est plus fécond, suggère von Neumann, d’enrichir notre logique sur le modèle de la neurophysiologie. Il répétera souvent que la logique formelle, dans son état présent, est trop rigide, trop combinatoire pour pouvoir se poser comme la logique des automates, qu’ils soient artificiels ou naturels ; il cherchera lui-même à édifier une logique plus complexe, plus proche du continu, s’inspirant dans ses méthodes de la théorie de probabilités, de la thermodynamique, de la théorie de l’information et de l’analyse mathématique. Von Neumann osait ainsi la question de la complexité, en prévoyant qu’elle deviendrait la grande question de la science à venir. La complexité, cela impliquait pour lui la futilité de la démarche constructive à la McCulloch et Pitts, qui réduit une fonction à une structure ; cela imposait à la place la question de savoir de quoi une structure complexe est capable. Il est significatif que Marvin Minsky, qui passait sa thèse sous la direction de von Neumann, ait jugé que la critique de son patron à l’encontre de la démarche de McCulloch était une aberration, un aveu de faiblesse, un manque de foi dans ce que lui-même, John von Neumann, avait réussi à édifier. Il reste à se demander si cette critique assez radicale eut une fécondité sur le mouvement cybernétique. Nous savons que McCulloch en fut ébranlé et qu’il consacra les dernières années de sa vie à des recherches sur des logiques alternatives, mais sans beaucoup de succès, semble-t-il. Ross Ashby, Frank Rosenblatt et, plus tard, le néoconnexionnisme allaient, en sens inverse de l’intelligence artificielle orthodoxe, poser la question dans les termes de von Neumann, se donnant une classe de structures définies seulement en partie et de façon statistique, et cherchant à en explorer les possibilités générales ou “génériques”. On note cependant avec amusement que dans la carte qu’il dresse en 1984 des sciences cognitives, Dan Denett range le modèle de McCulloch du même côté que l’orthodoxie cognitiviste, l’autre côté étant représenté par le “néoconnexionnisme”. Comme si l’incarnation par celui-ci du paradigme de la complexité pouvait justifier non seulement de couper le lien de paternité avec la cybernétique de McCulloch, mais encore de confondre celle-ci avec ce qui, dans l’ensemble des sciences cognitives, lui ressemble le moins : le cognitivisme orthodoxe. Comme si la cybernétique était vouée à jamais à se voir rejetée par ses enfants.

DUPU2005.9 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 83 : S’il est cependant possible de soutenir que McCulloch, mieux que Wiener, incarne, tant dans sa personne que dans son œuvre, ce qui se joue dans le projet cybernétique, c’est que l’on trouve chez le premier, mais non chez le second, une profonde cohérence entre le message idéologique et l’œuvre scientifique. L’un comme l’autre auront, en fin de compte, bien servi la “déconstruction” de la conception leibnizienne et cartésienne du sujet ; Wiener en soutenant que la volonté est de l’ordre du mécanisme, McCulloch en faisant de même avec la perception, la pensée et la conscience. Grâce à eux, il est désormais possible de donner des représentations rigoureuses de la notion de processus (comportement ou pensée) sans sujet. Or, même s’il ne recourait pas à cette terminologie heideggérienne, McCulloch, lui, savait ce qu’il faisait. Ce n’était manifestement pas le cas de Wiener. Lorsque, après sa rupture publique avec l’establishment scientifiques et militaro-industriel, il se met à déployer une activité d’intellectuel qui va occuper une portion croissante de son temps, c’est un message humaniste qu’il délivre, une philosophie de la technique généreuse et quelque peu naïve, où l’on reconnaît les thèmes de la neutralité de la technique, du mal qu’elle peut faire si on ne la maîtrise pas, de la responsabilité du scientifique et de l’ingénieur, de l’aide décisive que peuvent apporter les machines à l’avènement d’une société rationnelle – bref, un discours de maîtrise, qui fait de la technique un instrument que l’on peut et doit dominer, et qui, donc, passe “à côté de son essence”. Tout à fait symboliques à cet égard sont les recherches que Wiener réalise à la même époque, et dont il entretient volontiers ses collègues des conférences de Macy, pour mettre au point des prothèses médicales au service des handicapés, en recourant aux techniques de traitement du signal. Nul doute que si beaucoup se méprennent sur la nature philosophique de la cybernétique, c’est parce qu’ils s’arrêtent au discours de Wiener, sans voir qu’il est en contradiction avec le sens de l’œuvre scientifique effectivement accomplie. C’est une raison pour mettre au premier plan la figure de Warren McCulloch.

DUPU2005.10 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 84-85 : Notons d’abord que la notion d’information, dans l’esprit des cybernéticiens, et en tout cas dans celui de Wiener, appartient au domaine de la physique, et plus précisément de la thermodynamique. Dès le symposium de 1946 sur les “Mécanismes téléologiques”, Wiener propose de considérer l’information comme étant de l’entropie négative – l’idée avait été avancée par L. Szilard dès 1929, et elle allait être développée de façon rigoureuse par L. Brillouin, en 1956, dans son livre La science et la Théorie de l’information –, et ajoute : “De fait, il n’est guère surprenant que l’entropie et l’information soient de signes opposés : l’information mesure l’ordre et l’entropie mesure le désordre. Il est en vérité possible de concevoir tout ordre en terme de messages”. C’est dire que d’emblée, par le fait même qu’il traite l’information comme une notion physique, Wiener la fait échapper au strict domaine de l’ingénierie des communications, à quoi la limitera Shannon, pour la faire entrer dans celui de l’étude des systèmes organisés, qu’ils soient biologiques, techniques ou sociaux. C’est une physique de l’information qu’il prétend établir. C’est la notion d’information qui lui sert à ramener les questions biologiques ou même sociales à des considérations de physique. Ainsi peut-il dire : “La caractéristique la plus importante d’un organisme vivant est son ouverture au monde extérieur. Cela signifie qu’il est doté d’organes de couplage qui lui permettent de recueillir des messages du monde extérieur, lesquels messages décident de sa conduite à venir. Il est instructif de considérer cela à la lumière de la thermodynamique et de la mécanique statistique.”

DUPU2005.11 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 85-86 : Le “physicalisme” de Wiener par rapport à la question de l’information apparaît spécialement lors des nombreuses discussions qui portèrent sur les catégories, chères aux cybernéticiens, de “numérique” (digital) et d’“analogique”. Les participants aux conférences Macy semblaient avoir beaucoup de mal à percevoir la nature de la distinction, tout en la jugeant fondamentale, puisque beaucoup pensaient que les dispositifs “numériques”, de par leur caractère discontinu, étaient davantage porteurs d’information que les dispositifs “analogiques”, ou en tout cas qu’ils transmettaient une information plus noble, parce que “codée”. Pitts conjecture que c’est à une étape tardive de l’évolution que les systèmes nerveux sont devenus numériques, “probablement dans le but de traiter de plus grandes quantités d’informations”. Von Neumann distingue entre les messages “codés“ parce que discrets (comme l’influx nerveux) et les messages continus, de type hormonal. Il conjecture que les premiers se propagent le long de chemins bien précis et spécialisés, ce qui n’est pas le cas des seconds. Certains même, tel McCulloch, doutent que l’“analogique” — comprendre le continu – puisse avoir d’autre fonction informationnelle que celle que remplit la différence de potentiels aux bornes d’un poste de radio. Si les discussions sur ce sujet étaient si vives, c’est que l’enjeu en était la sempiternelle question de savoir quelle est l’approche la plus féconde du système nerveux : la “discontinuiste” en termes de réseaux de neurones et d’impulsions nerveuses, ou la “continuiste”, en termes de champs électriques et de variables continues, de type chimique et hormonal. Le neurobiologiste Ralph Gerard se faisait régulièrement l’avocat de ces thèses “holistes” et “gestaltistes”, allant même jusqu’à conjecturer que le caractère discret de l’influx nerveux n’est qu’une donnée contingente. C’est dans ce contexte que Wiener dut expliquer que l’opposition entre numérique et analogique n’est qu’une distinction de degré et non pas de nature. Il le fit dans des termes très modernes, ceux de la théorie des systèmes dynamiques, dans un langage qui préfigure celui de la théorie des bifurcations, ou des “catastrophes”. Soit un système physique dont les états d’équilibre sont peu nombreux, et les bassins d’attraction – c’est-à-dire les régions de conditions initiales qui conduisent à un même équilibre – bien séparés. La plupart du temps, le système se trouvera en l’un ou l’autre de ses états d’équilibre. La dynamique sous-jacente est continue, mais la phénoménologie est discrète. En général, une petite variation des conditions initiales n’a pas d’effet sur l’équilibre atteint, mais si l’on se trouve en un point de bifurcation, le système saute brusquement, “catastrophiquement”, d’un état d’équilibre à un autre, jouant alors le rôle d’amplificateur. Or, continue Wiener, plus les équilibres sont attractifs, plus le temps que le système passe hors de ses états d’équilibre est faible et plus il se comporte comme un dispositif “numérique”. Un système est donc plus ou moins numérique, plus ou moins analogique. Si son identité, et donc le “paysage de ses attracteurs“, varie régulièrement en fonction de certains paramètres, on peut même lui faire parcourir toutes les étapes intermédiaires entre le “pur” numérique et le “pur” analogique. Wiener concluait son explication en affirmant la nécessiter d’élaborer une “physique des dispositifs numériques”. De façon consistante avec ces développements remarquables, Wiener jugeait vain de prendre parti dans la querelle qui opposait Ralph Gerard à Warren McCulloch, les renvoyant, de fait, dos à dos. Contre le premier, il affirmait que la canalisation des messages le long de sentiers bien précis est une caractéristique essentielle du système nerveux ; contre le second, il conjecturait que les variables continues, d’ordre chimique et hormonal, sont bien porteuse d’information. Pour concilier ces deux positions, il suffit de poser que ces variables “analogiques” modifient continûment les seuils d’excitation des neurones, donc de concevoir un système numérique commandé analogiquement. Il faut cette complexité, pensait Wiener, pour que le système soit capable d’apprendre.

DUPU2005.12 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 94-95 : Parce qu’elle s’est institué comme la science des “mécanismes téléologiques”, et qu’elle a pris les êtres finalisés pour objets d’étude, on considère souvent la cybernétique comme le fruit de l’union d’une philosophie “holiste” et de la science moderne. Cette image est aussi fausse que les autres […]. [Le] véritable projet cybernétique : produire, comme l’art, des simulacres, c’est-à-dire des imitations d’imitation, des modèles de modèle. La totalisation cybernétique n’est pas holiste, c’est un holisme artificiel, une simulation de holisme qui agit comme démystification. […] Les totalités cybernétiques sont toujours des totalités artificielles, dans lesquelles les parties sont antérieure au tout ; des totalités nominales, que seule la conscience organisatrice d’un tiers, en l’occurrence le cybernéticien, vient achever en les percevant et les concevant ; des agrégats dont l’unité est accidentelle, et jamais des monades dont l’unité soit substantielle, pour reprendre la célèbre distinction de Leibniz.

DUPU2005.13 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 101-102 : Comme l’a bien vu Gilbert Simondon, les limites de la cybernétique ont surtout tenu à ce qu’elle est restée jusqu’au bout prisonnière de son postulat initial : “l’identité des êtres vivants et des objets techniques auto-régulés”. Ce n’est pas, contrairement à ce qu’on affirme parfois, que les cybernéticiens aient été principalement des techniciens ou des ingénieurs. S’ils s’intéressaient tant aux machines, ce n’était pas en tant qu’applications utiles d’un savoir scientifique déjà constitué, c’est qu’elles représentaient à leurs yeux l’incarnation dans la matière d’hypothèses ou de théories de type logico-mathématique.

DUPU2005.14 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 102-103 : Cette évolution, que l’on peut décrire comme l’émancipation progressive par rapport au réel de l’outil par lequel le savant recrée le monde, était en un sens annoncée dans un texte de 1945 que Wiener et Rosenblueth publièrent dans la revue qui avait accueilli leur article fondateur de 1943. Intitulé “The Role of Models in Science“, ce texte commençait par rappeler l’importance qu’a toujours eue l’activité de modélisation dans la science moderne. À défaut de pouvoir se rendre maître et possesseur d’une portion du monde, le savant en construit une image plus simple et aussi fidèle que possible dont, comme un fétiche, il s’assure la maîtrise. Or, tout au long de l’article, les auteurs traitent non seulement des modèles formels, pures constructions intellectuelles, mais aussi des modèles matériels, qui sont des objets du monde, comme l’objet qu’ils représentent. Pour finir, ils considèrent le “cas limite” de la modélisation : un objet dont le seul modèle matériel satisfaisant serait cet objet lui-même. Il se trouve que cette figure, que Wiener a peut-être empruntée à Josiah Royce dont il suivait le séminaire à Harvard dans les années 1911-1913, va hanter les conférences Macy, parfois de façon très explicite. En témoigne l’échange entre Ralph Gerard et McCulloch à la neuvième conférence. Ironie ou fausse modestie, le premier explique que ce que le groupe, au fond, semble attendre des neurophysiologistes, c’est qu’ils fournissent aux mathématiciens des données pour que ceux-ci puissent bâtir leurs modèles sans perdre trop le sens du réel. Le réel est devenu le moyen, et le modèle la fin. À quoi McCulloch réplique : “Le meilleur modèle du comportement du cerveau, c’est le comportement du cerveau lui-même.” Mais c’est le plus souvent de façon non réfléchie que l’objet et le modèle éprouvent une fâcheuse tendance à constamment inverser leurs rôles. Oscillation que le mot même de modèle, comme nous l’avons dit, recèle dans son ambivalence : est modèle ce qui imite, mais aussi ce qui est, ou mérite d’être imité.

DUPU2005.15 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 103 : Typique à cet égard est, dans son extrême confusion qui mit certains participants hors d’eux, la discussion de la septième conférence sur le numérique et l’analogique. Nous l’avons déjà évoquée comme l’un des moments chauds où s’affrontèrent les partisans d’une conception “continuiste” du système nerveux et leurs adversaires “neuronistes”. À ce niveau, analogique veut dire continu et numérique, discret. Plus précisément, comme l’expliquent von Neumann et Pitts, si l’action d’une variable continue sur la dynamique d’un système dépend seulement du fait que sa valeur dépasse ou non un certain seuil, alors on peut décrire le rôle qu’elle joue dans l’économie du système comme étant celui d’une variable “numérique”, du type oui ou non, 0 ou 1 ; sinon, cette variable sera dite “analogique”. Dans ce premier sens, on peut donc dire d’une réalité naturelle qu’elle est analogique. Cependant, puisqu’on parle aussi et surtout de machines, il est inévitable que le mot “analogique” évoque non plus un rapport interne au système de la machine, mais un rapport entre celle-ci et l’objet naturel qu’elle est censée représenter. Rien n’interdit dès lors à une machine d’être analogique dans ce second sens et numérique dans le premier. Mais il s’agit du système nerveux, qui est un objet naturel bien particulier, puisqu’il est l’organe même de toute représentation. À son sujet, les deux sens viennent en coalescence , et l’on ne sait bientôt plus ce que l’on dit lorsqu’on traite des représentations artificielles, matérialisées, du cerveau. C’est la notion même de modèle qui, dans la discussion, s’estompe progressivement, dans la mesure où elle suppose une relation hiérarchique entre une origine et une reproduction. Entre les faits et leurs descriptions, il n’y a bientôt plus de différence, la hiérarchie fait place à une relation d’équivalence, qui est l’adéquation à un même modèle formel. C’est la logique qui met à plat le monde et ses représentations. Les modèles de la cybernétique sont déjà poststructuralistes, ils ne sont modèles que d’eux-mêmes, ou bien d’autres modèles, miroirs de miroirs, spéculums ne réfléchissant aucune réalité.

DUPU2005.16 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 103-104 : Ce renversement de l’idée de modèle est contemporain du mouvement par lequel la science se concentre sur l’étude des objets “complexes”, au sens que von Neumann a donné à ce mot. Le modèle mathématique, artificiel, perd son statut d’instrument de maîtrise, puisqu’on ne sait pas le résoudre. La complexité de l’objet réel est irréductible et seule l’histoire de cet objet dans le monde peut nous dire ce dont il est capable. Cette idée révolutionnaire, que les sciences de la nature (et de l’artificiel) découvrent à cette époque, est en réalité une vieille connaissance de la pensée du social. On ne devrait peut-être pas s’en étonner, tant il est vrai qu’aucun objet du monde physique ou mécanique n’atteint la complexité d’une société. Ce n’est pas un hasard – nous y reviendrons – si un Friedrich von Hayek se réfère à la fin des années trente au passage suivant du Manuel d’économie politique de Vilfredo Pareto. Celui-ci écrit en 1906 que le modèle de l’équilibre économique général, mis au point par Léon Walras et par lui-même, et qui formalise le mécanisme de la formation des prix sur un marché concurrentiel, “ne vise nullement à un calcul numérique des prix. Faisons en effet l’hypothèse la plus favorable pour un tel calcul, supposons que nous ayons triomphé de toutes les difficultés consistant à trouver les données du problème et que nous connaissions les ophélimités [c’est-à-dire les “utilités” ou “désirabilités”, JPD] de tous les différents produits pour chaque individu, et toutes les conditions de production de tous les produits, etc. Cela est déjà une hypothèse absurde. Pourtant elle n’est pas suffisante pour rendre la solution du problème possible. Nous avons vu que dans le cas de 100 personnes et de 700 produits il y aura 70 699 conditions (en fait, un grand nombre de circonstances que nous avons négligées jusqu’ici augmenteront ce nombre) ; nous devons donc résoudre un système de 70 699 équations. Cela excède en pratique les pouvoirs de l’analyse algébrique, et cela est plus vrai encore si l’on songe au nombre fabuleux d’équations que l’on obtient pour une population de quarante millions d’habitants et plusieurs milliers de produits. Dans ce cas, les rôles s’inverseraient : ce ne seraient plus les mathématiques qui viendraient au secours de l’économie politique, mais l’économie politique qui viendrait au secours des mathématiques. En d’autres termes, si l’on pouvait réellement connaître toutes ces équations, le seul moyen pour les résoudre qui soit accessible aux pouvoirs de l’homme serait d’observer la solution pratique qui leur est donnée par le marché.” Le contexte idéologique, en tout cas pour ce qui est de Hayek, est clair : seul le marché peut nous dire ce dont il est capable. Le meilleur modèle, et le plus simple, du comportement du marché, c’est le comportement du marché lui-même. L’information que le marché mobilise et met au service de ceux qui se laissent porter par sa dynamique, n’est pas “compressible”. Nul, donc, ne peut s’en dire le détenteur, ni prétendre commander “aux forces aveugles du processus social” – aveugles, mais bénéfiques. La crise hayékienne du “rationalisme constructiviste” en philosophie sociale anticipe la critique adressée par von Neumann à la philosophie artificialiste de McCulloch.

DUPU2005.17 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 104-105 : Le modèle mathématique qui décrit un objet complexe est lui-même un objet complexe. Un de ses “modèles” possibles, nous venons de le voir, c’est l’objet lui-même. Mais grâce à von Neumann, l’apparition de l’ordinateur ouvre une nouvelle possibilité : la simulation numérique. À son tour, l’objet mathématique est traité comme un objet naturel. Sa définition n’est pas “génétique”, c’est-à-dire que l’on ne peut déduire de la définition toutes les propriétés de l’objet. Pour connaître celui-ci, il est donc indispensable de recourir à l’expérimentation, sur la représentation matérialisée dans l’ordinateur. Très tôt, von Neumann fut donc sensible à l’idée que nos constructions intellectuelles, dès lors qu’elles sont “complexes”, ne sont pas d’une nature radicalement différente de celle des objets du monde physique. Cela ne pouvait que le préparer à “déconstruire” la relation hiérarchique inhérente à la notion de modèle. C’est en tout cas cette position philosophique qui fournit à von Neumann la motivation et l’énergie nécessaires à la conception et au développement des calculateurs électroniques.

DUPU2005.18 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 107 : Pour celui qui écrit, avec une attitude faite a priori de sympathie et même de gratitude – comme c’est le cas de l’auteur de ces lignes –, l’histoire de la cybernétique, le sentiment qui finalement prévaut est celui d’une grande déception. La nouvelle discipline se voulait l’avant-garde de la démarche scientifique, tant par son projet – l’esprit, ce chef-d’œuvre de la création – que par ses concepts, ignorés jusque là de la physique – la téléologie, l’information, la causalité circulaire, le feedback, etc. – et son style – réflexif, c’est-à-dire réfléchissant l’emploi de ses outils conceptuels. Est-ce l’arrogance liée à la certitude de faire franchir à la science une étape décisive, ou simplement le type de fermeture d’esprit que tout “paradigme” scientifique, nouveau ou ancien, requiert de ses membres ? Toujours est-il que la cybernétique aura – quel gâchis ! – raté l’essentiel de ses rendez-vous. J’ai décrit et analysé l’échec de ses rencontres avec la biologie ; qu’il s’agisse de la biologie moléculaire, de l’embryologie ou de la neurophysiologie ; avec la psychologie, traitée au mieux comme un territoire à conquérir ; avec la phénoménologie, dont la “philosophie de l’esprit” eût mieux convenu à son modèle que cette branche de la philosophie analytique qui porte aujourd’hui ce nom. On peut aussi mentionner l’absence de contact avec la physique des systèmes désordonnés qui pourtant, mais bien plus tard, allait contribuer à fonder le néo-connexionnisme. Je voudrais conclure cette étude par l’analyse brève de deux échecs supplémentaires et, historiquement, très importants : l’échec à se saisir des perspectives ouvertes par la notion de complexité ; la fermeture à peu près totale aux ressources offertes par les sciences de l’homme et du social. Nul ne peut cependant nier le lien de parenté entre le projet cybernétique et les nombreuses et révolutionnaires entreprises scientifiques et philosophiques qui lui succéderont, parfois en se recommandant de son nom, souvent en préférant le taire, de la théorie générale des systèmes aux sciences cognitives en passant par la biologie moléculaire. Que ces entreprises aient parfois affirmé leur identité contre la cybernétique ne saurait faire oublier qu’elles doivent en définitive la vie à l’initiative que prirent les hommes et les femmes qui constituèrent le groupe cybernétique de se réunir régulièrement à l’hôtel Beekman, Park Avenue, à New York City, pour tenter de bâtir ensemble une nouvelle science de l’esprit.

DUPU2005.19 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 112-113 : C’est avec Ashby que le principe du verum factum atteint véritablement son point d’aboutissement dans l’histoire de la science. Des concepts comme “cerveau”, “esprit”, “vie”, “organisme”, “évolution”, “intelligence” perdent tout contact et tout rapport avec un quelconque donné, ils sont entièrement reconstruits dans le cadre d’un modèle mathématique axiomatisé. La forme s’arrache totalement et définitivement à la matière. McCulloch cherchait les conditions formelles et matérielles du jugement synthétique a priori. Il se posait les questions que se posent les biologistes et les psychologues, même s’il avait recours à l’outil logico-mathématique. La même chose peut être dite au sujet de Herbert Simon et de ses systèmes symboliques physiques, c’est-à-dire matériels. Avec Ashby, on est dans le pur a priori mathématique. Le projet interdisciplinaire de la cybernétique, l’interaction avec ceux qui, concrètement, interrogent le vivant ou l’esprit et entre en “conversation” avec les objets du monde, de difficile et limité qu’il était, est maintenant devenu radicalement impossible. […] Même si elle n’en avait pas toujours conscience, la première cybernétique participait de la déconstruction de la vision métaphysique du monde. Avec Ashby, on y replonge à pieds joints. Le seul point de vue légitime est celui de l’omniscience. Les seules propriétés pertinentes sont celles qui résistent au regard de Dieu. On établit parfois un lien entre la cybernétique et le système de Leibniz : ceci, qui aurait peu de sens appliqué à un Wiener, par exemple, se trouve parfaitement justifié dans le cas d’Ashby. Ce dernier a décrété une fois pour toutes que le comportement d’un “système” (cerveau, organisme, etc.) avait pour seule définition rationnelle une application ou une fonction qui, à tout couple état du système-état de l’environnement, fait correspondre univoquement l’état du système à l’instant suivant. Par déduction logique, Ashby en déduit que l’auto-organisation est une notion contradictoire, qui ne participe que du domaine des apparences. Pour qu’il y ait auto-organisation, il faudrait en effet que le système puisse, de par son propre fonctionnement, déterminer le changement de la fonction qui le régit. Mais on devrait pour cela imaginer une autre fonction, d’un niveau logique supérieur à la première, qui modifierait celle-ci. Le nouveau, la liberté, la spontanéité sont relégués au statut d’illusions ou d’erreurs. Ils sont relatifs à un observateur qui n’est surpris que parce qu’il s’est cantonné dans le point de vue fini de celui qui choisit de “ne pas soulever le couvercle du système”. Ce théorème d’Ashby sur l’impossibilité de l’auto-organisation fut formulé en 1962. Il devait exercer une influence considérable. Et tout d’abord sur la seconde cybernétique, qui dut s’employer à penser l’auto-organisation en contournant l’obstacle qu’il constituait. Certain des travaux les plus connus de Heinz von Foerster et de Henri Atlan s’inscrivent dans ce cadre.

DUPU2005.20 Cf. Dupuy, Aux origines des sciences cognitives, op. cit., p. 115-116 : Nous avons décrit la cybernétique comme une tentative physicaliste de conquérir les sciences de l’esprit, c’est-à-dire de supplanter les psychologies existantes. Il faut regretter maintenant qu’elle ait manqué totalement d’ambition en ce qui concerne les sciences de l’homme et du social en général. […] La rencontre aurait cependant pu et dû se faire, et de façon beaucoup plus ambitieuse. J’ai insisté sur le fait que la cybernétique nous donne les moyens formels de penser la catégorie de processus sans sujet. Or dans cette catégorie, que l’on trouve aussi bien dans la philosophie sociale libérale d’un Friedrich von Hayek qu’au cœur du structuralisme marxiste de Louis Althusser, structure ce qui s’est fait de plus novateur dans la pensée du social et de l’homme de l’après-guerre. On peut en vérité distinguer deux formes contrastées de cette figure clé. La première est celle de la “main invisible” ou encore de la “ruse de la Raison“, qui domine entre autres la tradition libérale et économique. La question de la complexification y est centrale. On y enseigne en effet à la fois que ce sont les hommes qui font leur société, mais que celle-ci leur échappe, de la même façon qu’un véritable automate échappe à son constructeur. Or dans ce cadre, le débat qui opposa Weiss et von Neumann à McCulloch au symposium Hixon a depuis longtemps son équivalent. L’atomisme de McCulloch s’y nomme “individualisme méthodologique“, et l’on pourrait montrer que la théorie économique de l’équilibre général présente, comme le modèle du cybernéticien, cette réversibilité entre un mouvement ascendant et un mouvement descendant. Quant à la conception des totalités proposée par Weiss, ni atomiste, ni holiste, on lui trouverait aisément des équivalents, et d’abord dans l’œuvre du premier penseur de la “main invisible”, Adam Smith. Si les animateurs des conférences Macy avaient pris vraiment au sérieux leur projet interdisciplinaire, la mise en scène de ce débat interne aux sciences sociales eût pu les éclairer sur leur propre débat. Certes, cette occasion manquée fut plus tard rattrapée, mais l’initiative en revint aux sciences de l’homme elles-mêmes. Le grand nom est ici Friedrich von Hayek […]. De fait, Hayek n’avait nul besoin de chercher ailleurs que dans la tradition libérale des “lumières écossaises” de quoi penser ce qui est l’équivalent, dans l’ordre du social, de la conjecture de von Neumann sur la complexité. Cette tradition tient en effet pour non contradictoire les deux propositions suivantes (configuration analogue à celle que nous avons présentée plus haut au sujet de la vie et des processus physico-chimiques qui la produisent) : 1) ce sont les hommes qui “agissent” leur société ; 2) la société leur échappe, parce qu’elle est (infiniment) plus complexe qu’eux. On peut sans incohérence être non réductionniste sans avoir à accepter le holisme. S’il est vrai qu’il s’agit encore d’un individualisme méthodologique, il s’oppose à ce que l’on entend habituellement par là, précisément par le refus du réductionnisme. On parlera d’individualisme méthodologique complexe. Pour Hayek, l’“ordre social spontané” constitue un troisième type d’ordre, à côté de l’ordre naturel et de l’ordre artificiel. C’est une émergence, un effet de composition, un effet de système. Le “système” n’est évidemment pas un sujet doué de conscience et de volonté. Le savoir qu’il mobilise est irréductiblement distribué sur l’ensemble de ses éléments constitutifs, il ne saurait être synthétisé en un lieu qui serait celui du “savoir absolu” du système sur lui-même. Ce savoir collectif est porté par l’ordre social en tant qu’il est le “produit de l’action des hommes mais non de leurs desseins”, et n’est récapitulable par aucune conscience individuelle. C’est un savoir sans sujet. Il s’incarne dans des normes, des règles, des conventions, des institutions, lesquelles s’incorporent dans les esprits individuels sous la forme de schèmes abstraits. Comme l’écrit Hayek : “L’esprit ne fabrique point tant des règles qu’il ne se compose de règles pour l’action […]. Nous avons à notre service une si riche expérience, non parce que nous possédons cette expérience mais parce que, sans que nous le sachions, elle s’est incorporée dans les schémas de pensée qui nous conduisent”.

PIRO2018 L’occupation du monde

Sylvain PIRON, L’occupation du monde, Bruxelles, Zones Sensibles, 2005.

PIRO2018.1 Cf. Piron, L’occupation du monde, op. cit., p. 59 : Le programme cybernétique, initialement lié à l’élaboration d’un dispositif auto-correcteur de lutte anti-aérienne, agrégea divers questionnements épistémologiques qui étaient dans l’air dans différentes disci plines, de l’idée d’apprentissage secondaire sur laquelle travaillaient Mead et Bateson, à la notion d’“écosystème” élaborée par Evelyn Hutchinson. On peut certes le décrire comme principalement tourné vers la conception d’outils de modélisation et de contrôle. Cependant, une interprétation politique des effets pratiques de ce programme de recherche ne doit pas occulter une fécondité épistémologique qui n’avait rien de monochrome. Dans ses travaux ultérieurs, Bateson faisait passer au second plan l’élément du “contrôle” sur lequel insistait Wiener, pour s’interroger davantage sur l’ouverture des systèmes et l’arbitraire de leurs frontières. Le combat intellectuel et culturel contre le totalitarisme en situation de guerre permet de comprendre l’engagement des chercheurs à l’appui de cette équation paradoxale : il fallait compter sur un État fort, appuyé par une puissance militaire dotée de la technologie la plus avancée, pour promouvoir l’émancipation individuelle et se prémunir contre le retour de “la personnalité autoritaire” qu’étudièrent peu après, dans le même contexte, Theodor Adorno et son équipe. La cybernétique serait l’instrument paradoxal de ce programme. La hantise du totalitarisme poussait à la conception d’un modèle d’ordre social décentralisé, résultant de l’interaction d’individus indépendants. Ce réseau devait pourtant être gouverné par un ordinateur central, dont la gestion serait fatalement confiée à des experts. Bien qu’elle fût conçue à l’image de l’esprit humain, la nouvelle machine laissait poindre la crainte d’une tyrannie d’un genre nouveau.

PIRO2018.2 Cf. Piron, L’occupation du monde, op. cit., p. 103-105 : Actif dans le troisième quart du XXe siècle, surtout connu pour sa réflexion sur les objets techniques, Simondon est au centre d’un intérêt croissant depuis la publication intégrale de sa thèse. Son ambition était considérable. Prenant appui sur la physique quantique et la cybernétique, il se proposait de formuler une axiomatique commune aux sciences naturelles, humaines et sociales. Pour cette raison, il a été contraint de forger un vocabulaire technique qui lui est propre et ne facilite guère la compréhension de ses textes. Toutefois, le fond de sa démarche peut se résumer assez simplement. Comme Bateson, par un cheminement différent, Simondon reconnaît l’antériorité des relations sur les termes reliés. Au lieu de considérer l’individu comme un être substantiel achevé, il observe des processus d’individuation. L’état pré-individuel est celui d’un système instable, susceptible d’atteindre différentes phases de l’être. L’individu qui résulte de l’individuation psychique et somatique du vivant est encore porteur d’une charge de réalité non individuée. Celle-ci peut être la source “d’une seconde individuation qui fait naître le collectif transindividuel et rattache le sujet à d’autres sujets”. L’être particulier n’est donc pas compris comme un individu séparé, mais comme l’unité de ces trois phases de l’être, qui le relient aussi bien à son “milieu associé” qu’à une réalité transindividuelle. Le potentiel que Simondon peut apporter à la philosophie politique n’a encore été que très peu exploité alors qu’il est considérable. En comprenant le sujet, non pas comme une substance, mais comme un être tissé de relations, plongé dans un devenir en renouvellement continuel, Simondon parvient à surmonter l’enfermement de l’individu en lui-même. Il permet ainsi d’associer, sans les confondre, un individu psychique, titulaire de droits individuels, et un sujet ouvert au monde et au collectif, traversé par ce qui lui est extérieur. Mobilisant d’autres sources, le Comité invisible propose une définition semblable de la subjectivité, non pas fermée sur elle-même, mais formée de ses liens avec le tissu du monde : “ Le monde ne nous environne pas, il nous traverse. Ce que nous habitons nous habite. Ce qui nous entoure nous constitue. Nous ne nous appartenons pas. Nous sommes toujours-déjà disséminés dans tout ce à quoi nous nous lions”. J’ai volontairement extrait, d’un appel à l’insurrection, quelques phrases qui expriment le cœur de l’attitude existentielle qui la fonde. De l’affirmation de la vie comme présence ouverte au monde, différents types de conduite peuvent découler. Faire sécession est évidemment une solution possible, mais ce n’est pas la seule. La proposition a une valeur beaucoup plus générale. Quel que soit le fondement philosophique sur laquelle on l’appuie, cette façon de penser la présence au monde d’un sujet, inscrit dans le “transindividuel” et dans ses « milieux associés”, débouche sur ce qu’il faut bien appeler une dimension spirituelle de l’expérience, qui relie l’individu à plus vaste que lui. C’est ainsi que la définit Dominique Bourg dans son dernier livre, en se fondant sur Luhman, mais en retrouvant de la sorte le dernier état de la pensée de Bateson (lequel, sous le nom de “religion”, parlait en réalité d’un spirituel immanent). Bien que différentes croyances puissent s’y retrouver, cette reconnaissance d’une spiritualité est loin de ramener au monde de l’hétéronomie. Elle donne au contraire accès à une autonomie plus complète, consciente des conditions effectives de la vie humaine dans le monde. C’est, en fin de compte, ce que j’avais à l’esprit en proposant de rajouter un degré de réflexivité supplémentaire à la leçon de Mauss, pour concevoir une “révolution écologique”.

BROC2013 Utopie du logiciel libre

Sébastien BROCA, Utopie du logiciel libre : Du bricolage informatique à la réinvention sociale, Paris, Éditions le passager clandestin, 2013.

BROC2013.1 Cf. Broca, Utopie du logiciel libre, op. cit., p. 26 : Il est enfin impossible de parler du Libre sans évoquer la croyance dans les bénéfices sociaux engendrés par la libre circulation de l’information. Cette conviction, les libristes ne l’ont pas inventée. Elle remonte au moins à la première cybernétique et aux écrits de Norbert Wiener dans l’immédiat après-guerre. Le mathématicien du MIT (Massachussets Institute of Technology) estimait en effet que l’information était la clé de compréhension du monde et sa circulation la condition du progrès humain. Il s’opposait pour cette raison à sa marchandisation, susceptible de ralentir sa transmission et de diminuer son utilité sociale. Cette croyance “wienerienne” dans les bienfaits de la circulation de l’information est au fondement de l’engagement pour les logiciels libres, et plus largement de la lutte contre l’extension de la propriété intellectuelle. Recherche d’autonomie dans le travail, promotion d’un rapport actif aux technologies et défense de la circulation de l’information, constituent le cœur de l’ethos des libristes. Ces valeurs se sont incarnées, construites et affermies dans un va-et-vient constant avec des pratiques : écrire du code, rédiger des licences, organiser le travail collaboratif, militer contre des textes législatifs. La signification culturelle et politique du Libre excède toutefois les pratiques propres au milieu hacker. D’une part, les valeurs en jeu sont le fruit d’histoires techniques et sociales bien plus larges. De surcroît, il est désormais évident que l’ethos des libristes possède un pouvoir d’attraction qui s’étend hors du cercle des passionnés d’informatique.

BROC2013.2 Cf. Broca, Utopie du logiciel libre, op. cit., p. 27-29 : C’est en partant de cet ethos que l’on peut comprendre en quoi une utopie concrète s’est dessinée. Chacune des valeurs promues par les libristes a en effet une certaine puissance critique. La revendication d’autonomie dans le travail apparaît comme un prolongement du discours antibureaucratique et autogestionnaire des années 1950, 1960 et 1970 (bien que ces références soient étrangères à nombre de hackers). Le Libre développe en effet une critique des organisations hiérarchiques, en vertu de l’adhésion à un principe méritocratique de division du travail. Pour les hackers, les différences de statut au sein d’un collectif ne sont acceptables que si elles émanent de la validation par les pairs des mérites individuels, tels que ceux-ci s’expriment dans le travail. Tous les autres critères – diplômes, âge, origine, statut social – sont jugés factices et fermement rejetés. Le Libre est aussi une attaque portée contre le rapport contemporain aux objets technologiques de grande consommation. Cette critique met en cause une forme de fétichisme, qui maintient le grand public dans un rapport de dépendance vis-à-vis d’objets, dont il ignore complètement le fonctionnement – bien qu’il sache les “faire fonctionner” – faute de culture technique et de moyens d’en acquérir. Richard Stallman dénonce ainsi le culte de la technologie (ses termes exacts sont “priesthood of technology”) qui imprégnerait nos sociétés. Il ajoute que ce culte, loin de permettre l’acquisition de savoirs techniques par tous, “maintient le grand public dans l’ignorance du fonctionnement de la technologie”. La défense de la circulation de l’information est enfin au cœur d’une mise en question de la régulation néolibérale des échanges informationnels. Le Libre est un des premiers mouvements issus de la société civile à avoir critiqué l’extension des droits de propriété intellectuelle (DPI). Originairement limitée au domaine informatique, cette critique est peu à peu montée en généralité. Le Libre a ainsi activement contribué à politiser des questions, qui étaient auparavant presque absentes du débat public. Depuis son point de vue singulier, il a nourri une mise en question de l’extension des logiques de marché à la majorité des activités sociales. Une des critiques contemporaines de la marchandisation néolibérale est donc étroitement liée au mouvement du logiciel libre, même s’il serait évidemment abusif de l’y réduire. La dimension critique du Libre est indissociable de ses pratiques, souvent novatrices. La volonté de fuir les pesanteurs hiérarchiques s’exprime dans le déploiement de larges projets collaboratifs via Internet, au sein desquels s’expérimentent des manières créatives d’organiser le travail collectif. La condamnation du consumérisme technologique donne lieu au développement de nombreux programmes informatiques “libres”, mais aussi à l’organisation d’install party ou à des initiatives pour attirer dans les hackerspaces un public dépassant le cercle des férus de technologie. Le refus des restrictions liées à l’extension des DPI s’est matérialisé dans la création d’outils juridiques alternatifs et dans des formes originales de militantisme. Ainsi, le Libre “fonctionne comme une politique de la critique, dans la mesure où il incarne un contre-exemple” à des pratiques sociales qu’il rejette. Un idéal social alternatif s’esquisse ainsi, à partir des valeurs et des pratiques des libristes. Il dessine une société où le travail serait mis en consonance avec les aspirations personnelles, où des technologies ouvertes permettraient une décentralisation accrue, et où le partage des œuvres et des savoirs favoriserait la créativité et l’apprentissage. Le Libre construit de la sorte une variation contemporaine sur un vieil idéal, porté jadis par le socialisme utopique : l’idéal d’une société de libre coopération entre individus autonomes, dans laquelle l’État et le marché joueraient un moindre rôle.

BROC2013.3 Cf. Broca, Utopie du logiciel libre, op. cit., p. 34 : On pourra par exemple interroger la défense inconditionnelle de la circulation de l’information. Le caractère émancipateur de cette valeur se révèle en effet discutable, dans la mesure où elle entretient une confusion entre accès à l’information et acquisition d’un savoir, et propage parfois une vision pauvre du sujet réduit à un “gestionnaire d’information”. Elle consonne de plus avec l’exhortation dominante à l’intensification des échanges en tous genres, ce qui peut la faire apparaître comme essentiellement idéologique.

BROC2013.4 Cf. Broca, Utopie du logiciel libre, op. cit., p. 63 : Cette réorientation de la signification du mouvement du logiciel libre était pleinement consciente et assumée de la part des partisans de l’open source. Leurs motivations combinaient une volonté pragmatique de ne pas rater le train de la croissance du secteur des nouvelles technologies et une résistance viscérale au discours social tenu par Richard Stallman, perçu comme dangereux et “idéologique”. Le terme open source fut ainsi créé pour “se débarrasser de l’attitude moralisatrice et belliqueuse qui avait été associée au ‘logiciel libre’ par le passé, et en promouvoir l’idée uniquement sur une base pragmatique et par un raisonnement économique, à l’image de ce qui avait motivé Netscape”. Les terminologies free software et open source software impliquaient par conséquent davantage qu’un débat sémantique. Elles mettaient en mots la différence d’approche, manifeste depuis quelques années déjà, entre le projet GNU et Linux. Elles séparaient le monde du logiciel libre entre un mouvement social et une tendance managériale.

BROC2013.5 Cf. Broca, Utopie du logiciel libre, op. cit., p. 69 : L’open source a ainsi réussi à adapter le logiciel libre aux impératifs du marché de l’informatique, en tenant aux décideurs un discours répondant à leurs préoccupations.

BROC2013.6 Cf. Broca, Utopie du logiciel libre, op. cit., p. 109-110 : Aborder le travail des hackers, c’est donc avant toute chose reconnaître que leurs motivations ne peuvent être saisies dans le cadre de l’anthropologie rudimentaire des économistes néoclassiques. Partant de là, plusieurs interprétations sont possibles. Pekka Himanen soutient que l’éthique hacker, originairement circonscrite à un groupe social singulier et ultra-minoritaire, “se propage doucement vers d’autres secteurs, à l’image de l’éthique protestante qui, selon Weber, a fait son chemin en partant des entreprises créées par des protestants pour finir par dominer l’esprit du capitalisme”. Il se réjouit de cette évolution, qui associerait les impératifs pragmatiques de la nouvelle économie capitaliste à l’exigence politico-éthique de minimiser les formes d’aliénation au travail . André Gorz propose dans L’immatériel une analyse quelque peu différente. Il considère les hackers comme des “dissidents”, dont les activités ébaucheraient une “négation pratique des rapports sociaux capitalistes”. Leur éthique serait de ce fait porteuse d’une rupture avec toutes les formes capitalistes d’organisation du travail, y compris les plus récentes qui exhortent chacun à devenir l’entrepreneur de lui-même. La mise en regard des analyses de Pekka Himanen et d’André Gorz est intéressante à plusieurs égards. Les deux auteurs s’accordent à considérer l’éthique hacker comme émancipatrice, en tant que le travail y serait prioritairement conçu comme déploiement des dispositions créatrices de l’individu. Ils font de la sorte ressortir la dimension utopique de la défense par les hackers de l’autonomie dans le travail. Cet engagement est appréhendé comme porteur d’un idéal : faire du travail un des vecteurs privilégiés de la réalisation de soi. Certains hackers insistent du reste eux-mêmes sur cette dimension. Le programmeur allemand Stefan Merten décrit ainsi les motivations des contributeurs au logiciel libre à travers la notion de Selbstentfaltung (déploiement de soi). Himanen et Gorz divergent en revanche quant à la compatibilité de cet objectif avec l’économie capitaliste. Lorsque l’un décrit les préceptes du nouveau management comme une réalisation partielle de l’idéal revendiqué, l’autre soutient que l’émancipation dans le travail, dont les hackers font entrevoir la possibilité, implique un au-delà des logiques capitalistes.

BROC2013.7 Cf. Broca, Utopie du logiciel libre, op. cit., p. 165 : Depuis les balbutiements du projet GNU jusqu’à l’open hardware, le Libre n’a cessé de promouvoir, par le verbe et par l’exemple, un rapport à la technique qui exalte la créativité individuelle. Il a cherché à généraliser les principes du hacking et à casser la dichotomie entre l’ingénieur et l’usager, écho de la séparation entre producteurs et consommateurs. Il porte l’utopie de construire un ensemble de technologies ouvertes, qui éviteraient aux individus d’être inféodés aux objets et aux pouvoirs dont ceux-ci sont les vecteurs. Cette utopie se donne comme une critique vigoureuse du consumérisme technologique, accusé d’installer “les usagers dans une situation de terminaux infirmes, bons pour être manipulés à distance par ce qu’ils croient télécommander”. Les libristes prennent ainsi leur distance avec une culture de l’achat high-tech, qui s’autorise d’une inculture technique généralisée et produit des individus sidérés par les machines. Il n’est pour cette raison guère étonnant qu’un contempteur du capitalisme industriel comme André Gorz ait été enthousiasmé par le Libre, lui qui y voyait une négation de la séparation entre producteurs et consommateurs ainsi qu’un moyen de lutter contre la perte de savoirs et de savoir-faire liée à la mécanisation, à l’automatisation et la division taylorienne du travail.

BROC2013.8 Cf. Broca, Utopie du logiciel libre, op. cit., p. 184-185 : De la lutte contre les brevets logiciels à celle contre l’Acta, les libristes ont développé un engagement militant, qui ne se limite pas à défendre le logiciel libre mais cherche à importer ses méthodes et ses valeurs à l’appui de causes plus générales. Jérémie Zimmermann, porte-parole de La Quadrature du Net, a présenté cette évolution de manière éclairante : “Il me semble qu’à notre modeste échelle à La Quadrature du Net, nous sommes en train de participer à une forme de déprolétarisation de l’action politique, au sens noble du terme, celui des citoyens qui s’intéressent à la vie de la cité. Par notre culture du logiciel libre, et par nos outils qui sont ceux du logiciel libre (canaux IRC, Wikis, SVN, Drupal), nous construisons notre action politique et menons cette mission de production de savoirs sur le processus législatif, sur le processus politique, et de savoirs citoyens sur comment agir en tant qu’individu, que citoyen, comment faire entendre sa voix pour défendre ses libertés fondamentales quand elles sont menacées. On utilise Internet pour tenter de protéger Internet, c’est un peu une boucle de feedback. On produit donc aussi bien du matériel analytique, en partant d’une pile de jargon judiciaire haute comme ça, qu’on va transformer en une analyse claire et lisible, qui ensuite va se transformer en une liste de vote exactement au même format que celle que les eurodéputés ont sur leur bureau quand ils votent, qui elle-même va être transformée en un communiqué de presse, qui va expliquer simplement avec des citations ce qui se passe, qui va également être transformé en une note d’une page transmise aux eurodéputés. On produit et on publie de manière collaborative ces outils d’action citoyenne, comme on a culture de le faire avec des logiciels libres.”

MASU2020 Affaires privées

Christophe MASUTTI, Affaires privées. Aux sources du capitalisme de surveillance, Caen, C&F éditions, 2020.

MASU2020.1 Cf. Masutti, Affaires privées, op. cit., p. 73 : Ce que montrent James Martin et Adrian Norman, c’est qu’à partir du moment où un système est informatisé, la quantification est la seule manière de décrire le monde, y compris les systèmes de décision : “Dans ce livre, nous avons discuté d’une variété de modèles. Ce sont les bases de la science des systèmes. Un modèle sans nombre ne peut pas être manipulé, si bien que la mesure et la quantification sont une partie fondamentale de la description nécessaire à l’analyse et constituent les bases de l’évaluation et de la conception des systèmes.” Il s’en suit un paradoxe que pointent les auteurs : alors que le traitement de l’information devrait permettre de rationaliser les procédures et les décisions en utilisant une quantité finie de données pour en produire une quantité réduite aux éléments les plus stratégiques, l’informatisation suppose un choix minimum parmi une grande variété d’arbres décisionnels et donc un besoin croissant de données, une quantité tendant vers l’infini.

MASU2020.2 Cf. Masutti, Affaires privées, op. cit., p. 119 : Loin des mythes de la technologie révolutionnaire, les modèles qui réduisent nos rapports sociaux à des variables qu’on ajuste par l’automatisation sont pour A. Vitalis la promesse d’un “monde clos”. Un monde de la communication informatisée, une vision qu’il emprunte finalement à Jacques Ellul, dans laquelle nous serions spectateurs de notre propre aliénation.

MASU2020.3 Cf. Masutti, Affaires privées, op. cit., p. 123 : Nous pouvons reprendre le dilemme soulevé par James Martin et Adrian Norman : “Plus une société et sa technologie sont complexes, plus grand devient le besoin d’information”. En ce sens, l’informatisation de la société a créé une forme d’économie qui répond à un besoin qui transcende les besoins individuels : gérer l’information et sa dynamique d’auto-alimentation par la technologie. Autrement dit, surveiller (monitorer, veiller, analyser, comprendre, influencer…) c’est générer une boucle de rétroaction entre l’information et l’acquisition technologique de données. C’est penser que la multiplication des données (sur nos comportements, nos opportunités, nos manières de produire, etc.) est un gage d’optimisation des choix économiques. Mais plus il y a de données, plus il faut automatiser leur traitement avec des modèles et donc renvoyer une représentation “opérationnelle” du réel qui n’est pas le réel. Cette nouvel manière d’envisager nos échanges, née avec l’informatique et le traitement des données numériques, s’inscrit dans les rapports sociaux et économiques.

MASU2020.4 Cf. Masutti, Affaires privées, op. cit., p. 282 : tant que l’informatisation intègre les organisations sur la base d’une conception tayloriste du travail scientifique et technique, le résultat ne peut être autre chose qu’une conception restrictives et exclusive des compétences rapportées à des simples ressources opérationnelles soumises au capitalisme (en tant que force de travail), ce qui supprime par définition la dimension créatrice de l’ingénierie et des professions présentant une dynamique similaire. Réclamer une relation plus “symbiotique” avec les machines, c’est-à-dire rétablir l’équilibre entre concepteurs (de machines, de programmes, de systèmes automatisés, etc.) et propriétaires des moyens de productions, cela revient à combattre un certain pouvoir de classe, celui de disposer de l’avenir d’une société informatisée [Mike Cooley, “Computerisation – Taylor’s Latest Disguise”, Economic and Industrial Democracy, 1980, vol. 1, p. 523-539] : Dans la mesure où nous concevons des systèmes technologiques, nous concevons en réalité des relations sociales et parce que nous questionnons ces relations sociales et essayons de concevoir différemment ces systèmes, nous commençons à défier, de manière politique, les structures de pouvoir dans la société.

MASU2020.5 Cf. Masutti, Affaires privées, op. cit., p. 303 : Loin de tomber dans le piège des interprétations faciles (et complotistes), il faut plutôt considérer que tous ces éléments, quelles que soient leurs histoires, consolidèrent le capitalisme américain sur des mécanismes qui s’alimentent les uns les autres. L’informatique et les réseaux jouèrent bien un rôle dans ce capitalisme de surveillance mais davantage en tant que supports et non comme outils à dessein. Leurs domaines d’application, par leur diversité, en faisaient bien plutôt des objets aux trajectoires entrecroisées. L’un de ces carrefours fut le secteur de la finance informatisée. Sur ce point, J. B. Foster et E. W. McChesney montrent qu’en effet, le processus de mondialisation aidant, le marché du complexe militaro-industriel autant que le marché intérieur des biens de consommation, finit par manquer de débouchés si bien que de plus en plus de capitaux se retrouvèrent dans les mécanismes financiers et la spéculation. C’est ce qui marqua profondément les années 1980 et 1990. Optimisé par les réseaux informatiques à grande vitesse et la planétarisation d’Internet, le capitalisme prit une nouvelle forme où la finance, la publicité et la sécurité devenaient les moteurs principaux de l’extraction, du traitement et de la vente des données.

MASU2020.6 Cf. Masutti, Affaires privées, op. cit., p. 409 : Au fond, c’est là notre point de rupture avec la pensée de Shoshana Zuboff : malgré l’identification claire (et avec tout son talent) des pratiques du capitalisme de surveillance, la prise de conscience et le changement d’opinion qu’elle espère ne peuvent plus aujourd’hui produire de basculement démocratique dans la régulation de ces pratiques tant que le modèle global qui institutionnalise le capitalisme n’est pas remis en cause en profondeur par la présence et la démonstration de modèles alternatifs. Nous ne devons pas nous contenter d’une méthode qui ne fait qu’identifier ou dénoncer sans proposer une sortie crédible du modèle.

MASU2020.7 Cf. Masutti, Affaires privées, op. cit., p. 425 : Contribuer aux biens communs et à leurs bons usages, cela signifie élaborer ensemble une éthique qui limite drastiquement, radicalement voire totalement les enclosures du capitalisme de surveillance. En revanche, pour que s’installent durablement ces conditions d’exercices de la société de la contribution, il faut mettre en pratique au moins trois conditions techniques non négociables. Elles ont trait au chiffrement, à la neutralité des réseaux de communication, et à la déconcentration des données.

GRIZ2018 Neurocapitalisme

Giorgio GRIZIOTTI, Neurocapitalisme. Pouvoirs numériques et multitudes, Caen, C&F éditions, 2018.

GRIZ2018.1 Cf. Griziotti, Neurocapitalisme, op. cit., p. 132 : Les machines cybernétique, la robotique, les technologies de l’information, les sciences cognitives, les biotechnologies et nanotechnologies s’hybrident de manière fractale pour entrer en contact intime avec la vie biologique au point de ne plus pouvoir s’en distinguer. On assiste à la naissance des Androïde, des Neuromantes et des Cyborgs où l’interface entre la machine et le biologique devient si fine qu’elle se dissout dans un continuum. Dans ce nouvel environnement seul un prisme de lecture qui intègre ce changement, peut nous permettre d’entrevoir la dynamique des comportements, des dispositions et des structures sociales. Cette lecture est entravée par la tendance continue du système à rendre tout calculable. Est-ce qu’il existe des algorithmes susceptibles de modéliser des affects sans les transformer en autre chose ? Ou peut-être sommes-nous déjà dans un “posthumain” où les algorithmes, les désirs et les affects sont inextricablement liés ?

GRIZ2018.2 Cf. Griziotti, Neurocapitalisme, op. cit., p. 182 : Les technologies de l’information ont favorisé le développement de coopération réticulaires, horizontales, denses et extensives, mais souvent superficielles, éphémères et confuses. Dans de nombreux cas, même si elles sont nées d’initiatives autonomes, elles sont aspirées dans le giron néolibéral et dans d’autres cas, l’initiative vient directement des entreprises du capitalisme numérique, comme pour Facebook.

GRIZ2018.3 Cf. Griziotti, Neurocapitalisme, op. cit., p. 186 : Le contrôle automatique de systèmes dynamiques a pour but de modifier le comportement du système par la manipulation des variables d’entrée. Dans le cas des systèmes très complexes, tels que ceux relatifs à la vie, la difficulté consiste à identifier les modèles mathématiques qui correspondent aux comportements sur lesquels on souhaite agir. Google et Facebook sont des exemples de succès de cette stratégie : tous deux ont construit en quelques années une puissance les mettant dans le peloton de tête des capitalisations mondiales, à partir de la conception d’algorithmes et de logiciels qui modélisent le comportement humain. Cependant, en dépit de ce caractère intrusif, des modes d’action individuels ou collectifs non mesurables, imprévisible et autonomes subsistent. Ils sont si présents dans la vie des multitudes qu’ils sont parfois synthétisés dans un simple préfixe qualitatif. De l’autocommunication horizontale à l’autoproduction et les formes de plus en plus répandues d’autoéducation se propagent moléculairement en modifiant les formes de coopération et de sociabilité. Le modèle même du réseau paritaire (P2P) est une architecture applicative d’autonomie en ligne avec un potentiel théoriquement illimité, si bien qu’aucun contrôle total n’est possible dans ce domaine. Grâce au P2P, de nombreuses et importantes batailles sur le droit d’auteur ont été remportées, comme dans le cas de l’accès facilité à la musique et à d’autres créations artistiques. L’économie du partage reste un domaine ouvert dans lequel le capitalisme sait aussi maintenant utiliser en sa faveur le modèle P2P, se posant comme arbitre des transactions entre pairs et retirant un revenu substantiel des travaux d’échange effectués par exemple sur eBay ou Airbnb, et grâce à des applications sans cesse renouvelées.

GRIZ2018.4 Cf. Griziotti, Neurocapitalisme, op. cit., p. 231 : Le mouvement des hackers qui […] a des racines dans les mouvements politiques et culturels des années soixante et soixante-dix, a été la principale forme d’autonomie de l’intelligence collective qui s’oppose à l’opération de financiarisation de la vie et du travail.

YHUI2021 La question de la technique en Chine

Yuk HUI, La question de la technique en Chine, Paris, Éditions Divergences, 2021.

YHUI2021.1 Cf. Hui, La question de la technique en Chine, op. cit., p. 66 : Ces moments-là permettent d’observer la réinvention d’une épistémè, qui conditionne à son tour la vie esthétique, sociale et politique. Les systèmes techniques qui sont en train de se former aujourd’hui, alimentés par les technologies numériques (par exemple, les “smart cities”, l’“internet des objets”, les réseaux sociaux et les systèmes d’automatisation à grande échelle), tendent à homogénéiser la relation entre l’humanité et la technique, sur la base de la quantification et du contrôle intensifs. Ce phénomène, cependant, ne fait que renforcer l’importance et l’urgence pour les différentes cultures d’une réflexion sur leur propre histoire et ontologie afin qu’elle puissent adopter les technologies numériques sans être simplement synchronisées sur une épistémè “globale”, “générique” et homogène.

GARC2016 La vie intense

Tristan GARCIA, La vie intense - Une obsession moderne, Paris, Éditions Divergences, 2021.

GARC2016.1 Cf. Garcia, La vie intense, op. cit., p. 11 : L’héroïsme révolutionnaire qui s’est régulièrement opposé à l’univers marchand a reposé sur la défense de la “vraie vie” intense, contre le calcul égoïste des corps et des esprits. La poésie, la chanson, les voix de la révolte, les discours critiques qui ont cherché à promouvoir d’autres formes de vie ont toujours reproché à la civilisation capitaliste, cette civilisation du calcul universel, son incapacité à susciter une expérience de soi suffisamment intense pour être désirable et partageable.

GARC2016.2 Cf. Garcia, La vie intense, op. cit., p. 13 : Ce caractère irréductible de l’intensité lui donne toute son importance, et diffuse une aura de mystère et d’évidence à la fois : par intensité, on entend la mesure de ce qui ne se laisse pas mesurer, la quantité de ce qui ne se laisse pas quantifier, la valeur de ce qui ne se laisse pas évaluer. L’intensité résiste au calcul, tout en permettant l’attribution subjective d’une grandeur. Alors que la modernité signifiait la rationalisation des connaissances, des productions et des échanges, la mathématisation du réel, l’établissement d’un plan d’équivalence entre toutes les choses échangeables sur un marché, l’intensité en est venue à désigner, comme par compensation, la valeur éthique suprême de ce qui résiste à cette rationalisation : l’intensité n’est pas strictement irrationnelle, mais elle ne se laisse pas réduire à ces figures de la rationalité que sont l’objectivité, l’identification, la division dans l’espace, le nombre, la quantité. Peu à peu, l’intensité est devenue le fétiche de la subjectivité, de la différence, du continu, de l’indénombrable et de la pure qualité.

GARC2016.3 Cf. Garcia, La vie intense, op. cit., p. 35-36 : Le défaut de toute explication métaphysique par la puissance, c’est en effet qu’elle ne permet pas de quantifier la variation. Or, à mesure qu’il devenait de plus en plus important, pour les sciences européennes, de parvenir à quantifier le mouvement, il fallait pouvoir penser que les variations de la lumière, du bruit et de toutes sortes d’autres qualités ne tenaient pas qu’au jeu métaphysique entre la puissance et l’actualisation des qualités de chaque chose, mais relevaient d’un changement physique mesurable. On pouvait évaluer de combien la lumière avait baissé, de combien le bruit avait augmenté. Pour cette raison, la conception strictement qualitative de la variation chez Aristote a été soumise à une interprétation de plus en plus quantitative par les philosophes médiévaux, jusqu’à la quantification achevée des qualités et du mouvement, autorisant la conception de la matière comme pure extension par Descartes et la formation de la mécanique de Newton.

GARC2016.4 Cf. Garcia, La vie intense, op. cit., p. 43 : il en a résulté un nouveau concept, dont on peut trouver les premières traces dans l’idéalisme allemand, chez Kant, Schelling et Hegel, puis qui est devenu le personnage principal sur la scène philosophique, dans les métaphysiques modernes de Nietzsche, de Bergson, de Whitehead ou de Deleuze. “Intensité” signifiait désormais à la fois la variation d’une qualité, la mesure de la comparaison d’une chose avec elle-même, la mesure du changement, du devenir, une pure différence, ce qui permettait d’expliquer la sensibilité du vivant, le désir, ce qui justifiait qu’une vie soit vivable, la valeur de tout ce qui échappe à la quantité et à l’extension – et une fulgurance électrique.

GARC2016.5 Cf. Garcia, La vie intense, op. cit., p. 46-47 : “Intense” commence à désigner ce qui, dans quelque domaine que ce soit, se présente comme un tout, et non pas la somme de plusieurs parties distinguables, ce qui est immédiat et non pas successif, ce qui a une grandeur mais n’est pas directement numérisable, ce qui change mais ne correspond pas à une série d’états distincts, ce qui a une valeur mais ne peut pas être immédiatement comparé à autre chose, ce qui est continu et non pas discret, ce qui relève de l’expérience perceptive intime, intérieure, et non pas du caractère observable, extérieur, d’un phénomène. L’intensité devient une citadelle, le château fort de la résistance à l’extension, à l’espace, au nombre, à la quantité, à l’équivalence, à l’échange, à la rationalisation et à l’universalisation. L’intensité est la mesure du singulier et de ses variations intérieures – alors que la science se consacre à la connaissance et à la modélisation de tout ce qui apparaît plus d’une fois, de tout ce qui se répète, de l’expérience de la généralité et de ses lois. Ainsi l’intensité fait-elle figure d’exception par excellence : ce qui est intense, c’est ce qui se trouve excepté par la raison de la rationalisation du monde, et abandonné à la perception intime et singulière. Dans la plupart des métaphysiques du XIXe siècle, extension et intensité s’opposent et se complètent logiquement. La raison rend à chacun ce qui lui revient : à l’extension l’objectivité du monde extérieur, de la nature perçue, de la matière et des objets ; à l’intensité la subjectivité de l’expérience intérieure, de la perception de la nature, de l’esprit et des qualités.

GARC2016.6 Cf. Garcia, La vie intense, op. cit., p. 47 : En vérité, l’opération kantienne est cruciale : l’intensité désigne désormais le degré de remplissage intérieur d’un monde extensif, extérieur et offert à la connaissance scientifique. Ce degré d’engagement, ce n’est rien d’autre que la réalité, qui dépend du temps. En effet, la grandeur intensive kantienne est liée au sens interne, temporel, comme la grandeur extensive l’est au sens externe, à l’espace.

GARC2016.7 Cf. Garcia, La vie intense, op. cit., p. 49 : En s’appuyant sur cette analyse, Bergson conduit une critique radicale de l’emploi du terme même d’intensité en psychologie, qui lui permet de distinguer entre deux types de multiplicité : une multiplicité quantitative et discrète, numérique, et une multiplicité qualitative et continue. Tout ce qui “prend de l’espace” relève de la première multiplicité ; mais la seconde multiplicité échappe et résiste à la spatialisation. L’espace est un principe de différenciation autre que celui de la différenciation qualitative : dans l’espace, tout est distinct numériquement, mais rien n’a de qualité distincte. Nous l’avons dit, c’est là le résultat de la déqualification de l’espace cartésien et newtonien, à l’âge classique. En conséquence, le principe de différenciation qualitative n’est pas spatial : il s’exprime chez Bergson dans ce qu’il appelle la “durée”, une multitude indistincte et même indivisible d’états hétérogènes du monde. Voilà l’intensité authentique, voilà la pure exception. Autrement dit, le mouvement stratégique de Bergson consiste à montrer que ce qu’on appelle “l’intensité” n’est qu’une forme domestiquée de l’intensité véritable ; pour penser le concept d’intensité, il est donc nécessaire de se lancer dans une course moderne contre l’apprivoisement de l’intensif et sa réduction au non-intensif. Il faut lutter par la pensée pour en préserver le caractère exceptionnel.

GARC2016.8 Cf. Garcia, La vie intense, op. cit., p. 56 : Quelque chose, qui provenait de la puissance de l’image électrique, faisait que la pure variation, le changement qualitatif, le continu ne pouvaient plus se contenter d’être distingués numériquement de la distinction, de la quantité ou du nombre. “Intensité” est devenu le nom moderne de quelque chose d’irréductible, de tout ce qui échappe à l’entreprise de rationalisation et d’extensionalisation du monde : il s’agissait pour l’esprit moderne de désigner ce qui ne se laissait pas réduire à de la quantité, ce qui n’était donc pas potentiellement équivalent à autre chose, et échangeable contre une quantité identique de cette autre chose. Était intense, en fin de compte, tout ce qui échappait au compte.

GARC2016.9 Cf. Garcia, La vie intense, op. cit., p. 69-70 : Le propre d’une éthique est de définir un adverbe, qui indique de quelle façon il convient de vivre. Au contraire, pourrait-on avancer, la principale caractéristique d’une morale est de valoriser un ou plusieurs adjectifs, qui signifient la qualité qu’il faut acquérir. Une morale m’enjoint à être juste, à être digne, à être respectueux ; une éthique réclame que je sois justement, que je sois dignement, que je sois respectueusement ce que je suis. On peut être justement injuste, on peut bien faire le mal, et on peut mal faire le bien ; l’éthique est question de façon, de manière de faire, et c’est pourquoi elle est adverbiale : elle ne porte pas sur des contenus. La morale, pour sa part, fixe des valeurs, des idées, sans préjuger de la manière de régler son comportement sur ces valeurs ou ces idées.

GARC2016.10 Cf. Garcia, La vie intense, op. cit., p. 118-119 : Car l’information relève non plus de l’intensif, mais de l’extensif. C’est le découpage, la décomposition, le traitement, le calcul et la recomposition de toute variation – de son, de lumière, de pression du toucher ou d’électricité –, partie par partie, par quantités exprimées en shannons et dont le bit, élément binaire, est la mesure. Le concept d’information referme la parenthèse historique ouverte par notre obsession électrique, et nous renvoie à ce dont l’intensité électrique était justement censée nous sauver : la quantification, le découpage partes extra partes, le calcul universel bit by bit. Plus efficace que l’extension spatiale, qui ne s’appliquait qu’à la matière physique, l’information permet de réduire à des quantités comparables toute donnée, perceptible ou imperceptible, toute fluctuation, toute dépense d’énergie – en fait : toute intensité.

GARC2016.11 Cf. Garcia, La vie intense, op. cit., p. 124-125 : Il faut parvenir à se représenter, pour obtenir une juste conception de l’éthique, une double articulation entre le continu et le discontinu. Vivre, c’est faire l’expérience de continuités, d’intensités variables ; penser, c’est découper le monde en entités distinctes. Penser la différence entre la vie et la pensée, c’est donc distinguer la vie et la pensée. Mais vivre la différence entre la vie et la pensée, c’est au contraire ressentir une continuité et des fluctuations entre la vie et la pensée. Or l’éthique consiste à organiser la vie pensée et la pensée vécue de manière à empêcher toute hégémonie de l’une sur l’autre. Il faut organiser la résistance têtue de la pensée à la spontanéité de la vie, qui sonne faux dès qu’elle passe dans les mots, mais aussi empêcher la pensée abstraite de s’imposer à la vie, de lui dicter ce qu’elle doit sentir, voire de lui promettre qu’elle deviendra comme elle quand elle sera sage ou quand elle sera sauve.