LADR1949 Le rôle du théorème de Gödel dans le développement de la théorie de la démonstration

Jean LADRIÈRE, Le rôle du théorème de Gödel dans le développement de la théorie de la démonstration, in Revue Philosophique de Louvain. Troisième série, tome 47, n°16, 1949. p. 469-492.

LADR1949.1 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 472-473 : La méthode axiomatique est née du développement de la géométrie et de l’algèbre abstraite et a pris toute sa portée avec les travaux de Hilbert sur les axiomes de la géométrie. Elle répond à l’ancienne idée de construire la science par voie déductive, à partir de certains énoncés premiers, considérés comme valables sans démonstration. Mais, alors que l’axiomatique ancienne faisait reposer le choix de ces énoncés premiers sur leur évidence intuitive, l’axiomatique moderne se présente comme un système hypothético-déductif. Aucun énoncé n’est privilégié sous le rapport de l’évidence ; construire une théorie revient à montrer quelles sont les propositions que l’on peut déduire si l’on a admis telles et telles propositions au départ, quelles sont les possibilités de déduction offertes par telles hypothèses. Il y a, dans cette méthode, à la fois un idéal de connaissance (la constitution de systèmes déductifs) et un instrument d’analyse. Étant donné une théorie déterminée, la méthode axiomatique permet d’y introduire un ordre, en manifestant clairement les liens des diverses notions et des diverses propositions qui en font partie : il s’agira de trouver un ensemble de propositions simples (soit qu’on les isole de la théorie existante, soit qu’on les introduise grâce à une analyse des notions fondamentales de cette théorie) qui soient en quelque sorte la clef de la théorie, et dont toutes les propositions de cette théorie puissent se déduire. Mais la méthode se prête aussi à un jeu de variations : on peut, à partir d’une théorie déterminée, obtenir de nouvelles théories simplement par suppression d’axiomes ou adjonction de nouveaux axiomes, et ce procédé permet d’établir une hiérarchie entre les théories elles-mêmes. La logique symbolique est partie du double souci de reprendre, par des méthodes nouvelles, inspirées des méthodes mathématiques, les problèmes de la logique formelle classique et d’éclairer la question du fondement des mathématiques en permettant de contrôler plus exactement leurs bases logiques. La méthode axiomatique et la logique symbolique se sont rencontrées pour donner naissance au formalisme pur, par la constitution de systèmes formels. Un système formel (ou formalisme) est un système axiomatique entièrement symbolique. Il comporte essentiellement : un certain nombre de signes ; un certain nombre de règles de structure, spécifiant dans quelles conditions certains assemblages de ces signes sont considérés comme doués de sens et constituent ce qu’on appelle des “formules” ; un certain nombre de formules considérées comme valables, les axiomes ; et un certain nombre de règles de déduction, indiquant par quelles transformations il est possible d’obtenir, à partir d’une formule valable, une autre formule valable. (Les formules valables sont donc les axiomes et toutes les formules que l’on peut en déduire au moyen des règles de déduction). Le sens des signes et des formules du système est entièrement intrinsèque : il est fixé par les axiomes et les règles, donc, en somme, par des lois de manipulation. Considéré en lui-même, un système formel est donc une sorte de jeu arbitraire et dépourvu de signification extérieure (il ne signifie que lui-même). Cependant le système formel est destiné à traduire un certain domaine d’énoncés (par exemple, une théorie mathématique, comme l’arithmétique ou la géométrie métrique) ; à ce titre, il est doué d’une signification extérieure, qui lui vient grâce à une interprétation que l’on donne des signes et des règles. On peut se poser le problème de construire un système formel apte à représenter une théorie déterminée, ou, inversement, de trouver une interprétation possible pour un système formel existant.

LADR1949.2 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 475 : La première voie qui fut suivie fut celle de l’axiomatique. Si la théorie des ensembles avait pu mener à des paradoxes, c’est que les notions de base de cette théorie n’étaient pas assez précises : la théorie se trouvait en somme à un stade intuitif, ses constructions reposaient en partie sur le contenu, apparemment évident, en fait assez indéterminé, de certains concepts, comme : ensemble, partie, éléments, etc. C’est à la faveur de cette indétermination que les paradoxes avaient pu s’introduire. Il s’agissait donc de préciser le sens de ces notions, et en particulier de la notion d’ensemble, pour éliminer les paradoxes. La méthode axiomatique paraissait ici tout indiquée : dans une théorie axiomatisée, les axiomes énoncent en effet de façon explicite certaines propriétés des êtres au moyen desquels la théorie est construite, et ces êtres se trouvent définis par ces propriétés ; il ne peut être question, ultérieurement, de faire appel à des propriétés qui n’auraient pas été énoncées aux axiomes (ou déduites valablement de celles-là), en particulier à des propriétés soi-disant évidentes au point de vue intuitif.

LADR1949.3 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 479 : Il y a en réalité deux aspects dans la perspective de Brouwer. D’une part, une théorie sur l’origine de l’être mathématique (c’est l’intuition de l’unité-dualité, elle-même obtenue par abstraction à partir de l’intuition de la durée temporelle) et sur la pensée mathématique (présentée comme une possibilité indéfinie et imprévisible de constructions) : il y a là une sorte de métaphysique de la mathématique. D’autre part, un point de vue méthodologique qui s’efforce d’isoler les démarches valables de la pensée mathématique et de refaire toute la mathématique selon un style propre, entièrement constructif. Ce second aspect est lié bien entendu au premier dans la pensée de Brouwer – mais il peut parfaitement être considéré à part, en tant que révélateur d’une certaine exigence permanente de la pensée mathématique. Ce qui est donné dans l’intuition, ce qui est conforme à l’exigence de construction, c’est l’unité, la possibilité d’ajouter une unité à un ensemble déjà constitué, et la possibilité de répéter indéfiniment cette opération. Ce qui est rejeté, c’est la possibilité de traiter un ensemble infini comme un tout fermé, comme un ensemble fini (car ce serait se placer au terme d’une série indéfinie, supposée parcourue jusqu’à épuisement, ce qui n’est pas possible) – et la possibilité d’accomplir un nombre infini de choix (ce qui reviendrait en somme à parcourir une infinité de fois une série infinie). C’est à ces interdictions que se rattache le rejet du tiers-exclu : celui-ci revient en effet à traiter un ensemble infini comme un objet existant en soi, indépendamment de notre propre opération. L’être mathématique n’existe pas en soi, il n’existe que dans une construction (soit effective, soit donnée sous forme de loi). Brouwer montre comment on peut reconstruire sur ces bases une mathématique, et en particulier une théorie du continu et une théorie des ensembles.

LADR1949.4 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 486-487 : Or Gödel montre, en se basant sur sa méthode d’arithmétisation, que l’on peut construire, dans tout système formel répondant à certaines conditions assez générales (que nous préciserons dans un instant), des formules qui sont indécidables, c’est-à-dire qui ne sont pas déductibles et dont la négation n’est pas non plus déductible dans le système considéré. Les conditions dont il s’agit se ramènent essentiellement aux deux suivantes : le système doit être assez large pour qu’il soit possible d’y représenter l’arithmétique, et il doit être assez restreint pour ne pas être contradictoire. (Un système contradictoire est en effet un système où toute formule peut être déduite, c’est donc un système d’extension maximale). De ce théorème, Gödel déduit un corollaire tout aussi important : la formule qui énonce, dans un système répondant aux conditions générales ci-dessus, la non-contradiction de ce système, est indécidable. Ce qui revient à dire que, pour démontrer la non-contradiction d’un tel système, il faut nécessairement utiliser des moyens de démonstration qui n’appartiennent pas à ce système, qui le dépassent. Ce résultat expliquait la faillite des démonstrations tentées jusque là : on voulait en effet démontrer la non-contradiction d’un système correspondant à l’arithmétique sans sortir des cadres de l’arithmétique, bien plus, en se limitant à une arithmétique purement constructive. Mais, en même temps, ce résultat précisait à quelles conditions doit répondre une démonstration de non-contradiction pour aboutir : elle doit faire appel à des procédés de raisonnement qui dépassent la théorie à examiner. Et ainsi on se trouvait acculé à une révision radicale du programme de la théorie de la démonstration. Et le fait auquel on se heurtait avait été révélé par des recherches situées dans la ligne même de ce programme : c’est donc celui-ci qui se surmontait en quelque sorte lui-même dans une exigence de transformation.

LADR1949.5 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 491 : Ce théorème montre en effet le caractère incomplet d’une très large classe de formalismes. Church a montré, pour une classe sensiblement équivalente de formalismes, un autre aspect de limitation : l’impossibilité d’y résoudre le problème de la décision (c’est-à-dire de trouver un procédé général permettant de décider, de toute formule appartenant au système, si elle y est déductible ou non). Ce résultat a été obtenu précisément grâce à la formalisation de la notion : “effectivement calculable”. Skolem d’autre part avait également découvert un aspect de limitation des systèmes formels en montrant que tout système formel permettant de représenter la théorie des ensembles peut déjà être interprété au moyen de la théorie des nombres. Des recherches plus récentes ont précisé ou étendu ces théorèmes. Ces différents résultats se placent au point de vue syntaxique : ils concernent la structure interne des systèmes et en particulier leurs possibilités déductives. D’autres résultats du même type ont été obtenus, au point de vue sémantique, par Tarski : impossibilité de représenter, dans un système, certaines notions sémantiques relatives à ce système, comme la notion de “formule vraie” ou de “concept définissable”. Les recherches formalistes aboutissent ainsi, dans leur ligne propre, à découvrir les limites de la méthode formelle et les conditions de son application. En particulier, le théorème de Gödel montre que l’idéal d’un formalisme unitaire est irréalisable. Et on est amené à construire des formalismes hiérarchisés suivant certaines lois d’engendrement (éventuellement transfinies). Le théorème de Church d’autre part montre qu’il n’est pas possible de réduire la recherche mathématique à un pur mécanisme. Et les résultats de Tarski conduisent également à une hiérarchie, sémantique cette fois, des systèmes.

ROBE2010 Le nouveau pouvoir statistique

Antoinette ROUVROY et Thomas BERNS, Le nouveau pouvoir statistique. Ou quand le contrôle s’exerce sur un réel normé, docile et sans événement car constitué de corps « numériques »…, in Multitudes, 2010/1 (n° 40), p. 88-103.

ROBE2010.1 Cf. Rouvroy & Berns, Le nouveau pouvoir statistique, op. cit., p. 89 : l’anticipation du “possible” ne semble plus à la portée du calcul humain dès lors que l’activité gouvernementale porte sur des populations (de citoyens, d’étrangers, de consommateurs…) éminemment diversifiées, multiculturelles, mouvantes. L’intensification sans précédent des “flux” de personnes, d’objets et d’information dans un monde dit “global”, le souci de remplacer par des dispositifs technologiques moins onéreux le personnel de sécurité déployé depuis le 11 septembre 2001 dans tous les lieux stratégiques, la place centrale occupée par la minimisation des risques et de la contingence dans les registres politiques et commerciaux, et tout simplement les avantages qu’elle représente, tant pour les individus que pour les bureaucraties privées et publiques, en termes de confort, d’efficacité, d’interaction, sont autant de facteurs qui contribuent sans doute à expliquer l’émergence de la gouvernementalité algorithmique.

ROBE2010.2 Cf. Rouvroy & Berns, Le nouveau pouvoir statistique, op. cit., p. 90 : Par “digitalisation de la vie même” nous entendons non seulement la banalisation de l’enregistrement de données biométriques, mais encore, et plus largement, l’enregistrement systématique, sous forme de “traces” digitales, des comportements humains individuels ou collectifs, y compris parmi les plus triviaux (ceux qui passent même inaperçus de la part de ceux qui les adoptent, et qui précisément n’“intéressent” personne, n’étant pas en eux-mêmes tenus pour signifiants). Ce phénomène de traduction du monde physique et de ses habitants en données métabolisables par les systèmes informatiques n’est désormais plus limité, ni même freiné de manière essentielle par une inaccessibilité technique ou économique, ni par une récalcitrance significative du public. Le caractère virtuellement infini des capacités de stockage et la diminution corrélative du coût des mémoires digitales facilement interconnectées, la banalisation d’une surveillance démocratique et égalitaire qui ne prétend plus cibler personne a priori, mais s’applique à tout le monde par défaut, ont tôt fait d’éroder les réticences et résistances.

ROBE2010.3 Cf. Rouvroy & Berns, Le nouveau pouvoir statistique, op. cit., p. 103 : Les dispositifs technologiques développés et déployés notamment dans le cadre des programmes-cadres de recherche et développement de la Commission européenne, en ce qu’ils traduisent le monde physique et ses habitants sous forme de “flux d’information, de boucles d’informations projectives et prospectives évoluant parfois heure par heure” , se présentent à la fois comme des interfaces cognitives et comme des instruments de gouvernement. Ce faisant, ces dispositifs font échapper le “savoir - pouvoir” qu’ils produisent à la fois aux tests de la validité scientifique et aux épreuves de la légitimité démocratique. Les caractères d’immanence, d’ubiquité, de multimodalité, d’interopérabilité, d’évolutivité en temps réel, qui font à la fois la fluidité et l’élégance de ces dispositifs, en consacrent aussi l’insaisissabilité – l’immunité en quelque sorte.

ROBE2013 Gouvernementalité algorithmique et perspectives d’émancipation

Antoinette ROUVROY et Thomas BERNS, Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ?, in Réseaux, 2013/1 (n° 177), p. 163-196.

ROBE2013.1 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 168-169 : Le premier temps est celui de la récolte et de la conservation automatisée en quantité massive de données non triées, ce qu’on peut appeler la data-veillance constitutive du big data. De fait, les données sont disponibles en quantités massives, en provenance de diverses sources. Les gouvernements les récoltent à des fins de sécurité, de contrôle, de gestion des ressources, d’optimisation des dépenses… ; les entreprises privées recueillent quantité de données à des fins de marketing et de publicité, d’individualisation des offres, d’amélioration de leur gestion des stocks ou de leurs offres de service, bref, en vue d’accroître leur efficacité commerciale et donc leurs profits… ; les scientifiques collectionnent les données à des fins d’acquisition et d’amélioration de connaissances… ; les individus eux-mêmes partagent bénévolement “leurs” données sur les réseaux sociaux, les blogs, les “mailing lists”… et toutes ces données sont conservées sous une forme électronique dans des “entrepôts de données” aux capacités de stockage virtuellement illimitées et potentiellement accessibles à tout moment à partir de n’importe quel ordinateur connecté à l’Internet quel que soit le lieu du globe où il se trouve. Le fait que ces données soient récoltées et conservées autant que possible par défaut, qu’elles soient déliées de toute connaissance véritable des finalités recherchées par cette collecte d’information, c’est-à-dire des usages auxquels elles donneront lieu une fois corrélées à d’autres données, qu’elles consistent dans des informations qui sont plus abandonnées que cédées, des traces laissées et non des données transmises, mais sans apparaître pour autant comme “volées”, qu’elles apparaissent aussi comme absolument quelconques et dispersées, tout cela donne lieu à une évacuation ou au minimum à un voilement de toute finalité, et à une minorisation de l’implication du sujet, et donc du consentement pouvant être donné à cette communication d’informations : nous semblons nous mouvoir ici au plus loin de toute forme d’intentionnalité. Ces données apparaissent ainsi constitutives d’un comportementalisme numérique généralisé dès lors qu’elles expriment ni plus ni moins que les multiples facettes du réel, le dédoublant dans sa totalité, mais de manière parfaitement segmentée, sans faire sens collectivement, sinon comme dédoublement du réel. Celui-ci nous semble être le phénomène le plus nouveau : qu’il s’agisse de conserver la trace d’un achat, d’un déplacement, de l’usage d’un mot ou d’une langue, chaque élément est ramené à sa nature la plus brute, c’est-à-dire être tout à la fois abstrait du contexte dans lequel il est survenu et réduit à “de la donnée”. Une donnée n’est plus qu’un signal expurgé de toute signification propre – et c’est bien sûr à ce titre que nous tolérons de laisser ces traces, mais c’est aussi ce qui semble assurer leur prétention à la plus parfaite objectivité : aussi hétérogènes, aussi peu intentionnées, tellement matérielles et si peu subjectives, de telles données ne peuvent mentir !

ROBE2013.2 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 170 : Le deuxième temps est celui du datamining proprement dit à savoir le traitement automatisé de ces quantités massives de données de manière à faire émerger des corrélations subtiles entre celles-ci. Ce qu’il nous semble ici fondamental de noter est le fait que nous nous trouvons ainsi face à une production de savoir (des savoirs statistiques constitués de simples corrélations) à partir d’informations non triées, et donc parfaitement hétérogènes, cette production de savoir étant automatisée, c’est-à-dire ne réclamant qu’un minimum d’intervention humaine, et surtout se passant de toute forme d’hypothèse préalable (comme c’était le cas avec la statistique traditionnelle qui “vérifiait” une hypothèse), c’est-à-dire évitant à nouveau toute forme de subjectivité. Le propre de ce qu’on appelle le machine learning est somme toute de rendre directement possible la production d’hypothèse à partir des données elles-mêmes. De la sorte, nous nous trouvons à nouveau face à l’idée d’un savoir dont l’objectivité pourrait paraître absolue, puisqu’il serait éloigné de toute intervention subjective (de toute formulation d’hypothèse, de tout tri entre ce qui est pertinent et ce qui ne serait que du “bruit”, etc.). Les normes semblent émerger directement du réel lui-même.

ROBE2013.3 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 171-173 : Le troisième temps est celui de l’usage de ces savoirs probabilistes statistiques à des fins d’anticipation des comportements individuels, qui sont rapportés à des profils définis sur la base de corrélations découvertes par datamining. Ce temps de l’application de la norme sur les comportements individuels, dont les exemples les plus évidents sont perceptibles dans les sphères les plus diverses de l’existence humaine (obtention d’un certain crédit, décision d’intervention chirurgicale, tarification d’un contrat d’assurance, suggestion d’achats ciblés sur des sites de vente en ligne) nous concerne moins ici, sinon pour noter premièrement que l’efficacité prédictive sera d’autant plus grande qu’elle sera le fruit de l’agrégation de données massives, c’est-à-dire de données qui sont “simplement” à la hauteur de la diversité du réel lui-même ; et deuxièmement que cette action par anticipation sur les comportements individuels pourrait à l’avenir toujours plus se limiter à une intervention sur leur environnement, a fortiori dès lors que l’environnement lui-même est réactif et intelligent, c’est-à-dire qu’il récolte lui-même des données en temps réel par la démultiplication des capteurs, les transmet et les traite pour s’adapter sans cesse à des besoins et dangers spécifiques, ce qui est déjà au minimum le cas durant cette partie importante de la vie humaine durant laquelle les individus sont connectés. De la sorte à nouveau, on évite toute forme de contrainte directe sur l’individu pour préférer rendre, au niveau même de son environnement, sa désobéissance ou certaines formes de marginalité toujours plus improbables. Troisièmement, le profil “lié” au comportement d’un individu pourrait lui être adapté de façon parfaitement efficace, de par la démultiplication des corrélations employées, au point de sembler éviter l’usage de toute catégorie discriminante, et de pouvoir même prendre en compte ce qu’il y a de plus particulier dans chaque individu, de plus éloigné des grands nombres et des moyennes. Bref, nous nous trouvons face à la possibilité d’une normativité en apparence parfaitement “démocratique”, dépourvue de référence à des classes et catégories générales – la cécité des algorithmes relativement aux catégorisations (sociales, politiques, religieuses, ethniques, de genre…) socialement éprouvées est d’ailleurs l’argument récurrent que brandissent ceux qui sont favorables à leur déploiement en lieu et place de l’évaluation humaine (dans les aéroports notamment). Le datamining et le profilage algorithmique, dans leur rapport en apparence non sélectif au monde, semblent prendre en considération l’entièreté de chaque réel jusque dans ses aspects les plus triviaux et insignifiants, mettant tout le monde à égalité – l’homme d’affaires et la femme de ménage, le Sikh et l’Islandais. Il ne s’agit plus d’exclure ce qui sort de la moyenne, mais d’éviter l’imprévisible, de faire en sorte que chacun soit véritablement lui-même.

ROBE2013.3 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 184 : que s’agit-il de gouverner en empêchant ou au moins en compliquant la possibilité même des processus de subjectivation ? Notre hypothèse est que l’objet – qui ne parvient donc pas à devenir sujet – du gouvernement algorithmique, ce sont précisément des relations : les données transmises sont des relations [Le mot “relation”, entendu ici dans son sens le plus brut, le moins habité, par lequel nous qualifions la donnée, nous sert seulement à attester d’une opération qui lie a et b en étant à même d’ignorer ce qui est derrière les termes ainsi liés. Comme nous le montrerons, toute la force du gouvernement algorithmique réside in fine dans sa capacité à “monadologiser” cette relation, au point que cette relation ne parvient précisément pas à saisir le devenir qui serait propre à la relationalité.] et ne subsistent que comme relations ; les connaissances générées sont des relations de relations ; et les actions normatives qui en découlent sont des actions sur des relations (ou des environnements) référées à des relations de relations. C’est donc en tant qu’il serait, dans la réalité même de ses pratiques visant à organiser le possible, un gouvernement des relations que nous voulons maintenant tenter de cerner l’éventuelle nouveauté de ce gouvernement algorithmique.

ROBE2013.4 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 187 : Le lecteur comprendra que la cible de notre critique n’est pas la théorie simondonnienne de l’individuation transindividuelle, ni la perspective rhizomatique deleuzo-guattarienne, que la gouvernementalité algorithmique n’incarne qu’en apparence. La cible de notre critique est, justement, l’apparence de compatibilité de la gouvernementalité algorithmique avec ces théories et perspectives émancipatrices alors même que la gouvernementalité algorithmique tendrait plutôt à empêcher aussi bien les processus d’individuation transindividuels que l’ouverture aux significations nouvelles portées par les relations entre entités “disparates”.

ROBE2013.5 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 189 : Paradoxalement, en probabilisant la totalité de la réalité (qui semble devenir comme telle le support de l’action statistique) et en paraissant désubjectiver cette perspective probabilitaire (laquelle ne s’embarrasse plus d’hypothèse préalable), bref, en se donnant ainsi la possibilité de gouverner les comportements sans s’occuper directement des individus pour se contenter de gouverner à partir d’une expression statistique de la réalité qui parviendrait à tenir lieu de réalité (la perspective d’un comportementalisme numérique), le gouvernement algorithmique continue d’absolutiser l’individu (même s’il est abordé “en creux”, comme ce que les relations permettent d’éviter) et en même temps le déréalise au sens où il n’est plus que relatif à des suites de mesures qui elles-mêmes font office de réalité et donc sans pour autant qu’apparaisse le caractère subjectif de ces mesures. Les relations sur lesquelles se déploie le gouvernement algorithmique sont des mesures qui, de par leur capacité même à apparaître comme l’expression non médiée et non subjective de la réalité, c’est-à-dire de par leur apparente objectivité, rendent d’autant plus relatif – et moins réel – tout ce qui advient en fonction d’elles et même par elles : ce qui advient n’est que relatif à une suite de mesures faisant office de réalité. En d’autres mots, les relations et leurs mesures, de par leur capacité à apparaître comme déliées de toute subjectivité, rendent aussi bien le réel que l’individu lui-même relatifs. Mais ceci, considéré à la lueur de la pensée simondonienne, apparaît comme le fruit d’une inversion : si auparavant, selon la métaphysique de la substance et de l’individu, toute saisie ou toute mesure du milieu d’un individu apparaissaient toujours comme insuffisantes parce que trop subjectives, empêchant de la sorte d’atteindre la réalité de l’individu dans son individuation, cette insuffisance (avec la différence ontologique qu’elle révélait entre l’individu et son milieu) serait désormais résolue en rendant l’individu lui-même entièrement relatif à des mesures considérées elles-mêmes comme émancipées de toute subjectivité, quand bien même elles ne sont que des mesures. On pourrait même aller jusqu’à dire, en profitant toujours de cette confrontation d’une pratique de gouvernement à la pensée simondonienne, que cette pratique, en se concentrant sur les relations, réussit à les “monadologiser”, à les transformer en états, voire en statuts, comme si les relations étaient elles-mêmes des individus, c’est-à-dire leur fait perdre ce qu’il s’agissait de penser avec Simondon, à savoir le devenir à l’œuvre dans une réalité métastable.

ROBE2013.6 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 190 : C’est ce devenir monade de la relation que nous constatons en considérant que les données du big data ne subsistent que comme des suites de relations qui dédoublent le réel, que les savoirs générés sur cette base consistent à relier des relations mais sans supposer aucune hypothèse sur le réel lui-même, et que les actions normatives qui en découlent, en agissant sur les relations après les avoir référées à des relations de relations, excluent précisément la possibilité d’une réalité métastable au sein de laquelle s’inscrirait un devenir individu. Ce que la lecture de Simondon nous proposait, c’était de cesser de penser le devenir à partir de l’être individuel constitué et donné dans la mesure où cela signifiait que nous faisions abstraction de l’expérience même de l’individuation telle qu’elle se fait. Mais ce dont il s’agissait ainsi de ne plus faire abstraction (pour ne plus présupposer l’individu à son devenir), c’était précisément du fait que “le possible ne contient pas déjà l’actuel”, et donc que “l’individu qui en surgit diffère du possible qui a suscité son individuation”. Le raté ou la déviation, dont nous disions par ailleurs craindre l’expulsion dans une réalité augmentée au possible, dans une réalité semblant inclure le possible, et dont nous considérions qu’ils étaient aussi inhérents à l’expression de constructions, de projets, d’hypothèses, apparaissent alors précisément comme ce à partir de quoi seulement il y a une relation, entendue comme inassignable à ce qu’elle relie, c’est-à-dire en ce qu’elle relie précisément des réalités dissymétriques et partiellement incompatibles ou disparates à partir desquelles émergeront des réalités ou des significations nouvelles.

ROBE2013.7 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 190-191 : Or cet évitement du raté ou de la déviation opère comme négation de cette “disparation”. La gouvernementalité algorithmique présente une forme de totalisation, de clôture du “réel” statistique sur lui-même, de réduction de la puissance au probable, d’indistinction entre les plans d’immanence (ou de consistance) et d’organisation (ou de transcendance), et constitue la représentation numérique du monde en sphère immunitaire d’une actualité pure, pré-emptivement expurgée de toute forme de puissance d’advenir, de toute dimension “autre”, de toute virtualité. Cette “mise en échec de l’échec” de la modélisation numérique des possibles – par la préemption des possibles ou par l’enregistrement et l’enrôlement automatique de toute “irrégularité” dans les processus d’affinement des “modèles”, “patterns” ou profils (dans le cas des systèmes algorithmiques apprenants) – ôte à ce qui pourrait surgir du monde dans sa dissymétrie par rapport à la réalité (ici, ce qui en tient lieu étant le corps statistique), sa puissance d’interruption, de mise en crise.

ROBE2013.8 Cf. Rouvroy & Berns, Gouvernementalité algorithmique et perspectives d’émancipation, op. cit., p. 192 : qu’en est-il du caractère émancipateur d’une perspective transindividuelle ou rhizomatique lorsque la relation n’est plus portée par aucun devenir spécifique (devenir sujet, devenir peuple, etc.), c’est-à-dire lorsqu’elle ne peut plus rien relater, puisque, précisément, la cible, au sens de ce que s’attache à exclure cette nouvelle manière de gouverner par les algorithmes, c’est “ce qui pourrait advenir” et que l’on n’aurait pas prévu parce que fruit de disparations, c’est-à-dire la part d’incertitude, de virtualité, de potentialité radicale qui fait des êtres humains des processus libres de se projeter, de se relater, de devenir des sujets, de s’individuer suivant des trajectoires relativement et relationnellement ouvertes ? On pourrait dire que, oui, la perspective est “émancipatrice” en ce sens qu’elle fait table rase des anciennes hiérarchies (au sens le plus large… l’“homme normal” ou l’“homme moyen” occupant justement une place dans cette hiérarchie) mais elle n’est émancipatrice dans le cadre d’aucun devenir, d’aucun projet, d’aucun objectif. Il y a donc bel et bien une forme de “libération” mais qui n’est pas de la liberté au sens “fort”. Le régime de vérité numérique (ou le comportementalisme numérique) ne menace-t-il pas aujourd’hui de saper les bases mêmes de l’émancipation en évacuant les notions de critique et de projet, voire de commun ?

DOWE2011a Les quatre concepts de l’informatique

Gilles DOWEK, Les quatre concepts de l’informatique, in Sciences et technologies de l’information et de la communication en milieu éducatif : Analyse de pratiques et enjeux didactiques, octobre 2011, Patras, Grèce. pp.21-29.

DOWE2011a.1 Cf. Dowek, Les quatre concepts de l’informatique, op. cit., p. 21 : l’informatique est structurée par quatre concepts : algorithme, machine, langage et information

DOWE2011a.2 Cf. Dowek, Les quatre concepts de l’informatique, op. cit., p. 28 : les notions de langage et d’information sont liées car ce sont deux instances d’une même idée : exprimer symboliquement des algorithmes, pour l’une, des données, pour l’autre.

DOWE2004 La théorie des types et les systèmes informatiques de traitement de démonstrations mathématiques

Gilles DOWEK, La théorie des types et les systèmes informatiques de traitement de démonstrations mathématiques, in Mathématiques et sciences humaines, 165, Printemps 2004, Centre d’analyse et de mathématique sociales de l’EHESS, p. 13-29.

DOWE2004.1 Cf. Dowek, La théorie des types…, op. cit., p. 17 : Les premiers concepteurs de systèmes de démonstrations mathématiques se sont naturellement appuyés sur les travaux des logiciens de la fin du XIXe siècle et du début du XXe siècle qui, avec l’introduction des prédicats à plusieurs arguments et des quantificateurs par G. Frege et C.S. Peirce, puis la résolution des paradoxes par B. Russell et E. Zermelo, avaient enfin réussi à proposer quelques formalismes dans lesquels l’intégralité des mathématiques étaient exprimables. Dans les années soixante, la théorie la plus populaire pour formaliser les mathématiques était sans doute la théorie des ensembles des E. Zermelo et A. Fraenkel. Cette théorie repose sur un socle constitué de la logique des prédicats du premier ordre qui définit une syntaxe pour les termes et les propositions et des règles de déduction, par exemple celles de G. Frege et D. Hilbert. Un projet relativement naturel aurait donc été de concevoir un programme capable de traiter les démonstrations écrites dans ce formalisme. L’utilisateur d’un tel programme aurait écrit ses propositions dans la logique des prédicats en utilisant les symboles de la théorie des ensembles, l’égalité et le symbole d’appartenance, puis aurait démontré ces propositions en utilisant les axiomes de Zermelo et Fraenkel et les règles de déduction de Frege et Hilbert. Il est remarquable que ce projet n’ait jamais été réalisé tel quel et que tous les systèmes de traitement de démonstrations aient choisi des formalismes qui s’éloignent, plus ou moins, de la théorie des ensembles, par exemple des formalismes issus de différentes variantes de la théorie des types.

DOWE2004.2 Cf. Dowek, La théorie des types…, op. cit., p. 26-27 : De plus, savoir qu’un certain objet est une démonstration d’une certaine proposition ne requiert pas de démonstration, au risque, encore une fois, d’une régression à l’infini, mais doit pouvoir se lire sur la face de l’objet, ou plutôt d’un terme exprimant cet objet. L’alternative, comme nous l’avons vu est de s’en remettre à la grammaire pour prohiber l’application d’une fonction hors de son domaine de définition. Cela demande d’associer à chaque proposition une propriété essentielle, un type : le type de ses démonstrations. Cette association d’un type à chaque proposition du langage est ce qu’on appelle l’isomorphisme de Curry-De Bruijn-Howard, et cela demande des langages de types plus riches que celui des types simples.

DOWE2004.3 Cf. Dowek, La théorie des types…, op. cit., p. 27 : Si beaucoup de systèmes de traitement de démonstrations sont des systèmes généralistes, développés indépendamment des utilisations qu’on compte en faire, suivant ainsi la tradition de neutralité ontologique de la logique, certains systèmes ont été développés en vue d’applications déterminées, en particulier la preuve de programmes, ou bien, tout en restant généralistes, ont subi une certaine influence des utilisations visées. On peut expliquer l’importance que joue dans ce domaine la notion de constructivité. Certes, l’interprétation fonctionnelle des démonstrations a d’abord été comprise dans le cadre des démonstrations constructives comme l’évoquent les noms de Brouwer, Heyting et Kolmogorov et ce n’est que dans la dernière décennie du XXe siècle que des extensions ont été proposées pour la logique classique. Mais on peut aussi expliquer cet intérêt pour les démonstrations constructives par la volonté de transformer ces démonstrations en programmes informatiques démontrés corrects.

DOWE2004.4 Cf. Dowek, La théorie des types…, op. cit., p. 29 : indépendamment de toute théorie, il est possible d’étendre la logique des prédicats de manière à permettre la formation de termes qui ont des variables liées. On obtient alors un cadre général relativement simple dans lequel il est possible d’exprimer de nombreuses théories, parmi lesquelles la théorie des types. Cependant, bien qu’ils soient plus simples, ces cadres généraux ne sont apparus qu’après la théorie des types qui en est une instance. Les nouvelles idées ne sont pas apparues dans toute la clarté de la généralité, mais dans la complexité introduite par l’interférence avec de nombreuses autres idées dans une théorie particulière, et quelque peu accidentelle. Les progrès ne sont donc pas faits du clair au clair, mais du clair au sombre, puis du sombre au clair.

SALA2012 Appliquer les mathématiques

Jean-Michel SALANSKIS, Appliquer les mathématiques, in Rue Descartes, 2012/2 (n° 74), p. 4-19.

SALA2012.1 Cf. Salanskis, Appliquer les mathématiques, op. cit., p. 10 : Un épistémologue empiriste d’inspiration analytique du XXe siècle estimera, au contraire, que de telles applications des mathématiques révèlent ce qu’est essentiellement toute application des mathématiques : la surimposition à un ensemble de données d’un cadre théorique capable d’intégrer ces données, et n’étant contraint par rien d’autre que la rectitude et l’opérationnalité. Pour un tel point de vue, les contextes mathématiques mobilisés dans les sciences ne sont que des dispositifs théoriques intégrant l’information de l’expérience, propres à la bureaucratiser et à l’administrer, en l’insérant dans de bonnes structures : la région d’objets prélevée sur l’univers mathématique en vue de cette tâche n’est pas supposée correspondre à notre hypothèse sur la structure vraie du réel, ni à notre intuition/imagination du cadre de présentation dans lequel nous accédons aux phénomènes gages pour nous de ce réel. […] Il est indéniable que l’application des mathématiques possède bien cette dimension. Il est impossible de refuser à la science le pragmatisme qui lui fait exploiter la puissance organisationnelle résidant dans le discours mathématique, sur toute espèce de donnée, et sans avoir égard à la façon dont ces données se donnent, aux dimensions dont elles relèvent. De nos jours, c’est même devenu encore plus impossible, à l’heure de l’informatique et de l’informatisation : nous savons que mettre les données dans la bécane permet eo ipso de leur appliquer toute espèce de procédure récursive appartenant aux talents fonciers des machines numériques. Et lorsque nous le faisons, nous n’avons pas égard à ce que les données “sont” vraiment, aux axes qui leur appartiennent, ontologiquement ou simplement selon notre rapport originaire à elles (phénoménologiquement). Les usages de l’analyse réelle que nous évoquons semblent partager la posture de l’informatique : ils inscrivent seulement les données dans une sorte d’hyperordinateur continu, qui a besoin de l’usager compétent du langage mathématique pour fonctionner. Mais justement, exprimons une objection qui suggère une pause critique. Est-il vrai que l’informatisation des données ignore les axes propres de répartition ou de présentation de ces données ? Ne faut-il pas dire exactement l’inverse : qu’une grande partie de l’intelligence de la modélisation informatique de quoi que ce soit consiste à répondre à la question des “structures de données”, en déterminant dans quelle sorte d’objets du type arbre, liste, etc. encoder les données ? La modélisation étant d’autant meilleure que, justement, ces structures de données respectent les axes pertinents pour la sorte de chose dont il s’agit : c’est seulement dans ce cas que les calculs de la machine sauront dégager l’intéressant et l’important à partir de l’information en cause, en opérant de manière ajustée à la fonction de chaque composante des données. N’est-il pas alors au moins concevable qu’il puisse y avoir, dans le cas de l’investissement dans la théorie du réel de mathématiques continues – en général, infinitaires et transcombinatoires –, une rationalité similaire à celle du choix des “structures de données” en informatique ? C’est exactement, je pense, ce que la pensée transcendantale a voulu mettre en relief.

SALA2013 La littérature entre axiomatique et formalisme

Jean-Michel SALANSKIS, La littérature entre axiomatique et formalisme, in Les Temps Modernes, 2013/5 (n° 676), p. 178-197.

SALA2013.1 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 178-179 : On pense d’abord , lorsque l’on parle d’axiomatique, à ce que Hilbert a fait dans son ouvrage fameux Les Fondements de la géométrie. Il y proposait, effectivement, une liste d’axiomes, régissant d’énigmatiques entités, encore baptisées points, droites et plans, mais que l’on aurait pu nommer autrement. Et il procédait à la reconstruction de ce que l’on appelait jusqu’alors géométrie, pour l’envisager, désormais, comme la déduction logique à partir des axiomes en question. Dans ce cas donc, axiomatiser X, cela veut dire installer X dans un mode et un système déductifs propres. Appelons axiomatisation fondationnelle un tel mode de l’axiomatiser. Mais il existe en mathématiques un autre usage de l’expression axiomatiser, plus courant à mon sens : on dit, par exemple, que Kolmogorov a axiomatisé la théorie des probabilités. On fait déjà du “calcul de probabilités”, depuis Pascal, au moins selon le récit couramment admis, mais après Kolmogorov on identifie le contexte de base nécessaire au déploiement d’une mathématique probabiliste comme celui des espaces probabilisés. Les contextes dans lesquels Pascal travaillait sont désormais ré-identifiés comme des cas particuliers. Dans cet exemple, le geste dit d’axiomatisation consiste à désigner et à définir de nouveaux objets par l’exigence d’un certain nombre de propriétés, soit à introduire en fait des catégories d’objets. Dans la foulée, on impose à un ensemble de recherches un nouveau langage : le sous-idiome du langage mathématique général employant les nouvelles catégories. Ce qui, nécessairement, va susciter de nouvelles positions de problèmes. Il est ainsi immédiat que l’axiomatisation de Kolmogorov ouvre l’investigation des espaces probabilisés infinis.

SALA2013.2 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 180 : Formaliser quelque chose, c’est le faire entrer dans le cadre d’un langage formel, c’est réécrire en principe ce dont on parle intégralement au moyen de formules assemblées selon la norme d’un langage formel. En association avec cette traduction, intervient la redéfinition de l’activité de prouver comme élaboration de “preuves formelles”. Donc formaliser cela veut dire indissociablement projeter une certaine textualité sur un certain langage formel et déterminer juridiquement la seule administration de preuve acceptable comme l’écriture réglée de preuves formelles. On rapporte généralement à Frege l’invention de la formalisation au sens que nous venons de dire : Frege a fait le travail de formalisation de la logique, en établissant le langage formel de la logique des prédicats du premier ordre et en définissant simultanément une norme de la dérivation de théorèmes de cette logique, une norme de la preuve formelle. Par la suite, dans la première moitié du XXe siècle, une formalisation des mathématiques dans leur ensemble, la théorie formelle des ensembles (la théorie ZFC, de Zermelo-Fraenkel avec choix), a été proposée, qui demeure aujourd’hui généralement acceptée.

SALA2013.3 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 181 : Avant la formalisation, l’activité démonstrative, en mathématique, est supposée avoir cours au sein du langage naturel, du langage partagé. Après la formalisation, il apparaît que, pour que quelque chose puisse être considéré comme une preuve correcte, il faut que cela ait été couché dans un langage formel et que cela obéisse aux règles de la dérivation dans un tel langage. D’un point de vue pratique pourtant, la manipulation des langages formels et des preuves formelles est plutôt le fait des logiciens (et des informaticiens, le XXe siècle ayant révélé la congruence forte de la preuve et du calcul). Pour les mathématiciens, la formalisation reste seulement un horizon juridique : écrire les démonstrations rigoureusement dans le système formel de la théorie des ensembles rendrait la preuve d’un résultat même très élémentaire à peu près illisible. Donc les mathématiciens écrivent dans un idiome très à distance du langage formel, gardant nombre de traits du langage naturel, bien qu’il possède un lexique propre et affiche volontiers les formes logiques enseignées et mises en vedette dans la formalisation (comme la quantification). Ce que les mathématiciens fréquentent assez ordinairement en revanche est l’axiomatisation dont je parlais plus haut : les gestes d’axiomatisation non fondationnels qui réorientent le travail dans un domaine en dégageant l’importance de certains concepts ou catégories (certains objets si je pense aux items subsumés), et de certaines relations fondamentales entre eux. Ces gestes incarnent ce que l’on pourrait appeler le structuralisme mathématicien : la volonté systématique d’étudier la manière dont des multiplicités d’objets peuvent réaliser un groupe de propriétés.

SALA2013.4 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 182 : Axiomatisation et formalisation, cela dit, se croisent et se superposent à un endroit absolument fondamental, celui de la réinstitution de la mathématique comme mathématique formelle ensembliste : l’instauration de la théorie ZFC, évoquée plus haut, comme référence juridique ; une instauration qui est à la fois axiomatisation fondationnelle et formalisation. Cette ré-institution postule en effet, d’un côté, que toutes les mathématiques traditionnelles peuvent être réécrites dans un langage formel particulier, celui des ensembles, et que l’activité de la preuve mathématique doit désormais avoir pour horizon juridique celui de la preuve formelle dans un système associé à ce langage : c’est le côté formalisation. Mais, de l’autre côté, des axiomes ont été choisis pour la théorie ZFC afin d’exprimer les propriétés fondamentales de la notion informelle de collection, que Cantor avait déjà en vue quand il lança sa théorie intuitive des ensembles, sans formalisation. Dans la formalisation des mathématiques qui en un certain sens fait loi depuis bientôt un siècle, on trouve ainsi une axiomatisation qui, si je la regarde indépendamment de la formalisation, possède des traits communs avec les axiomatisations non fondationnelles évoquées plus haut : elle dégage la notion fondamentale d’appartenance et explicite les lois syntaxiques gouvernant celle-ci. Elle propose des notions, identifiées par un certain jeu relationnel, en termes desquelles tout repenser et reproblématiser.

HUFL2005 Mathématiques et informatique

Gérard HUET et Philippe FLAJOLET, Mathématiques et informatique, in Rapports sur la science et la technologie : Les Mathématiques dans le monde scientifique contemporain, dir. Jean-Christophe YOCCOZ, Paris, TEC & DOC-Lavoisier, 2005, p. 215-237.

HUFL2005.1 Cf. Huet & Flajolet, Mathématiques et informatique, op. cit., p. 227 : De même que certaines précautions doivent être prises en théorie des ensembles pour éviter les paradoxes issus de notations ensemblistes trop laxistes telles que {x ∣ x ∉ x}, il convient de munir le λ-calcul de limitations stratifiantes pour le restreindre à des calculs convergents. C’est ainsi que Church dut recourir à un système de types pour restreindre le calcul à dénoter des fonctions totales, dans un calcul des prédicats d’ordre supérieur appelé théorie des types simples. Bien sûr, tout système bureaucratique de ce genre est relativement ad-hoc, et l’espoir d’une notation uniforme pouvant servir de fondement à une Mathématique cohérente universelle s’est évanoui avec la destruction par Gödel du programme de Hilbert. Le λ-calcul n’est pas qu’une notation pour les expressions fonctionnelles. Sous sa forme typée, les règles d’inférence définissant le typage peuvent être considérées comme des règles logiques très générales. C’est ainsi que les λ-termes simplement typés peuvent être vus comme des notations pour les preuves sous forme de déduction naturelle du fragment implicationnel du calcul propositionnel. Cette correspondance, dégagée progressivement par Curry, Howard et de Bruijn, est un isomorphisme profond entre espaces fonctionnels et structures de démonstration. Elle permet notamment de faire correspondre à la preuve formelle d’un énoncé mathématique un programme informatique, qui réalise cet énoncé comme spécification. À l’inverse, un programme informatique peut être considéré comme squelette d’un raisonnement mathématique. Ce point de vue extrêmement fécond allait être développé dans les vingt dernières années dans un programme de Théorie des Types, rassemblant des logiciens et des informaticiens à la recherche des fondements logiques de la programmation. Le cadre dit intuitionniste des mathématiques constructives allait servir de langage de spécification à la partie purement fonctionnelle de la programmation, mais d’autres paradigmes allaient trouver leur place pour justifier d’autres constructions programmatoires, comme le call-cc, qui correspond à l’utilisation du tiers exclu en logique classique, par exemple dans le λ-calcul. Ce programme de réalisabilité logique fait ainsi apparaître une analogie profonde entre la programmation d’algorithmes informatiques et la mise au point de démonstrations mathématiques.

HUFL2005.2 Cf. Huet & Flajolet, Mathématiques et informatique, op. cit., p. 230 : le calcul formel peut être vu comme une version extrême (allant jusqu’à l’informatisation) du courant constructif en mathématiques, où les preuves d’existence abstraites sont remplacées par des constructions explicites.

TURI1938 Systems of Logic Based on Ordinals

Alan TURING, Systems of Logic Based on Ordinals, PhD thesis, Princeton University, 1938, p.161-228.

TURI1938.1 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 161 : The well-known theorem of Gödel shows that every system of logic is in a certain sense incomplete, but at the same time it indicates means whereby from a system L of logic a more complete system L’ may be obtained.

TURI1938.2 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 166 : A function is said to be “effectively calculable” if its values can be found by some purely mechanical process. Although it is fairly easy to get an intuitive grasp of this idea, it is nevertheless desirable to have some more definite, mathematically expressible definition. Such a definition was first given by Gödel at Princeton in 1934, following in part an unpublished suggestion of Herbrand, and has since been developed by Kleene. These functions were described as “general recursive” by Gödel. We shall not be much concerned here with this particular definition. Another definition of effective calculability has been given by Church, who identifies it with λ-definability. The author has recently suggested a definition corresponding more closely to the intuitive idea, see also Post. It was stated above that “a function is effectively calculable if its values can be found by some purely mechanical process”. We may take this statement literally, understanding by a purely mechanical process one which could be carried out by a machine. It is possible to give a mathematical description, in a certain normal form, of the structures of these machines. The development of these ideas leads to the author’s definition of a computable function, and to an identification of computability [We shall use the expression “computable function” to mean a function calculable by a machine, and we let “effectively calculable” refer to the intuitive idea without particular identification with any one of these definitions. We do not restrict the values taken by a computable function to be natural numbers; we may for instance have computable propositional functions.] with effective calculability. It is not difficult, though somewhat laborious, to prove that these three definitions are equivalent.

TURI1938.3 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 172-173 : Let us suppose that we are supplied with some unspecified means of solving number-theoretic problems; a kind of oracle as it were. We shall not go any further into the nature of this oracle apart from saying that it cannot be a machine.

TURI1938.4 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 200 : It should be noticed that our definitions of completeness refer only to number-theoretic theorems. Although it would be possible to introduce formulae analogous to ordinal logics which would prove more general theorems than number-theoretic ones, and have a corresponding definition of completeness, yet, if our theorems are too general, we shall find that our (modified) ordinal logics are never complete. This follows from the argument of §4. If our “oracle” tells us, not whether any given number-theoretic statement is true, but whether a given formula is an ordinal formula, the argument still applies, and we find that there are classes of problem which cannot be solved by a uniform process even with the help of this oracle. This is equivalent to saying that there is no ordinal logic of the proposed modified type which is complete with respect to these problems. […] We might hope to obtain some intellectually satisfying system of logical inference (for the proof of number-theoretic theorems) with some ordinal logic. Gödel’s theorem shows that such a system cannot be wholly mechanical; but with a complete ordinal logic we should be able to confine the non-mechanical steps entirely to verifications that particular formulae are ordinal formulae.

TURI1938.5 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 214-216 : Mathematical reasoning may be regarded rather schematically as the exercise of a combination of two faculties, which we may call intuition and ingenuity. The activity of the intuition consists in making spontaneous judgments which are not the result of conscious trains of reasoning. These judgments are often but by no means invariably correct (leaving aside the question what is meant by “correct”). Often it is possible to find some other way of verifying the correctness of an intuitive judgment. We may, for instance, judge that all positive integers are uniquely factorizable into primes; a detailed mathematical argument leads to the same result. This argument will also involve intuitive judgments, but they will be less open to criticism than the original judgment about factorization. I shall not attempt to explain this idea of “intuition” any more explicitly. The exercise of ingenuity in mathematics consists in aiding the intuition through suitable arrangements of propositions, and perhaps geometrical figures or drawings. It is intended that when these are really well arranged the validity of the intuitive steps which are required cannot seriously be doubted. The parts played by these two faculties differ of course from occasion to occasion, and from mathematician to mathematician. This arbitrariness can be removed by the introduction of a formal logic. The necessity for using the intuition is then greatly reduced by setting down formal rules for carrying out inferences which are always intuitively valid. When working with a formal logic, the idea of ingenuity takes a more definite shape. In general a formal logic, will be framed so as to admit a considerable variety of possible steps in any stage in a proof. Ingenuity will then determine which steps are the more profitable for the purpose of proving a particular proposition. In pre-Gödel times it was thought by some that it would probably be possible to carry this programme to such a point that all the intuitive judgments of mathematics could be replaced by a finite number of these rules. The necessity for intuition would then be entirely eliminated. In our discussions, however, we have gone to the opposite extreme and eliminated not intuition but ingenuity, and this in spite of the fact that our aim has been in much the same direction. We have been trying to see how far it is possible to eliminate intuition, and leave only ingenuity. We do not mind how much ingenuity is required, and therefore assume it to be available in unlimited supply. In our metamathematical discussions we actually express this assumption rather differently. We are always able to obtain from the rules of a formal logic a method of enumerating the propositions proved by its means. We then imagine that all proofs take the form of a search through this enumeration for the theorem for which a proof is desired. In this way ingenuity is replaced by patience. In these heuristic discussions, however, it is better not to make this reduction. In consequence of the impossibility of finding a formal logic which wholly eliminates the necessity of using intuition, we naturally turn to “non-constructive” systems of logic with which not all the steps in a proof are mechanical, some being intuitive. An example of a non-constructive logic is afforded by any ordinal logic. When we have an ordinal logic, we are in a position to prove number-theoretic theorems by the intuitive steps of recognizing formulae as ordinal formulae, and the mechanical steps of carrying out conversions. What properties do we desire a non-constructive logic to have if we are to make use of it for the expression of mathematical proofs? We want it to show quite clearly when a step makes use of intuition, and when it is purely formal. The strain put on the intuition should be a minimum. Most important of all, it must be beyond all reasonable doubt that the logic leads to correct results whenever the intuitive steps are correct. It is also desirable that the logic shall be adequate for the expression of number-theoretic theorems, in order that it may be used in metamathematical discussions.

BECA2004 Ontologies… déontologie

Aurélien BÉNEL et Sylvie CALABRETTO, Ontologies… déontologie : réflexion sur le statut des modèles informatiques, in Digital Technology and Philological Disciplines, Linguistica Computazionale, A. BOZZI, L. CIGNONI, J.L. LEBRAVE (eds), 2004, vol. 20-21, p.31-47.

BECA2004.1 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 33 : Que signifierait un statut ontologique des modèles informatiques ? Ni plus ni moins que l’aboutissement du programme de l’intelligence artificielle. En effet, l’ordinateur, en opérant sur le discours, manipulerait directement des connaissances sur le monde réel. Hubert Dreyfus (DREYFUS H., Intelligence artificielle : mythes et limites, Flammarion, Paris, 1984. (Edition originale en anglais publiée en 1972).) fut l’un des premiers à identifier l’intelligence artificielle comme étant un mythe, entraînant la fin du financement de la plupart des projets américains et européens.

BECA2004.2 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 37 : Un statut purement logique des modèles informatique signifierait que seul importe l’aspect formel, indépendamment du contenu (du rapport au monde). Dit autrement, il s’agirait de modèles qui pourraient faire l’objet d’une normalisation.

BECA2004.3 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 39 : Au XIXe et au début du XXe, l’idéal de la Science est donné par la Mathématique telle qu’elle serait si elle était libérée de l’influence du mathématicien : une mathématique “mécanique”, une mathématique exécutable par une machine. Hilbert, en refondant les mathématiques sur des axiomes et des inférences, suit ce programme, mais ses résultats vont aller à l’encontre des attentes des positivistes. En effet, on cite souvent la phrase d’Hilbert : “Il doit toujours être possible de substituer ‘table’, ‘chaise’ et ‘chope de bière’ à ‘point’, ‘droite’ et ‘plan’ dans un système d’axiomes géométriques”. Si on y regarde de plus près, Hilbert, dans cette citation, coupe définitivement les mathématiques de la réalité. La vérité en mathématique n’est donc plus “ce qui est conforme au réel” mais ce qui est inféré d’une axiomatique. La vérité n’y est plus ontologique mais logique (au sens de “conventionnel”).

BECA2004.4 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 40 : On peut se demander si l’approche logique est auto-fondée ou si elle fondée ontologiquement. Pour répondre, nous devons étudier l’histoire du théorème d’incomplétude de Gödel (1931) (DUBUCS J., La logique depuis Russell, in R. BLANCHÉ, La logique et son histoire, Armand Colin/Masson, Paris, 1996. (Seconde édition revue et complétée).), (GIRARD J.-Y., Le champ du signe ou la faillite du réductionnisme, in E. NAGEL, J.R. NEWMAN, K. GÖDEL, J.-Y. GIRARD (eds.), Le théorème de Gödel, Seuil, Paris, 1989 (Traduction française et commentaires).). Par ce théorème, Gödel prouve que pour toute axiomatique (aussi complexe ou plus complexe que l’arithmétique des entiers) soit le principe du tiers-exclu, soit celui de non-contradiction est violé. Le plus surprenant est que Hilbert a passé le reste de sa vie à chercher une erreur dans la démonstration et que Gödel lui-même a toujours pensé que l’incomplétude était due aux systèmes complexes et pas à la logique “naturelle” (c’est-à-dire contenant les deux principes). En fait, même s’ils ont défini les mathématiques comme conventionnelles, ils gardent tout deux une foi sans faille dans la nature ontologique de la logique. On doit noter, au contraire, que d’autres mathématiciens à la même époque plaident pour l’intuitionnisme (c’est-à-dire une logique sans le principe de non-contradiction). En résumé, le statut des mathématiques a changé. Les mathématiques ne sont plus considérées comme conformes à la réalité. Elles sont un jeu de langage. Aujourd’hui, même les règles de la logique “naturelle” ne nous semblent plus “naturelles” et peuvent être changées afin d’obtenir de nouvelles logiques.

BECA2004.5 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 45 : Nous avons montré que l’ambiguïté du statut des modèles informatiques provient du fait que les trois finalités assumées par la communauté (intelligence artificielle, interopérabilité, faire sens pour l’usager) sont issues de trois courants philosophiques opposés. Le lecteur aura compris que, dans nos projets de recherche, nous nous engageons clairement dans la troisième voie, celle que nous avons qualifiée “d’épistémologique”. Cela signifie que nous limitons la mission de l’ordinateur à ce qui est purement formel et laissons à la charge de l’être humain ce qui concerne la substance des choses. C’est parce que nous sommes convaincus que l’intelligence sera toujours du côté de l’humain et non de l’automate qu’il nous semble indispensable de mettre au cœur de la conception de nos systèmes : l’interactivité, les conflits d’interprétation ainsi que l’aspect dynamique et toujours incomplet de la connaissance.

FERR2017 Philosophie du logiciel

Coline FERRARATO, Philosophie du logiciel : Dialogue entre Simondon et un objet technique numérique, Philmaster, École des hautes études en sciences sociales, École normale supérieure, juin 2017.

FERR2017.1 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 5 : “La plus forte cause d’aliénation dans le monde contemporain réside dans cette méconnaissance de la machine, qui n’est pas une aliénation causée par la machine, mais par la non-connaissance de sa nature et de son essence, par son absence du monde des significations, et par son omission dans la table des valeurs et des concepts faisant partie de la culture.” – Simondon, Le mode d’existence des objets techniques, Introduction.

FERR2017.2 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 6 : visage de ce que l’on nomme “numérique” : une nébuleuse d’objets techniques et de protocoles qui s’avancent masqués. En son sens technique général, le numérique renvoie à l’ensemble des appareils réticulés dont l’information échangée est réductible à du langage binaire.

FERR2017.3 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 6 : Le versant informatique du numérique est problématique en ce qu’il recouvre une réalité sociale et technique qui ne se recoupent que très peu.

FERR2017.4 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 123 : Le logiciel libre, de par sa configuration post-industrielle, permet la libération des problématiques inhérentes à l’industrie. Il est un objet technique inédit qui échappe à la double aliénation relevée par Simondon, provoquée par la clôture de l’objet technique produit industriellement. Il n’est plus aliéné, car il n’est plus seulement produit de consommation, “population d’objets” pouvant être “vendue, achetée, échangée” : il est surtout un produit directement accessible et modifiable par tout utilisateur, donc toujours potentiellement ouvert (chacun peut avoir accès au code source, au fonctionnement de Mozilla Firefox).

FERR2017.5 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 124 : le mouvement du logiciel libre est fondamental à l’histoire des techniques : il revendique explicitement un rapport de collaboration avec les objets numériques que nous utilisons au quotidien.

FERR2017.6 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 129 : le numérique est ouvert en certains endroits (ceux des logiciels libres, compris comme objets numériques immatériels), mais de plus en plus clos en d’autres.

FERR2017.7 Cf. Ferrarato, Philosophie du logiciel, op. cit., p. 142-143 : Numérique/informatique : Historiquement, le numérique est un assemblage de logique et de technique. Pris dans ce sens très large, on peut faire remonter son apparition en 1642, avec l’invention de la machine à calculer de Pascal. Il comprend alors toutes les machines à calculer et sauts mathématiques (notamment l’algèbre binaire de Boole en 1847) jusqu’aux ordinateurs que nous connaissons, dont les pères fondateurs sont Turing et Von Neumann. Dans une perspective historique longue, le numérique se comprend comme la mutation progressive des machines à calculer en système technique total. Pourtant, le numérique ne renvoie pas qu’aux ordinateurs : il existe des télévisions numériques, des appareils photographiques numériques. Dans son sens le plus large, le numérique est ce qui s’oppose au fonctionnement analogique. L’informatique, en tant que champ d’étude des ordinateurs, est donc une sous-catégorie du numérique. L’informatique s’est constitué très progressivement, à partir de la seconde moitié du XXe siècle, comme un champ d’étude cohérent – au fur et à mesure de l’évolution de son objet d’étude. En effet, ce que nous nommons aujourd’hui “ordinateur” n’est désigné comme tel qu’en 1955 ; auparavant, l’informatique renvoyait à d’immenses machines à calculer occupant des pièces entières. Sous l’impulsion du complexe militaro-industriel lié à la recherche universitaire, les machines ont rapidement évolué jusqu’à occuper d’autres fonctions que celles de calculatrices géantes, et à s’installer dans les foyers (après avoir rétréci).

LELI2010 Posthumanité et subjectivité transcendante

Jean-Benoît LELIÈVRE, Posthumanité et subjectivité transcendante dans l’œuvre de Philip K. Dick, Mémoire présenté à la Faculté des Arts et des Sciences en vue de l’obtention du grade de maîtrise en littérature comparée, Université de Montréal, avril 2010.

LELI2010.1 Cf. Lelièvre, Posthumanité et subjectivité transcendante, op. cit., p. 97 : Imprégné de la puissance d’Ubik, Joe Chip peut maintenant contrôler l’horizon de la perception dans l’univers du half-life. Débarrassé de sa corporalité dans le monde réel, Joe Chip, ne faisant qu’un avec Ubik, peut maintenant altérer la texture de tous les niveaux de réalité. Selon la théorie de Deleuze et Guattari, l’entité Joe Chip, imprégnée du pouvoir d’Ubik devient une machine désirante. L’univers schizophrène paranoïaque du roman de Dick devient un corps-sans-organes, une surface d’impression pour ses désirs. Il devient consommé par l’objet, il devient carrément cet objet qui lui permet de changer la réalité. Le lecteur, activement sollicité comme participant au récit doit comprendre Ubik comme un aérosol anti-entropique, comme une entité transcendante qui contrôle le récit jusque dans sa construction, ainsi que comme une menace potentielle de la réalité. Le sujet (en l’occurrence ici Joe Chip ou plutôt, ce qu’il en reste) en fin de récit, sans corps, ne devient qu’un système de signes dans l’univers de Glen Runciter. Ce qui amène le lecteur à se demander si Runciter lui-même vit dans la réalité ou dans un autre univers créé et géré par la perception du sujet. La mise en abyme du produit, avec le titre du roman suggère qu’ils sont tous des personnages d’Ubik, qu’il est l’instance créatrice de l’univers du récit, ainsi que du récit lui-même en tant que structure.

ACSC2013 L’enseignement de l’informatique en France

ACADÉMIE DES SCIENCES, L’Enseignement de l’informatique en France. Il est urgent de ne plus attendre, rapport RA-153, 2013.

ACSC2013.1 Cf. Académie des sciences, L‘enseignement de l’informatique en France, op. cit., p. 8 : Le mot “informatique” désignera spécifiquement la science et la technique du traitement de l’information, et, par extension, l’industrie directement dédiée à ces sujets. L’adjectif “numérique” peut être accolé à toute activité fondée sur la numérisation et le traitement de l’information : photographie numérique, son numérique, édition numérique, sciences numériques, art numérique, etc. On parle ainsi de “monde numérique” pour exprimer le passage d’un nombre toujours croissant d’activités à la numérisation de l’information et “d’économie numérique” pour toutes les activités économiques liées au monde numérique, le raccourci “le numérique” rassemblant toutes les activités auxquelles on peut accoler l’adjectif numérique. Puisque toute information numérisée ne peut être traitée que grâce à l’informatique, l’informatique est le moteur conceptuel et technique du monde numérique. Par rapport à l’anglais, notre acception du mot “informatique” recouvre Computer Science, Information Technology et ce que l’on entend souvent par Informatics, alors que l’adjectif numérique correspond à digital, par exemple dans la correspondance entre “monde numérique” et digital age.

TRIC2008b Le concept d’information chez Shannon et Wiener

Mathieu TRICLOT, Le concept d’information chez Shannon et Wiener, Séminaire sciences, légitimité, médiation, équipe Maaticah, Paris, juin 2008.

TRIC2008b.1 Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 5 : on trouve chez Von Neumann une proposition qui est constamment répétée : notre logique, symbolique, n’est – je cite – qu’un code court, métaphore informatique, exprimant de manière simplifiée un code long qui serait en quelque sorte le langage du cerveau, qui est lui massivement parallèle et stochastique. Autrement dit, l’information comme symbole n’est qu’une réalité dérivée par rapport à quelque chose de plus fondamental qui est le traitement de l’information tel qu’il s’opère au niveau physique de base.

TRIC2008b.2 Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 9 : On voit Shannon annoncer que “le cas continu peut être obtenu à partir du cas discret en divisant le continuum des messages et des signaux en un nombre important, mais cependant fini, de petites régions et en calculant les différents paramètres impliqué sur une base discrète. Plus la taille des régions diminue plus la valeur de ces paramètres approche celles du cas continu. […] Une étude préliminaire indique que la théorie peut être formulée de manière complètement axiomatique et rigoureuse incluant à la fois les cas continus et discrets et bien d’autres.” [Shannon, La Théorie mathématique de la communication, p. 81].

TRIC2008b.3 Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 9 : Ce qui me semble pouvoir être acquis à l’issue de ce premier parcours en examinant les mesures de l’information telles qu’elles sont énoncées en 1948, c’est qu’il y a manifestement deux voies d’approches de la mesure de l’information, selon que l’on privilégie le discret ou le continu… Ces voies ne sont pas exactement symétriques. Il est probablement vrai que l’une et l’autre doivent pouvoir être fondue dans une axiomatique plus générale, ce que Shannon affirme sans le réaliser ou ce que la démarche de simplification semble montrer chez Wiener. Reste cependant une différence, me semble-t-il, en dépit de ces passerelles, c’est que chacun des cas de référence se trouve articulé à un ensemble d’applications privilégiées. Le cas discret chez Shannon, quand bien même il se résumerait à une simplification du cas continu développé par Wiener, a d’abord pour fonction d’aborder un problème qui est celui du codage des messages et disons de la compression de l’information transmise ; problème que Wiener laisse totalement de côté, et lorsqu’il parle de codage, c’est pour en référer à Shannon. Il semble bien que la problématique du codage soit en un sens spécifique au cas discret. À l’inverse, la question des filtres et encore plus de la prévision des signaux, n’apparaît pas chez Shannon, alors qu’elle constitue le cœur du travail de Wiener.

TRIC2008b.4 Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 19 : Si au final, les travaux se rejoignent et que d’une manière ou d’une autre, par échantillonnage, par simplification, ou dans l’horizon d’une axiomatique à venir, le développement de la mesure de l’information dans le cas continu et celle dans le cas discret se rejoignent, on a à faire à des lignes qui sont largement parallèles et qui obéissent à des logiques et des démarches qui me semblent assez différentes. Ce n’est pas insensé de la part de Shannon de dire que Wiener n’a pas grand-chose à voir dans la théorie de l’information entendue comme théorie du codage. On trouve un point symétrique dans la déclaration de 1956 chez Wiener. Autrement dit, peut-être que la mesure est la même, au final, mais ce qui compte c’est aussi ce qu’on en fait. Et posséder la mesure de Wiener n’autorise pas à résoudre de manière automatique le problème du codage posé par Shannon… et vice et versa, posséder la mesure de Shannon ne nous donne pas en claquant des doigts un algorithme de prédiction optimal. Il faut distinguer la mesure et ce que l’on en fait.

TRIC2008b.5 Cf. Triclot, Le concept d’information chez Shannon et Wiener, op. cit., p. 19-20 : la théorie des communications chez Wiener n’apparaît que comme un chapitre dans un projet plus vaste qui consiste à étendre le royaume de l’information du domaine des communications jusqu’à l’étude des organismes vivants voire des sociétés, en passant par les domaines du calcul mécanique ou du rétrocontrôle. Cette différence dans le projet se retrouve dans les textes. Shannon donne une sorte d’axiomatique des communications qui est en quelque sorte fermée sur elle-même et ses applications là où Wiener chercher à inclure la théorie des communications comme un cas particulier dans une approche plus vaste, qui est une physique statistique de l’information. Je crois que la différence se ressent par exemple pour ce qui est de l’usage des probabilités. Chez Shannon, nous avons une application stricte du calcul des probabilités aux problèmes du codage, qui découle sans doute des travaux en cryptographie. Chez Wiener la dimension statistique apparaît toujours en lien avec l’arrière-plan physicaliste de la théorie. Si Wiener utilise les outils statistiques c’est toujours en référence à sa théorie du mouvement brownien ; les séries temporelles qu’étudient la théorie des communications n’apparaissent plus que comme un cas particulier de ces séries statistiques qui s’observent dans un univers aléatoire et contingent, si on lit Wiener. Je crois que du coup on retrouve en dépit de l’identité entre les formules des représentations assez distinctes de ce que peut être la quantité d’information, au croisement entre deux paramètres : la distinction entre le cas continu et le cas discret, l’analogique et le numérique ; mais aussi le statut donné à la théorie de la communication qui conduit Wiener à n’en faire qu’un chapitre dans une théorie plus générale qui est une physique statistique de l’information. Ces deux différences : une axiomatique du code chez Shannon contre une physique statistique de l’information chez Wiener, avec priorité donnée au signal continu sur le symbole discret, sont manifestement ancrées dans les contextes de production de ces deux mesures de l’information.

LARO1993 Logique et fondements de l’informatique

Richard LASSAIGNE et Michel de ROUGEMONT, Logique et fondements de l’informatique : Logique du 1er ordre, calculabilité et λ-calcul, Paris, Hermès, 1993.

LARO1993.1 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 1 : Le développement de la Logique mathématique et celui de l’Informatique dans la dernière décennie ont mis en lumière un certain nombre d’interactions entre preuve et calcul, modèles de machines et fonctions calculables, pouvoir d’expression d’un langage et complexité des problèmes exprimés dans ce même langage.

LARO1993.2 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 1-2 : L’origine de la Logique mathématique contemporaine en tant qu’outil de formalisation, est marquée par les publications de G.Frege (1879 et 1892) sur le langage des formules, sur le sens et la dénotation. L’utilisation d’un langage formel dans un cadre mathématique, informatique ou linguistique, soulève une question fondamentale : quelle sémantique peut-on associer à un tel langage ? Un énoncé est représenté par une référence (ou dénotation), mais possède également un sens plus général. Pour les langages de la Logique du premier ordre, la dénotation est donnée en termes de valeurs de vérité. La notion syntaxique de preuve est définie à l’aide d’un système d’axiomes et de règles de déduction. Dans sa thèse, K. Gödel démontra en 1930 la propriété de complétude pour un tel système, c’est-à-dire l’adéquation entre aspect sémantique et aspect syntaxique. L’année suivante, il publiait ses deux théorèmes d’incomplétude et obligeait ainsi la Logique, en tant que métamathématique, a redéfinir ses objectifs : il montrait l’inexistence d’une formalisation complète de l’arithmétique et apportait ainsi la preuve de l’impossibilité de résoudre l’un des problèmes énoncés dans le fameux programme de Hilbert. Ce dernier voulait réduire les mathématiques aux déductions logiques à partir de simples axiomes. À la même époque, se développaient les bases de la théorie des fonctions récursives. Cette théorie étudie les fonctions pour lesquelles il existe une méthode effective de calcul. Elle a pris son essor à partir des travaux de Church, Kleene, Markov, Post et Turing : les différentes classes de fonctions qu’ils définissent sont constituées des fonctions calculables, elles incluent toutes les fonctions calculables connues et coïncident toutes. Cette constatation amena Church à proposer en 1936 sa fameuse thèse : toute fonction calculable est récursive. À la même époque, A.Turing définit une machine abstraite [?], qui porte maintenant son nom et montre que les fonctions calculables sur cette machine sont exactement les fonctions récursives. L’impulsion donnée par Gödel à la Logique se retrouve également dans la théorie de la démonstration développée à partir des travaux de Herbrand et Gentzen. Le théorème de Herbrand (1929), qui précise le caractère semi-décidable de la Logique du premier ordre, est le fondement des méthodes de démonstration automatique. Les travaux de Gentzen (1935) ont ensuite permis de développer de nouvelles méthodes applicables à un système de règles de déduction, sans axiomes, appelé calcul des séquents. Ce genre de système a été utilisé récemment par J.Y.Girard pour construire la Logique linéaire, dont l’un des objectifs est de permettre l’expression des problèmes de ressources et de communication dans les systèmes informatiques. Les systèmes de types sont des systèmes récents de déduction naturelle pour lesquels il est possible d’établir une correspondance entre preuves et programmes fonctionnels, ainsi qu’entre formules et types : la construction d’un terme fonctionnel typé associé à un programme d’un certain type, est la trace de la preuve de la formule exprimant le type considéré. Ce domaine de recherche est l’un des plus actifs actuellement en Logique. Enfin, la théorie des modèles s’est constituée vers 1950 à partir des travaux de A.Tarski. Les notions de définissabilité implicite et explicite, dans un langage du premier ordre, ont été introduites par Beth et se sont révélées fondamentales pour la théorie des modèles finis, particulièrement importante en Informatique.

LARO1993.3 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 3 : Dans le cas de la programmation logique, la stratégie d’un programme peut être considérée comme un cas particulier d’une méthode générale de démonstration automatique : la résolution.

LARO1993.4 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 4 : Si la machine de Babbage est souvent reconnue comme étant une des premières machines informatiques, c’est Turing qui donne pour la première fois une définition précise d’un modèle de calcul et étudie les fonctions définissables à l’aide d’un tel modèle, appelées aussi fonctions calculables au sens de Turing. L’équivalence entre ces fonctions calculables au sens de Turing et les fonctions récursives partielles est une des premières interactions entre Logique et Informatique. Turing reconnaissait implicitement l’importance du temps et de l’espace de calcul d’une machine de Turing car, dans son fameux test de Turing, il comparait une telle machine à un être humain, du point de vue à la fois des réponses et du temps de calcul : si la machine répond comme l’être humain, alors seulement elle lui sera comparable. L’étude de la complexité en temps et en espace est donc bien, au départ, une des questions fondamentales de l’Informatique.

LARO1993.5 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 4 : La théorie de la complexité a permis d’isoler certaines classes de problèmes qui étaient aussi difficiles à résoudre en prenant en compte les ressources de temps et d’espace, en particulier deux grandes classes P et NP. P est la classe des problèmes que l’on peut résoudre en temps polynomial , c’est-à-dire par des programmes dont le temps de calcul est borné par une fonction polynomiale de la taille de l’entrée. NP est la classe des problèmes que l’on peut vérifier en temps polynomial.

PETR2018 Building and defending the alternative Internet

Patrick PÉTIN et Félix TRÉGUER, Building and defending the alternative Internet: the birth of the digital rights movement in France, in Internet Histories, 2:3-4, 2018, p. 281-298.

PETR2018.1 Cf. Pétin & Tréguer, Building and defending the alternative Internet, op. cit., p. 293 : According to this Internet-centrist view, the spread of Internet technologies was in and of itself a positive development that would have political consequences at the macro level. But for Marzouki and others, “that wasn’t the idea”. For them, “the Internet itself was never the goal […]. The reason why the Internet matters is what it allows us to do. What I’m interested in is not the development of the Internet for its own sake. It is a particular Internet that we were interested in, a certain way of developing it”.

JORA2011 Regards croisés sur l’axiomatique

Pierre JORAY, Introduction in Regards croisés sur l’axiomatique, Ed. Pierre Joray & Denis Miéville, Centre de recherches sémiologiques, Université de Neuchâtel, 2011.

JORA2011.1 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. viii : A. N. Whitehead, B. Russell, F. P. Ramsey, R. Carnap et aussi, à sa manière, S. Leśniewski furent sur ce plan parmi les héritiers de Frege. En atteignant à des degrés divers l’idéal de rigueur que s’était fixé Frege, chacun pratiqua en effet l’analyse logique à l’aide d’une axiomatique formelle, mais sans être formaliste, en usant d’un langage interprété, à savoir une idéographie dont les formules ne sont pas de simples suites de caractères, mais des expressions pourvues de sens.

JORA2011.2 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. ix : Avec Gödel, avec Tarski aussi (pourtant l’élève de Leśniewski), le travail premier des logiciens devenait de montrer de manière métamathématique les propriétés de systèmes formels, à savoir de systèmes symboliques considérés comme dépouillés de tout contenu représentationnel. Dans cette perspective, la logique telle que l’avait conçue des Frege, Russell et Leśniewski devait passer au second plan et laisser sa place au langage devenu idiome universel de la théorie des modèles.

JORA2011.3 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. ix : Avec le renouveau des entreprises fondationnalistes, celui de l’intuitionnisme, avec l’urgence d’éclaircir les notions de réduction et de définition en épistémologie, avec aussi le développement de l’inférentialisme en philosophie du langage, l’usage de l’axiomatique comme instrument précieux de clarification et de découverte revient sur le devant de la scène logique.

VAND1980 La philosophie intuitionniste et ses conséquences mathématiques

Dirk VAN DALEN, La Philosophie intuitionniste et ses conséquences mathématiques in Séminaire de Philosophie et Mathématiques, n° 2, 1980, p. 1-17.

VAND1980.1 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 1 : Aujourd’hui l’intuitionnisme est une source pour les recherches des mathématiques constructives, et particulièrement pour l’analyse des notions fondamentales, comme : preuve, fonction, construction et vérité.

VAND1980.2 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 3 : En considérant l’homme comme unité fermée en soi, comme le gardien et comme l’origine du contenu psychique changeant, Brouwer conclut que la transmission de la volition et de l’information entre des individus est presque impossible. Le langage peut transmettre des messages simples comme des transactions commerciales ou des instructions pour construire un pont. Mais il est certainement insuffisant pour transmettre les nuances raffinées de la volition. En particulier toutes les émotions esthétiques, religieuses, mystiques échappent à une communication exacte. Car les mathématiques pures sont des développements libres de l’esprit de l’homme, dit Brouwer ; cela a des conséquences graves et négatives pour la possibilité de formaliser les mathématiques. Ces idées sont antérieures au conflit intuitionnisme-formalisme entre Brouwer et Hilbert, et c’est évident que l’opinion négative de Brouwer concernant la logique est une conséquence directe de cela.

VAND1980.3 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 13 : Depuis les innovations de Herbrand et Gödel il y a une caractérisation du concept “algorithme” . La notion précise et formalisée d’algorithme est celle de fonction récursive. Les fonctions récursives peuvent être définies par des schémas ou par des machines de Turing, etc. On peut identifier les deux concepts : calculabilité algorithmique humaine et calculabilité par des fonctions récursives. Cette identification est la “thèse de Church” ou la “thèse de Turing”. On ne peut pas formuler la thèse de Church en mathématiques classiques, parce qu’on ne peut formuler ce qu’est un algorithme. Au contraire, dans l’intuitionisme on peut formuler la thèse de Church parce que ∀ x ∃ y signifie qu’il y a une construction transformant x dans y.

RAMO2010 Deleuze : schizophrénie, capitalisme et mondialisation

Charles RAMOND, Deleuze : schizophrénie, capitalisme et mondialisation, in Cités, 2010/1 (n° 41), p. 99-113.

RAMO2010.1 Cf. Ramond, Deleuze : schizophrénie, capitalisme et mondialisation, op. cit., p. 100-101 : Depuis l’origine (origine d’ailleurs imprécise : en gros, origine de l’humanité en tant que groupe pourvu d’une culture repérable par exemple dans les rites et les mythes les plus anciens que nous connaissons), le mouvement général de l’histoire humaine serait ainsi, selon Deleuze et Guattari, celui d’un “codage” puis d’un “décodage” de plus en plus affirmé, de plus en plus net, de plus en plus inexorable, de certains “flux”, décodage qui culmine actuellement dans le capitalisme, et qui est d’essence schizophrénique. Pour Deleuze et Guattari, en effet, la réalité est constituée de “flux”, au sens le plus vague de ce terme : forces, élans, objets qui circulent, et surtout “désirs” : disons, une espèce d’énergie (qu’on pourra appeler aussi la “production”), universelle et informe en soi, dont on peut trouver des équivalents chez certains auteurs que Deleuze affectionne, de “l’effort pour persévérer dans l’être” spinoziste à “l’élan vital” bergsonien, en passant par le “dionysiaque” nietzschéen. Ces “flux” n’existent pas en eux-mêmes, ils ne peuvent pas se montrer ou se donner à voir directement, ils ne se présentent et ne peuvent se présenter que cadrés, informés, structurés, “coupés”, ou, comme dira surtout Deleuze, “codés”, à la manière de la “matière” aristotélicienne qui ne peut apparaître qu’à condition d’être “informée” (ou “marquée”, signata, comme disait saint Thomas), ou à la manière du “réel” qui, chez Lacan comme chez Freud, ne peut jamais affleurer directement, mais à condition seulement d’être “codé” par de l’imaginaire, ou dans le rêve (on notera ici la proximité de départ avec les thèses de Deleuze : ce qui affleure dans le rêve, c’est toujours un “flux” de “désir”, mais toujours transformé, c’est-à-dire “codé”). C’est là l’idée au fond assez simple et assez naturelle d’une dualité totalement interpénétrée entre d’un côté le “flux”, le fluide, le libre, le créatif (mais qui, laissé à lui-même, représente le risque de l’informe et du chaos), et de l’autre le rigide, le cadre, la structure, la loi, le “code” (qui signifie bien souvent quelque chose comme une “loi”, par exemple dans “Code civil”), qui vient encadrer et contrarier dans une certaine mesure cette “puissance” (autre nom spinoziste des “flux” deleuziens), qui est à la fois une force de vie et une force de destruction des “codes”.

RAMO2010.2 Cf. Ramond, Deleuze : schizophrénie, capitalisme et mondialisation, op. cit., p. 101 : Le capitalisme, la mondialisation apparaissent bien en effet comme une espèce de “décodage” généralisé des “flux” (plus rien ne doit s’opposer à la circulation des flux et à leur libre propagation) : frontières, douanes, lois ou coutumes locales faisant très vite figure, dans un monde capitalistique, d’archaïsmes ayant pour destin d’être supprimés ou folklorisés.

RAMO2010.3 Cf. Ramond, Deleuze : schizophrénie, capitalisme et mondialisation, op. cit., p. 106 : Le mouvement général de l’histoire est ainsi conçu comme un mouvement de “déterritorialisation”, c’est-à-dire d’abstraction progressive.

KRTO2009 Diagramme et agencement chez Gilles Deleuze

Igor KRTOLICA, Diagramme et agencement chez Gilles Deleuze : L’élaboration du concept de diagramme au contact de Foucault, in Filozofija I Drustvo, 3, 2009, pp. 97-123.

KRTO2009.1, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 105-106 : la dimension du diagramme peut être dite abstraite puisqu’elle ne concerne pas les incarnations concrètes (fonctions finalisées et matières organisées) qui l’actualisent ; elle n’en est pas moins réelle (et non simplement pensée) puisqu’elle cartographie des fonctions et des matières informelles coextensives à tout le champ social, et qui agissent positivement en lui. Dès lors, le diagramme est la carte des rapports de forces qui s’incarnent dans des agencements concrets, en se différenciant selon le double axe des formes de contenu (visible) et d’expression (énonçable) : c’est “l’exposition des rapports de forces qui constituent le pouvoir”. C’est donc ce rapport d’actualisation par différenciation de la machine abstraite qui rend compte de la coadaptation des deux formes hétérogènes. Car “le diagramme agit comme une cause immanente non–unifiante, coextensive à tout le champ social : la machine abstraite est comme la cause des agencements concrets qui en effectuent les rapports ; et ces rapports de forces passent ”non pas au–dessus mais dans le tissu même des agencements qu’ils produisent”.

KRTO2009.2, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 106 : Autrement dit, la concrétisation de la machine abstraite est nécessairement une différenciation selon des formes hétérogènes mais qui renvoient toutes à une même cause immanente informelle.

KRTO2009.3, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 107 : La question “qu’est–ce qu’un diagramme ?” appelle désormais une réponse précise : c’est la carte des rapports de forces (ou de pouvoir) ; et cette carte est une machine abstraite (diagramme informel) qui ne s’effectue pas sans s’actualiser dans des machines concrètes à deux faces (les agencements et leurs formes de contenu et d’expression).

KRTO2009.4, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 114 : C’est pourquoi ce sont les lignes de fuite qui définissent primitivement le champ social : ce sont donc elles qui, secondairement (au sens logique et non chronologique), vont être codées par des dispositifs de pouvoir.

KRTO2009.5, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 116 : On a ainsi deux versions du diagramme exposées par Deleuze. L’une est exposée dans Mille plateaux, et elle double le concept de “machine abstraite”, dont le corrélat – dans une logique bergsonienne de distinction de deux types de multiplicités – est nommé “machine concrète” ; cette première version du diagramme enveloppe les conditions de sa mutation puisque le diagramme se définit en première instance par ses lignes de fuite. L’autre version est exposée dans les textes consacrés à Foucault, et obéit en l’occurrence à une logique ternaire et non plus binaire, le diagramme ouvrant d’un côté sur les strates historiques de savoir dont il rend compte, et d’un autre côté sur un dehors immanent qui le constitue.

KRTO2009.6, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 122 : En correspondance avec chacune des lignes affectant le champ social, Deleuze et Guattari déterminent trois états de la Machine abstraite, qui sont comme trois machines abstraites qui agissent sur elle : d’une part, une machine abstraite de surcodage qui définit une segmentarité dure (solidaire d’un appareil d’État) ; d’autre part, une machine abstraite de mutation (mobilisant les éléments d’une machine de guerre) ; enfin, une machine abstraite moléculaire, qui désigne “tout un domaine de négociation, de traduction, de transduction” traversé par les tendances immanentes aux deux pôles (surcodage et mutation).

KRTO2009.7, Cf. Igor Krtolica, Diagramme et agencement chez Gilles Deleuze, op. cit., p. 123 : Le diagramme indique seulement le niveau informel et non stratifié des forces, mais sans exclure la diversité de leurs rapports possibles : rapport molaire de surcodage et de reterritorialisation, rapport moléculaire de décodage et de déterritorialisation relatifs, et lignes de fuite impliquant un décodage et une déterritorialisation absolus.

MARC2018 État, plateforme et cybernétique

Meven MARCHAND GUIDEVAY, État, plateforme et cybernétique, fragments philosophiques sur le devenir cybernétique des appareils de gouvernements, Master 2 en information et communication, soutenu en 2018 à l’université Rennes 2 sous la direction de Didier CHAUVIN, http://fragments.webflow.io/.

MARC2018.1 Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : C’est là que l’exploitation de la vie signifie désormais “exploitation du temps de la vie”, non pas simplement d’un temps de travail humain mais du temps de la présence au monde d’un être, humain ou non humain. Cette exploitation n’est pas seulement basée sur la capacité créatrice de l’homme et “la production de l’homme par l’homme”, comme pourraient le suggérer certaines théories du capitalisme cognitif, mais bien plutôt comme “asservissement machinique généralisé” rendu indépendant d’un travail quelconque, tel que déjà identifié dans Mille Plateaux par Deleuze et Guattari : “C’est comme si l’aliénation humaine était remplacée dans le surtravail lui-même par un ‘asservissement machinique’ généralisé, tel qu’on fournit une plus-value indépendamment d’un travail quelconque (l’enfant, le retraité, le chômeur, l’auditeur à la télé, etc.). Non seulement l’usager comme tel tend à devenir un employé, mais le capitalisme opère moins sur une quantité de travail que sur un processus qualitatif complexe qui met en jeu les modes de transport, les modèles urbains, les médias, l’industrie des loisirs, les manières de percevoir et de sentir, toutes les sémiotiques.”

MARC2018.2 Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Il semble alors que dans l’espace d’Internet, le propre de lanous plateforme soit de fonctionner comme un ensemble d’appareils de capture. Luttant perpétuellement contre l’entropie, elle surcode selon un rythme ternaire : elle opère un striage de l’espace, valorise la présence, et abstrait le transindividuel à de pures quantités d’informations. Bien sûr, nous ne nous risquerons pas aussi simplement à amalgamer les formations sociales. Il n’y a pas lieu de dire que les plateformes deviennent appareils d’États ou inversement que les appareils d’États deviennent plateformes, simplement, nous observons qu’au-delà de la métaphore de la plateforme comme “Empire”, chacune des formations réalise des opérations d’un même type : des opérations de transcendance, de formalisation, que Deleuze et Guattari caractérisent sous les termes de surcodage et de capture. Les États et les plateformes participent d’un même champ de coexistence (au même titre que les sociétés sans États, les machines de guerre ou les formations œcuméniques), il n’y a pas unilatéralement “plateformisation du gouvernement” mais un ensemble complexe de relations de pouvoirs, de processus machiniques (conjuration, polarisation, capture, englobement…) et d’ajustements auxquels se contraignent mutuellement deux formations sociales opérant dans des espaces proches ou identiques et sur le même mode, celui de la cybernétique.

MARC2018.3 Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Si l’on s’en tient à la définition posée par Gilbert Simondon, alors, la cybernétique ne cherche pas à identifier un processus complexe à un processus plus simple comme on le croit très vulgairement (par exemple la pensée humaine au fonctionnement d’un système mécanique), mais à établir des équivalences entre différentes situations dans lesquelles le savant peut se trouver en présence de tel ou tel objet d’étude : “Le no man’s land entre les sciences particulières n’est pas une science particulière, mais un savoir technologique universel, une technologie inter-scientifique qui vise non un objet théorique découpé dans le monde mais une situation. Cette technologie des situations peut penser et traiter de la même manière un cas de vertige mental chez un aliéné et un tropisme chez un insecte, une crise d’épilepsie et un régime d’oscillations de relaxation dans un amplificateur à impédance commune d’alimentation, un phénomène social et un phénomène mécanique.”

MARC2018.4 Cf. Marchand Guidevay, État, plateforme et cybernétique, op. cit. : Le “data mining” a notamment été défini dans un document émanant du United States General Accounting Office comme “l’application de la technologie et des techniques de banques de données (comme l’analyse statistique et la modélisation) dans le but de découvrir les structures cachées et les relations subtiles entre données, et d’en inférer des règles permettant la prédiction de résultats futurs.” Celui-ci effectue une logique cybernétique par l’induction automatisée et rétroactive de données dont le seul caractère est leur quantité. Ce n’est néanmoins pas une opération de logique déductive dans la mesure où elle est aveugle aux causes des phénomènes et ne fait qu’observer des corrélations statistiques. Le profilage, lui, repose sur les corrélations précédemment opérées lors du data mining. Il “permet d’inférer, avec une certaine marge d’incertitude, de la seule présence de certaines caractéristiques observables chez un individu donné, d’autres caractéristiques individuelles non observables, actuelles ou futures.” Toute l’ironie de la chose est que, malgré l’abandon du souci de la causalité au profit de l’induction statistique pure, et donc de “l’abandon de toute ambition de prévention ou de correction des inégalités sociales impliquées dans les différences en termes de qualité de vie, de performance économique, d’intégration sociale”, le profilage se veut objectif et impartial car ne reposant pas sur des catégories socialement éprouvées (Antoinette Rouvroy l’oppose ainsi au profilage ethnique). C’est pourquoi, alors même qu’il n’est rien d’autre qu’un puissant outil de maintien de l’ordre, il pourrait “passer pour attester du triomphe de l’analyse rationnelle sur les biais entachant la perception humaine”.

AUDU2007 Méthode axiomatique et négation chez Hilbert

Éric AUDUREAU, Méthode axiomatique et négation chez Hilbert, in Philosophia Scientiæ, 11-2, 2007.

AUDU2007.1 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : On sait que les recherches de Hilbert sur les fondements des mathématiques se distinguent de celles de ses contemporains par le fait que celui-ci se propose de fonder simultanément la logique et l’arithmétique. Ce qui revient à construire indépendamment les mots logiques et le concept de nombre. Hilbert s’opposait ainsi, d’une part, à ceux qui, comme Frege, Russell ou Hanh, voulaient déduire le concept de nombre à partir des concepts de la logique et, d’autre part, à ceux qui, comme Poincaré ou Brouwer, jugeant la logique stérile, estimaient que seule l’origine du concept de nombre était redevable d’une justification épistémologique.

AUDU2007.2 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : La seule fonction de la méthode axiomatique qui ne soit pas explicitement mentionnée dans la Conférence de Paris est l’ambition de neutraliser les oppositions philosophiques, c’est-à-dire ce que Hilbert exprimera plus tard ainsi : “Les mathématiques sont une science sans présupposé. Pour les fonder je n’ai besoin ni de Dieu, comme Kronecker, ni de la supposition d’une faculté particulière de notre entendement s’accordant avec le principe d’induction mathématique, comme Poincaré, ni de l’intuition primordiale de Brouwer, ni, non plus, comme le font Russell et Whitehead, des axiomes de l’infini, de réductibilité ou de complétude, lesquels sont en fait des suppositions réelles pourvues de contenu qui ne peuvent être neutralisées par des démonstrations de cohérence”.

AUDU2007.3 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : L’aspect paradoxal de la doctrine de Hilbert se manifeste le plus nettement dans ses positions à l’égard de l’infini en acte. Les intuitionnistes et les réalistes reconnaissent ensemble que la notion d’infini en acte ne peut provenir de notre propre fonds. Ils se distinguent en décrétant, pour les premiers, que l’infini en acte n’existe pas, et, pour les seconds, qu’il existe hors de nous. Hilbert se propose de concilier ces deux positions alors que chacune des parties adverses les reconnaît clairement comme irréconciliables. Comme les intuitionnistes, il exclut l’infini des méthodes des mathématiques (“[…] comme si quelqu’un était jamais parvenu à effectuer un nombre infini d’inférences”, Jean Van Heijenoort, From Frege to Gödel, A Source Book in Mathematical Logic, 1879-1931, Harvard University Press, 1967, p. 370 et Jean Largeault, Logique mathématique. Textes, A. Colin, Paris, 1970, p. 221) et, comme les réalistes, il estime cependant que l’on peut connaître cet infini qui, hors de nous et de la Nature, est au Paradis. Ce programme de conciliation revient à ne reconnaître aucune légitimité à l’opposition du réalisme et de l’intuitionnisme. Mais, en même temps, Hilbert reconnaît une part de vérité à l’intuitionnisme : la logique ne permet pas de construire l’arithmétique, et une part de vérité au réalisme : la logique n’est pas stérile. Donnons des axiomes pour les signes de la logique qui n’est pas stérile. Donnons indépendamment, puisqu’ils ne dépendent pas de la logique, des axiomes pour les signes des nombres. Construisons les figures où se mêlent ces deux espèces de signes. Tous les “présupposés”, qu’il s’agisse des actions de l’âme des intuitionnistes ou des êtres immatériels des réalistes, ont été éliminés. Les axiomes n’ont saisi que ce qui est essentiel aux mathématiques. L’origine de la connaissance mathématique n’est ni dans l’ego ni dans le concept de totalité infinie.

AUDU2007.4 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : Les distinctions de sens des mots logiques proviennent des conditions stipulées par les règles structurelles qui concernent les mécanismes inférentiels purs. Il y a un abîme entre les mots logiques des logiques classique et intuitionniste, toute traduction de l’une dans l’autre est une trahison, mais ce n’est là que l’effet direct et profond, invisible dans la méthode axiomatique, des mécanismes inférentiels admissibles. En l’espèce, c’est le rejet de la règle d’adjonction d’une conséquence, donnée plus haut, qui rend compte de l’inacceptabilité des principes du tiers exclu et de la double négation pour les intuitionnistes.

AUDU2007.5 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : L’un des problèmes qui a dominé la recherche en intelligence artificielle au cours des trois dernières décennies consistait à rechercher une interprétation procédurale de la négation de la logique classique. Cette question s’est présentée lorsqu’on a voulu employer le langage de cette logique comme un langage de programmation. Les travaux qui lui ont été consacrés furent si nombreux qu’il a fallu créer plusieurs magazines spécialisés pour les accueillir. Comme on pouvait s’y attendre, le concept de vérité de la logique classique étant “hautement transfini” et la négation de la logique classique étant liée indissociablement à ce concept, ces travaux se sont soldés par un échec, car les ordinateurs, eux, ne peuvent effectivement manipuler que la forme matérielle des signes des mots logiques.

PATR2003 L’horizon sémantique et catégorial de la méthode axiomatique

Frédéric PATRAS, L’horizon sémantique et catégorial de la méthode axiomatique, in Noesis, n°5 Formes et crise de la rationalité au XXe siècle, Tome 2 Épistémologie, 2003, p. 9-29.

PATR2003.1 Cf. Patras, L’horizon sémantique et catégorial de la méthode axiomatique, op. cit., p. 18 : L’étude des Fondements de la géométrie permet de comprendre ce qu’a représenté l’émergence de la méthode axiomatique moderne (dont une forme édulcorée de tous ses aspects philosophiques a fait le fond du structuralisme mathématique de tradition bourbakiste au cours des cinquante dernières années), à savoir : une mutation de sens du concept de vérité, qui devient d’abord conventionnel avant de s’interpréter comme simple non-contradiction ; l’émergence de la notion d’axiomatiques ouvertes et d’objets ou de théories mathématiques abstraits susceptibles de s’incarner dans différents modèles ; enfin, le problème qui s’affirme (avant d’être nié par l’école structuraliste) des liens entre contenus et formalisme, entre formes et intuitions.

QUER2000 Au juste, qu’est-ce que l’information ?

Louis QUÉRÉ, Au juste, qu’est-ce que l’information ?, in Réseaux, volume 18, n° 100, 2000, Communiquer à l’ère des réseaux, p. 331-357.

QUER2000.1 Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 340 : Dans le langage de Dretske, on dira que le “contenu sémantique” de l’indicateur, résultant de la digitalisation, est plus étroit ou plus spécifique que son “contenu informationnel”, qui, lui, est de nature analogique. La digitalisation est un processus de traitement de l’information visant à la spécifier, donc à l’appauvrir sélectivement.

QUER2000.2 Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 343 : Aujourd’hui il est devenu courant de considérer les informations comme des data. Ce terme est suffisamment vague pour inclure des formes très diverses de connaissances. Il privilégie implicitement les résultats d’opérations d’abstraction, de mesure et de quantification appliquées aux processus démographiques, économiques, politiques, sociaux, etc. Les data sont essentiellement des données quantifiées, considérées comme isolées, complètes, autonomes. Le problème avec ce genre de data est cependant, comme nous le verrons plus loin, qu’ils ne peuvent pas, en cet état d’isolement, véritablement constituer des informations’

QUER2000.3 Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 343 : La théorie de Shannon et Weaver, on le sait, définit l’information en termes de probabilité : l’information est l’inverse d’une probabilité ; elle est nulle quand l’état de choses ou l’événement sur lequel elle porte était totalement prévu ou prévisible, ou bien absolument déterminé d’avance. Une telle prévisibilité ou une telle détermination rend inutile l’envoi d’un message. Il n’y a de sens à adresser un message que si son objet n’est pas connu. C’est pourquoi l’information comporte un élément de surprise (qui peut être plus ou moins grand) : elle s’écarte de ce qui était attendu. Par ailleurs, dans cette théorie, l’information n’est définissable que dans un système comportant une source, un canal et un récepteur, donc trois quantités d’information. Ces quantités sont mesurables, à l’aide de l’unité de mesure, liée à une décision binaire, qu’est le bit : grosso modo, “La quantité d’information associée à une situation donnée est fonction du nombre de possibilités antécédentes et de la probabilité associée à chacune de ces possibilités.“

QUER2000.4 Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 347 : Dans son très beau livre sur la cybernétique comme source des sciences cognitives actuelles, Aux origines des sciences cognitives, J.-P. Dupuy relève la filiation du concept naturaliste d’information avec la cybernétique : “[…] Pour ce qui est de Wiener et de ceux qui le suivent […], ils ont fait de l’information une grandeur physique, l’arrachant au domaine des transmissions de signaux entre humains. Si tout organisme est environné d’informations, c’est tout simplement qu’il y a partout autour de lui de l’organisation, et que celle-ci, du fait même de sa différenciation, contient de l’information. L’information est dans la nature, et son existence est donc indépendante de l’activité de ces donneurs de sens que sont les interprètes humains.” [Jean-Pierre DUPUY, Aux origines des sciences cognitives, Paris, La Découverte, 1994, p. 126.]

QUER2000.5 Cf. Quéré, Au juste, qu’est-ce que l’information ?, op. cit., p. 349-350 : Le concept ordinaire d’information qui sert de ressource analytique aux sciences sociales, lorsqu’elles abordent la communication sociale ou les processus de mise en réseau du social, présente trois inconvénients majeurs : faire dépendre l’information de la communication, la rapporter à la présupposition d’un sujet épistémique individuel, et l’abstraire de la dynamique “naturelle” de sa genèse et des opérations auxquelles elle participe. D’ordre exclusivement cognitif, l’information devient ainsi une réalité isolée et autonome, stockée et traitée par des agents mus par divers intérêts de connaissance (souvent subordonnés à d’autres intérêts). Cette conception est aussi liée à une vision déterminée de l’acteur social, essentiellement un agent désengagé et désincarné, qui tient de lui-même ses capacités diverses, et ne se rapporte à son environnement, aux objets, événements et informations qu’il comporte, que dans une posture d’objectivation, d’utilisation, voire de maîtrise ou d’accumulation. La notion de data, qui sert aujourd’hui à définir l’information en sciences sociales, porte cet isolement, ce désengagement et cette abstraction à leur comble.

PARI2016 La raison instrumentale, le capitalisme algorithmique et l’incomputable

Luciana PARISI, La raison instrumentale, le capitalisme algorithmique et l’incomputable, traduit de l’anglais par Yves CITTON, in Multitude, 2016/1 (n° 62), p. 98-109.

PARI2016.1 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 99 : et la pensée philosophique et le numérique reposent sur des principes d’indétermination et d’incertitude, tout en incluant ces principes au cœur de leur théorie de la complexité. Tous deux, dès lors, se trouvent à la fois présenter un défi et une définition en direction de l’ordre néolibéral – ce qui n’est pas le moindre de leurs paradoxes. Pour analyser ce paradoxe, je me tournerai vers la notion d’incomputabilité théorisée par l’informaticien Gregory Chaitin, dont la contribution principale au champ de recherche de la théorie algorithmique est la découverte du nombre incomputable Omega. Ce nombre possède la qualité remarquable d’être définissable sans être pour autant computable. En d’autres termes, Omega définit un état de computation qui est à la fois discret et infini, occupant l’espace qui sépare le 0 du 1. D’un point de vue philosophique, la découverte d’Omega met au jour un processus de détermination de l’indéterminé, processus qui n’implique pas une structure de raisonnement a priori, mais le traitement dynamique d’infinités dont les résultats ne sont pas inclus dans les prémisses logiques du système.

PARI2016.2 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 100 : Dans ce régime automatisé des affects et des savoirs, les capacités se mesurent et se quantifient au sein d’un champ défini en termes d’argent ou d’information. En collectant des données et en quantifiant des comportements, des attitudes et des croyances, l’univers néolibéral des produits dérivés de la finance et des big data fournit un mode de calcul destiné à juger des actions humaines, ainsi qu’un mécanisme destiné à inciter et à diriger ces actions.

PARI2016.3 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 101 : D’un point de vue historique, les algorithmes interactifs ont été inventés pour contourner les contraintes algorithmiques de la machine de Turing. Selon son concept, cette machine était incapable de prendre en compte la complexité du monde empirique – complexité qui, en termes philosophiques, possède sa propre logique non-représentationnelle.

PARI2016.4 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 102 : Aujourd’hui, la combinaison d’inputs environnementaux et d’instructions a posteriori proposée par le paradigme interactif a ouvert une cybernétique de deuxième génération [second-order cybernetics], caractérisée par les mécanismes de boucles récursives ouvertes. Le but de ce nouveau type d’interactions dynamiques est d’inclure la variation et la nouveauté dans l’automatisation, de façon à élargir l’horizon du calcul et à intégrer des facteurs qualitatifs comme variables externes au sein même des mécanismes de computation.

PARI2016.5 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 102 : Comme Deleuze l’avait annoncé, un système interactif d’apprentissage et d’adaptation continue est déjà au cœur de la logique de gouvernance animée par un réagencement constant de variabilités. La centralité du capitalisme dans nos sociétés force désormais l’axiomatique à s’ouvrir à des outputs externes, constituant un environnement d’agents à travers lesquels la logique de gouvernance du capital correspond de plus en plus étroitement aux plus petits investissements du socius et, en fin de compte, aux plus fines variations de la vie. La question de l’indécidable devient de première importance, parce qu’elle définit une vision immanente (et non transcendante) du capital, comme Deleuze et Guattari l’avaient rappelé. Tel est en effet le cas, dès lors que l’extension du capital vers l’ensemble de la vie exige de son appareil de capture qu’il soit ouvert aux contingences, aux variations et au changement imprévu.

PARI2016.6 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 103 : Comme on le sait, l’automatisation algorithmique implique d’analyser les processus continus en composants discrets, dont les fonctions peuvent être constamment réitérées sans erreur. En d’autres termes, l’automatisation implique que les conditions initiales peuvent être reproduites à l’infini. Le type d’automatisation qui nous intéresse ici est né avec la machine de Turing : un mécanisme absolu d’itération basé sur des procédures de calcul pas à pas. Rien n’est plus opposé à la pensée pure – ou à “l’être du sensible”, comme l’appelait Deleuze – que cette machine de calcul universel basée sur la discrétisation des éléments.

PARI2016.7 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : Au sein de la théorie informatique, toutefois, les calculs de l’aléatoire ou des infinis ont transformé ce qui apparaissait comme incomputable en de nouvelles formes de probabilités, qui présentent la caractéristique remarquable d’être à la fois discrètes et infinies. Autrement dit, alors que l’automatisation algorithmique a été comprise comme relevant d’une machine universelle de computation discrète à la Turing, le volume croissant de données incomputables (ou aléatoires) généré au sein des computations interactives et diffuses actuellement opérées en ligne est en train de nous révéler que les données infinies et dépourvues de pattern prédéterminé sont en réalité centrales dans les processus de computation.

PARI2016.8 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 104-105 : En 1931, Gödel formula ses objections au programme méta-mathématique de David Hilbert. Il démontra qu’il ne pouvait pas y avoir de méthode axiomatique complète ni de formule mathématique pure, selon laquelle la réalité des choses pouvait être démontrée vraie ou fausse. Les théorèmes d’incomplétude de Gödel expliquent que certaines propositions sont vraies, même si elles ne peuvent pas être vérifiées par une méthode axiomatique complète. Ces propositions sont donc réputées être finalement indécidables : elles ne peuvent pas être prouvées selon la méthode axiomatique sur laquelle reposent leurs hypothèses. Selon Gödel, le problème de l’incomplétude, issu d’un effort pour démontrer la validité absolue de la raison pure et de sa méthode déductive, aboutit plutôt à affirmer le principe suivant : aucune décision a priori, et donc aucun ensemble fini de règles, ne peuvent être utilisés pour déterminer l’état des choses avant que ces choses ne puissent advenir selon leur développement propre.

PARI2016.9 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 105 : la machine de Turing démontre que les problèmes sont computables s’ils peuvent être décidés selon la méthode axiomatique . À l’inverse, les propositions qui ne peuvent être décidées par la méthode axiomatique sont vouées à rester incomputables. En prouvant que quelques fonctions particulières ne peuvent pas être computées par une telle machine hypothétique, Turing démontra qu’il n’y a pas de méthode de décision ultime du type de celle que Hilbert souhaitait établir. La force de la proposition avancée par Turing tient à ce que sa fameuse machine offrait une formalisation viable d’une procédure mécanique. Au lieu de se contenter de faire mouliner des chiffres, les machines computationnelles de Turing – de même que celles de nos machines numériques contemporaines qui se sont développées à partir d’elles – peuvent résoudre des problèmes, prendre des décisions et accomplir des tâches. La seule exigence en est que ces problèmes, décisions et tâches doivent être formalisés à travers des symboles et un ensemble d’opérations séquentielles discrètes et finies.

PARI2016.10 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 106 : La théorie de l’information algorithmique élaborée par Gregory Chaitin traite de la computation en termes de probabilités éminemment inconnaissables. Il pose le problème en combinant la question de Turing concernant la limite de la computabilité avec la théorie de l’information de Claude Shannon, qui démontre la capacité productive du bruit et de l’aléatoire au sein des systèmes de communication.

PARI2016.11 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 106 : la conception de l’incomputabilité promue par Chaitin ne correspond plus exactement à la notion de limite de la computation (c’est-à-dire de limite à ce qui est calculable). Au lieu de cela, cette limite, comme l’incomputable lui-même, s’en trouvent transformés : ils s’identifient au fait que, au développement présent du traitement computationnel, s’additionnent de nouvelles parties algorithmiques éminemment inconnaissables. Ces parties sont des séquences algorithmiques qui tendent à devenir plus grandes en volume que les instructions du programme, et qui tendent à prendre le dessus sur elles, transformant ainsi de façon irréversible la finalité préétablie des règles initialement formulées. La façon dont Chaitin réarticule l’incomputable est à la fois frappante et très productive d’un point de vue spéculatif. Ce qui, chez Turing, était conçu comme la limite externe de la computation (c’est-à-dire l’incomputable) se voit désormais internalisé dans l’arrangement séquentiel des algorithmes (l’aléatoire opérant à l’intérieur des procédures algorithmiques).

PARI2016.12 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputabilité n’est pas simplement en rupture avec la raison : elle est plutôt une raison qui s’est trouvée étendue au-delà de ses limites, pour envelopper le traitement de parties éminemment inconnaissables dépourvues de finalité téléologique.

PARI2016.13 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : ce qui vient d’être dit remet en question la vue commune selon laquelle le traitement computationnel correspond à des calculs conduisant à des résultats préprogrammés et déjà connus. Au lieu de cela, les limites de l’automatisation – à savoir l’incomputable – sont devenues le point de départ d’une dynamique interne à la computation, dynamique qui excède et dépasse le projet d’instrumentalisation de la raison par le technocapital.

PARI2016.14 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputable ne saurait être compris comme simplement opposé à la raison. Autrement dit, il n’est pas l’expression d’un point terminal de la raison et ne peut être expliqué selon la perspective critique qui se réclame de la primauté de la pensée affective.

PARI2016.15 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputable démontre les insuffisances de la vision mécaniste de la computation, selon laquelle le chaos et l’aléatoire constitueraient des erreurs au sein de la logique formelle du calcul. Les incomputables ne décrivent nullement la défaillance de l’intelligibilité face au triomphe de l’incalculable, tout au contraire. Ces limites suggèrent bien plus subtilement la possibilité d’une dynamique de l’intelligibilité, définie par les capacités des infinis incomputables ou de l’aléatoire à infecter tout ensemble computable ou discret.

PARI2016.16 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 108 : la computation, en tant que mécanisation de la pensée, est intrinsèquement peuplée de données incomputables, et que des règles discrètes sont ouvertes à une forme de contingence interne au traitement algorithmique.

PARI2016.17 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 108 : la découverte d’Omega par Chaitin […] déboulonne radicalement le fondement axiomatique de la vérité, en révélant que la computation est une affaire incomplète, ouverte à la révision de ses conditions initiales, et donc à la transformation de ses vérités et de sa finalité. Dans la mesure où Omega est simultanément une probabilité discrète et infinie, ce nombre atteste le fait que la condition initiale d’une simulation, basée sur des étapes discrètes, est et peut être infinie. En résumé, les algorithmes incomputables découverts par Chaitin suggèrent que la complexité des nombres réels défie la fondation de la raison dans une axiomatique de type fini et dans la finalité téléologique.

PARI2016.18 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : J’ai tenté de suggérer la possibilité de voir l’automatisation algorithmique coïncider avec un mode de pensée dans lequel l’incomputable ou l’aléatoire sont devenus intelligibles, calculables, mais non nécessairement totalisables par le technocapitalisme. En dépit de toute instrumentalisation de la raison par le capitalisme, et en dépit de la répression de la connaissance et du désir sous couvert de quantifications en termes de tâches, de fonctions, d’objectifs, il demeure certainement une inconsistance au cœur de la computation.

PARI2016.19 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : Dans la transition de phase caractérisée par la communication d’algorithme à algorithme, illustrée au mieux par le trading à haute vitesse évoqué au début de cet article, il est difficile d’exclure la possibilité de voir l’automatisation de la pensée excéder toute représentation pour révéler que la computation elle-même est devenue dynamique.

PARI2016.20 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : Si l’automatisation algorithmique ne correspond plus à la simple exécution d’instructions préétablies, mais à la constitution d’une écologie machinique infectée d’aléatoire, alors on peut suggérer que ni le technocapitalisme ni la critique du technocapitalisme ne peuvent contenir la tendance du traitement automatisé de l’aléatoire à outrepasser les vérités axiomatiques.

MACH2014 Compte rendu de deux ouvrages de G. Sibertin-Blanc

Pierre MACHEREY, Compte rendu de deux ouvrages de G. Sibertin-Blanc : Deleuze et l’Anti-Œdipe. La production du désir, Paris, Presses Universitaires de France 2010 et Politique et État chez Deleuze et Guattari. Essai sur le matérialisme historico-machinique, Paris, Presses Universitaires de France, 2013, in Methodos, 14 | 2014.

MACH2014.1 Cf. Macherey, Compte rendu de deux ouvrages de G. Sibertin-Blanc, op. cit. : L’État capitaliste est l’une des modalités de cette réalisation, qui repose sur un déplacement de la structure propre à l’État despotique ; il effectue le passage d’une société de castes à une société de classes, où les désirs ont été convertis en intérêts, ce qui est la condition pour les faire rentrer dans une grille rationnelle, et ainsi d’exercer sur eux un contrôle légitime

CUSS2005 Cybernétique et “théorie française”

François CUSSET, Cybernétique et “théorie française” : faux alliés, vrais ennemis, in Multitude, 2005/3 (n° 22), p. 223-231.

CUSS2005.1 Cf. Cusset, Cybernétique et “théorie française”, op. cit., p. 226 : Au holisme cybernétique, évoquant davantage Auguste Comte ou même Hegel que Foucault et Deleuze, s’opposent les agencements locaux, les dispositifs partiels qu’analysèrent ceux-ci.

CUSS2005.2 Cf. Cusset, Cybernétique et “théorie française”, op. cit., p. 229-220 : C’est en quoi les deux critiques du sujet proposées respectivement par les cybernéticiens et les philosophes “de la différence” sont diamétralement opposées : pour ceux-là, il s’agit de déplacer la maîtrise rationnelle de l’entropie depuis la volonté individuelle où l’avait logée le libéralisme kantien vers une instance panoptique et acentrée (qu’on l’appelle réseau ou néguentropie), de ne plus tenir compte de ce mythe de l’intériorité qui aurait trop longtemps ralenti les sociétés développées, tandis que selon ceux-ci, l’idéologie historique de la “conscience individuelle” et les sciences de la Psyché qu’elle a fait naître nous empêchent d’accéder aux flux collectifs qui nous composent, aux sujets multiples que nous abritons, aux identités nomades ou toujours-déjà décalées dont nous sommes faits.

BOUR2004 Présentation. Intuitionnisme et philosophie

Michel BOURDEAU, Présentation. Intuitionnisme et philosophie, in Revue internationale de philosophie, 2004/4 (n° 230), p. 383-400.

BOUR2004.1 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 384 : Tout allait changer presque du jour au lendemain, sous l’influence de Gödel, puisque c’est du côté de l’intuitionnisme que ce dernier venait d’aller chercher cette extension du point de vue finitiste nécessaire pour atteindre l’objectif fixé par Hilbert et démontrer la non-contradiction de l’arithmétique.

BOUR2004.2 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 385 : Initialement pensés dans le cadre d’une problématique des fondements, les travaux entrepris entre 1960 et 1970 dans la voie ouverte par Gödel en 1958 ont rapidement trouvé à s’appliquer en informatique. Depuis lors, celle-ci a fait un très large usage de l’isomorphisme de Curry-de Bruijn-Howard, encore connu sous le nom de principe de la proposition comme type (Formula as type), qui explicite le rapport existant entre théorie de la démonstration et théorie des types et qui ne vaut que pour la logique intuitionniste. Le visage actuel de l’intuitionnisme doit certainement beaucoup au poids de cette demande venue des informaticiens, ce qui explique par exemple la place occupée par la théorie constructive des types de Per Martin-Lof, dont la première version date de 1972.

BOUR2004.3 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 386 : Dès 1908, c’était non le tiers-exclu en lui-même mais sa seule application à des domaines infinis qui était visée. Avec Cantor, les mathématiques avaient pris possession d’un nouveau territoire et l’erreur a consisté à y étendre inconsidérément des règles de raisonnement conçues pour s’appliquer au fini.

BOUR2004.4 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 386-387 : En tant que constructivisme, l’intuitionnisme est souvent associé à la défense d’une certaine idée de l’existence : une preuve d’existence doit être accompagnée de la construction d’un objet. […] ce qui est en cause, c’est moins la nature de l’existence des objets mathématiques que la nature de la vérité des propositions mathématiques. C’était bien elle que Brouwer avait en vue lorsqu’il objectait à son adversaire : “une théorie incorrecte, impossible à arrêter par une contradiction qui la réfuterait, ne laisse pas d’être incorrecte, de même qu’une politique criminelle qu’aucune cours de justice n’est capable d’empêcher ne laisse pas d’être criminelle”.

BOUR2004.5 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 387 : La métamathématique en effet s’en tient à la seule administration de la preuve, sans se préoccuper de la vérité, qui relève d’une autre discipline que Tarski nous a habitués à penser comme sémantique.

BOUR2004.6 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 387 : Comme Dummett l’a fortement souligné, le tiers exclu n’est que le contrecoup sémantique de la bivalence : par définition, une proposition est vraie ou fausse. Savoir ensuite si une proposition donnée est vraie ou si elle est fausse, c’est une autre question. Il se peut que nous soyons actuellement incapables d’y répondre, mais cette incapacité doit être considérée comme un fait purement contingent.

BOUR2004.7 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 388 : L’intuitionniste estime impossible de dissocier la vérité et la connaissance, ou l’expérience, de la vérité ; le rapport à la connaissance est inscrit dans l’idée de vérité et il n’y a pas de sens à vouloir le faire disparaître. Or qu’est-ce que l’expérience de la vérité, en mathématique, sinon la possession d’une preuve ? En ce sens, la notion de vérité a cessé d’être primitive : elle dépend bien conceptuellement de celle de preuve.

BOUR2004.8 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 389-390 : L’analyse des antinomies montre que, loin que les mathématiques se fondent sur la logique, c’est plutôt celle-ci qui se fonde sur celles-là en ce sens que la logique classique n’est que la codification a posteriori de nos pratiques inférentielles. Si les principes logiques ne sont pas fiables, c’est qu’il est impossible d’étendre aux domaines infinis auxquels Cantor nous a donné accès ce qui a été conçu pour des domaines finis, et qui, là, est effectivement valide.

BOUR2004.9 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 391 : L’usage des ordinateurs dans la modélisation des processus cognitifs a suscité une prolifération de logiques (logiques non monotones, logique épistémique, logique floue, logiques sub-structurales, logique linéaire, etc.) parmi lesquelles la logique intuitionniste occupe incontestablement une place éminente. Encore que ce soit pour des motivations et sous des modalités différentes, l’informaticien et l’intuitionniste partagent en effet un même souci d’effectivité et il n’est donc pas étonnant que le principe de la proposition comme type, qui a été au centre de l’informatique théorique récente, ne soit valable qu’intuitionnistiquement. Ce principe, encore nommé isomorphisme de Curry-de Bruijn-Howard, établit un rapprochement à première vue inattendu entre deux théories nées de perspectives différentes : la théorie de la démonstration d’une part (déduction naturelle ou calcul des séquents), les théories de la calculabilité et de la fonctionnalité de l’autre, le lambda calcul reposant sur la notion de fonction lambda-calculable.

CHAI2006a The Halting Probability Omega

Gregory CHAITIN, The Halting Probability Omega: Irreducible Complexity in Pure Mathematics, Enriques lecture given Monday, October 30, 2006, at the University of Milan.

CHAI2006a.1 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 2 : Hilbert stated the traditional belief that mathematics can provide absolute truth, complete certainty, that mathematical truth is black or white with no uncertainty. His contribution was to realize, to emphasize, that if this were the case, then there should be, there ought to be, a formal axiomatic theory, a theory of everything, for all of mathematics.

CHAI2006a.2 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 2-3 : Hilbert did not invent mathematical logic, he took advantage of work going back to Leibniz, de Morgan, Boole, Frege, Peano, Russell and Whitehead, etc. But in my opinion he enunciated more clearly than anyone before him the idea that if math provides absolute truth, complete certainty, then there should be a finite set of axioms that we can all agree on from which it would in principle be possible to prove all mathematical truths by mechanically following the rules of formal mathematical logic. It would be slow, but it would work like an army of reason marching inexorably forward. It would make math into a merciless machine.

CHAI2006a.3 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 3 : the idea was to eliminate all uncertainty, to make clear exactly when a proof is valid, so that this can be checked mechanically, thus making mathematical truth completely objective, eliminating all subjective elements, all matters of opinion.

CHAI2006a.4 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 7-8 : The basic model of what I call algorithmic information theory (AIT) is that a scientific theory is a computer program that enables you to compute or explain your experimental data […] a theory is of value only to the extent that it compresses a great many bits of data into a much smaller number of bits of theory. […] AIT does this by considering both theories and data to be digital information; both are a finite string of bits. Then it is easy to compare the size of the theory with the size of the data it supposedly explains, by merely counting the number of bits of information in the software for the theory and comparing this with the number of bits of experimental data that we are trying to understand.

CHAI2006a.5 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 8 : Leibniz’s original formulation of these ideas was like this. Take a piece of paper, and spot it with a quill pen, so that you get a finite number of random points on a page. There is always a mathematical equation that passes precisely through these points. So this cannot enable you to distinguish between points that are chosen at random and points that obey a law. But if the equation is simple, then that’s a law. If, on the contrary, there is no simple equation, then the points are lawless, random.

CHAI2006a.6 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 8 : In fact, it is easy to see that most finite binary strings require programs of about the same size as they are. So these are the lawless, random or algorithmically irreducible strings, and they are the vast majority of all strings. Obeying a law is the exception, just as being able to name an individual real is an exception.

CHAI2006a.7 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 12 : Ω is an extreme case of total lawlessness; in effect, it shows that God plays dice in pure mathematics. More precisely, the bits of Ω refute Leibniz’s principle of sufficient reason, because they are mathematical facts that are true for no reason (no reason simpler than they are). Essentially the only way to determine bits of Ω is to directly add these bits to your axioms. But you can prove anything by adding it as a new axiom; that’s not using reasoning!

LOMA2015 Éric Sadin, La Vie algorithmique. Critique de la raison numérique

Lisiane LOMAZZI, Éric Sadin, La Vie algorithmique. Critique de la raison numérique, in Lectures, Reviews, 2015, http://journals.openedition.org/lectures/17973.

LOMA2015.1 Cf. Lomazzi, Éric Sadin, La Vie algorithmique., op. cit. : Ce processus est décrit par l’auteur comme “une sorte de ‘fission nucléaire’ continuellement expansive et partout disséminée, qui trouve son origine dans le mouvement historique de numérisation progressive du monde, dont nous saisissons aujourd’hui et avec force qu’il instaure un nouveau type d’intelligibilité du réel constitué au prisme des données” [Éric Sadin, La Vie algorithmique : Critique de la raison numérique, Paris, L’Échappée, 2015, p. 25].

LOMA2015.2 Cf. Lomazzi, Éric Sadin, La Vie algorithmique., op. cit. : Ce récit d’anticipation réaliste, qui exacerbe les tendances d’ores et déjà à l’œuvre, esquisse les contours de “vie(s) algorithmique(s)”, reposant sur “un régime de vérité qui s’institue, fondé sur quatre axiomes cardinaux : la collecte informationnelle, l’analyse en temps réel, la détection de corrélations significatives et l’interprétation automatisée des phénomènes” [Éric Sadin, La Vie algorithmique : Critique de la raison numérique, Paris, L’Échappée, 2015, p. 28].

LOMA2015.3 Cf. Lomazzi, Éric Sadin, La Vie algorithmique., op. cit. : Atteindre la rationalité absolue n’est pas une ambition nouvelle dans la pensée occidentale. Il n’en demeure que la dissémination de capteurs permettant de récolter en temps réel une quantité massive de données pouvant ensuite être mises en relation, analysées et interprétées sans aucune intervention humaine ou presque, constitue un grand pas vers l’application à grande échelle de cette rationalité absolue, universelle de nature algorithmique, visant à “instaurer un rapport totalisant aux phénomènes” [Éric Sadin, La Vie algorithmique. Critique de la raison numérique, Paris, L’Échappée, 2015, p. 50]. Totalité d’une représentation de la réalité par les données numériques qui ne peut qu’être améliorée en raison du perfectionnement et de l’accroissement du nombre de capteurs. Chaque individu connecté est relégué au statut de producteur de données – collectées et virtuellement mises en relation – et rien ne semble échapper à l’analyse omnisciente et granulaire des Big data qui modifie l’expérience humaine. “Le monde s’institue comme une sorte de MÉTA-DONNÉE unique et universelle” [Éric Sadin, La Vie algorithmique : Critique de la raison numérique, Paris, L’Échappée, 2015, p. 59] rendue intelligible en temps réel par les Big data.

LOMA2015.4 Cf. Lomazzi, Éric Sadin, La Vie algorithmique., op. cit. : On assiste donc à “une mise en boucle des flux de la réalité, indéfiniment récoltés et traités en vue de les plier aux exigences cardinales d’optimisation, de fluidification et de sécurisation de nos sociétés” [Éric Sadin, La Vie algorithmique : Critique de la raison numérique, Paris, L’Échappée, 2015,p. 117] ; mise en boucle qui vise à prédire le futur sur la base des traces laissées par les usagers, accumulées et corrélées par les entreprises. Toute expérience sensible ou intuitive du réel semble désormais dépassée ; il s’agirait pour les êtres numériques de se laisser gouverner par la rationalité algorithmique qui déploie sa puissance compréhensive au présent mais est également capable de prédire l’avenir, automatisant ainsi la prise de décisions en fonction des nécessités tant collectives qu’individuelles.

SAUV2012 Machines, comment ça marche ?

Anne SAUVAGNARGUES, Machines, comment ça marche ?, in Chimères, 2012/2 (N° 77), p. 35-46.

SAUV2012.1 Cf. Sauvagnargues, Machines, comment ça marche ?, op. cit., p. 46 : Mais lorsque ça fonctionne, ça rate, ça rate toujours, ça rate nécessairement, parce que tout fonctionnement engage la singularité provisoire, aléatoire et contingente d’une force qui s’use en même temps qu’elle s’instaure. Le ratage est donc décisif pour comprendre l’opérativité machinique. La machine rate en fonctionnant. Elle rate à tous les niveaux de sa structure possible. Ce ratage concerne son opérativité et c’est en cela que Guattari remplace ce qu’il appelle le paradigme scientifique par son paradigme esthétique.

SAUV2012.2 Cf. Sauvagnargues, Machines, comment ça marche ?, op. cit., p. 46 : Tandis que le paradigme scientifique voudrait nous faire croire que pour comprendre nos sociétés, notre action politique, nos manières de penser, nous devrions trouver des vérités, le paradigme esthétique, qui ne nous oblige nullement à devenir artistes, à mettre des fleurs dans nos cheveux ni à jouer de la flûte pieds nus, nous engage à penser l’opérativité de nos concepts de manière prospective, aléatoire et détraquée, – pour décider si, oui ou non, ça marche.

BARL1996 Déclaration d’indépendance du cyberespace

John Perry Barlow, Déclaration d’indépendance du cyberespace, Article posté depuis Davos en Suisse dans un forum de discussion le 9 février 1996, in Libres enfants du savoir numérique. Une anthologie du « Libre », ed. Olivier Blondeau, Paris, Éditions de l’Éclat, 2000, traduit par Jean-Marc Mandosio, p. 47-54.

BARL1996.1 Cf. Barlow, Déclaration d’indépendance du cyberespace, op. cit., p. 50 : Les gouvernements tirent leur pouvoir légitime du consentement des gouvernés. Vous ne nous l’avez pas demandé et nous ne vous l’avons pas donné. Vous n’avez pas été conviés. Vous ne nous connaissez pas et vous ignorez tout de notre monde. Le cyberespace n’est pas borné par vos frontières. Ne croyez pas que vous puissiez le construire, comme s’il s’agissait d’un projet de construction publique. Vous ne le pouvez pas. C’est un acte de la nature et il se développe grâce à nos actions collectives.

BARL1996.2 Cf. Barlow, Déclaration d’indépendance du cyberespace, op. cit., p. 51 : Le cyberespace est constitué par des échanges, des relations, et par la pensée elle-même, déployée comme une vague qui s’élève dans le réseau de nos communications. Notre monde est à la fois partout et nulle part, mais il n’est pas là où vivent les corps.

BARL1996.3 Cf. Barlow, Déclaration d’indépendance du cyberespace, op. cit., p. 50 : Vos notions juridiques de propriété, d’expression, d’identité, de mouvement et de contexte ne s’appliquent pas à nous. Elles se fondent sur la matière. Ici, il n’y a pas de matière.

CHAI1993 Le hasard en arithmétique

Gregory CHAITIN, Le hasard en arithmétique & le déclin et la chute du réductionnisme en mathématiques pures, in Bulletin of the European Association for Theoretical Computer Science (EATCS), No. 50, June 1993, pp. 314-328, Traduit de l’anglais (USA) par Patrick PECCATTE http://peccatte.karefil.com/PhiMathsTextes/randomness.html.

CHAI1993.1 Cf. Chaitin, Le hasard en arithmétique, op. cit. : Au début du siècle, les trois écoles principales en philosophie des mathématiques étaient celle de Russell et Whitehead selon laquelle la logique est le fondement de toutes les mathématiques, l’école formaliste de Hilbert et enfin l’école "intuitionniste" et constructiviste de Brouwer. Certains estiment que Hilbert croyait que les mathématiques sont un jeu sans signification mettant en œuvre des marques d’encre sur le papier. Pas du tout ! Il disait simplement que pour que les mathématiques soient absolument claires et précises, on doit spécifier les règles qui puissent permettre de déterminer si une preuve est correcte de façon si rigoureuse qu’elles deviennent mécaniques. Quiconque aurait pensé que les mathématiques sont sans signification aurait dû être très énergique, déployer un travail considérable et être un leader d’une immense influence.

CHAI1993.2 Cf. Chaitin, Le hasard en arithmétique, op. cit. : Pour terminer, ce n’est donc ni Gödel, ni Turing, ni mes propres résultats qui ont conduit les mathématiques dans une direction expérimentale, une orientation quasi-empirique. La raison pour laquelle les mathématiciens ont changé leurs habitudes de travail s’appelle l’ordinateur. C’est, je pense, une excellente plaisanterie ! Il est également amusant de constater que des trois anciennes écoles de philosophie mathématique – logiciste, formaliste et intuitionniste –, la plus négligée ait été celle de Brouwer qui avait défendu une attitude constructiviste bien des années avant que l’ordinateur ne donne une impulsion fantastique au constructivisme.

CHAI2006b Les limites de la raison mathématique

Gregory CHAITIN, Les limites de la raison mathématique, in Pour la science, N° 342, avril 2006, p. 70-76, https://www.pourlascience.fr/sd/mathematiques/les-limites-de-la-raison-mathematique-2539.php.

CHAI2006b.1 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Ce logicien [Gödel] a utilisé les mathématiques pour prouver que les mathématiques elles-mêmes ont des limitations. Il a ainsi réfuté le point de vue du grand mathématicien allemand David Hilbert, qui avait clamé sa foi en l’existence d’une “théorie du tout” pour les mathématiques, c’est-à-dire d’un ensemble fini de principes à partir desquels toutes les vérités mathématiques peuvent se déduire sans recours à des raisonnements transcendants, mais simplement par une application laborieuse des règles de la logique symbolique.

CHAI2006b.2 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : L’information algorithmique permet de montrer que certains faits mathématiques sont vrais sans raison particulière, une découverte qui fait voler en éclats le principe de la raison suffisante. De fait, une infinité de faits mathématiques sont irréductibles, ce qui signifie qu’aucune théorie n’explique pourquoi ils sont vrais. Ces faits ne sont pas seulement algorithmiquement irréductibles, mais aussi logiquement irréductibles. La seule façon de “prouver” de tels faits est de les admettre comme axiomes, sans recourir au moindre raisonnement. La notion d’axiome est très proche de l’idée d’irréductibilité logique. Les axiomes sont des faits mathématiques considérés comme évidents et que nous ne tentons pas de déduire de principes plus simples. Toutes les théories mathématiques reposent sur des axiomes, dont sont déduites les conséquences logiques, qui forment le corpus des théorèmes. Le célèbre traité de géométrie d’Euclide, Les éléments, est l’archétype de cette méthode.

CHAI2006b.3 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Le contre-exemple illustrant le pouvoir limité de la démonstration, le réservoir infini de faits mathématiques indémontrables, est incarné par un nombre que j’ai nommé Ω, la lettre grecque oméga.

CHAI2006b.4 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Le nombre Ω étant irréductible, on en conclut qu’une théorie du tout pour les mathématiques ne peut exister. La suite infinie de bits de Ω constitue un fait mathématique (que chaque bit prenne la valeur zéro ou un) qui ne peut être déduit d’un principe plus simple que la séquence de bits elle-même. Les mathématiques ont donc un degré infini de complexité, alors que toute théorie du tout aurait une complexité finie et n’engloberait donc pas toute la richesse du monde des vérités mathématiques. Cette conclusion ne signifie pas que les démonstrations sont sans valeur, et elle ne remet pas en cause l’idée de raison. Que certaines choses soient irréductibles ne signifie pas qu’il faille abandonner le raisonnement. Les principes irréductibles, les axiomes, ont toujours fait partie des mathématiques. L’existence du nombre Ω montre simplement qu’ils sont plus nombreux qu’on ne le pensait.

DELA2005 Démonstrations et certitude en mathématiques

Jean-Paul DELAHAYE, Démonstrations et certitude en mathématiques, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/demonstrations-et-certitude-en-mathematiques-5796.php.

DELA2005.1 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : certains développements de la logique et de l’informatique ont atténué les belles certitudes des mathématiciens sur l’idée d’une notion parfaite et définitive de démonstration qui, découverte par les Grecs, serait restée immuable : les démonstrations classiques ne procurent pas une certitude absolue, et certaines certitudes absolues en mathématiques ne proviennent pas des démonstrations classiques.

DELA2005.2 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : L’écriture complète d’une démonstration formelle conforme au modèle axiomatique défendu par les Grecs et adopté universellement depuis par tous les mathématiciens est un idéal que ceux-ci se donnent rarement la peine de satisfaire : ils se contentent dans la grande majorité des cas de preuves informelles. Celles-ci sont, en principe, transformables en preuves formelles, mais, en pratique, c’est difficile, voire matériellement inenvisageable. Les logiciels assistants de preuve ont justement la fonction d’aider les mathématiciens à produire ces démonstrations absolument complètes et mécaniquement vérifiables, strictement conformes à l’idéal axiomatique.

DELA2005.3 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : Cette acceptation de l’ordinateur pour fonder certaines certitudes mathématiques repose toujours sur la notion de preuve formalisée que Hilbert défendait.

LEIT2005 Réseaux de neurones capables de raisonner

Hannes LEITGEB, Réseaux de neurones capables de raisonner, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/reseaux-de-neurones-capables-de-raisonner-5806.php.

LEIT2005.1 Cf. Leitgeb, Réseaux de neurones capables de raisonner, op. cit. : Un réseau de neurones est constitué de nœuds et de connexions entre ces nœuds. Chaque nœud possède deux états possibles : soit il est actif, auquel cas il envoie une impulsion électrique, soit il ne l’est pas et il n’émet rien. Dans le premier cas, on lui associe la valeur 1, dans le second la valeur 0. De même, chaque connexion peut être inhibitrice ou excitatrice. Une connexion inhibitrice transfère le signal d’un nœud à l’autre, et quand un nœud reçoit ce signal, il est désactivé à l’instant suivant (le temps est divisé en une succession de pas discrets, des “tops” d’horloge). Une connexion excitatrice transfère aussi le signal d’un nœud au suivant, mais elle stimule ce nœud : si celui-ci n’est pas inhibé, et si la somme de tous les signaux excitateurs qui lui parviennent est supérieure ou égale à un seuil donné, caractéristique de ce nœud, alors il devient actif à l’instant suivant.

LEIT2005.2 Cf. Leitgeb, Réseaux de neurones capables de raisonner, op. cit. : Si nos cerveaux étaient semblables, au moins dans une certaine mesure, à ce type de réseaux de neurones, nous pourrions les interpréter comme des collections de simples éléments logiques, agencées de manière à calculer des valeurs de vérité binaires, à partir de signaux internes ou externes. Hélas les réseaux de McCulloch-Pitts sont trop simples, et en aucun cas ils ne constituent des modèles plausibles de circuits de neurones véritables. Leur principal défaut réside dans leur incapacité d’apprendre. L’étape suivante dans le développement des réseaux de neurones artificiels a consisté à leur inculquer des algorithmes d’apprentissage.

VANA2005 Brouwer et Gödel : deux frères ennemis

Mark VAN ATTEN, Brouwer et Gödel : deux frères ennemis, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/brouwer-et-goedel-deux-freres-ennemis-5794.php.

VANA2005.1 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Le premier résultat obtenu par Gödel, présenté dans sa thèse de doctorat de 1929, est le théorème de complétude pour la logique du premier ordre, c’est-à-dire une logique qui s’applique à des objets, et non aux relations entre ces objets (qui serait une logique du deuxième ordre). Ce théorème peut s’énoncer ainsi : tout énoncé valide de la logique du premier ordre admet une démonstration formelle dans un système qui formalise cette logique. En termes informatiques d’aujourd’hui, si un énoncé de cette logique est vrai, on peut commander à un logiciel de produire une preuve formelle de cet énoncé, alors que ce logiciel ignore totalement le sens de cet énoncé.

VANA2005.2 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Gödel avait en tête un argument de la seconde conférence de Brouwer. En premier lieu, le continu nous est donné par l’intuition a priori du temps (on reconnaît la philosophie de Brouwer). En second lieu, le continu ne se laisse appréhender par aucun langage qui ne contiendrait qu’une quantité dénombrable d’expressions (parce que les nombres réels ou les points de la ligne sont, eux, indénombrables).

VANA2005.3 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Dans une lettre de 1931 au mathématicien allemand Ernst Zermelo, Gödel précise (cette fois sans faire référence aux conférences de Brouwer) : “l’essentiel est que, pour tout système des mathématiques, il existe des énoncés exprimables dans ce système, mais indécidables à partir des axiomes de ce système, et que ces énoncés sont assez simples, puisqu’ils appartiennent à la théorie des nombres entiers positifs.”

VANA2005.4 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : si l’intuitionnisme exerce aujourd’hui une influence considérable dans certains domaines des mathématiques et de l’informatique, cette influence réside non pas dans les mathématiques elles-mêmes, mais dans la logique, que Brouwer considérait comme moins intéressante.

MIQU2005 L’intuitionnisme : où l’on construit une preuve

Alexandre MIQUEL, L’intuitionnisme : où l’on construit une preuve, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/lintuitionnisme-ou-lon-construit-une-preuve-5795.php.

MIQU2005.1 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : loin d’amputer les mathématiques, l’intuitionnisme donne au contraire un caractère plus tangible aux objets mathématiques et renforce la notion de preuve.

MIQU2005.2 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La conception classique des mathématiques est essentiellement réaliste : elle considère implicitement que chaque énoncé mathématique réfère à une réalité extérieure, indépendante du mathématicien. Si cette conception se justifie aisément pour des énoncés simples, qui ne portent que sur des objets élémentaires, elle devient plus hasardeuse dès que les énoncés et les objets manipulés gagnent en complexité. Car enfin, à quelle réalité extérieure peuvent bien référer des objets aussi abstraits qu’un espace de dimension infinie ou l’ensemble des parties de l’ensemble des parties de la droite réelle ? Sans doute parce qu’ils manipulent fréquemment de tels objets, de nombreux mathématiciens se réclament de l’école néo-platonicienne, qui accorde une existence objective aux entités mathématiques les plus abstraites ; c’était aussi le cas du logicien Kurt Gödel. Brouwer refuse le recours à des arguments de nature métaphysique pour justifier le raisonnement mathématique. Selon lui, le raisonnement est avant tout une construction du mathématicien, une activité du sujet créateur. Les énoncés mathématiques réfèrent non pas à une quelconque réalité extérieure, mais aux constructions de l’esprit du mathématicien. En particulier, la démarche intuitionniste ne sépare pas le caractère constructif des objets mathématiques du caractère constructif des preuves, ce qui explique sans doute que Brouwer ne se soit jamais intéressé à la partie purement logique de l’intuitionnisme.

MIQU2005.3 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : En revanche, la partie purement logique de l’intuitionnisme, c’est-à-dire le calcul propositionnel intuitionniste et le calcul des prédicats intuitionniste, est définie sans ambiguïté. Comme la logique classique, elle admet diverses formalisations, qui sont toutes équivalentes.

MIQU2005.4 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : À partir de cette constatation, Gödel a démontré qu’en insérant des doubles négations dans une formule à certains endroits stratégiques (notamment devant des disjonctions et des quantifications existentielles), toute formule démontrable en logique classique devient démontrable en logique intuitionniste. Cette transformation des formules, qu’on appelle une “non-non-traduction”, est fondamentale pour comprendre les liens qui unissent les deux logiques. Avec elle en effet, ce n’est plus la logique intuitionniste qui s’insère dans la logique classique, mais c’est la logique classique elle-même qui peut être étudiée comme un fragment de la logique intuitionniste. Brouwer conçoit l’intuitionnisme comme une démarche de nature philosophique et délibérément informelle. Cette volonté de tenir l’intuitionnisme à l’écart de tout formalisme a sans doute handicapé les intuitionnistes face aux tenants de l’approche formaliste prônée par le mathématicien David Hilbert. De fait, l’intuitionnisme n’avait pas à ses débuts les outils mathématiques pour préciser ce qu’il fallait entendre par “construction” ou par “méthode effective”.

MIQU2005.5 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : Dans les années 1930 et 1940, les liens entre la prouvabilité en logique intuitionniste et la calculabilité en mathématiques se sont resserrés. À cette époque, on comprend mieux les notions mathématiques de fonction calculable, de programme et d’algorithme. Trois approches proposent des définitions équivalentes de la notion de fonction calculable, et engendreront trois familles de langages de programmation.

MIQU2005.6 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : la logique intuitionniste interdit toute possibilité de définir une fonction non calculable !

MIQU2005.7 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : à chaque règle de raisonnement intuitionniste correspond un mécanisme de construction de programme dans les types de données correspondants. Cette correspondance entre propositions et types, entre preuves et programmes, permet de relier nombre d’intuitions mathématiques à des intuitions informatiques.

MIQU2005.8 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : On le devine, la correspondance de Curry-Howard ouvre la voie à la programmation des preuves par l’informatique. En 1970, le mathématicien français Jean-Yves Girard définit un langage de programmation fondé sur le lambda-calcul, qu’il appelle le système F, et qui garantit la terminaison des programmes (à l’inverse de la machine de Turing). Il montre alors que toute fonction dont l’existence est prouvable en analyse intuitionniste peut être exprimée comme un programme bien typé (qui respecte les types des données qu’il manipule) dans le système F, et vice versa''.

MIQU2005.9 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : Dans les années 1970, le mathématicien suédois Per Martin-Löf propose un langage de programmation pour exprimer les mathématiques constructives : la théorie des types. Son point de départ est le suivant : si on définit un langage de programmation dont le système de types est suffisamment riche pour pouvoir exprimer toutes les constructions de la correspondance de Curry-Howard, alors ce langage de programmation permet également d’exprimer toutes les propositions et les démonstrations de la logique intuitionniste, à condition d’identifier les propositions aux types de données, et les preuves aux programmes.

MIQU2005.10 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La correspondance de Curry-Howard s’est étendue à toutes les mathématiques constructives, et même au-delà. Au début des années 1990, les informaticiens Matthias Felleisen et Timothy Griffin reconnaissent dans l’opérateur “call-cc”, une instruction de traitement des erreurs dans un langage dérivé du lambda-calcul, le type correspondant à la loi de Peirce ((A ⇒ B) ⇒ A) ⇒ A, variante du principe de raisonnement par l’absurde : dans le cas où B est la proposition absurde, cette loi exprime que s’il est possible de démontrer une proposition A à partir de l’hypothèse selon laquelle A est absurde, alors la proposition A est vraie. Or cette loi, énoncée à la fin du XIXe siècle par le logicien américain Charles Sanders Peirce, implique de manière intuitionniste le principe du tiers exclu. Il ne reste donc qu’un pas à franchir pour étendre la correspondance de Curry-Howard à la logique classique… Il semble extraordinaire de conférer un contenu calculatoire à toutes les preuves de la logique classique, y compris aux preuves non constructives que nous avons mentionnées au début de cet article. Un tel miracle est possible grâce à un mécanisme, basé sur la notion de “continuation”, qui permet aux programmes d’effectuer des retours en arrière au cours de leur exécution, et donc de revenir sur certains de leurs choix. Ainsi, au cours d’une preuve constructive, on peut “bluffer” en empruntant temporairement une piste de démonstration fausse (quitte à donner un témoin factice pour justifier une quantification existentielle), avant de revenir en arrière en cas de contradiction. Grâce aux continuations, les preuves constructives acquièrent la possibilité de “prêcher le faux pour découvrir le vrai”, le principe même du raisonnement par l’absurde.

MIQU2005.11 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La boucle est bouclée : l’intuitionnisme permet de revenir à la logique classique, ce qui expliquerait que l’immense majorité des mathématiques repose encore sur la logique classique sans que cela ne pose le moindre problème. Cependant l’intuitionnisme a permis d’explorer des pistes nouvelles et fécondes en logique, et a engendré de nombreux sous-produits, aussi bien en logique, en informatique théorique que dans d’autres secteurs des mathématiques.

MIQU2005.12 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : la logique intuitionniste a bouleversé notre compréhension même du raisonnement mathématique, en le ramenant à une construction de programme.

DUPR2005 Traiter le flou et l’incertain

Didier DUBOIS et Henri PRADE, Traiter le flou et l’incertain, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/traiter-le-flou-et-lincertain-5809.php.

DUPR2005.1 Cf. Dubois & Prade, Traiter le flou et l’incertain, op. cit. : Le diagnostic de pannes, la prospection géologique, le conseil bancaire ou financier, la recherche d’informations sur Internet ou la régulation de processus industriels complexes, toutes ces activités recourent à des informations incertaines, des règles générales susceptibles d’exceptions, des catégorisations vagues. L’un des enjeux de l’informatique et de l’intelligence artificielle est de développer des systèmes capables de traiter ce type d’informations imparfaites et de les exploiter de la manière la plus satisfaisante possible.

DUPR2005.2 Cf. Dubois & Prade, Traiter le flou et l’incertain, op. cit. : On dispose en théorie des possibilités d’un principe dit de minimum de spécificité, ou encore de minimisation de l’arbitraire. Ce principe est à la théorie des possibilités ce qu’est le principe du maximum d’entropie aux probabilités.

DUPR2005.3 Cf. Dubois & Prade, Traiter le flou et l’incertain, op. cit. : Aujourd’hui, les applications de la logique floue et de la théorie des possibilités intéressent de plus en plus les systèmes de recherche d’information, classiques ou multimédias, les logiciels de recommandation qu’utilisent sur l’Internet certains sites commerciaux (qui indiquent par exemple un film que l’usager est susceptible d’aimer) ou d’aide à la décision.

HORL2008 La destinée cybernétique de l’occident

Erich HÖRL, La destinée cybernétique de l’occident. McCulloch, Heidegger et la fin de la philosophie, in Appareil, 1 | 2008, http://journals.openedition.org/appareil/132.

HORL2008.1 Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 4-5 : Dès 1885, lorsque les membres de la société secrète des Cambridge Apostles avaient dû élire, après lecture d’un document à ce sujet, le philosophe le plus proche de la véritable nature des choses – “Democritus or Heraclitus ?” –, Whitehead avait voté, comme la majorité des autres Apostles, en faveur d’Héraclite et d’une réalité continue, en transformation incessante, et contre un monde certes changeant, mais discret. McCulloch sympathisa avec l’intuition héraclitéenne reformulée par Whitehead dans le langage des mathématiques et de la physique, de flux d’êtres et d’un ordre des choses conçu comme procès. Il considérait ainsi que l’idée d’un “éther des événements” telle que l’avait développée Whitehead dans son ouvrage The concept of nature (1920) “rendait compte de manière tout à fait correcte” du monde physique.

HORL2008.2 Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 10 : Heidegger se trouvait dès ses tout premiers travaux sur la voie d’un tel déroulement archéologique de la question logique. Son compte-rendu de “Recherches récentes sur la logique” de 1912, encore très marqué par le néokantisme et rédigé à l’occasion de la “querelle des principes”, laisse apparaître une première fois la question qu’il allait poser durant toute sa vie : “Qu’est-ce que la logique ? Nous sommes là devant un problème que seul le futur pourra résoudre.” La question de la logique lui avait sans nul doute été dictée par la situation épistémique. Elle constituait en effet autour de 1900 la question directrice de l’épistémè, divisant les esprits selon qu’ils soutenaient la thèse d’un socle intuitif et concret de la pensée ou qu’ils s’en détachaient, optant dans ce cas, en conformité avec l’axiomatique naissante, pour sa pure et simple calculabilité. Ainsi Husserl, qui venait des mathématiques, avait mobilisé la phénoménologie – il convient d’ajouter : dans un acte très puissant d’auto-affirmation philosophique – contre le “cliquetis” des machines symboliques, qu’un esprit intuitif ne pouvait selon lui trouver qu’absurde, et s’était fixé comme objectif de refonder la pensée intuitive par le biais d’une philosophie de la conscience interprétant les purs symbolismes, non visualisables, comme des formations de sens.

HORL2008.3 Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 13 : L’histoire du langage pouvait donc maintenant être déchiffrée comme la longue durée de sa déformation en une écriture de calculs – mais comme une déformation due à l’être même du langage. Une fois branchée aux “flux de courant et aux impulsions électriques”, cette évolution menait directement aux grosses machines à calculer de l’époque : “La construction et l’efficacité des machines à calculer géantes reposent sur les principes technico-calculatoires de cette transformation du langage comme dire en un langage comme simple production de signes.” [Heidegger].

HORL2008.4 Cf. Hörl, La destinée cybernétique de l’occident, op. cit., p. 14 : Mais quiconque commençait à penser sans partir de l’origine, en s’abstenant d’effectuer l’archéologie, l’analyse de l’origine des machines à calculer et des modélisations cybernétiques du réel, ne pouvait penser les modifications de la pensée qui avaient alors lieu. Heidegger exigeait de ses contemporains qu’ils pensent à la lumière des machines :“Pour la pensée contemporaine, la logique est devenue encore plus logique, ce pourquoi elle s’est donnée le nom dérivé de ‘logistique’ [Heidegger reprenait là le terme mis en vigueur vers 1900 par Louis Couturat et Gregorius Itelson pour désigner la logique symbolique]. Sous ce nom, la logique réalise sa dernière forme de domination, qui est maintenant universelle, planétaire. Cette forme de domination porte à l’ère de la technique les traits d’une machine. Il est bien évident que les machines à calculer qui sont utilisées dans l’économie, dans l’industrie, dans les instituts de recherche scientifiques et dans les centres organisationnels de la politique ne sont pas seulement des outils permettant d’opérer plus rapidement des calculs. La machine à penser est au contraire déjà la conséquence en soi d’une modification de la pensée, qui, en faisant de celle-ci un simple calcul, appelle à sa traduction en la machinerie de ces machines. C’est pourquoi nous passons à côté des transformations de la pensée qui ont lieu sous nos yeux si nous ne percevons pas que la pensée devait devenir logistique dès lors qu’à son origine elle était logique.”[Martin Heidegger, Grundsätze des Denkens, Freiburger Vorträge 1957, Gesamtausgabe t. LXXIX, Francfort, 1994, p. 104 et sq.]

GROS2016 Simondon et l’informatique

Jérémy GROSMAN, Simondon et l’informatique II, in Vincent Bontems (dir.), Gilbert Simondon ou l’invention du futur, Paris, Klincksieck, 2016, p. 247-254.

GROS2016.1 Cf. Grosman, Simondon et l’informatique, op. cit., p. 248-249 : l’information est d’abord caractérisée par le rapport signal sur bruit mais en tant que ce signal apporte une variation au récepteur : “L’information est ainsi à mi-chemin entre le hasard pur et la régularité absolue [Gilbert Simondon, Du mode d’existence des objets techniques, p. 189.].” L’automate, en tant que machine “dont la marge d’indétermination […] serait nulle, mais qui pourtant pourrait recevoir interpréter ou émettre de l’information [Ibid., p. 193.]” est donc une notion essentiellement contradictoire. Un individu, dont l’équilibre est parfaitement stable et déterminé, ne peut recevoir d’information [L’exemple même de l’automate est la monade leibnizienne, pensée à partir du paradigme du pendule, dont le dieu horloger assure le devenir. Pour Simondon, la stabilité caractérise l’impossibilité de la transformation du système, de son devenir.]. Réciproquement, seul un individu métastable, contenant une marge d’indétermination localisée, est susceptible de recevoir de l’information et corrélativement de transformer sa structure.

GROS2016.2 Cf. Grosman, Simondon et l’informatique, op. cit., p. 249-250 : Mais l’information n’a une signification qu’en tant qu’on peut lui attribuer un code, une indétermination localisée. Historiquement l’EDVAC est considéré comme “the first electronic, digital, general-purpose, scientific computer [with] a stored program” (Burks). Une telle machine à calculer, general purpose, peut donc être codée, de façon que sa marge d’indétermination soit restreinte [Gilbert Simondon, Du mode d’existence des objets techniques, p. 13, 171.] : lorsqu’une série d’informations lui est communiquée (instructions et valeurs numériques), au travers de différences de tensions, la machine “se restructure”. Elle “se réorganise” au sens où l’information lui impose une détermination de sa structure ; la programmation est ce qui permet de restreindre – temporairement – la forme de la machine, parmi les variations de forme initialement prévues [Ibid., p. 196.]. La machine à calculer et l’organe de commande, d’où le technicien opère, n’existent qu’à partir de cette “relation ouverte” qui les lie, et l’opération du technicien consiste à fermer, temporairement, cette relation [Ibid., p. 197.] – il y a là quelque chose comme une continuation de l’invention. Le schème de cette relation ouverte est celui du transducteur, dont une des premières formes électroniques concrètes n’est autre que la triode. Le transducteur se définit comme le véritable médiateur par lequel la marge d’indétermination entre les domaines humain et technique “conduit l’énergie potentielle à son actualisation [Id.]”, dont l’information est la condition. La machine est donc bien incapable d’inventer une information ; celle-ci doit être “donnée au transducteur [Ibid., p. 199. Simondon infléchira cette distinction dans ses écrits ultérieur. Des algorithmes provenant de champs comme le machine learning font rupture puisqu’ils transforment bien de l’a posteriori en a priori.]”. C’est en ce sens que l’homme se fait interprète des machines et entre en synergie avec elles [Il y a couplage entre l’homme et la machine lorsqu’il y a synergie fonctionnelle, “lorsqu’une fonction unique et complète est remplie par deux êtres” (Ibid., p. 173).]. Or ce couplage homme-machine ne peut exister qu’à partir du moment ou “un codage commun […] peut être découvert [Ibid., p. 173.]”.

KURT2016 L’évolution des langages de programmation à la lumière de l’allagmatique

Micahel KURTOV, Simondon et l’informatique III. L’évolution des langages de programmation à la lumière de l’allagmatique, in Vincent Bontems (dir.), Gilbert Simondon ou l’invention du futur, Paris, Klincksieck, 2016, p. 255-260.

KURT2016.1 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 255 : La philosophie n’est, jusqu’à présent, pas parvenue à élaborer de fondement ontologique de l’informatique. On ne sait presque rien de la genèse des objets numériques, ni de leurs modes d’existence. Par conséquent, on n’est pas capable de prédire l’apparition des nouvelles technologies, ni même de les élaborer en connaissance de cause.

KURT2016.2 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 257 : Il est souvent fait état de la nature duelle des programmes. Cette dualité se manifeste à tous les niveaux de l’ordinateur : les instructions et la mémoire dans l’architecture d’ordinateur, le programme comme fichier et le programme comme processus dans la mémoire, les algorithmes et les structures de données, etc. Notre hypothèse est que cette dualité des programmes a pour origine profonde le dualisme ontologique de la structure et de l’opération. En s’appuyant sur cette hypothèse, on peut définir de manière plus rigoureuse la notion de paradigme de programmation (PdP). Cette notion, qui joue un rôle important dans la formation et l’industrie, a été introduite en 1979 par analogie avec la notion de paradigme scientifique de Thomas Kuhn. Mais le PdP reste jusqu’à présent quelque chose de très vague : on le définit comme un “style de programmation”, un “modèle de calcul”, etc., alors que le PdP peut être défini rigoureusement comme représentation générale du dualisme opération/structure au moyen d’une abstraction technique qui les connecte de telle ou telle manière. Tout paradigme s’établit, en effet, à partir d’une abstraction qui joue le rôle de médiateur primaire entre la structure et l’opération. Toutes les autres abstractions, dans le cadre du paradigme, sont dérivées d’une manière ou d’une autre de cette abstraction primaire, qui peut être désignée comme un “modulateur” au sens de Simondon, c’est-à-dire comme “un ensemble actif” au travers duquel une opération et une structure se mettent en rapport.

KURT2016.3 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 257-258 : Les premiers systèmes informatiques étaient des systèmes opératoires par excellence en vertu de l’architecture de von Neumann et des principes formels de la machine de Turing : le fonctionnement de cette machine virtuelle s’effectue grâce au mouvement d’un ruban, qui est analogue au changement de state of mind. C’est pourquoi les premiers programmes écrits en langages de haut niveau, étant des abstractions simples du langage-machine, privilégiaient l’opération. Ces premiers langages, Short Code (1950), Fortran (1957) et Algol (1958), ont introduit le premier paradigme ‒ le paradigme impératif (PI). L’abstraction primaire sur laquelle PI repose est la notion de variable. Dans son noyau, un programme écrit en PI est une séquence des affectations (en anglais : variable assignments), autrement dit des attributions de valeurs à des variables, qui changent successivement sa structure. Les opérateurs en PI s’appellent d’ailleurs des changements d’états (statements). Le PI est une interprétation moniste de la dualité opération/structure puisque le codage est conçu comme des opérations sur des données.

KURT2016.4 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 258 : Le deuxième paradigme est le paradigme fonctionnel (PF) introduit avec le langage Lisp par John McCarthy en 1958 (son prédécesseur étant Composition de Haskell Curry en 1948). C’est le cas contraire, l’interprétation inversée du dualisme opération/structure : la dualité y reste également asymétrique, mais la priorité est donnée à la structure. C’est donc aussi un monisme épistémologique. Dans le PF, inspiré par le lambda-calcul, un programme est considéré comme n’ayant pas d’état (stateless), ce qui signifie, pour un programmeur, que son comportement ne dépend pas de telle ou telle séquence d’opérateurs. Le seul souci du programmeur en PF est de construire une structure immobile et intemporelle qui ne serait opérée qu’une seule fois ‒ au moment de l’exécution du programme (quoique ce soit plutôt le cas du langage fonctionnel pur, comme Haskell). L’abstraction primaire pour le PF est la fonction, plus précisément la fonction récursive. Comme on le dit souvent, à la différence des changements d’état dans le PI, la fonction dans le PF décrit non pas comment faire, mais quoi faire, non des opérations comme telles, mais une structure des opérations. Le mécanisme de récursion permet de produire une action sans faire attention au passage d’un état à un autre.

KURT2016.5 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 259 : Le paradigme qui est apparu historiquement en troisième et qui joue le rôle principal dans l’industrie informatique contemporaine est le paradigme orienté objet (POO). Il a été introduit dans les années 1960-1970 avec les langages Simula et Smalltalk comme une tentative de réduire la complexité du codage. L’abstraction primaire dans le POO est la notion d’objet. En bref, l’objet est une entité abstraite qui est composée des attributs et des méthodes (donc de structures et d’opérations) et qui peut communiquer avec d’autres objets. Le développeur de Smalltalk et auteur du terme objet orienté, Alan Kay, était peut-être le premier à rendre compte de l’origine philosophique des paradigmes. Dans ses Mémoires, il écrit : “En termes d’ordinateur, Smalltalk est une récursion de l’ordinateur lui-même. Au lieu de diviser des ‘bagatelles informatiques’ en choses qui sont chacune moins fortes que l’ensemble comme structure de données, procédures et fonctions, cette panoplie habituelle des langages de programmation, tout objet de Smalltalk est une récursion de l’ensemble des possibilités de l’ordinateur.” Kay écrit ainsi à propos de Smalltalk qu’il est platonicien dans sa manière de concevoir les objets : l’objet est une sorte d’Idée récursive. Alors l’objet représente une union de la structure et de l’opération, le dépassement dialectique de leur dualisme dans un quasi-monisme ontologique.

KURT2016.6 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 259-260 : La similitude entre l’Idée platonicienne et l’objet en POO manifeste le fait que l’évolution de la métaphysique et l’évolution des langages de programmation prennent dès leurs commencements des voies parallèles. Le développement de l’informatique avant le POO est clairement homologue (au sens strict de Spengler : l’homologie est l’équivalence morphologique, tandis que l’analogie est l’équivalence fonctionnelle) au développement de la philosophie présocratique. Cette dernière était préoccupée par le problème du mouvement et du repos. L’opposition entre la vue héraclitienne du monde en changement perpétuel et la vue parménidienne du monde immuable est homologue à l’opposition entre le PI et le PF. Si on envisage l’Idée de Platon comme une tentative de résoudre ce dilemme, son homologie avec la notion d’objet devient d’autant plus évidente. Tandis que la métaphysique classique est fondée sur la priorité de la structure et la primauté de la contemplation, l’informatique est fondée sur la priorité de l’opération et la primauté de l’action. Alors l’informatique équivaut à la métaphysique inversée, dans le sens où, comme Simondon l’écrit, “toute cristallisation équivaut à une modulation inversée”. On pourrait appeler ce phénomène culturel la récapitulation opératoire : la reprise point par point de l’évolution de la pensée structurale (métaphysique) en termes de la pensée opératoire (programmation).

KURT2016.7 Cf. Kurtov, L’évolution des langages de programmation à la lumière de l’allagmatique, op. cit., p. 260 : Bien que la notion d’objet ait semblé dépasser le dualisme structure/opération, cette prétention a été implicitement battue en brèche par le développement même de l’industrie. Au début des années 1990, de nombreux outils de formalisation des relations entre les objets, tels que l’Unified Modeling Language (UML), sont apparus. Rétrospectivement, on se rend compte que l’objet a occupé la place de la structure et a fait réapparaître son terme complémentaire, l’opération, sous le nom de relation ; ainsi, le dualisme s’est reconstitué. Cet avancement, lié à la naissance de la notion du patron de conception (software design pattern) dans les années 1980, peut être considéré comme homologue à la pensée néoplatonicienne. L’évolution des abstractions dans l’informatique est peut-être dialec- tique au sens hegelien : une entité trouve son complément ontologique (par exemple, structure de données et procédures, ou objet et relations), puis s’opère une synthèse des deux termes au sein d’une entité nouvelle (par exemple, objet ou patron de conception) qui représente l’accession à une couche d’abstraction plus élevée, et ainsi de suite. Cette hypothèse de la récapitulation opératoire laisse à penser que le logiciel est non pas une technique pure mais avant tout la réflexion du système opératoire, de la substance automotrice, qu’est l’ordinateur. Le logiciel est une vraie techno-logie, un techno-logos. D’où la nécessité pour la philosophie de l’informatique de synthétiser l’allagmatique de Simondon avec la logique dialectique de Hegel.

DUHE2014 Penser le numérique avec Simondon

Ludovic DUHEM, Penser le numérique avec Simondon, NepH, Nouvelle revue de Philosophie, N° spécial Philosophie du numérique, Paris, 2014, https://www.academia.edu/9024613/Penser_le_num%C3%A9rique_avec_Simondon_Thinking_the_digital_with_Simondon_.

DUHE2014.1 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 1 : Poser le problème du numérique nécessite de considérer avant toute chose qu’il signifie plus qu’un changement technique, plus encore qu’une transformation de la société : le numérique est une mise en question de l’homme dans sa relation au monde et dans sa relation à lui-même. L’ampleur, la profondeur et le sens de cette mise en question restent en effet obscurs si l’on contient le numérique dans les limites de l’évolution technique et sociale, car l’attention est alors uniquement dirigée sur les performances productives et les usages sociaux au lieu de se concentrer sur la relation entre ce que l’homme produit et ce que l’homme est.

DUHE2014.2 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 1 : Ainsi, comme nous le montrent les nanotechnologies pour le monde matériel, les biotechnologies pour le monde vivant, et les réseaux d’information et de communication pour le monde social et culturel, grâce au potentiel de calcul, de modulation et de réticulation du numérique, la connaissance et l’organisation de la réalité sont modifiées et dans leur structure et dans leur fonctionnement, au point de provoquer l’effacement progressif de la différence entre réalité humaine, réalité technique et réalité naturelle. Il en résulte un sentiment contradictoire que l’homme opère à la fois une emprise totale sur le monde, que tous les modes d’existence de la réalité sont sous son contrôle, et qu’il vit sous la menace imminente d’une disparition, du propre de l’homme comme de la résistance du monde. Autrement dit, par le processus de numérisation intégrale du monde, l’homme devient incompatible avec lui-même parce qu’il tend à devenir à la fois toute la réalité et sans réalité propre.

DUHE2014.3 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 1 : il s’agit de repenser l’homme par la relation et par l’information, c’est-à-dire en tant qu’il est inséparable du processus qui fait passer la réalité de l’analogique au numérique.

DUHE2014.4 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 2 : La philosophie de Gilbert Simondon est précisément celle qui permet de penser la relativité que la numérisation du monde révèle et produit. Même si son œuvre ne contient pas de théorie du numérique à proprement parler, elle propose de : 1) penser la réalité à travers l’individuation en la fondant sur la relation et l’information plutôt que sur la substance pour réintégrer le devenir à l’être ; 2) penser la technique comme médiation entre le monde naturel et le monde humain hors du principe d’utilité pour libérer l’homme en libérant la machine ; 3) penser l’éducation comme un processus cognitif, technique et symbolique en vue de rendre la culture universelle par la réticulation des esprits.

DUHE2014.5 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 4 : L’information complète est donc la mise en “résonance interne” de la matière prenant forme selon des conditions énergétiques et topologiques, cette résonance résultant de la mise en communication de deux ordres de grandeur précédemment incompatibles que sont le potentiel microphysique de la matière et l’énergie macrophysique du système, et cela, par une singularité de dimension médiane.

DUHE2014.6 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 5 : Simondon explique ainsi que dans un tube électronique, le rôle de la “matière” comme véhicule d’énergie potentielle est joué par le nuage d’électrons sortant de l’anode, le rôle de la “forme” comme limite temporelle de l’actualisation est joué par le champ électrique créé par la différence de potentiel entre la grille de commande et la cathode. Le potentiel de la grille de commande est utilisé comme “moule variable”, il sert à faire varier dans le temps l’actualisation de l’énergie potentielle, mais l’opération n’est pas arrêtée lorsque l’équilibre est atteint comme dans le moulage analogique, au contraire, le démoulage est permanent dans la modulation électronique, ce qui conditionne notamment la capacité de calcul des machines informatiques. La différence entre analogique et numérique pourrait alors s’exprimer ainsi : pour le monde analogique “mouler est moduler de manière définitive” alors que pour le monde numérique “moduler est mouler de manière continue et perpétuellement variable”. [Gilbert Simondon, L’individuation à la lumière des notions de forme et d’information, Grenoble, Millon, 2005, p. 47.]

DUHE2014.7 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 5 : Simondon explique que l’information cybernétique est avant tout une information quantitative, c’est-à-dire conçue comme un nombre de signaux élémentaires nécessaire à la transmission d’un message non équivoque entre un émetteur et un récepteur. Or, la mesure de la quantité de signaux ne permet pas de “définir ni de comparer les différents contenus des données objectives : il y a un hiatus considérable entre les signaux d’information et la forme.” [Gilbert Simondon, L’individuation à la lumière des notions de forme et d’information, Grenoble, Millon, 2005, p. 241] Ce hiatus est tel d’ailleurs que la quantité de signaux a tendance à augmenter lorsque les qualités de forme se perdent : “il est techniquement plus facile de transmettre l’image d’un carré ou d’un cercle que celle d’un tas de sable [Gilbert Simondon, L’individuation à la lumière des notions de forme et d’information, Grenoble, Millon, 2005, p. 241.].”

DUHE2014.8 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 5-6 : Ni quantitative ni qualitative, l’information est intensive pour Simondon. […] L’intensité d’information suppose donc au moins “un sujet orienté par un dynamisme vital” : l’information est alors ce qui permet au sujet de se situer dans le monde, dans la mesure où le monde n’est strictement ni un ensemble de signaux discrets ni un ensemble de structures données, mais ce qui a un sens pour un sujet. Et c’est en fonction de ce sens recherché que le sujet, dans le devenir de sa relation au monde, affectera un coefficient d’intensité à l’information reçue. L’information est donc essentiellement relative, elle n’a d’intensité et de valeur que par la relation et comme relation. Vivre, c’est en cela résoudre des problèmes de sens, c’est-à-dire rendre compatible des différences d’intensité dans la relation informative du couple sujet-monde.

DUHE2014.9 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 7 : la technologie numérique, par son universalité logique et par son pouvoir de transformation, porte en elle le risque d’une aliénation généralisée. Ce risque concerne la réalité humaine dans son ensemble, aussi bien l’activité productive que l’activité symbolique et spirituelle. Avec l’industrie numérique mondiale, ce n’est plus seulement l’être humain comme être technique qui est en effet objet d’aliénation, elle ne concerne même plus seulement l’ensemble de la chaîne productive du concepteur à l’ouvrier et de l’ouvrier à l’utilisateur : c’est l’être humain comme être de savoir, comme être d’imagination, comme être d’esprit qui se trouve en situation d’être séparé de ce qu’il est, de perdre l’individuation psychique et collective qui le rend humain.

DUHE2014.10 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 7 : Il faut tout d’abord généraliser la notion d’aliénation, afin de situer l’aliénation économique apparue avec l’industrie analogique dans son rapport aux autres formes d’aliénation, et en particulier à l’aliénation cognitive, puisque la ressource principale de cette industrie est justement moins la force de travail que la connaissance, même si l’industrie numérique recourt encore à la force de travail physique pour l’extraction des matières premières (métaux et terres rares) et pour le montage, l’installation et l’entretien des appareils, des serveurs et des réseaux. Mais, en tant qu’elle repose sur un autre système technique que l’industrie analogique, l’industrie numérique nous impose surtout de repenser la relation de l’homme et de la technique, y compris en dehors de la situation de travail, sans quoi toute lutte pour l’émancipation serait vaine, étant donné que le numérique est inséré dans toute la vie humaine et pas seulement dans l’activité productive.

DUHE2014.11 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 8 : L’impératif est donc un impératif de connaissance, et il est double, dans la mesure où aucune libération ne peut avoir lieu sans connaissance de la technique d’une part et que la libération de l’homme ne peut s’accomplir par l’asservissement d’autres êtres d’autre part, surtout les êtres techniques qui appartiennent autant au monde naturel qu’au monde humain.

DUHE2014.12 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 8-9 : Ce privilège accordé à l’usage tend d’ailleurs à se durcir avec le passage de l’analogique au numérique puisque la complexité des machines est telle que la connaissance du fonctionnement tend à devenir inaccessible pour tout autre individu autre que le concepteur. D’où un sentiment de frustration, de malaise, voire de ressentiment à l’égard des machines, qui sont aussi puissantes que mystérieuses, rivales impénétrables menaçant l’intégrité et la dignité de l’homme. Mais un tel ressentiment ne se justifie que du point de vue de l’usage : c’est parce que l’homme lui-même a été réduit à un moyen en vue d’une fin que la technique, en devenant plus puissante, plus performante, plus autonome, menace sa place, son statut, son essence. Si l’homme est défini comme “porteur d’outils”, lorsque la machine devient elle-même porteur d’outils dans l’industrie analogique, il est inévitable que la machine devienne l’ennemi. De même, si l’homme est défini comme une raison calculatrice, lorsque la machine devient elle-même un calculateur dans l’industrie numérique, les dispositifs computationnels deviennent ennemis du propre de l’homme. Or, ce que nous apprend Simondon, c’est que l’homme est porteur d’outils tant que la technique ne peut porter les outils à sa place, dès que la machine-outil apparaît au cours de l’évolution technique, il n’est plus nécessaire qu’il en soit ainsi. L’avènement de la machine-outil est donc l’affirmation que le propre de l’homme ne réside pas uniquement dans le fait de porter des outils, tout comme l’avènement de la machine informatique révèle que l’intelligence humaine est irréductible au calcul ; l’une comme l’autre sont des “propriétés” transitoires de l’homme et révèlent ainsi quelque chose de bien plus essentiel : à savoir que le propre de l’homme est d’être pris dans une évolution biologique inséparable de l’évolution technique. Si de l’humain doit être retrouvé dans la technique, et en particulier dans les machines, c’est donc autant pour déchirer le voile d’ignorance qui les recouvre que pour comprendre qu’il y a de la technique en l’homme. Telle est la leçon de Leroi-Gourhan et de Canguilhem que Simondon a intégré à sa pensée de la technique.

DUHE2014.13 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 11 : Mais cette individualisation ne se limite pas à l’acte d’invention lui-même, le geste humain n’y est pas tout entier contenu. Non seulement le fonctionnement lui-même porte une trace, sous forme de schème structural, d’une intention et d’un effort humain, puisque tout objet technique est en effet un “geste humain fixé et cristallisé en structure qui fonctionne” ; mais la présence même de l’homme pour entretenir, contrôler et améliorer le fonctionnement est autre chose qu’une fonction d’auxiliaire, c’est une “invention perpétuée” de la machine. Cette “présence” devient un acte majeur de participation à la réalité technique lorsque l’homme devient non seulement “coordinateur et interprète” des machines groupées en ensembles cohérents échangeant de l’information les unes avec les autres, comme l’évoque Simondon à propos des premiers réseaux de machines informatiques, mais il devient surtout relais d’invention lorsque l’avènement du web rend possible l’intervention de l’utilisateur dans le fonctionnement même de l’objet technique, comme c’est par exemple le cas dans les dispositifs collaboratifs de production de logiciels à code source ouvert. Simondon avait donc anticipé cette nouvelle relation entre l’homme et la machine engendrée par le numérique, car en définissant la place de l’homme non plus comme celle du “surveillant d’une troupe d’esclaves”, mais comme celle de “conscience responsable et inventive” de l’être humain vivant “parmi les machines qui opèrent avec lui”, il formule à la fois une exigence de “prise de conscience du sens” des machines et une exigence de “pluralité ouverte des techniques”. C’est à cette double condition que l’homme sera capable de “penser son existence et sa situation en fonction de ce qui l’entoure”, c’est-à-dire selon “une information qui exprimera l’existence simultanée et corrélative des hommes et des machines” [Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 14]. Tel est l’impératif formulé par Simondon pour sortir l’homme de l’aliénation généralisée et rendre universelle la culture à l’époque des ensembles industriels et des réseaux d’information.

DUHE2014.14 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 12 : La science technologique ne cherche donc pas le contrôle de la relation de l’homme et de la machine par une modulation continue de l’information afin d’obtenir l’homéostasie sociale, au contraire, elle définit les base d’une “société ouverte” qui fonctionne par potentiels de transformation, par sauts inventifs, par néguentropie.

DUHE2014.15 Cf. Duhem, Penser le numérique avec Simondon, op. cit., p. 13 : C’est pourquoi, il est nécessaire selon Simondon d’accomplir une réforme de l’enseignement. Cette réforme doit décloisonner les disciplines et lutter contre la spécialisation qui ne se justifie plus, puisqu’elle correspond à une société stable, analogique, moulée une fois pour toutes, alors que la société est devenue métastable, modulée en continu, depuis l’avènement du numérique. Ainsi, “adapter un être à une société métastable, c’est lui donner un apprentissage intelligent lui permettant d’inventer pour résoudre des problèmes qui se présentent dans toute la surface des relations horizontales. [Gilbert Simondon, Réflexions préalables à une refonte de l’enseignement, Cahier du collège International de Philosophie, n° 12, Paris, 1992, p. 3.]”

KRIV2005 Tiers exclu et choix dépendant

Jean-Louis KRIVINE, Tiers exclu et choix dépendant, Colloque D.Lacombe, I.H.P. Paris, 21 octobre 2005, https://www.irif.fr/~krivine/articles/Lacombe.pdf.

KRIV2005.1 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 1-2 : Le tiers exclu est un axiome du calcul des propositions. Il affirme “A ou non A” pour chaque proposition “A”. Brouwer est le premier à avoir compris qu’il était tout à fait à part dans le calcul propositionnel et qu’il fallait absolument l’isoler des autres axiomes et règles de ce calcul qui sont (dans le système de Hilbert) : les axiomes A→(B→A) ; (A→(B→C))→((A→B)→(A→C)) ; le modus ponens, à savoir “de A→B et de A, on déduit B”. Il s’est intéressé, à juste titre, à ce qu’on pouvait montrer sans utiliser cet axiome. On dit que de telles démonstrations sont “intuitionnistes”. Mais, comme toutes les idées importantes qui arrivent un peu trop tôt, l’intuitionnisme a été incompris puis marginalisé par les mathématiciens et même les logiciens. Brouwer lui-même y a sans doute pas mal contribué par son dogmatisme. Pour mieux isoler le tiers exclu des autres axiomes, il l’a accusé de peste aviaire et interdit formellement à ses disciples de seulement s’en approcher. Du coup, l’intuitionnisme s’est peu à peu transformé en secte et stérilisé. C’est l’arrivée en force de l’informatique qui a, dans un premier temps, réveillé l’intérêt pour la logique intuitionniste. Mais cela s’est fait sur un malentendu : on a cru, pendant longtemps (jusque dans les années 90) que les seules preuves “constructives”, c’est-à-dire susceptibles de donner lieu à des calculs, étaient les preuves intuitionnistes. Voilà, pensait-on, pourquoi la logique intuitionniste est intéressante en informatique (théorique). Mais ce sont les progrès de l’informatique (pratique) dans le domaine des langages de programmation qui ont finalement permis de comprendre l’axiome du tiers exclu et de l’interpréter correctement. Il faut noter que le premier à l’avoir fait est un informaticien, Tim Griffin, et non pas un logicien.

KRIV2005.2 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 2 : L’autre axiome auquel je vais m’intéresser ici est l’axiome du choix dépendant. Il est beaucoup plus compliqué à énoncer que le tiers exclu, car c’est un axiome de la théorie des ensembles. Il est fondamental dans la partie des mathématiques qu’on appelle “l’Analyse”, qui est un très vaste domaine : théorie des fonctions de variable réelle ou complexe, théorie de la mesure et probabilités, équations différentielles et aux dérivées partielles, etc. Il exprime que si, pour tout réel r il existe un réel s tel que l’on ait P(r, s) (P(r, s) est une proposition quelconque qui parle de r et s), alors il existe une suite de réels r0, r1, …, rn, … telle que l’on ait P(rn, rn+1) pour tout entier n. Bien entendu, il est intuitivement évident, mais c’est la moindre des choses pour un axiome. Lui aussi a été le sujet d’une vive discussion au début du siècle dernier, entre Baire, Borel,Hadamard et Lebesgue. Mais il n’en est pas résulté la constitution d’une secte s’opposant à l’usage de cet axiome !

KRIV2005.3 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 4 : En effet, à ce moment-là, tout le monde “savait” que la logique intuitionniste était constructive, que la logique classique ne l’était pas et qu’un programme était un calcul. Donc la correspondance preuves-programmes ne pouvait exister que pour la logique intuitionniste. Le raisonnement était peut-être juste, seulement les trois prémisses étaient fausses. Et la conclusion aussi.

KRIV2005.4 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 4-5 : À ce stade, tout le monde était content et on pensait que la correspondance preuves-programmes avait atteint sa plus grande extension possible avec la logique intuitionniste du second ordre. On ne pouvait transformer en programmes que les preuves dites constructives, ce qui semble tout à fait sensé. Malheureusement cela exclut pratiquement toutes les preuves mathématiques, car le tiers exclu est omniprésent dans le raisonnement mathématique. C’est donc avec beaucoup de scepticisme et un peu de condescendance que les logiciens ont accueilli la découverte de Tim Griffin en 1990 : une obscure instruction d’un dialecte de LISP appelé SCHEME avait comme type la loi de Peirce (¬A→A)→A, qui n’est autre que le raisonnement par l’absurde. Cette instruction, au nom bizarre de “call-with-current-continuation”, servait essentiellement dans des tâches informatiques subalternes comme la programmation système ou la gestion des erreurs. Cet informaticien ignorant ne savait même pas qu’il ne fallait pas utiliser la logique classique pour typer des programmes. En plus, il ne s’agit pas de vrais programmes car, en programmation système, on ne fait pas de calcul et les programmes sérieux sont des calculs. Cette vision caricaturale de l’informatique a cours dans tout le milieu scientifique, logiciens, mathématiciens, physiciens, etc. L’informatique serait là pour servir d’outil. La programmation système est une affaire de techniciens besogneux et le scientifique sérieux s’en désintéresse complètement, pour se consacrer à ses calculs numériques ou formels. Pourtant, le monde réel nous montre à l’évidence que le système est, de très loin, le programme le plus important : l’empire de Microsoft est basé sur un “système d’exploitation” (la locution française pour “operating system” décrit particulièrement bien la situation). L’importance de la découverte de Tim Griffin sur le tiers exclu est de nous obliger à voir les choses tout autrement : ce sont des programmeurs qui ont inventé l’instruction associée au raisonnement par l’absurde. Et ils l’ont fait pour des besoins pratiques de programmation système. Il est évident, vu la nature de cette instruction, que jamais un logicien n’aurait pu y penser. Cela veut dire que la relation entre les preuves et les programmes est beaucoup plus profonde qu’on le pensait au début : les “vraies” preuves (où l’on autorise le tiers exclu) correspondent aux “vrais” programmes (qui ne font pas de calcul, mais gèrent le système). On a évidemment fait là un progrès capital dans la compréhension de ce qu’est une démonstration.

KRIV2005.5 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 5 : Mais maintenant, on voit que, pour transformer en programmes toutes les preuves de l’Analyse, il ne manque plus que de trouver une instruction qui corresponde à l’axiome du choix dépendant. Et là encore, on trouve une instruction essentielle de la programmation système, à savoir l’horloge. C’est l’instruction qui compte le nombre de pas de programme exécutés.

KRIV2005.6 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 6 : Revenons à notre problème, qui est de comprendre la nature des démonstrations mathématiques. Nous avons vu au début qu’une preuve est un texte satisfaisant à des règles syntaxiques absolument strictes. Nous venons d’expliquer que les constituants de ce texte, à savoir les axiomes, correspondent à des instructions de programmation. La conclusion qui s’impose alors est que les démonstrations mathématiques ne sont pas autre chose que des programmes. Cela nous donne une vision très claire et que je trouve très amusante des débats à propos de l’utilisation de tel ou tel axiome. Quand Brouwer met les mathématiciens en garde sur l’utilisation du tiers exclu, ou quand Baire et Borel font de même avec l’axiome du choix, on pense immédiatement aux mises en garde que l’on trouve dans les manuels de programmation à propos d’instructions comme goto ou de ce qu’on appelle les effets de bord. Finalement, le message de Brouwer est le suivant : surtout, ne programmez pas à l’aide de continuations, car c’est aller au-devant des bugs. Et le conseil de Borel est d’éviter d’utiliser l’instruction d’horloge, pour la même raison.

RICH2015 Penser internet

Claire RICHARD, Penser internet. Une histoire intellectuelle et désenchantée du réseau, in Revue du Crieur, 2015/2 (n° 2), p. 144-159.

RICH2015.1 Cf. Richard, Penser internet, op. cit., p. 145 : Le récit conceptuel du Net réserve bien des surprises. Des utopies des pionniers, pour qui il représentait un espace de liberté et d’autonomie alternatif indéfiniment extensible, aux réflexions actuelles sur la “gouvernementalité algorithmique”, selon lesquelles les algorithmes ont pris le pouvoir sur nos vies, il semble de prime abord être celui d’une lente descente d’acide. En réalité, dès les origines, des conceptions rivales se sont affrontées, liées aux désaccords entre les différentes “communautés” – militaire, scientifique, contre-culturelle – qui ont cherché à en définir la structure et les usages. Il faut donc lire le désenchantement actuel comme un nouveau cycle d’une histoire oscillante, au sein de laquelle la pensée de l’Internet n’a jamais été l’apanage des intellectuels patentés, mais émane aussi de hackers, d’entrepreneurs, d’ingénieurs ou de codeurs, dont les visions du Net en ont profondément modifié le sens, les usages et les représentations.

RICH2015.2 Cf. Richard, Penser internet, op. cit., p. 146 : Internet, c’est en effet d’abord du code. Or le code incarne une pensée, puisque coder suppose une série d’opérations de sélection et d’organisation qui impliquent des valeurs précises et une certaine vision du monde.

RICH2015.3 Cf. Richard, Penser internet, op. cit., p. 147 : Mais force est de constater que pour celles et ceux qui produisent des discours sur Internet et le conceptualisent en contribuant au débat public sur ce qu’est le Net et ce qu’il nous fait, la pensée de la désillusion s’impose de plus en plus largement et que l’histoire intellectuelle du réseau s’apparente de plus en plus à la déploration d’un âge d’or où l’horizon des possibles semblait vaste et émancipateur. Surtout en regard d’un futur capturé par la marchandisation de nos activités numériques, la recentralisation de l’architecture du réseau et la perspective d’une surveillance algorithmique généralisée.

RICH2015.4 Cf. Richard, Penser internet, op. cit., p. 147-148 : Pourtant, “Internet” – l’ensemble technique, social et politique qu’on entend par ce nom – fut dès ses débuts un espace de tensions façonné par les luttes entre le marchand et le non-marchand, la liberté et le contrôle. […] Et, dès le début, le “réseau de réseaux” fut en effet chargé de valeurs conflictuelles, qui tiennent aux différentes communautés dans lesquelles il s’est élaboré – et orientent encore aujourd’hui son imaginaire. Les origines militaires du réseau sont bien connues : Arpanet naît pendant la guerre froide, d’un projet financé par l’armée américaine visant à établir un réseau décentralisé qu’on ne pourrait neutraliser par une seule attaque. Mais les valeurs militaires et stratégiques ne président pas seules à sa naissance : Internet est aussi conçu dans des laboratoires scientifiques. Ces chercheurs, habitués à collaborer, inscrivent dans le réseau les valeurs de leur communauté : coopération, réputation entre pairs, autonomie, gratuité, consensus et liberté de parole… Ils créent ainsi une architecture ouverte, capable de fonctionner sur plusieurs réseaux et sur des machines variées. Celle-ci promeut l’échange entre égaux : tous les paquets d’information qui transitent sur le réseau sont traités à la même enseigne. Dépourvue de centre, cette architecture rend d’emblée difficile le contrôle et vise à favoriser la connectivité et l’expansion du réseau. Mais l’imaginaire du Web se façonne également bien loin des labos, dans la contre-culture américaine des années 1960, en particulier les hippies des Communes rurales. Contrairement à beaucoup de militants de gauche des années 1960, ces derniers ne considèrent pas la technique comme intrinsèquement mauvaise : au contraire, si on se la réapproprie, elle peut devenir émancipatrice. Le rêve communal s’effrite dans les années 1970, mais plusieurs hippies des Communes rejoindront San Francisco, où la Silicon Valley a déjà vu le jour, dans les années 1980. Ils seront parmi les premiers enthousiastes du réseau, qu’ils décriront comme une nouvelle frontière, un espace vierge, où se réinventer aux marges du social.

RICH2015.5 Cf. Richard, Penser internet, op. cit., p. 149 : Le réseau se crée donc avec des influences contradictoires : ouverture et contrôle, liberté et domination, gratuité et profit. Ces tensions affleurent déjà dans un mouvement des années 1980 qui va beaucoup influencer la pensée du Net : le Logiciel Libre.

RICH2015.6 Cf. Richard, Penser internet, op. cit., p. 155 : Des travaux montrent en effet que l’identité en ligne est loin d’être miraculeusement disjointe de l’identité hors ligne. Les travaux de la sociologue Danah Boyd sont à ce titre particulièrement influents.

RICH2015.7 Cf. Richard, Penser internet, op. cit., p. 157 : Le thème de l’intelligence collective a laissé place à celui de la captation et de la prédation. De plus en plus, les modèles économiques des nouvelles entreprises sont fondés sur la captation et non la production de valeur, explique ainsi Dominique Boullier. Les grands gagnants de la fin des années 2000, Google, Facebook, Instagram, etc., ne produisent pas de valeur : ils captent la valeur créée par les usagers – des textes, des photos… – et la monétisent.

CHAM2015 Dans la tête de la NSA

Grégoire CHAMAYOU, Dans la tête de la NSA. Une histoire philosophique du renseignement américain, in Revue du Crieur, 2015/1 (n° 1), p. 20-39.

CHAM2015.1 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 24 : Même à supposer que le “terrorisme” présente des signatures repérables par datamining – ce qui est une hypothèse pour le moins hasardeuse –, pareil système allait nécessairement engendrer pléthore de suspects, dont une écrasante majorité de fausses pistes – et ceci, estimait-on, par dizaines de millions : selon Bruce Schneier, qui a fait le calcul suivant pour le magazine Wired en octobre 2006, “si le système a un taux de faux positifs de 1 sur 100 s’il y a mille milliards d’indicateurs potentiels à passer au crible – un nombre qui correspond à dix événements (emails, achats, navigation web…) par Américain et par jour. S’il y en a dix parmi eux qui correspondent effectivement à des préparatifs terroristes. Alors un tel système, alors même qu’il serait, avec les paramètres que nous admettons ici, d’une précision parfaitement irréaliste, n’en générerait pas moins un milliard de fausses alarmes pour chaque complot terroriste effectivement découvert. Chaque jour de chaque année, la police aurait à mener l’enquête sur 27 millions de complots potentiels afin de découvrir l’unique complot terroriste réel par mois”. Tout cela sans compter qu’il y a bien peu de chances pour que les attentats de demain présentent les mêmes modes opératoires que ceux d’hier.

CHAM2015.2 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 24 : Cette notion [le terrorisme] ne se définit pas par certains modes opératoires, mais par une intention visant à produire un effet subjectif, une émotion, la peur. Quel sera l’algorithme capable de repérer les indices comportementaux trahissant une telle intentionnalité ?

CHAM2015.3 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 25 : Par fausse analogie, des cerveaux formés durant la guerre froide plaquaient ainsi du mécanique (le signal d’un moteur de sous-marin, nécessaire et constant) sur du vivant (une intentionnalité politique, polymorphe et adaptative). Tout le projet reposait sur le postulat qu’il existait des “signatures terroristes”. Or cette prémisse ne tenait pas. La conclusion était inévitable : “La seule chose prévisible au sujet du datamining antiterroriste est son échec permanent” [J. Jonas, J. Harper, Effective counterterrorism, Policy Analysis, n° 584, Cato Institute, 11/01/06, p. 8. Cf. aussi J. Rosen, The Naked Crowd, Random House, New York, 2004.]. Aux critiques qui pointaient les limites épistémologiques d’un tel programme, ses concepteurs répondaient par des procédés destinés à en mitiger les effets d’engorgement. Confrontés à un problème d’explosion du nombre de “faux positifs”, lui-même lié au faible taux de prévalence du phénomène recherché dans la masse considérée, ils empruntaient leurs solutions au screening médical : découper, au sein de la population générale, des sous-populations à risque. Comme l’expliquaient les partisans de ces méthodes, il allait en fait s’agir de “détecter des liens relationnels rares mais significatifs […] au sein de populations ajustées selon le risque” [K. Taipale, The privacy implications of government data mining program, Testimony, 10/01/07, p. 3. Cf. aussi D. Jensen, M. Rattigen, H. Blau, Information awareness, Proceedings of the ACM Conference, 2003.]. L’idée était de combiner les approches du “datamining propositionnel” (fondé sur des requêtes du type : “trouver toutes les entités présentant les propriétés x et y”) et du “datamining relationnel” (fondé sur des recherches du type : “trouver toutes les entités liées à une entité A”). On allait ainsi cibler des groupes d’individus en fonction de leurs relations, un peu comme dans un dépistage médical, où l’on commence par repérer les antécédents familiaux dans l’espoir de débusquer une maladie rare. On affinerait ensuite la masse par filtres successifs. Enfin, plutôt que de répartir les résultats de l’analyse suivant des classificateurs binaires en “suspects” ou “non-suspects”, on leur attribuerait des scores de suspicion. Bref, il y aurait toujours des fausses pistes, mais, en spécifiant ainsi les degrés d’alerte, on espérait prioriser le travail d’investigation.

CHAM2015.4 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 26 : De l’aveu même de ses concepteurs, ce modèle de “datamining relationnel” comportait en outre une série de “failles manifestes” au plan tactique : “Certains types de données relationnelles ne sont clairement pas résistants aux contre-conduites. Par exemple, un individu terroriste pourrait s’abstenir d’émettre ou de recevoir des messages électroniques, des appels téléphoniques ou des transactions financières avec d’autres terroristes. Une autre possibilité est qu’un individu s’efforce consciemment de réduire son degré d’homophilie sociale, de sorte à produire du ‘bruit’ dans les relevés électroniques afin d’escamoter l’existence d’un groupe déterminé. Ils pourraient également utiliser de fausses identités afin de réduire le nombre apparent de relations associées à une identité donnée. Ce problème constitue un obstacle d’importance pour à peu près tout système de surveillance informationnelle, et ce, quelle que soit sa conception” [D. Jensen, M. Rattigen, H. Blau, Information awareness, Proceedings of the ACM Conference, 2003.]. Or, si de tels systèmes peuvent être mis en échec par des précautions de cet ordre, à la portée de tout groupuscule averti, ceux-ci ne seront, contrairement à l’objectif affiché, paradoxalement mobilisables que contre des individus ou des groupes dont les activités, pour être en partie privées ou discrètes, n’en sont pas pour autant activement clandestines.

CHAM2015.5 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 36 : On voudrait par exemple des logiciels de reconnaissance vidéo capables d’interpréter la danse des pixels comme un observateur humain sait le faire, c’est-à-dire de façon sémantique et contextuelle. Idéalement, on voudrait que les données se mettent à se décrire elles-mêmes. Mais, entre le désir et sa réalisation, des obstacles se présentent. Et parmi eux des défis d’ordre ontologique : automatiser la reconnaissance des activités supposerait en effet au préalable d’être parvenu à construire une taxonomie et une syntaxe de l’action à même de “modéliser les milliers d’objets qui constituent un système de comportement dans le temps” – rien de moins que de bâtir un “modèle analytique du monde” [D. Gauthier, ABI : NGA initiatives, Next Generation ISR Symposium 10/12/13.].

CHAM2015.6 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 36 : Les apôtres du renseignement 2.0 lorgnent en attendant avec une convoitise non dissimulée sur les développements de l’“informatique ubiquitaire” et de l’“Internet des objets”. David Gauthier, l’un des théoriciens du “renseignement fondé sur l’activité” à la NGA, souligne les potentialités qu’ouvre la “révolution dataculturelle” en cours : “prendre tous les aspects de la vie et les convertir en données [Gauthier cite ici K. Cukier, V. Mayer-Schoenberger, The rise of big data, Foreign Affairs, mai-juin 2013.]”. La notion centrale est celle d’“autodocumentation” : à la limite, pourquoi développer des techniques de surveillance directe alors que les personnes s’équipent elles-mêmes d’une myriade de mouchards électroniques qui capturent en continu leurs moindres faits et gestes ? On n’aurait plus qu’à coller son oreille sur la coquille électronique et à écouter le son de l’océan des données. C’est aussi ce que dit, mais à sa manière, avec un cynisme consommé, l’un des Powerpoint de la NSA divulgués par Snowden. Première diapositive : “Qui aurait cru, en 1984, que Big Brother ressemblerait à cela…” – image de Steve Jobs un iPhone à la main. Deuxième vignette : “…et que les zombies seraient des clients prêts à payer pour cela” [M. Kelley, G. Ingersoll, Purported NSA slides refer To iPhone owners as “zombies”, Business Insider, 10/09/13.] – images de clients d’Apple posant, l’air ravi, avec leur appareil flambant neuf à la sortie d’un iStore.

CHAM2015.7 Cf. Chamayou, Dans la tête de la NSA, op. cit., p. 37 : Dans une autre perspective, l’avenir dira peut-être si les lignes suivantes, écrites au début d’un siècle révolu, auront conservé leur pertinence. Victor Serge y évoquait les moyens déployés par la police politique tsariste contre les mouvements révolutionnaires : “Quelle que soit la perfection des méthodes mises en œuvre pour les surveiller, n’y aura-t-il pas toujours, dans leurs faits et gestes, une inconnue irréductible ? N’y aura-t-il pas toujours, dans les équations le plus laborieusement élaborées par leur ennemi, un grand X redoutable ? les milliers de dossiers de l’Okhrana, les millions de fiches du service de renseignement, les merveilleux graphiques de ses techniciens, les ouvrages de ses savants – tout ce mirifique arsenal est aujourd’hui entre les mains des communistes russes. Les “flics”, un jour d’émeute, se sont sauvés sous les huées de la foule” [V. Serge, Ce que tout révolutionnaire doit savoir de la répression, Zones/ La Découverte, Paris, 2009, p. 62.].

BRLO2017 The Emperor of Strong AI Has No Clothes

Adriana BRAGA & Robert LOGAN, The Emperor of Strong AI Has No Clothes: Limits to Artificial Intelligence, in Information, 8. 156, 2017.

BRLO2017.1 Cf. Braga & Logan, The Emperor of Strong AI Has No Clothes, op. cit., p. 4 : “The cognitive feats of the brain can be explained in physical terms […] This is a great idea for two reasons. First, it completes a naturalistic understanding of the universe, exorcising occult souls, spirits and ghosts in the machine. Just as Darwin made it possible for a thoughtful observer of the natural world to do without creationism, Turing and others made it possible for a thoughtful observer of the cognitive world to do so without spiritualism.” [Pinker, S. Thinking Does Not Imply Subjugating. In What to Think about Machines that Think; Brockman, J., Ed.; Harper Perennial: New York, NY, USA, 2015; pp. 5–8.].

BRLO2017.2 Cf. Braga & Logan, The Emperor of Strong AI Has No Clothes, op. cit., p. 9 : Dreyfus made a distinction between knowing-that which is symbolic and knowing-how, which is intuitive like facial recognition. Knowing-how depends on context, which he claimed is not stored symbolically. He contended that AI would never be able to capture the human ability to understand context, situation, or purpose in the form of rules. The reason being that human intelligence and expertise depended primarily on unconscious instincts rather than conscious symbolic manipulation. He argued that these unconscious skills would never be captured in formal rules that a computer could duplicate. Dreyfus’s critique parallels McLuhan’s notion of figure/ground analysis. Just as McLuhan claimed that the ground was subliminal, Dreyfus also claims that the ground of human thought are unconscious instincts that allow us to instantly and directly arrive at a thought without going through a conscious series of logical steps or symbolic manipulations. Another way of formulating Dreyfus’s insight is in terms of emergence theory. The human mind and its thought processes are emergent, non-reductionist phenomena. Computers, on the other hand, operate making use of a reductionist program of symbolic manipulations. AGI is linear and sequential, whereas human thinking processes are simultaneous and non-sequential. In McLuhan’s terminology, computers operate in one thing at a time, visual space and the human mind operates in the simultaneity of acoustic space. Computers operate as closed systems, no matter how large the databases can be. Biotic systems, such as human beings, are created by and operate within an open system.

BRLO2017.3 Cf. Braga & Logan, The Emperor of Strong AI Has No Clothes, op. cit., p. 10 : “The mere formulation of a problem is far more often essential than its solution, which may be merely a matter of mathematical or experimental skill. To raise new questions, new possibilities, to regard old problems from a new angle requires creative imagination and marks real advances in science” [Einstein, A.; Infield, L. The Evolution of Physics; Simon and Schuster: New York, NY, USA, 1938.].

MORI2009 Logique et contradiction

Edgar MORIN, Logique et contradiction, in Ateliers sur la contradiction, Coordination Bernard Guy, Paris, Presses des Mines, 2009, p. 17-49.

MORI2009.1 Cf. Morin, Logique et contradiction, op. cit., p. 22 : Le surgissement de contradictions dans les sciences physiques, l’incapacité de la logique classique d’éliminer par elle-même les contradictions qui surgissent à son niveau syllogistique de base (le paradoxe du Crétois) nous montrent, de façon irrémédiable, que le spectre de la contradiction ne peut plus être exorcisé. Il y a des contradictions qui naissent d’une infirmité rationnelle dans le discours. C’est la sotte, absurde contradiction. Il y a, comme Grize et Pieraut Le Bonniec (1983) l’ont bien montré, une contradiction qui ouvre (c’est-à-dire problématise, met en cause un préconstruit, appelle à renoncer à une idée fausse) et une contradiction qui ferme (c’est-à-dire clôt un débat et ruine un argument). Il y a la contradiction négative, qui signale une erreur de raisonnement, et il y a la contradiction heuristique, qui détecte une nappe profonde du réel, fait surgir la dimension cachée, appelle le méta-point de vue. Il y a la contradiction “faible”, qui nous permet d’accéder à une connaissance complexe en associant les termes contradictoires, et il y a la contradiction radicale, qui signale l’arrivée aux limites de l’entendement et le surgissement de l’énormité du réel, là où il y a non seulement l’indécidable, mais l’inintelligible, l’indicible… Il y a des contradictions qui naissent au sein de systèmes clos et qui peuvent être surmontées, dans le cadre même de la logique classique, dans un méta-système ouvert. Mais il est des contradictions insurmontables, quel que soit le niveau de pensée. Il y a des contradictions inhérentes à la relation entre la logique et le réel, qui naissent dans l’exercice même de la pensée empirique-rationnelle (l’onde/corpuscule) et d’autres qui sont inhérentes à la rationalité elle-même (les antinomies kantiennes).

MORI2009.2 Cf. Morin, Logique et contradiction, op. cit., p. 23 : C’est des marges mêmes du cercle de Vienne que vinrent les coups mortels pour les certitudes du positivisme logique. Karl Popper opéra un retournement épistémologique décisif : en insistant sur l’insuffisance de l’induction et l’insuffisance de la vérification, il sapa le caractère universel de la certitude que l’une et l’autre pouvaient apporter. Quand elle n’est pas triviale, l’induction comporte toujours un risque. Comme le dit Radnitzky (1981), l’application de l’induction à un domaine fini est non problématique, mais non intéressante. Son application à un domaine dénombrable infini est intéressante, mais incertaine. De son côté, le dernier Wittgenstein (De la certitude) avait remarqué que l’induction se fonde sur l’idée des lois la nature, laquelle se fonde sur l’induction. Induction et lois de la nature s’entre-fondant l’une l’autre, il n’y a pas de fondement à l’une et l’autre… Du côté de la déduction, le paradoxe du Crétois avait déjà révélé, comme l’avait dit Tarski, un grippage et un dérapage, non accidentel, mais intrinsèquement lié au fonctionnement logique. Mais l’infaillibilité de la déduction semblait absolument assurée dans le domaine de la formalisation mathématique. Or, cette déduction devait être elle-même affaiblie. En ouvrant une brèche irrefermable dans la logique mathématique, le Viennois Gödel détermina du coup l’effondrement du mythe d’une logique souveraine et autosuffisante.

MORI2009.3 Cf. Morin, Logique et contradiction, op. cit., p. 23-25 : Depuis que se disputaient, dans le champ clos de la méta-mathématique, l’intuitionnisme d’un Brouwer (voir p. 203) et le formalisme d’un Hilbert, on avait à de nombreuses reprises noté qu’il est impossible de mener jusqu’à son terme final l’œuvre d’axiomatisation, c’est-à-dire la réduction de l’intuitif par sa résorption finale dans la logique; toujours il subsiste “quelque chose d’antérieur, un intuitif préalable” (R. Blanché, 1968, p. 65). Arend Heyting, mathématicien “intuitionniste”, avait soutenu en 1930 l’impossibilité d’une complète formalisation, pour la raison profonde et essentielle que “la possibilité de penser ne peut être réduite à un nombre défini de règles construites antérieurement”. Mais on pouvait croire, et beaucoup le croient encore, que s’il existait un résidu final, non logifiable, dans une axiomatisation, du moins le royaume formalisé, entièrement soumis au contrôle logique, pouvait être considéré comme immarcessible. Or, le théorème d’indécidabilité de Gödel vint, en 1931, ouvrir une brèche précisément au cœur même de la formalisation, et la conséquence - logique - du théorème de Gödel est que l’idéal dit “rationnel” d’une théorie absolument démontrable est, dans sa part logique même, impossible. Le théorème formulé par Kurt Gödel en 1931 (Über formal unentscheidbare Sätzen der Principia mathematica. On formally undecidable Propositions of Principia mathematica and related Systems) démontre que tout système formalisé comportant de l’arithmétique (assez puissant - puissance, richesse en moyens de démonstration - pour formaliser l’arithmétique) comporte nécessairement des énoncés indécidables (ni démontrables ni réfutables), et que la non-contradiction du système constitue une proposition non démontrable dans le système. Il frappe tout système formel d’incomplétude et d’incapacité à démontrer sa non-contradiction (consistance) à l’aide de ses seules ressources. Comme l’a indiqué Jean Ladrière (1957, p. 398-399) dans son ouvrage capital sur les limitations internes du formalisme, il en résulte qu’un système formel ne peut se réfléchir totalement en lui-même, notamment en ce qui concerne la notion d’élément définissable dans ce système et celle de vérité relative à ce système. Gödel a très bien reconnu la portée générale de son théorème : “La complète description épistémologique d’un langage A ne peut être donnée dans le même langage A parce que le concept de la vérité des propositions de A ne peut être défini en A” (Gödel, in von Neumann, 1966, p. 55). La faille gödélienne semble avoir été depuis élargie par une prolifération de théorèmes qui nous découvrent que les questions les plus simples débouchent sur l’indécidabilité, comme le théorème de Cohen sur l’axiome du choix et l’hypothèse du continu (1962). De son côté, le théorème d’Arrow d’impossibilité d’agrégation des préférences individuelles démontre que l’on peut calculer un choix collectif à partir des préférences des individus. Enfin, Chaitin (1975) a démontré qu’il est impossible de décider si un phénomène relève ou non du hasard, bien qu’on puisse définir rigoureusement le hasard (incompressibilité algorithmique). Ainsi, paradoxalement, l’essor de la méta-mathématique, qui “a produit un complexe de concepts et de méthodes de nature à préciser et à affiner les instruments théoriques propres à dégager et à dominer les structures à l’œuvre dans les textes démonstratifs”, est cela même “qui a produit les théorèmes de limitation interne, restreignant par là le domaine où l’on peut légitimement poser les problèmes de fondement” (Desanti, 1975, p. 261). Si la formalisation, stade suprême de la logique classique, ne peut trouver en elle-même un fondement absolument certain, alors la logique ne peut trouver en elle-même un fondement absolument certain.

MORI2009.4 Cf. Morin, Logique et contradiction, op. cit., p. 25-26 : Toute découverte de limitation ouvre paradoxalement une voie nouvelle à la connaissance. La voie ouverte est très clairement indiquée par Gödel et Tarski. Le théorème de Gödel débouche sur l’idée que la démonstration de la consistance du système peut se faire éventuellement en recourant à un méta-système comportant des procédés de démonstration qui sont extérieurs au système. Ainsi, des démonstrations de non-contradiction ont été effectivement données pour des systèmes soumis au théorème de Gödel, comme la démonstration de la non-contradiction de l’arithmétique. Mais un méta-système comporte lui-même des énoncés qui y sont indécidables, et il aurait besoin d’un méta-méta-système où se reposeraient, à un niveau supérieur, les mêmes problèmes. C’est dire que la brèche gödelienne est aussi une ouverture… Tarski, de son côté, aboutit à un résultat analogue en étudiant le problème de la vérité dans les langages formalisés (Tarski, 1972, t. 1, p. 157-269). Il démontre l’inconsistance des langages sémantiquement clos (c’est-à-dire où toutes les propositions qui déterminent l’usage adéquat des termes peuvent être affirmées dans ce langage), et que le concept de vérité relatif à un langage n’est pas représentable dans ce langage ; mais il démontre également que l’on peut rendre décidables tous les énoncés d’un langage à condition de les placer dans un méta-langage plus riche. Bien entendu, ledit méta-langage comporterait à son tour des énoncés indécidables, et requerrait un méta-méta-langage, et ainsi à l’infini. Ainsi, Gödel et Tarski nous montrent conjointement que tout système conceptuel inclut nécessairement des questions auxquelles on ne peut répondre qu’à l’extérieur de ce système. Il en résulte la nécessité de se référer à un méta-système pour considérer un système.

MORI2009.5 Cf. Morin, Logique et contradiction, op. cit., p. 26-27 : il y a une possibilité de “dépasser” une incertitude ou une contradiction en constituant un méta-système : celui-ci doit embrasser en lui le système (la théorie) mais doit en même temps être plus riche (enrichi par des “variables d’ordre supérieur”) et inclure nécessairement en lui des termes et une problématique logique qui offrent la définition de la vérité pour le système (théorie)-objet considéré. Cet énoncé tarskien ne peut être interprété dans le sens où le méta-système se constituerait en tribunal suprême, porteur de la décidabilité et de la consistance, et serait capable de se clore sur lui-même. En effet, une insuffisance à se considérer soi-même se retrouverait également au niveau du méta-système, puis de tout méta-système de méta-système, cela à l’infini. La connaissance reste inachevée, mais cela veut dire en même temps qu’elle peut se poursuivre. Cela veut dire enfin et surtout que les progrès de l’élucidation et de la reproblématisation seront désormais dialectiquement liés, qu’aucun dispositif ne pourra colmater à jamais la brèche sur l’inconnu. Nous débouchons ainsi sur l’idée complexe de progrès de la connaissance, qui s’effectue non pas par refoulement ou dissolution, mais par reconnaissance et affrontement de l’indécidable ou du mystère… La perte de la certitude est en même temps l’invitation au méta-point de vue. L’acquisition de la relativité n’est pas la chute dans le relativisme. Toute découverte d’une limite à la connaissance est en elle-même un progrès de connaissance. Toute introduction de la contradiction et de l’incertitude peut se transformer en gain de complexité ; c’est dans ce sens que la limitation apportée par la physique quantique à la connaissance déterministe /mécaniste se transforme en un élargissement complexificateur de la connaissance, et prend un sens pleinement épistémologique.

MORI2009.6 Cf. Morin, Logique et contradiction, op. cit., p. 27 : La logique ne saurait s’autosuffire. Système formel, elle ne peut être conçue que dans un contexte non formel. […] Le système logique ne peut être conçu que dans un contexte, et ses problèmes essentiels ne peuvent être traités que dans un méta-système lui-même méta-formel. La formalisation, en purgeant les systèmes de ce qui n’est pas logique, révèle le vide de la logique à l’état pur. Elle détruit la parole qui la constitue […]. Implacable, anonyme, la logique occulte l’existence du sujet, tout en faisant de celui-ci un omniscient abstrait dès lors qu’il sait utiliser la logique. Déjà, la mathématisation de la science vidait celle-ci de la substantialité, de la phénoménalité, de l’existence, de la causalité. Le formalisation parachève ce nettoyage par le vide ; Jean Ladrière avait bien vu et dénoncé “l’idée limite d’un système parfaitement clos, ne renvoyant à rien d’autre qu’à lui-même, coupé de tout enracinement comme de tout horizon, vivant de sa propre intelligibilité, unissant paradoxalement les caractères de la chose à ceux de la conscience. L’avènement d’un tel système réaliserait l’éclatement de l’expérience, la fin de ce dialogue incessant avec le monde qui constitue la vie de la science, et l’établissement d’une totalité close, pleine et silencieuse, dans laquelle il n’y aurait plus ni monde ni science mais seulement le retour éternel de l’homogène, l’échange perpétuel de l’identique avec lui-même” (ibid., p. 410).

MORI2009.7 Cf. Morin, Logique et contradiction, op. cit., p. 28 : Les travaux de Frege, Russel, Whitehead avaient montré que la logique était un système symbolique obéissant à des règles de “calcul” (“calcul des propositions” = computation). Les computers ont pu donc réaliser les processus logiques du raisonnement, révélant le caractère à la fois autonome, mécanique, anonyme des processus logiques. La logique déductive-identitaire et la conception mécaniste/ atomiste de la réalité s’entre-confirment l’une l’autre. Cette logique correspond à la composante mécanique de tous systèmes, y compris vivants, mais ne peut rendre compte de leur complexité organisationnelle.

MORI2009.8 Cf. Morin, Logique et contradiction, op. cit., p. 28-29 : La logique déductive-identitaire s’articule parfaitement sur tout ce qui est isolable, segmentaire, parcellaire, déterministe, mécanique ; elle s’applique adéquatement aux machines artificielles, aux caractères mécaniques et déterministes du monde, du réel, de la vie, de la société, de l’homme, aux entités stables, cristallisées, dotées d’identité simple, à tout ce qui est segmentaire ou fragmentaire dans le discours et la pensée (de même que les molécules sont les éléments non vivants constitutifs de la vie, les phonèmes, lettres, considérés isolément, sont les éléments “non vivants” de la vie du discours, les segments déductifs-identitaires sont les éléments non vivants de la vie de la pensée). La logique déductive-identitaire s’ouvre non sur la compréhension du complexe et de l’existence, mais sur l’intelligibilité utilitaire. Elle correspond à nos besoins pratiques de surmonter l’incertain et l’ambigu pour porter un diagnostic clair, précis, sans équivoque. Elle correspond, quitte à dénaturer les problèmes, à nos besoins fondamentaux de séparer le vrai du faux, d’opposer l’affirmation à la négation. Son intelligibilité refoule la confusion et le chaos. Aussi cette logique est-elle pratiquement et intellectuellement nécessaire. Mais elle défaille justement lorsque la désambiguïsation trompe, lorsque deux vérités contraires se lient, lorsque la complexité ne peut être dissoute qu’au prix d’une mutilation de la connaissance ou de la pensée. De fait, la logique déductive-identitaire correspond non à nos besoins de compréhension, mais à nos besoins instrumentaux et manipulatoires, que ce soit la manipulation des concepts ou la manipulation des objets.

MORI2009.9 Cf. Morin, Logique et contradiction, op. cit., p. 29 : Les limites de cette logique sont nécessairement apparues dans la crise du mécanisme et de l’atomisme, et plus largement dans la crise de la conception classique de la science, lorsqu’au rêve einsteinien d’un univers obéissant à une loi déterministe absolue se sont opposées la mécanique quantique d’abord, puis la complexité physique du chaos organisateur (voir La Méthode 1, p. 45-83) ; lorsqu’à la certitude du positivisme logique se sont opposées toutes les incertitudes positives et toutes les incertitudes logiques ; lorsqu’au rêve hilbertien d’achèvement logique de la théorie s’est opposé l’indécidable gödelien ; lorsqu’au Wittgenstein 1 du langage logifié s’est opposé le Wittgenstein 2 des jeux du langage.

MORI2009.10 Cf. Morin, Logique et contradiction, op. cit., p. 29-30 : La logique déductive-identitaire suppose un objet et un observateur l’un et l’autre fixes, immobiles, constants, entre genèses, métamorphoses et désintégrations. Ce qui en fait son utilité segmentaire en fait également sa limite. […] Cette logique permet de penser à l’avance le temps déterministe, mais elle doit courir après le temps aléatoire, le temps transformateur, le temps novateur. La logique déductive-identitaire est faite pour le mécanique et le monotone ; ses conclusions découlent immanquablement de ses prémisses. Le nouveau ne peut être logiquement déduit ou induit. […] Brouwer l’avait dît de son côté : “La logique est impuissante à nous fournir les normes d’une démarche heuristique, à nous indiquer comment nous y prendre pour faire la moindre découverte, résoudre le moindre problème.”

MORI2009.11 Cf. Morin, Logique et contradiction, op. cit., p. 31 : Ici, brusquement, nous découvrons que ce qui est isomorphe entre la pensée, la vie, l’univers, c’est la complexité, qui comporte évidemment de la cohérence logique, mais aussi de l’infra-logique, de l’a-logique, du méta-logique. La pensée et l’univers phénoménal sont l’une et l’autre complexes, c’est-à-dire l’une et l’autre marqués par une même nécessité et une même insuffisance intrinsèque de la logique déductive-identitaire. La pensée, la connaissance, la théorie, la logique comportent en elles, comme les autres réalités organisatrices vivantes, incertitudes, aléas, ambiguïtés, antagonismes, béances, ouvertures. C’est donc non seulement dans une constitution logique commune, mais dans une incomplétude logique commune que la pensée communique avec l’univers. La logique déductive-identitaire ne s’applique pas à toute la réalité objective. Elle nous rend intelligibles des provinces et segments d’univers et elle nous rend inintelligible ce qui, dans le réel, la nature, la vie, l’humain, lui échappe. Mais la pensée peut transgresser cette logique en l’utilisant, et elle peut s’ouvrir aux complexités du réel, de la nature, de la vie, de l’humain.

MORI2009.12 Cf. Morin, Logique et contradiction, op. cit., p. 31-32 : À la limite, il y a, dans l’esprit humain comme dans la réalité, quelque chose d’a-formalisable, d’a-logifiable, d’a-théorisable, d’a-théorémisable. Ainsi, il y a complexité dans l’une et l’autre sphère, qui se chevauchent et se dévorent mutuellement, puisque évidemment la sphère de l’esprit pensant est dans la sphère de la réalité, laquelle n’apparaît en tant que telle que dans la sphère de l’esprit pensant. Alors, on peut tenter de faire jouer ensemble ces deux complexités. Plus on se haussera aux niveaux complexes du réel, plus on fera appel aux potentialités complexes de la pensée rationnelle… En conclusion, ce n’est pas seulement dans une logique fragmentairement et provincialement adéquate au réel, c’est aussi dans une incomplétude logique et de façon méta-logique que la pensée dialogue avec l’univers.

MORI2009.13 Cf. Morin, Logique et contradiction, op. cit., p. 32-33 : De tous côtés, on est arrivé à la nécessité d’aboutir à des conceptions moins rigides que le tout/rien de la logique formelle (von Neuman, 1963, p. 304). Les logiques intuitionnistes ont en perspective la pensée au travail, elles veulent en considérer sa progression, introduisant le temps et le devenir de façon intrinsèque ; ce sont des logiques où on ne peut conclure du non-contradictoire au vrai ; elles introduisent explicitement la contradiction et tentent de représenter les démarches d’une pensée qui se débat avec les contradictions et tente de les surmonter soit par élimination progressive, soit selon un schéma dialectique. Il y a la logique quadrivalente de Heyting (vrai, faux, ni vrai, ni faux). Dans la logique trivalente de Lukasiewicz (vrai, faux, possible), le principe de contradiction et celui du tiers exclu sont seulement “possibles”. Gottard Gunther (1962, p. 352) a proposé une logique “transjonctionnelle” à plusieurs valeurs. Dans les logiques polyvalentes, les valeurs s’échelonnent entre le oui et le non. Les logiques probabilitaires sont, comme le dit Gusatz, des logiques polyvalentes à une infinité non démontrable de valeurs. Il y a du non nécessairement vrai et du non nécessairement faux dans les logiques floues. Les logiques modales introduisent des catégories autres que le vrai et le faux (le ni vrai ni faux, le possible, le performatif, le normatif) et peuvent former des modalités complexes comme l’incertitude dans la possibilité. Enfin, les logiques para-consistantes admettent des contradictions en certaines de leurs parties. Toutes ces logiques assouplissent, dépassent, complexifient la logique classique, qui devient pour elles un cas particulier. Elles acceptent ce que ne pouvait accepter la logique classique, surtout dans son noyau déductif-identitaire : elles ne requièrent plus impérativement la clarté, la précision, et elles accueillent, quand celles-ci sont jugées inévitables, les indéterminations, les incertitudes, les ambiguïtés, les contradictions. Ce sont des logiques qui s’ouvrent donc à la complexité. Mais intégrer le contradictoire n’est pas le surmonter, et ces logiques, qui en reconnaissent l’inévitabilité, voire la vertu dans certains cas, ne “dépassent” pas la contradiction qu’elles intègrent.

MORI2009.14 Cf. Morin, Logique et contradiction, op. cit., p. 35 : Cela veut dire du coup que la pensée ne peut plus, dans ce cas, prétendre être le miroir de la réalité. Elle est plutôt, dans ce cas, le miroir d’une opacité de la réalité. Toutefois, on peut dire qu’en plus des grandes apories qui sont aux horizons et au coeur de notre raison le monde peut présenter des antagonismes indissolublement complémentaires que notre pensée traduit en contradictions. C’est l’erreur des conceptions qui font de la connaissance le miroir de la réalité d’imaginer que le réel comporte des contradictions que la pensée détecterait et enregistrerait. En fait, toute connaissance est traduction, et la contradiction est le mode par lequel se traduisent aux yeux de notre raison les trous noirs dans lesquels s’effondrent nos cohérences logiques.

MORI2009.15 Cf. Morin, Logique et contradiction, op. cit., p. 37-38 : Les principes aristotéliciens fournissent un code d’intelligibilité à la fois absolument nécessaire et absolument insuffisant. Ce sont des régulateurs et des contrôleurs nécessaires à l’organisation de la pensée, mais celle-ci ne se réduit pas à la régulation ni au contrôle, et ils stérilisent la pensée s’ils deviennent dictateurs. […] Les pensées créatrices, inventives, complexes sont transgressives.

MORI2009.16 Cf. Morin, Logique et contradiction, op. cit., p. 38-39 : Aristote, qui avait déjà circonscrit la validité de ses axiomes à un même temps et à un même rapport, avait de plus admis qu’il y avait suspension du tiers exclu en ce qui concerne le futur contingent, ce qui ouvrait la porte à des propositions ni vraies ni fausses, mais potentiellement l’une et l’autre. Le principe du tiers exclu est suspendu dans toutes les propositions incertaines (où il est impossible de fournir une preuve en leur faveur ou contre elles), dans le domaine de la mécanique quantique, et plus généralement il peut se trouver suspendu là où la pensée rencontre la nécessité rationnelle d’associer deux propositions contraires. Brouwer avait considéré que le tertium non datur doit non pas être posé a priori, mais advenir a posteriori. Il pensait que le logique dépendait de “l’activité mathématique originelle”, et que par conséquent le principe du tiers exclu ne pouvait se justifier sur le terrain d’une logique pure. Brouwer lisait ainsi ce principe : “Étant donné une proposition A, pour moi sujet connaissant, ou bien A est évident, ou c’est non-A. La prétention de donner un statut de vérité objective à l’une ou l’autre évidence constitue un postulat erroné d’omniscience humaine. Il est par contre nécessaire de recourir à l’introspection du moment conscienciel où l’on élit comme vraie et chasse comme fausse l’une des propositions.” Brouwer arrivait ainsi à réintroduire le sujet-concepteur, chassé de la mathématique par la pensée disjonctive-simplifiante qui commanda corrélativement logique classique et science classique.

MORI2009.17 Cf. Morin, Logique et contradiction, op. cit., p. 42 : Et ici, dans l’invention, la création, l’imagination, la transgression, le sujet réapparaît. C’était déjà la leçon du théorème de Gödel, qui apporte au sommet la même vérité profonde que l’intuitionnisme brouwérien apporte à la base. Brouwer maintenait, contre le formalisme de Hilbert, l’idée qu’il y a toujours un intuitif irréductible dans la mathématique et la méta-mathématique, désignant ainsi la place du sujet; la faille qu’ouvre Gödel, c’est la faille où se situe le sujet qui construit la théorie et la méta-théorie. Alors que l’accomplissement final de la formalisation logique mettant en marche une machine à penser parfaite digne de Borges semblait devoir exclure à jamais le logicien-sujet, elle a généré, dans ce développement même, une catastrophe logique, qui non seulement appelle la réflexion du logicien, mais nécessite la réapparition du sujet pour éviter l’absurdité totale (laquelle n’est autre que la rationalisation totale). C’est là même où le sujet est cassé et chassé qu’il réapparaît soudain, sabre au clair.

MORI2009.18 Cf. Morin, Logique et contradiction, op. cit., p. 43-44 : L’étoffe de ce que nous nommons le réel comporte des nappes, des trous, des émergences qui sont sub-logiques, supra-logiques, a-logiques, extra-logiques, on ne sait. L’être n’a pas d’existence logique, et l’existence n’a pas d’être logique. L’être, l’existence, l’émergence, le temps, autant de défis à la pensée parce qu’ils sont des défis à la logique. La vie comporte des opérations logiques, tout être vivant compute et calcule sans trêve; mais ses solutions, inventions ou créations surmontent des impossibilités logiques. Tout en contenant la logique, l’existence vivante est a-logique, sub-logique, méta-logique. Il y a des brèches logiques dans notre bande moyenne, là où apparaissent les émergences indéductibles, là où il y a dialectiques et dialogiques, là où notre pensée ne peut éviter ambiguïtés, paradoxes, contradictions, apories. La logique déductive-identitaire purge le discours de l’existence, du temps, du non-rationalisable, de la contradiction; dès lors, le système cognitif qui lui obéit aveuglément se met en contradiction à la fois avec le réel et avec sa prétention cognitive. […] Ce qui constitue notre réalité intelligible n’est qu’une bande, une strate, un fragment d’une réalité dont la nature est indécidable. Sans qu’elle puisse être résolue, la question du réel ne peut être traitée que de façon non seulement méta-physique, mais aussi méta-logique (englobant/ dépassant la logique).

MORI2009.19 Cf. Morin, Logique et contradiction, op. cit., p. 44 : La logique ne peut se clore sur elle-même, et, même se brise dès qu’elle s’encapsule sous vide dans la formalisation. La logique n’est pas un fondement absolu et n’a pas de fondement absolu : elle est un outillage, un appareillage au service de la composante analytique de la pensée, et non pas la machine infaillible capable de guider la pensée. Une “grande logique s’avère impossible, c’est-à-dire une logique suffisamment forte pour qu’on puisse, à l’intérieur des procédures qu’elle définit, assurer la pleine sécurité de ses démarches” (Desanti, 1975, p. 260). D’où un certain nombre de conséquences : aucun système logiquement organisé ne peut embrasser l’univers dans la totalité ni rendre compte exhaustivement de sa réalité ; la subordination de la pensée à la logique conduit à la rationalisation, laquelle est une forme logique de l’irrationalité, puisqu’elle constitue une pensée en divorce avec le réel. La pensée (stratégique, inventive, créative) à la fois contient et dépasse la logique. De fait, la complexité de la pensée est méta-logique (englobant la logique, tout en la transgressant).

MORI2009.20 Cf. Morin, Logique et contradiction, op. cit., p. 45-46 : Une fois encore, nous retrouvons l’injonction de méthode : ne pas briser une réalité complexe en éléments compartimentés, ne pas éliminer a priori une incertitude et une contradiction. Entre la “réification” des objets, qui les rend saisissables et contrôlables par la logique, et leur dissolution dans l’inséparabilité et le devenir, il est nécessaire de conduire la pensée non pas dans un entre-eux, mais dans un zigzag, revenant à la logique pour la transgresser puis y revenir encore… L’usage de la logique est nécessaire à l’intelligibilité, le dépassement de la logique est nécessaire à l’intelligence. La référence à la logique est nécessaire à la vérification. Le dépassement de la logique est nécessaire à la vérité. La logique est au service de l’observation, de l’expérience, de l’imagination. Elle prolonge l’idée neuve dans ses conséquences inattendues, mais elle ne la suscite pas. Contrairement à ce qu’avaient cru Russell et Hilbert, et conformément à ce qu’avait pensé Brouwer, la pensée mathématique elle-même doit éventuellement oublier la logique : pour Brouwer, la construction de la mathématique est un devenir imprévisible, et les antinomies qui y surgissent viennent du fait que la mathématique se soumet à la juridiction d’une logique étrangère à sa vraie nature. Ainsi la pensée, même mathématique, ne peut être enfermée dans la logique (classique), mais elle doit l’emporter comme bagage.

TURI1950 Computing Machinery and Intelligence

Alan TURING, Computing Machinery and Intelligence, in Mind, Vol. LIX, No. 236, October 1950 p. 433-460.

TURI1950.1 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 433 : I propose to consider the question, “Can machines think?”

TURI1950.2 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 436-437 : The idea behind digital computers may be explained by saying that these machines are intended to carry out any operations which could be done by a human computer. The human computer is supposed to be following fixed rules; he has no authority to deviate from them in any detail. We may suppose that these rules are supplied in a book, which is altered whenever he is put on to a new job. He has also an unlimited supply of paper on which he does his calculations. […] A digital computer can usually be regarded as consisting of three parts: (i) Store, (ii) Executive unit, (iii) Control. The store is a store of information, and corresponds to the human computer’s paper, whether this is the paper on which he does his calculations or that on which his book of rules is printed. In so far as the human computer does calculations in his head a part of the store will correspond to his memory. The executive unit is the part which carries out the various individual operations involved in a calculation. What these individual operations are will vary from machine to machine. Usually fairly lengthy operations can be done such as “Multiply 3540675445 by 7076345687” but in some machines only very simple ones such as “Write down 0” are possible. We have mentioned that the “book of rules” supplied to the computer is replaced in the machine by a part of the store. It is then called the “table of instructions”. It is the duty of the control to see that these instructions are obeyed correctly and in the right order. The control is so constructed that this necessarily happens.

TURI1950.3 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 438 : An interesting variant on the idea of a digital computer is a “digital computer with a random element”. These have instructions involving the throwing of a die or some equivalent electronic process; one such instruction might for instance be, “Throw the die and put the resulting number into store 1000”. Sometimes such a machine is described as having free will (though I would not use this phrase myself). It is not normally possible to determine from observing a machine whether it has a random element, for a similar effect can be produced by such devices as making the choices depend on the digits of the decimal for π.

TURI1950.4 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 439 : The idea of a digital computer is an old one. Charles Babbage, Lucasian Professor of Mathematics at Cambridge from 1828 to 1839, planned such a machine, called the Analytical Engine, but it was never completed. Although Babbage had all the essential ideas, his machine was not at that time such a very attractive prospect. The speed which would have been available would be definitely faster than a human computer but something like 100 times slower than the Manchester machine, itself one of the slower of the modem machines. The storage was to be purely mechanical, using wheels and cards. The fact that Babbage’s Analytical Engine was to be entirely mechanical will help us to rid ourselves of a superstition. Importance is often attached to the fact that modem digital computers are electrical, and that the nervous system also is electrical. Since Babbage’s machine was not electrical, and since all digital computers are in a sense equivalent, we see that this use of electricity cannot be of theoretical importance. Of course electricity usually comes in where fast signalling is concerned, so that it is not surprising that we find it in both these connections. In the nervous system chemical phenomena are at least as important as electrical. In certain computers the storage system is mainly acoustic. The feature of using electricity is thus seen to be only a very superficial similarity. If we wish to find such similarities we should look rather for mathematical analogies of function.

TURI1950.5 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 441-442 : This special property of digital computers, that they can mimic any discrete state machine, is described by saying that they are universal machines. The existence of machines with this property has the important consequence that, considerations of speed apart, it is unnecessary to design various new machines to do various computing processes. They can all be done with one digital computer, suitably programmed for each case. It will be seen that as a consequence of this all digital computers are in a sense equivalent.

TURI1950.6 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 444 : There are a number of results of mathematical logic which can be used to show that there are limitations to the powers of discrete-state machines. The best known of these results is known as Gödel’s theorem, and shows that in any sufficiently powerful logical system statements can be formulated which can neither be proved nor disproved within the system, unless possibly the system itself is inconsistent. There are other, in some respects similar, results due to Church, Kleene, Rosser, and Turing. The latter result is the most convenient to consider, since it refers directly to machines, whereas the others can only be used in a comparatively indirect argument: for instance if Gödel’s theorem is to be used we need in addition to have some means of describing logical systems in terms of machines, and machines in terms of logical systems. The result in question refers to a type of machine which is essentially a digital computer with an infinite capacity. It states that there are certain things that such a machine cannot do.

TURI1950.7 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 447 : I do not wish to give the impression that I think there is no mystery about consciousness. There is, for instance, something of a paradox connected with any attempt to localise it. But I do not think these mysteries necessarily need to be solved before we can answer the question with which we are concerned in this paper.

TURI1950.8 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 450 : Our most detailed information of Babbage’s Analytical Engine comes from a memoir by Lady Lovelace. In it she states, “The Analytical Engine has no pretensions to originate anything. It can do whatever we know how to order it to perform” (her italics). This statement is quoted by Hartree (p. 70) who adds: “This does not imply that it may not be possible to construct electronic equipment which will ‘think for itself’, or in which, in biological terms, one could set up a conditioned reflex, which would serve as a basis for ‘learning’. Whether this is possible in principle or not is a stimulating and exciting question, suggested by some of these recent developments. But it did not seem that the machines constructed or projected at the time had this property”.

TURI1950.9 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 458 : An important feature of a learning machine is that its teacher will often be very largely ignorant of quite what is going on inside, although he may still be able to some extent to predict his pupil’s behaviour.

TURI1950.10 Cf. Turing, Computing Machinery and Intelligence, op. cit., p. 460 : We may hope that machines will eventually compete with men in all purely intellectual fields. But which are the best ones to start with? Even this is a difficult decision. Many people think that a very abstract activity, like the playing of chess, would be best. It can also be maintained that it is best to provide the machine with the best sense organs that money can buy, and then teach it to understand and speak English. This process could follow the normal teaching of a child. Things would be pointed out and named, etc. Again I do not know what the right answer is, but I think both approaches should be tried. We can only see a short distance ahead, but we can see plenty there that needs to be done.

CANO2006 Compte-rendu de Isabelle Stengers, Penser avec Whitehead

Pierre CASSOU-NOGUÈS, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, Paris, Seuil, 2002, 582 pages, in Methodos, 6 | 2006, http://journals.openedition.org/methodos/527.

CANO2006.1 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : la thèse de I. Stengers est que l’œuvre de Whitehead à partir de La science et le monde moderne et dans Procès et réalité est travaillée et permet de penser ce que Deleuze appelle “l’actualisation du virtuel”. On le sait, Deleuze oppose le virtuel au possible. Le possible, le possible leibnizien par exemple, est un décalque du réel auquel il ne manque que la réalité et, pour réaliser un possible, il ne reste qu’à le sélectionner comme, dans la Théodicée, Dieu sélectionne le meilleur des mondes parmi tous les mondes possibles. En revanche, l’actualisation du virtuel le transforme et exige une véritable création. Le paradigme du virtuel est l’œuvre à faire, le problème à résoudre qui appelle sa solution mais ne la donne pas.

CANO2006.2 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : Depuis Le concept de nature et, en réalité, les Principia Mathematica, Whitehead distingue dans l’expérience deux sortes de facteurs : d’une part, des facteurs de passage, qui sont singuliers, c’est-à-dire ne se reproduisent pas, qui comportent un devenir et sont étendus dans l’espace comme dans le temps ; d’autre part, des facteurs immobiles, susceptibles de se reproduire et, par conséquent, de faire l’objet d’une reconnaissance, et qui ne sont pas soumis à l’extension. Les facteurs en devenir sont les “événements” dans Le concept de nature,et ces événements deviendront les “entités actuelles” les “occasions d’expérience” dans Procès et réalité.

CANO2006.3 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : La distinction entre “événements” et “objets”, l’idée “d’extension” sont formalisées par Whitehead. Mais on voit comment elles s’amorcent et se justifient dans l’expérience. La présence du rouge est un événement mais cet événement donne lieu à un facteur d’un autre type, le rouge même, qui, dans la mesure où il est dépourvu d’extension spatiale et temporelle, donc de devenir, pourra être considéré comme un “objet éternel”. Whitehead pose à part deux domaines, des événements en relations et des objets éternels qui s’incarnent ou, dit Whitehead, “font ingression” dans les événements. La question sera de savoir si les objets éternels relèvent du possible ou du virtuel, et si leur ingression dans l’événement relève de la réalisation ou de l’actualisation, pour reprendre le vocable deleuzien.

CANO2006.4 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : Cette question prend une forme plus précise dans Procès et réalité. En effet, l’événement est alors doté d’une sorte d’intérieur, consistant en un procès temporel. Ce qui de l’extérieur apparaît comme un événement, avec une extension dans l’espace et dans le temps, est de l’intérieur une sorte de monade, avec un point de vue sur le monde environnant et une expérience mobile, une expérience qui se transforme elle-même dans un procès temporel. Une part de Procès et réalité est consacrée à l’analyse du procès qui définit ce que Whitehead appelle “l’entité actuelle”. Au départ, l’expérience de l’entité actuelle est un donné désordonné fait des événements et des objets éternels, qui constituent le monde environnant. Le procès consiste en une unification de cette expérience initiale et la constitution d’une expérience harmonieuse, pour ainsi dire, ou possédant une valeur intrinsèque. L’entité est alors satisfaite et, de l’extérieur, se donne comme un nouvel événement qui servira de donnée dans l’expérience d’autres entités.

CANO2006.5 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : Cependant, Whitehead est confronté à une double difficulté. Le procès part d’un donné et amène ce donné à une unité, c’est-à-dire le transforme pour lui donner une valeur esthétique. Mais la difficulté est de rendre compte de la direction que prend le procès et, ensuite, de ce qu’il peut introduire de nouveau dans l’expérience. Il faut bien que la direction du devenir de l’entité actuelle puisse être expliquée. Il faut pouvoir donner les raisons de ces choix que semble faire l’entité actuelle. Mais “expliquer”, “donner des raisons”, c’est pointer sur des termes “généraux” qui peuvent se reproduire : “des objets éternels” dans le vocabulaire de Whitehead. Bref, les caractères qui marquent la direction du procès consistent en des objets éternels, et, si le procès peut amener de la nouveauté, c’est que ces objets éternels ne figuraient pas dans le donné initial. La difficulté est de savoir d’où viennent ces objets éternels, qui se superposent au donné initial, issu du monde environnant, et le modifieront. Whitehead refuse qu’il puisse y avoir une efficace propre des objets éternels qui ne sont pas déjà réalisés dans le monde actuel. C’est ce qu’il appelle “le principe ontologique”. Ce qui est susceptible d’agir sur le monde actuel doit déjà se trouver réalisé dans le monde actuel. Il faut donc que les objets éternels, qui dans l’occasion d’expérience modifient le donné initial, se trouvent déjà dans le monde actuel. La solution de Whitehead est alors d’admettre un Dieu qui envisage le domaine des objets éternels, distingue ceux qui sont pertinents dans la situation donnée et les transmet à l’occasion d’expérience. Ainsi, Dieu impose au procès une visée, sous la forme d’un complexe d’objets éternels. L’entité actuelle, le sujet du procès, reste libre dans l’évaluation de cette visée. Elle est libre d’accueillir, ou non, et libre de la façon dont elle accueille, les termes que Dieu lui impose.

CANO2006.6 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : I. Stengers veut montrer que les objets éternels, réalisés dans la pensée de Dieu, ne sont pas un possible mais un virtuel : le procès whiteheadien, qui consiste en une transformation de l’expérience sous la contrainte d’une visée transmise par Dieu, représente alors une analyse de l’actualisation du virtuel.

CANO2006.7 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : En fait, si l’on voit bien comment l’exemple des mathématiques peut illustrer l’actualisation d’un virtuel (c’est l’exemple même de Deleuze, dans Différence et répétition, qui s’appuie sur les textes de Lautman), ce même exemple met justement en évidence les difficultés de l’analyse whiteheadienne du procès subjectif. Je voudrais mentionner deux difficultés. La première est que les termes, les objets éternels, qui interviennent dans le procès, figurent, dès le départ, dans le donné de l’entité actuelle, du sujet, ou bien en tant qu’ils sont reçus du monde environnant ou bien en tant qu’ils sont imposés par Dieu. Or le mathématicien, devant un problème, peut introduire des notions qui ne figuraient pas dans l’énoncé du problème. Par exemple, Cantor veut établir qu’un ensemble infini de points sur la droite est ou dénombrable ou continu et, pour cela, il développe une théorie des ensembles et, en particulier, une théorie des nombres ordinaux, qui n’interviennent pas dans l’énoncé du problème. Le problème initial peut être considéré comme un problème d’analyse mais sa solution, ou la preuve qu’il n’a pas de solution, exige la théorie des ensembles. Ces notions nouvelles, en l’occurrence les notions ensemblistes, que le problème appelle mais qu’il ne contient pas, où les situer dans le schéma whiteheadien ? Si la résolution du problème est un procès au sens de Whitehead, il faudrait, semble-t-il, admettre que les notions nouvelles sont transmises par Dieu au mathématicien. La visée subjective, l’héritage divin, est alors beaucoup plus qu’un “problème posé”, la conviction d’une solution possible, un “cela doit pouvoir être démontré” pour reprendre l’expression de I. Stengers. Cette première difficulté tient à ce que, en mathématiques, le moment proprement créateur se situe entre la position du problème, qui est compréhensible par la communauté des mathématiciens, et sa solution, qui peut exiger une nouvelle théorie, hétérogène à celle dans laquelle est formulé le problème. Le dispositif whiteheadien, avec le statut accordé aux objets éternels, permet-il de faire autre chose que de renvoyer à Dieu ce moment créateur, où s’introduisent des notions nouvelles dans le travail du mathématicien ?

CANO2006.8 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : Maintenant, la question est de savoir s’il est possible de penser ce moment créateur, du travail mathématique, dans le cadre d’une philosophie de la conscience. Cavaillès disait que “le moteur du processus, de création mathématique, “échappe à l’investigation”, ce qui l’amenait à refuser les philosophies de la conscience. Les philosophies de la conscience, qui se fondent sur une analyse introspective, laissent échapper ce moment créateur, que, précisément, il s’agirait d’analyser. Or il est remarquable que Isabelle Stengers, dans sa description, accorde en effet que ce n’est que rétrospectivement et après une modification essentielle que le travail mathématique peut venir à la conscience et faire l’objet d’un récit. Dans son actualité, il est “impossible à raconter” : “Un problème ne peut se diviser que lorsqu’il est, de fait, résolu, lorsque le mathématicien a réussi à lui donner une formulation qui le constitue lui-même en maître de sa démarche et lui permet de procéder à la vérification de sa solution. Il peut alors faire se succéder les étapes ordonnées, procéder à la détermination progressive du paysage où, enfin, la solution devrait s’abattre, tel un aigle sur sa proie : c.q.f.d. Mais, avant la vérification, vient l’errance, les allers-retours, le temps des rêves et des cauchemars où le moi dissous du mathématicien et les fragments indéterminés de ce qui pourrait être solution s’entre-affectent en un trajet impossible à raconter” (Penser avec Whitehead, p.513).

CANO2006.9 Cf. Cassou-Noguès, Compte-rendu de Isabelle Stengers, Penser avec Whitehead, op. cit. : Le dispositif whiteheadien, avec ce procès qui est toujours susceptible de se faire conscience, donne-t-il les moyens de penser ce que I. Stengers appelle elle-même ce moment de “l’errance” ? Il y a tout lieu d’en douter. Nous l’avons vu, le dispositif whiteheadien renvoie le moment créateur du procès subjectif à Dieu, qui donne les termes, le cadre au sein duquel le sujet s’oriente. La difficulté, en réalité, est que ce moment créateur étant “impossible à raconter”, c’est-à-dire échappant à la conscience, Whitehead, qui ne conçoit le procès subjectif que comme conscience possible, ne peut que le supposer déjà accompli et le situer en Dieu. Dieu a résolu tous nos problèmes et nous offre les termes de leur solution, que nous restons libres d’accepter ou de refuser. Ce n’est sans doute pas là une théorie satisfaisante de la création mathématique, ni même une théorie qui s’appliquerait aux descriptions que donne I. Stengers. Il y a, à mes yeux, un hiatus dans le livre d’I. Stengers, entre l’éclairant commentaire des théories de Whitehead et les belles analyses du travail mathématique. Ces analyses entrent difficilement dans ces théories.

EHRE1941 J. Cavaillès. Méthode axiomatique et formalisme

Charles EHRESMANN, Revue critique : J. Cavaillès. Méthode axiomatique et formalisme, in Revue Philosophique de la France et de l’Étranger, Presses Universitaires de France, T. 131, No 1/2 (Janv.-Févr. 1941), p. 81-86.

EHRE1941.1 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 81 : l’essor rapide du calcul différentiel et intégral au XVIIIe siècle a amené une crise due à l’emploi irréfléchi de notions d’infiniment petit, d’infiniment grand et de limite. Plus tard le développement de l’œuvre hardie de Cantor – la théorie abstraite des ensembles – s’est heurtée à des antinomies qui ont provoqué de nombreuses recherches sur le fondement des mathématiques.

EHRE1941.2 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 82 : La théorie autonome de l’infini actuel ne prend corps que par la découverte de l’inégalité de puissances de certains ensembles infinis : l’ensemble des nombres entiers peut être mis en correspondance biunivoque avec l’ensemble des nombres rationnels ou même des nombres algébriques, mais non avec l’ensemble des nombres réels. La notion de puissance des ensembles conduit alors à la théorie des nombres cardinaux. Enfin la notion d’ensemble bien ordonné amène l’admirable et audacieuse création des nombres ordinaux, transfinis. Mais si une réunion quelconque d’objets est considérée comme un ensemble, ce qui est conforme au point de vue ontologique naïf de Cantor, les nombres ordinaux donnent lieu à un paradoxe, celui de Burali-Forti et dont Cantor semble avoir eu la première idée : l’ensemble de tous les nombres ordinaux est contradictoire. Dans ces conditions les autres ensembles considérés par Cantor ne le sont-ils pas également ? Cette question ne pouvait plus être évitée. Elle a amenée les successeurs de Cantor à éliminer autant que possible le recours à l’intuition et à reprendre la construction de la théorie sur une base axiomatique.

EHRE1941.3 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 82-83 : Après une discussion de l’axiome de choix de Zermelo, l’auteur poursuit par l’axiomatique de Zermelo, complétée par Frænkel, et termine par l’axiomatique de von Neumann. Ces systèmes axiomatisés permettent de retrouver les résultats de la théorie de Cantor. Les antinomies, comme celle de Burali-Forti ou celle de Russel, sont éliminées, mais on n’a aucun moyen de démontrer la non-contradiction de ces systèmes. Le problème du fondement de la théorie des ensembles reste donc entier, mais il est inséparable du problème du fondement des mathématiques en général

EHRE1941.4 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 83 : Ayant montré l’insuffisance des solutions empiristes [Poincaré, Baire, Borel, Lebesgue], l’auteur fait une analyse approfondie de l’intuitionnisme de Brouwer qui reprend et dépasse les thèmes essentiels du Kantisme. Pour Brouwer l’évidence mathématique se constate dans une expérience sui generis ; l’activité mathématique est une construction imprévisible, “on ne peut la définir mais la poursuivre”. La logique classique n’est pas adaptée à la mathématique de l’infini ; les principes de cette logique, principes de non contradiction, du tiers exclu et du syllogisme, correspondent à des opérations intuitives sur des ensembles finis ; le principe du tiers exclu doit être abandonné. Au lieu de fonder la mathématique classique, Brouwer est amené à construire un autre édifice dans lequel on retrouvera, mais avec une signification différente, une partie des mathématiques traditionnelles, alors que certaines de leurs méthodes et de leur théories doivent être sacrifiées. Mais la plupart des mathématiciens, n’étant pas convaincus du néant de ces théories qui se sont révélées harmonieuses et fécondes, répugnent à suivre Brouwer, et des efforts tenaces ont été entrepris pour sauvegarder l’intégrité des mathématiques traditionnelles.

EHRE1941.5 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 83-84 : Dans l’évolution mathématique du XIXe siècle deux courants parallèles se manifestent : d’une part, en prolongement des travaux de Grassmann, Hankel, Dedekind sur l’arithmétique et l’algèbre, le logicisme qui cherche à incorporer les mathématiques à une logique formelle réduite à un jeu réglé de symboles ; il aboutit aux systèmes de Dedekind, Frege, Peano, Russel. D’autre part, dans les travaux sur le fondement de la géométrie, comme ceux de Riemann, Pasch, Hilbert, se précise la méthode axiomatique qui consiste à poser un certain nombre de propositions primitives ou axiomes à partir desquels on peut construire une théorie, en utilisant le raisonnement logique traditionnel. L’apparition de la méthode axiomatique est un caractère essentiel des mathématiques du XIXe siècle. S’opposant à la méthode génétique qui exige que tous les concepts soient engendrés à partir du nombre entier, “seul créé par le bon Dieu”, elle conduit à la formation de théories autonomes et permet de dégager la notion même de théorie mathématique. Mais permet-elle de fonder les théories définies axiomatiquement ? C’est en étudiant cette question que Hilbert a dû examiner la notion d’indépendance des axiomes et surtout les notions de non contradiction, de saturation et de catégoricité d’un système d’axiomes. Mais si l’on veut préciser et démontrer qu’une théorie possède une de ces propriétés, on doit commencer par formaliser complètement le raisonnement mathématique. La méthode axiomatique appelle le formalisme.

EHRE1941.6 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 84-85 : L’auteur étudie alors la notion de système formel, le rôle du signe d’après Hilbert et expose les systèmes formels de Russell et Hilbert. Dans un système mathématique formalisé, les propositions seront des assemblages de signes ou des formules, les démonstrations seront des dessins-démonstrations. Mais ces assemblages de signes posent à leur tour des problèmes qui font appel à la pensée effective : par exemple, démonstrabilité d’une formule, non contradiction ou saturation du système. Toute mathématique formalisée a donc pour corrélat une zone de pensée effective, la métamathématique. Fonder un système mathématique revient alors pour l’école formaliste à démontrer la non contradiction et la saturation de ce système, problèmes de la métamathématique. Pour l’étude des problèmes métamathématiques il sera essentiel de n’utiliser que des méthodes intuitivement sûres ; sinon le problème du fondement réapparaîtrait pour la métamathématique. Par conséquent on se bornera à des méthodes constructives finies. Ce principe finitiste est respecté par les démonstrations de non contradiction données par von Neumann et par Herbrand ; elles vont être examinées par l’auteur qui esquissera une nouvelle démonstration du théorème d’Herbrand. Cependant ces démonstrations ne s’appliquent qu’à des formalismes relativement pauvres : Herbrand réussit à démontrer la non contradiction d’une arithmétique restreinte mais non de l’arithmétique générale ; toutes les méthodes échouent devant l’axiome général d’induction complète. Les limites de la métamathématiques hilbertienne sont définitivement étables par le théorème de Gödel. En partant de l’arithmétique formalisée, Gödel réussit à formaliser dans cette arithmétique même les raisonnements finis de la métamathématique correspondante, ce qui lui permet de montrer que cette arithmétique n’est pas saturée : il y a des propositions non décidables, c’est-à-dire dont la vérité ou la fausseté ne peuvent être démontrées ; en particulier la non contradiction de la théorie ne peut être décidée. Restait encore l’espoir de démontrer la non contradiction de l’arithmétique en abandonnant le point de vue finitiste dans la métamathématique. C’est à Gentzen que l’on doit une telle démonstration ; en utilisant un segment déterminé de la classe II des nombres ordinaux transfinis, elle sort du cadre de la métamathématique de Hilbert, mais satisfait aux exigences intuitionnistes.

KIRS2012 Les dynamiques du déferlement informatique

Émile KIRSCHEY, Les dynamiques du déferlement informatique. De la machine de Turing à la production marchande, l’informatique comme moment, forme et détermination du capital, in Le monde en pièces. Pour une critique de la gestion. 1. Quantifier, Groupe Oblomoff, Paris, Éditions La Lenteur, 2012.

KIRS2012.1 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : il nous est apparu primordial de mettre en lumière la quantification comme dimension spécifique de la gestion à l’époque industrielle. La problématique ainsi posée exprime de façon implicite que quantifier n’est pas simplement compter, ou même comptabiliser, mais représente une activité productive inscrite dans les particularités de notre époque. Cette activité ne peut être réduite au dénombrement et à la compilation qui représentaient antérieurement les fondations, mais aussi les limites d’un gouvernement par les nombres. Ainsi, le terme d’inflation qui vient à l’esprit pour décrire les phénomènes contemporains de diffusion des chiffres ne renvoie pas seulement à la multiplication des usages que l’on peut en faire – et qui s’avèrent de moins en moins évidents à justifier concrètement –, mais bien en amont à une frénésie productive d’accumulation de chiffres. Cette inflation s’appuie sur un appareillage technique lui-même de plus en plus développé. L’informatique représente aujourd’hui le front le plus avancé de ce développement, à la fois par la généralisation de cet outil dans tous les aspects de nos vies, mais aussi parce qu’il constitue en soi le moyen le plus abouti techniquement pour automatiser le calcul. Cette automatisation déploie ainsi à une échelle élargie la dimension productive qui différencie la quantification d’une simple comptabilité. Si la trajectoire qui voit la quantification devenir un fait déterminant de nos sociétés débute bien antérieurement à l’avènement de l’informatique, sa mécanisation, inscrite dans une machine dédiée, offre un terrain particulier pour en faire l’analyse critique.

KIRS2012.2 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : L’ordinateur est une machine, plus exactement un automate logique universel, c’est-à-dire une machine capable d’exécuter mécaniquement n’importe quelle séquence d’opérations logiques ou manipulations de symboles formels. “Mécaniquement” veut dire que les opérations s’enchaînent de façon déterminée, sans échappatoire possible : en partant d’un état A, elle arrive forcément à un et un seul état B qui est déjà contenu virtuellement dans A. Comme l’ordinateur a la capacité d’aller de A à B beaucoup plus rapidement que n’importe quel être humain, il nous semble que l’ordinateur développe une capacité magique à faire des choses (in)sensées, mais il ne s’agit pourtant que de parcourir un chemin balisé pas à pas. Le concept d’ordinateur a été inventé au cours de recherches tentant d’identifier les fondements de toute théorie mathématique. Bien que ces recherches aient fini par conduire à une impasse, elles ont permis en passant d’établir les éléments aussi bien théoriques (machine de Turing) que pratiques (architecture de von Neumann), nécessaires à la construction de cette machine inédite. La définition théorique de l’ordinateur, qui contient toute la logique de son développement concret ultérieur, met en place, comme nous allons le mettre en lumière progressivement, les ressorts d’une dynamique intrinsèque. Cette définition s’appuie sur la description imagée d’un dispositif (la machine de Turing) qui, par sa simplicité et son évocation en terme quasi-concret, est une invitation à réaliser matériellement cette puissance potentielle. Il est donc nécessaire de se pencher plus en détail, non pas sur l’ingénieuse mise en œuvre des premiers ordinateurs, mais sur le “petit mécanisme” conceptuel qui est mis en place pour en énoncer le principe.

KIRS2012.3 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : L’article dans lequel Turing expose le concept de sa “machine” est avant tout une tentative de résolution du problème dit “de la décision”. Il s’agit d’un problème de logique formelle, dérivé de la recherche de fondements en mathématiques, qui peut s’énoncer comme suit : peut-on déterminer “mécaniquement” (c’est-à-dire par le simple enchaînement pas à pas d’opérations automatiques) si un énoncé est dérivé des seuls axiomes de l’égalité, c’est-à-dire s’il s’agit d’un théorème de la logique du premier ordre égalitaire. Pour cela, il va effectivement décrire le dispositif mécanique le plus épuré qui puisse prendre en charge la réalisation d’un processus déductif. C’est la fameuse machine de Turing : la mécanisation de l’exécution d’un calcul. Est “décidable” un problème auquel une machine peut fournir une réponse en un nombre fini d’étapes. Malgré l’aspect “virtuel” de ce genre de machine, on est bien dans une dimension concrète : la mécanisation d’un calcul donné afin de répondre à une question concernant un énoncé particulier. Dans un deuxième temps, Turing s’attaque à la généralisation du procédé de mécanisation de la décision afin de déterminer s’il existe une solution au “problème de la décision” sous la forme d’une procédure décisionnelle générale. Il faut se pencher sur la façon dont Turing répond à cette question pour comprendre comment apparaît un pôle abstrait de l’ordinateur (et comment l’ordinateur rend ainsi indissociable le pôle concret et le pôle abstrait de la décidabilité). La réponse de Turing – obtenue par une démonstration formelle dans les chapitres 8 à 10 de son article – est négative. Elle va fonder une frontière entre décidable et indécidable, au sens du calcul automatisé. Le lien avec la distinction entre calculable (réalisable par une machine de Turing en un nombre d’étapes fini) et non calculable vient du fait que chaque décision – au sens de “détermination de la validité d’un énoncé sur la base des axiomes de la logique de premier ordre égalitaire” – peut être encodée dans un nombre calculé par une machine de Turing. Au cours de sa démonstration, il franchit une étape fondamentale pour l’émergence du concept d’ordinateur : puisque le fonctionnement de n’importe quelle machine de Turing peut-être encodé dans un nombre calculable, il est possible de concevoir une machine de Turing qui simule n’importe quelle machine de Turing, c’est-à-dire une machine de Turing universelle. Avec une machine de Turing universelle, on accède donc à la totalité abstraite des calculs possibles en un nombre fini d’étapes. On parle de totalité abstraite parce qu’elle ne se caractérise pas par l’inventaire exhaustif ou synthétique de ses éléments mais parce qu’elle définit un domaine, celui de la décidabilité, dont la frontière n’est elle-même pas “décidable”, bien qu’on puisse en démontrer l’existence logique (tout simplement parce qu’il existe des énoncés non-décidables, des “décisions” auxquelles aucune machine de Turing n’est en mesure d’aboutir) Un ordinateur n’est pas autre chose qu’une machine de Turing universelle matérialisée à laquelle on confie le rôle d’exécuter des machines de Turing particulières que sont les applications. Il présente donc ce double aspect, deux faces qui ne peuvent être disjointes, l’une concrète, l’autre abstraite. Son aspect concret est dans le fait d’être une machine de Turing “tout court”, c’est-à-dire d’exécuter mécaniquement un calcul (combinaison d’un algorithme et d’un ensemble de données). Son aspect abstrait, c’est d’être une machine de Turing universelle, c’est-à-dire de potentiellement aboutir à une décision pour n’importe quel énoncé décidable. Ainsi, les combinaisons d’un logiciel et des données inscrits ensemble dans la mémoire d’un ordinateur sont autant de machines de Turing, composant ainsi la face concrète de l’informatique. Mais ce même ordinateur du fait de son architecture contient potentiellement l’ensemble indéfini des machines de Turing, ce qui compose la face abstraite de l’informatique. L’architecture interne d’un ordinateur constitue l’essence de la lignée technique propre à l’informatique que von Neumann a conceptualisé à partir de la notion de machine de Turing universelle : une unité de commande agissant sur une mémoire, suivant une séquence d’action inscrite dans cette même mémoire. Philippe Breton situe cette invention concrète dans l’EDVAC (1945), dont l’originalité est de disposer d’une mémoire contenant à la fois les données et les instructions de calcul. Dans les machines à calculer qui précèdent l’ordinateur, seules les données étaient en mémoire, tandis que les instructions restaient figées dans des branchements mécaniques, électromécaniques puis électroniques. On ne pouvait alors parler d’informatique mais seulement d’un ensemble de machines toujours fini et dépourvu en son sein du principe de l’extension de cet ensemble. Il manque à cette lignée le pôle abstrait de l’informatique sans lequel on ne peut parler de dynamique interne à l’ordinateur, mais seulement d’usages concrets qui commandent, au coup par coup, la fabrication de machines à calculer particulières dédiées à des usages particuliers. L’informatique n’est donc pas un domaine technique comme un autre, mais une technique générique, non seulement générale dans ses applications possibles, mais contenant en elle-même le principe générateur de l’extension du domaine de ces applications.

KIRS2012.4 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Bien entendu la fabrication et la mise en œuvre concrète des ordinateurs rencontrent immédiatement des limites que sont les capacités techniques et industrielles de l’époque. D’autres limites “matérielles” au déploiement de l’informatique sont, respectivement, la capacité à fournir des données aux ordinateurs, qui suppose toujours de lourds processus d’acquisition des informations (saisie), la mise en forme préalable du monde social pour satisfaire des catégories générales (investissements de forme) et la création de modèles dynamiques tirant profit de ces formes (ingénierie logicielle). C’est cependant en s’appuyant aussi sur de telles limites que le processus du déferlement informatique est relancé vers un élargissement du domaine du “mécaniquement décidable” et chaque étape sur la trajectoire de ce déferlement en renouvelle les ressorts. En effet, c’est l’écart permanent entre d’une part la totalité indéfinie des calculs envisageables et d’autre part l’ensemble des décisions “mécanisées” à un moment donné qui prolonge cette trajectoire, et non les seuls besoins concrets qui leur servent de justifications.

KIRS2012.5 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Dans les discours managériaux et les pratiques qu’ils influencent, les données numériques ont explicitement basculées dans les catégories du capital et de la marchandise. Elles constituent dorénavant tout à la fois un investissement requis pour rester dans la course et un patrimoine destiné à la vente.

KIRS2012.6 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Certes, la quantification se déploie sur la base d’un travail de comptage tout azimut, mais elle n’est pas la simple conséquence de ce recensement. Au contraire, elle le suscite, car c’est plutôt le recensement qui trouve ses justifications dans les potentialités de la quantification automatisée, forme abstraite et auto-référentielle. Il y a une visée gestionnaire abstraite car indéfinie s’appuyant sur un outil suffisamment générique pour offrir la perspective d’une saisie totale, qui se combine avec un travail concret et sans cesse renouvelé d’alimentation par et pour l’outil en question.

KIRS2012.7 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Une machine de Turing universelle a donc la structure logique – au sens épistémologique et non mathématique – de la marchandise marxienne. Sa valeur d’usage est d’aboutir à une décision donnée, sa valeur “tout court” est d’être capable d’aboutir à n’importe quelle décision.

KIRS2012.8 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : La contradiction qui est au cœur du capitalisme est la même que celle qui est au cœur de l’informatique. Elle aboutit dans les deux cas au déferlement car le principe abstrait qui transite par des éléments concrets ne se maintient qu’en s’ajoutant à lui-même et donc en renouvelant indéfiniment ce mouvement. L’informatique ne peut être envisagée que dans le monde de la marchandise, concrétisée à un certain stade de son développement et engagée dans le déploiement du même mouvement tautologique. C’est à la fois un produit et une figure de la valeur. Faire une critique conséquente de l’informatique n’est ni plus ni moins que développer à nouveaux frais une critique des abstractions réelles (ou fétiches) qui dominent et orientent notre société aujourd’hui globalisée, telles que valeur, travail et… quantification. L’informatique démultiplie la portée et l’emprise de ce qui nous domine – parfois sous le masque de l’émancipation –, à la fois par les moyens qu’elle apporte, mais aussi possiblement par l’affinité de ses ressorts avec ceux que déploient l’économie marchande. À ce titre, une critique de ces dominations ne peut s’affranchir d’une critique de l’informatique, mais ne doit pas se limiter au fait que l’informatique se présente comme un outil au service des dominations. Il faut d’abord et avant tout prendre en compte le fait que l’informatique est peut-être la première lignée technique de l’histoire qui reprend les ressorts logiques du déploiement de la société marchande industrielle au lieu d’en constituer simplement une base matérielle de plus. Toute l’activité des sociétés dans lesquelles règnent les conditions numérisées de production s’annonce comme une immense accumulation de calculs. Cependant, cette accumulation ne doit pas être réduite à un déploiement contingent ou, au contraire, téléologique de virtualisations des travaux ou des échanges. Comme pour la valeur des marchandises, cette accumulation est animée par la dialectique d’une totalité abstraite qui entraîne avec elle tout le réel pour se perpétuer, sa seule dimension viable étant l’accroissement.

KIRS2012.9 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : La frontière entre calculable et non calculable étant de même nature logique que celle entre productif et improductif au sens de la valeur, par exemple. Le genre de dialectique sans résolution qui démarre avec la marchandise ou le calcul automatisé forme une classe de dynamiques se couplant les unes avec les autres.

ARRI2017 Du caractère fétiche des techniques numériques

Éric ARRIVÉ, Du caractère fétiche des techniques numériques. Au-delà de la sociologie des usages et du déterminisme de la technique, in Interfaces numériques, Volume 4, n° 3, 2015, p. 509-524.

ARRI2017.1 Cf. Arrivé, Du caractère fétiche des techniques numériques, op. cit., p. 512 : les techniques numériques sont caractérisées par le fait qu’elles mettent en œuvre une machine particulière, l’ordinateur.

ARRI2017.2 Cf. Arrivé, Du caractère fétiche des techniques numériques, op. cit., p. 513-515 : On parle souvent de l’ordinateur comme d’une machine à traiter de l’information. Si cet aspect, sous lequel la machine se présente à nous, ne peut être nié, ce n’est cependant pas une dimension propre de l’ordinateur. D’une part, il existe d’autres machines dédiées à des tâches de traitement de l’information et qui ne sont pas des ordinateurs, et d’autre part, l’architecture de la machine est seulement conçue pour effectuer la manipulation automatique d’arrangements. Préalablement ou ultérieurement à ces arrangements et à leur manipulation, l’attachement de symboles, significations et donc d’informations est du ressort de leurs opérateurs, pas de la machine elle-même. Un arrangement, c’est un état particulier de la machine-ordinateur, qui n’a pas de signification a priori, en tout cas pour lequel aucune signification associée n’est nécessaire pour le fonctionnement même de cette machine. J’utilise le terme d’“arrangement” plutôt que d’“état” pour bien marquer le fait qu’il s’agit toujours d’une dimension matérielle et non pas virtuelle. Que ce substrat matériel soit pris en charge par des relais électro-mécaniques ou des transistors gravés à la surface d’un cristal de silicium, cela n’a d’impact que sur les performances, le principe de l’ordinateur reste le même. Il est plutôt inscrit dans la manière dont ces composants élémentaires sont agencés pour mettre en œuvre les principes architecturaux qui définissent ce qu’est un ordinateur. Cette architecture consiste, non seulement à rendre possible la transition d’un arrangement à un autre de manière automatisée, mais de plus, et c’est un aspect déterminant, à rendre possible la prise en charge de n’importe quelle séquence de transitions. Non seulement l’ordinateur est la machine capable de déployer automatiquement le cheminement d’un arrangement A à un arrangement B selon des règles formelles exécutées pas à pas, mais c’est aussi la machine qui peut prendre en charge toutes les règles formelles imaginables et applicables à ces arrangements. Ici se situe l’originalité de la lignée technique particulière représentée par la collection aujourd’hui innombrable des ordinateurs. Deux facettes sont inextricablement liées dans un unique dispositif : en effet, la capacité à exécuter une règle formelle donnée s’appuie sur celle plus générale permettant d’exécuter n’importe quelle règle formelle – qui peut le plus, peut le moins. Mais cette même capacité générale n’est elle-même qu’un cas particulier de règle formelle. Il s’agit là de la matérialisation d’un concept qu’Alan Turing avait défini avec la machine de Turing universelle (Turing Alan (1936), On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, vol. 2, n° 42, pp. 230-265.) et pour lequel John von Neumann avait proposé un modèle (von Neumann John (1945). First Draft of a Report on the EDVAC, Université de Pennsylvanie, Philadelphie.) qui est la base de l’immense majorité des ordinateurs aujourd’hui construits. La généricité de l’ordinateur traduit donc deux aspects, deux facettes, comme l’avers et le revers d’une même pièce, qui marquent la spécificité de l’ordinateur : d’une part, un caractère général du fait de pouvoir déployer n’importe quelle procédure formelle, d’autre part, un caractère génératif du fait de réaliser cette potentialité en déployant une procédure particulière à portée universelle qui peut elle-même produire n’importe lequel des cas particuliers envisageables. On est donc en présence d’une technique qui présente deux moments intriqués aux propriétés inédites, et qu’aucune autre technique, donc, n’avait jusque là inscrits dans le cœur même de son fonctionnement. Le premier moment est constitué par le déroulement automatique d’une procédure formelle qui est associé à un usage particulier que l’on a pu formaliser. Le deuxième moment est constitué par le déroulement automatique d’une procédure universelle pour lequel le contenu propre de la procédure particulière n’est qu’un support nécessaire mais indifférent. Il y a donc pour le premier moment un contenu concret – même si cette concrétude peut avoir par ailleurs des objectifs très abstraits et virtuels, comme le calcul d’un indice boursier ou des interactions au sein d’un jeu en ligne. Le deuxième moment est, quant à lui, purement abstrait, c’est-à-dire qu’il relève d’une catégorie universelle sans égard pour le contenu concret, une propriété distincte qui n’est pas la généralisation d’un ensemble – comme le serait par exemple, le genre “animal” en tant que généralisation spéculative de tous les individus partageant des propriétés communes. Il s’agit plutôt d’un dispositif générique permettant de produire ces individus particuliers que sont telle ou telle procédure formelle. Ce genre d’abstraction – ou soustraction de tout contenu concret, particulier, spécifique – présente aussi une autre différence fondamentale par rapport à la notion de généralisation. Autant la catégorie d’“animal” est une pure virtualité – personne n’a jamais été mordu par un “animal” en soi, mais toujours par un individu bien concret rassemblé dans cette catégorie par un simple mouvement de l’esprit –, autant le genre d’abstraction contenu dans les ordinateurs a une réalité bien tangible avec des effets sur le monde. L’abstraction est ici en quelque sorte matérialisée, ou bien encore on peut parler, sans que cela soit paradoxal compte tenu des définitions posées ci-dessus, d’abstraction réelle.

ARRI2017.3 Cf. Arrivé, Du caractère fétiche des techniques numériques, op. cit., p. 515-516 : Jean Lassègue propose, dans son ouvrage au sujet de Turing, une analyse des thèses concernant sa machine universelle qui permet de mettre en évidence le caractère dynamique du dispositif qu’il invente “sur le papier” (Lassègue Jean (1998). Turing, Les Belles lettres, Paris.). Ce caractère dynamique se retrouve de même dans l’ordinateur en tant que machine qui en réalise le principe. Il relève tout d’abord que la classe des fonctions calculables – ou procédures formelles comme je les ai nommées jusqu’ici – n’a pas de critère permettant de statuer a priori si telle ou telle fonction en fait partie. Comme l’écrit Lassègue, il y a là “une exhortation à la recherche de la machine de Turing adéquate” (Lassègue, 1998, p. 70) pour tel ou tel usage envisagé, cette recherche s’appuyant sur la capacité abstraite mais bien réelle de l’ordinateur à déployer toutes les fonctions calculables. De plus, Lassègue note le caractère tautologique de cette recherche dans l’espace de la totalité abstraite des calculs envisageables, qui découle du fait que “le concept de machine de Turing est, d’un même mouvement, la caractérisation de la notion de calcul et l’outil permettant d’explorer le domaine du calculable.” (Lassègue, 1998, p. 91) Ainsi, la face abstraite de l’ordinateur n’est pas seulement une propriété spécifique de cette lignée technique, mais il s’agit aussi d’un ressort qui agit de l’intérieur pour animer son déploiement sur le domaine sans cesse renouvelé des usages que l’on réussit à formaliser pour les rendre adéquats à son fonctionnement. Les usages sont donc des moments incontournables du déploiement des techniques numériques. Mais on ne peut se contenter de les envisager comme des moments isolés. On peut bien sûr les situer dans des réseaux d’actions qui déploient des déterminations complexes entre ces moments concrets. Mais surtout, il faut garder à l’esprit que ces moments sont simultanément les supports d’une totalité abstraite. Cette totalité est le cadre même de leurs déploiements et les inscrit dans une dynamique qui les subsume. Les moments concrets doivent donc être interprétés comme des phénomènes superficiels et apparents de cette dynamique sous-jacente.

ARRI2017.4 Cf. Arrivé, Du caractère fétiche des techniques numériques, op. cit., p. 518-519 : Les techniques numériques semblent donc prolonger le genre de formes – et la dynamique résultante – qui animent nos sociétés contemporaines dont la reproduction se fonde sur le travail producteur de marchandises. Déjà, dans le célèbre fragment sur la machinerie des Grundrisse (Marx Karl (2011). Manuscrits de 1857-1858 dits “Grundrisse”. Éditions sociales, Paris, p. 654), Marx avait noté que les techniques industrielles avaient ceci de particulier qu’elles tendaient à une mise en adéquation formelle de leur mode d’existence par et dans le capital. Cependant, cette mise en adéquation était limitée par le fait que seule la part concrète était concernée, c’est-à-dire l’usage d’un principe physique ou organisationnel particulier inscrit dans un dispositif avec un objectif défini. Avec les techniques numériques, cette limite semble caduque puisque la part abstraite en est une partie intégrante. Cette machinerie particulière est en effet intrinsèquement fondée sur une potentialité universelle dont la mise en œuvre est le passage obligé pour adresser tel ou tel usage particulier. Chacun de ces usages n’est à son tour qu’une instance de cette potentialité universelle, au prix d’un effort – parfois conséquent pour certaines applications, souvent imperceptible pour leurs utilisateurs – de formalisation adéquate à cette totalité abstraite, ce que l’on appelle communément l’informatisation.

ARRI2017.5 Cf. Arrivé, Du caractère fétiche des techniques numériques, op. cit., p. 520 : Il est d’ores et déjà possible de relever des terrains favorables au questionnement de la double nature – abstraite et concrète – des techniques numériques. Il suffit de se pencher sur les phénomènes sociaux saisis à l’aune de leur nouvelle dimension algorithmique. Derrière ce mot-clé, se situe en effet bien souvent la problématique de la double nature évoquée. Les usages, toujours particuliers, une fois inscrits dans une application numérique via un algorithme, se trouvent ainsi connectés à l’ensemble indéfini des applications numériques envisageables par ailleurs. On peut citer entre autres les travaux d’Antoinette Rouvroy et Thomas Berns sur la gouvernementalité algorithmique (Rouvroy Antoinette et Berns Thomas (2013). Gouvernementalité algorithmique et perspectives d’émancipation. Réseaux, vol. 31, n° 177, pp. 163-196.), avec sa décomposition fine des différents temps de la pratique statistique telle qu’elle se développe à l’heure du datamining. Ou bien encore l’ouvrage récent de Carolyn Kane au sujet des “couleurs algorithmiques” (Kane Carolyn (2015). Chromatic Algorithms, University of Chicago Press, Chicago.), qui interroge aussi, mais dans un tout autre registre, les conséquences sur notre perception du monde d’une médiation par les algorithmes. Enfin, il me semble que l’émergence récente des monnaies cryptographiques – et notamment la plus connue, Bitcoin (Nakamoto Satoshi (2009). Bitcoin : A Peer-to-Peer Electronic Cash System. http://www.bitcoin.org/bitcoin.pdf) – offre des conditions optimales pour enquêter sur la double nature des techniques numériques, de par le caractère générique des algorithmes mis en œuvre, et notamment le fait qu’ils se détachent explicitement de tout contenu concret comme dans la notion de preuve de travail (Jakobsson Markus et Juels Ari. (1999). Proofs of Work and Bread Pudding Protocols. Comms and Multimedia Security’99.).

BACH2004 Signes formels et computation numérique

Bruno BACHIMONT, Signes formels et computation numérique : entre intuition et formalisme, in SHRAMM H., SCHWARTE L. LAZARDZIG J. (eds), Instrumente in Kunst und Wissenschaft – Zur Architecktonik kultyreller Grenzen im 17, Warlter de Gruyter Verlag, Jahrhundert, Berlin, 2004, http://www.utc.fr/~bachimon/Publications_attachments/Bachimont.pdf.

BACH2004.1 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 2 : L’intuitionnisme géométrique cartésien correspond au fait que le signe présente directement et immédiatement (i.e. sans médiation) le contenu dont il est le signe.

BACH2004.2 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 2 : Le formalisme algébrique leibnizien emprunte une toute autre voie. En effet, l’évidence restant entachée de subjectivité et d’arbitraire, le mathématicien formaliste mobilise un symbolisme qu’il manipule à travers une combinatoire réglée par des lois formelles, c’est-à-dire appliquées uniquement en vertu de la forme indépendamment du contenu signifié.

BACH2004.3 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 2 : Ainsi, le raisonnement est mené de manière assurée, non parce qu’il s’appuie sur un contenu manifesté et rendu visible par un symbolisme géométrique, mais parce qu’il mobilise la manipulation de signes matériels effectifs qu’il suffit de considérer en eux-mêmes et indépendamment de ce qu’il signifie.

BACH2004.4 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 3 : C’est ce qui se passe déjà dans l’arithmétique mais en fait surtout en algèbre : à partir d’une correspondance établie initialement entre les symboles et des entités, extérieures au symbolisme, qu’ils signifient, la manipulation algébrique est menée en ne considérant plus ces entités pour, finalement, réassocier aux symboles par lesquels le résultat se réduit les entités correspondantes et trouver la solution recherchée.

BACH2004.5 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 3-4 : L’informatique peut être comprise comme une automatisation des raisonnements menés dans les systèmes formels, ces systèmes algébriques formalisant le raisonnement logique et mathématique. Ces systèmes algébrisent en effet l’activité mathématique elle-même et non les objets sur lesquels cette dernière porte habituellement. Dans cette optique, l’informatique est une conséquence directe et extrême du formalisme algébrique leibnizien, repris comme le sait par D. Hilbert lors de la crise des fondements des mathématiques : la manipulation aveugle de signes considérés indépendamment de leur contenu permet de mener à bien les calculs.

BACH2004.6 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 4 : Il faut en effet distinguer deux manières très différentes d’utiliser les systèmes informatiques. Selon la première, on considère un ensemble d’entités mathématiques représentées par un symbolisme précisément défini. Ce symbolisme, manipulé par des règles formelles (indépendamment du contenu signifié), peut être mis en œuvre via un programme. Le comportement aveugle du programme reste cependant adéquat au contenu, à l’instar du formalisme mathématique ou leibnizien. Le résultat du programme est intelligible car on sait avec exactitude et précision associer à chaque signe du symbolisme informatique une entité du monde mathématique étudié. Dans la seconde situation, on ne manipule pas des symboles associés à un modèle mathématique, mais des symboles librement interprétés selon des règles empruntées à la langue générale ou la langue spécialisée d’un domaine d’activité. Ces symboles, appartenant au lexique de ces langues, n’ont pas de signification précise (au sens des formalismes mathématiques et logiques) et il n’est pas possible de leur associer de manière univoque une entité signifiée et associée. Autrement dit, alors qu’on dispose d’un formalisme dans la mesure où les symboles sont manipulés uniquement en fonction de leur forme et indépendamment du contenu, ces symboles, contrairement au symbolisme algébrique, n’ont pas de signification précise.

BACH2004.7 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 4 : Comment comprendre la nature de ce que nous faisons avec nos machines informatiques quand il ne s’agit pas seulement d’automatiser nos symbolismes algébriques issus des sciences mathématiques, mais de mécaniser la manipulation de symboles comme s’ils étaient algébriques (c’est-à-dire en congédiant leur signification pendant leur manipulation) alors qu’ils ne le sont pas (les comprendre, c’est les considérer dans leur matérialité physique avec leur signification sans jamais les dissocier).

BACH2004.8 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 5 : Il faut donc comprendre comment ces outils informatiques ou numériques mettent au service de la puissance d’invention du sens la combinatoire des symboles.

BACH2004.9 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 5 : Les technologies numériques s’inscrivent en effet dans le mouvement d’extériorisation et de prothétisation de la pensée, suivant lequel des opérations intellectuelles sont consignées et confiées à des outils et instruments matériels, déchargeant ainsi la pensée et lui permettant de s’intéresser à d’autres choses. Cependant, en étant confiées à des instruments et supports matériels, les tâches intellectuelles changent de nature et, quand l’esprit se réapproprie leur résultat, il y trouve autre chose que ce qu’il aurait trouvé s’il s’était chargé lui-même de ces tâches.

BACH2004.10 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 6 : la mutation numérique n’est pas un progrès, ou une régression, mais une mutation qui s’impose à nous même si nous en sommes les auteurs.

BACH2004.11 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 11 : Si l’écriture permet la synthèse du temps dans l’espace, en permettant que ce qui est dispersé dans le temps (flux de la parole) soit rassemblé dans l’unité d’une représentation spatiale synoptique, offrant au regard de l’esprit la possibilité de repérer des configurations synthétiques constituant de nouveaux concepts, l’informatique permet le déploiement de l’espace en temps. En effet un programme n’est pas autre chose qu’un dispositif réglant un déroulement dans le temps, le calcul ou l’exécution du programme, à partir d’une structure spécifiée dans l’espace, l’algorithme ou programme. L’algorithme spécifie que, les conditions initiales étant réunies, le résultat ne peut manquer d’être obtenu, selon une complexité donnée. Le programme est donc un moyen de certifier l’avenir, d’en éliminer l’incertitude et l’improbable pour le rapporter à la maîtrise. Le temps de l’informatique n’est donc pas une disponibilité à ce qui va venir, aussi improbable que cela puisse être, mais la négation du futur dans son ouverture pour le réduire à ce qui peut s’obtenir à partir du présent. Le calcul, c’est le devenir – dans l’ouverture, la disponibilité à l’Être – réduit à ce qui est à-venir, dans la certitude de la prévision formalisée.

BACH2004.12 Cf. Bachimont, Signes formels et computation numérique, op. cit., p. 15 : Il est facile de reconnaître dans le programme de Hilbert l’optimisme du symbolique que professait Leibniz : le symbolisme algébrique permet de guider avec assurance et certitude la conduite des raisonnements et d’éviter les contradictions et les paradoxes. Cet optimisme, fécond puisqu’il a permis d’engendrer les formalismes logiques et mathématiques et leur manipulation formelle et automatisable, n’en bute pas moins sur des limites infranchissables.

DUBA1948 Vers la machine à gouverner

Dominique DUBARLE, Une nouvelle science : la cybernétique. Vers la machine à gouverner…, Le Monde, 28 décembre 1948, p. 47-49.

DUBA1948.1 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 47 : Les premiers grands relais du cerveau humain viennent de prendre naissance, proportionnellement aussi neufs, aussi puissants par rapport aux outils usuels du calcul qu’un tour automatique l’est par rapport à la lime du serrurier. Le fait est vraisemblablement d’importance encore plus considérable que ne le sont la conquête de l’énergie nucléaire et la réalisation de la bombe atomique.

DUBA1948.2 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48 : Toutes ces machines ont un caractère commun. Elles recueillent des données et travaillent méthodiquement sur la base d’un problème déterminé qu’elles ont à résoudre plus ou moins parfaitement à partir des données convenables, jusqu’au moment où elles fournissent une solution et exécutent au besoin ce que prescrit cette solution. Elles font en outre ce travail mieux, beaucoup plus complètement et surtout beaucoup plus rapidement que l’homme laissé à ses seules disponibilités usuelles. Disons que ce sont des machines à rassembler et à élaborer de l’information en vue de résultats qui peuvent être aussi bien des résultats de décision que des résultats de connaissance. Ces créations sont encore en pleine enfance. Mais les premiers balbutiements de cette technique nouvelle attestent déjà un évident surclassement des pouvoirs organiques du cerveau de l’homme.

DUBA1948.3 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48 : Ces machines d’un type si nouveau ont d’ailleurs ceci de remarquable que d’une part elles supposent des connexions tout à fait inédites entre des sciences qui nous semblent à l’ordinaire fort éloignées les unes des autres et que, d’autre part, elles permettent de déchiffrer par analogie, probablement très avant, les mécanismes de certains fonctionnements organiques qui se tiennent à la base de notre vie mentale.

DUBA1948.4 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 48-49 : Une des perspectives les plus fascinantes ainsi ouvertes est celle de la conduite rationnelle des processus humains, de ceux en particulier qui intéressent les collectivités et semblent présenter quelque régularité statistique, tels les phénomènes économiques ou les évolutions de l’opinion. Ne pourrait-on imaginer une machine à collecter tel ou tel type d’informations, les informations sur la production et le marché par exemple, puis à déterminer en fonction de la psychologie moyenne des hommes et des mesures qu’il est possible de prendre à un instant déterminé, quelles seront les évolutions les plus probables de la situation ? Ne pourrait-on même concevoir un appareillage d’état couvrant tout le système de décisions politiques, soit dans un régime de pluralité d’États se distribuant la terre, soit dans le régime apparemment beaucoup plus simple, d’un gouvernement unique de la planète ? Rien n’empêche aujourd’hui d’y penser. Nous pouvons rêver à un temps ou une machine à gouverner viendrait suppléer – pour le bien ou pour le mal, qui sait ? – l’insuffisance aujourd’hui patente des têtes et des appareils coutumiers de la politique.

DUBA1948.5 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 49 : Toutefois les réalités humaines sont des réalités qui ne souffrent point la détermination ponctuelle et certaines, comme c’est le cas pour les données chiffrées du calcul, mais seulement la détermination des valeurs probables. Toute machine à traiter des processus humains et des problèmes qu’ils posent devra ainsi adopter le style de la pensée probabiliste au lieu des schémas exacts de la pensée déterministe, celle qui est à l’œuvre par exemple dans les actuelles machines à calcul. Cela complique beaucoup les choses mais cela ne les rend pas impossibles : la machine à prévision qui guide l’efficacité d’un tir de D.C.A. en est une preuve. Théoriquement donc la prévision n’est pas impossible. Ni non plus la détermination au moins entre certaines limites, de la décision la plus favorable : la possibilité des machines à jouer, telle la machine à jouer aux échecs, suffit à l’établir. Car les processus humains qui font l’objet du gouvernement sont assimilables à des jeux au sens où von Neumann les a étudiés mathématiquement, seulement à des jeux incomplètement réglés, jeux en outre à assez grand nombre de meneurs et à données assez multiples. La machine à gouverner définirait alors l’État comme le meneur le plus avisé sur chaque plan particulier, et comme l’unique coordinateur suprême de toutes les décisions partielles. Privilèges énormes qui, s’ils étaient scientifiquement acquis, permettraient à l’État d’acculer en toutes circonstances tout joueur au “jeu de l’homme” autre que lui à ce dilemme : ou bien la ruine quasi immédiate, ou bien la coopération suivant le plan. Et cela rien qu’en jouant le jeu, sans violence étrangère. Les amateurs de “meilleur des mondes” ont bien de quoi rêver…

DUBA1948.6 Cf. Dubarle, Vers la machine à gouverner, op. cit., p. 49 : Dure leçon des froides mathématiques, mais qui éclaire de quelque manière l’aventure de notre siècle, hésitant entre une turbulence indéfinie des affaires humaines et le surgissement d’un prodigieux Léviathan politique. Celui de Hobbes n’était du reste qu’agréable plaisanterie. Nous risquons aujourd’hui une énorme cité mondiale où l’injustice primitive délibérée et consciente d’elle-même serait la seule condition possible d’un bonheur statistique des masses, monde se rendant pire que l’enfer à toute âme lucide. Il ne serait peut être pas mauvais que les équipes présentement créatrices de la cybernétique adjoignent à leurs techniciens venus de tous les horizons de la science quelques anthropologues sérieux et peut-être un philosophe curieux de ces matières.

ARRI2015 Figure de l’informaticien au travail

Éric ARRIVÉ, Figure de l’informaticien au travail, in Informaticiens et médecins dans la fiction. Exploration 1, sous la direction de Catherine ALLAMEL-RAFFIN, Philippe CLERMONT & Jean-Luc GANGLOFF, Strasbourg, Néothèque, 2015, p. 39-52.

ARRI2015.1 Cf. Arrivé, Figure de l’informaticien au travail, op. cit., p. 48-49 : Avec toutes les formulations énoncées dans le cadre des recherches sur la calculabilité qui fondent les conditions de possibilité même de l’avènement de l’informatique (Turing et sa machine, Church et le lambda-calcul, les fonctions récursives, etc.), nous avons affaire à des commentaires autour de la notion d’indécidabilité exposée par Gödel. La proposition de Turing a ceci de particulier qu’elle ne se contente pas d’aborder le problème abstrait de la calculabilité, mais qu’elle se penche un peu plus concrètement (de façon toute relative et uniquement “sur le papier”) sur le calcul lui-même. Cet aspect a permis d’introduire ultérieurement la notion de complexité algorithmique, par exemple, et d’ainsi mieux cerner les perspectives réelles du calcul mécanisé sans les limiter aux contraintes et possibilités techniques à un moment donné. Une machine plus “sophistiquée” que la machine de Turing (comme une hypothétique version non déterministe, par exemple) est juste capable de mettre en œuvre une mécanique plus “efficace” (elle peut répondre à une classe élargie de problèmes selon un temps de calcul borné par une fonction polynomiale), pas de parcourir un domaine plus “large” de la calculabilité.

ARRI2015.2 Cf. Arrivé, Figure de l’informaticien au travail, op. cit., p. 49-50 : Un ordinateur n’est pas autre chose qu’une machine de Turing universelle matérialisée à laquelle on confie le rôle d’exécuter des machines de Turing particulières que sont les applications. Il présente donc un double aspect, deux faces qui ne peuvent être disjointes, l’une concrète, l’autre abstraite.Son aspect concret est dans le fait d’être une machine de Turing “tout court”, c’est-à-dire d’exécuter mécaniquement un calcul particulier à un instant donné. Son aspect abstrait, c’est d’être une machine de Turing universelle, c’est-à-dire de potentiellement pouvoir mettre en œuvre n’importe quel calcul. A l’articulation entre ces deux pôles, il y a l’activité d’informatisation, c’est-à-dire la production de la machine de Turing répondant à un besoin de calcul particulier, mais toujours sur la base de la capacité universelle de l’ordinateur à déployer n’importe quelle machine de Turing.Cette activité d’informatisation dépasse celle de l’informaticien stricto sensu puisque intervient aussi en amont tout un travail de mise en forme préalable du monde requise pour pouvoir s’ajuster au domaine du calculable. On considère généralement que ce moment-là de l’informatisation n’est qu’un aspect de la rationalisation. Si cela est effectivement le cas vu sous un certain angle, par contre, dans le contexte d’une société massivement informatisée, il n’épuise pas tout ce qui peut être dit de ces investissements de formes. Ceux-ci ne doivent pas seulement être considérés comme des éléments isolés découlant d’un découpage rationnel de tel ou tel domaine,mais plutôt comme les nécessaires supports successifs du déploiement tautologique du calculable

ARRI2015.3 Cf. Arrivé, Figure de l’informaticien au travail, op. cit., p. 50 : Même si la part abstraite participe à une dialectique qui a des effets bien réels et parfois contraignants, elle ne se présente pas elle-même sous une forme sensible. Ce qui reste seulement accessible à la perception, c’est la part concrète, les moments de la dialectique qui se fixent temporairement sur des objets particuliers. Du mouvement de l’informatisation, il résulte donc des phénomènes apparents, des éléments se déroulant à la surface. La contribution de l’informaticien est un de ces phénomènes au travers duquel vont se manifester les propriétés par ailleurs impalpables du procès qui l’englobe. Par une sorte de renversement, la manifestation est perçue comme étant la source du procès et des capacités démiurgiques sont attribuées à l’informaticien.

ARRI2015.4 Cf. Arrivé, Figure de l’informaticien au travail, op. cit., p. 50 : Cette même dialectique alimente aussi l’autre image associée à l’informaticien. Le mouvement tautologique de l’informatisation qui est le parcours indéfini du calculable embarque avec lui tout le réel et le convertit tendanciellement en une vaste mécanique dont le carburant est constitué par les événements que les utilisateurs sont susceptibles d’y déverser. Encore une fois, le procès n’est perceptible que par sa part concrète, par laquelle chacun s’accorde à trouver les meilleures raisons du monde d’y participer. La dimension machinique de nos interactions via des systèmes informatisés, dont personne n’est en mesure d’assumer la réalité abstraite, se fixe alors sur une figure qui la cristallise et qui se trouve être celle pour laquelle il est plus facile d’y déceler un usage sans contenu propre, c’est-à-dire l’informaticien dont l’activité consiste à produire n’importe quelle application informatique. Cette concentration de tous les aspects machiniques sur un agent particulier s’accompagne, par effet de vase communiquant, de l’amputation de ses capacités sensuelles et symboliques. La figure populaire de l’informaticien devient celle d’un être asocial,incapable d’entrer en interaction autrement que par des protocoles formels et n’apportant que des réponses “mécaniques” aux sollicitations qui lui sont faites.

STIE1998 Leroi-Gourhan : l’inorganique organisé

Bernard STIEGLER, Leroi-Gourhan : l’inorganique organisé, in Les cahiers de médiologie, 1998/2 (N° 6), p. 187-194.

STIE1998.1 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 188 : Dans les années 1930, Leroi-Gourhan met en effet en évidence que les objets techniques suivent des phylum de transformation qui, tout comme les squelettes de la paléontologie, font apparaître des lois d’évolution universalisables. “Universalisables” veut dire ici que ces “lois” sont transversales à des cultures très diverses et ne sont pas dépendantes des facteurs culturels qu’elles transcendent.

STIE1998.2 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 188 : Leroi-Gourhan établit dans L’homme et la matière que les objets techniques évoluent en fonction de tendances techniques qui commandent le devenir des objets et des systèmes techniques. La technique forme en effet un système qui est pris dans une évolution soumise aux lois de ce que Leroi-Gourhan nomme la technologie, non pas au sens où nous l’employons aujourd’hui pour désigner la technique mobilisant des savoirs scientifiques, mais au sens d’une théorie générale de l’évolution technique.

STIE1998.3 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 189 : Depuis le Ve siècle avant notre ère et jusqu’au XIXe siècle, du point de vue de la pensée aussi bien philosophique que scientifique, les objets techniques sont en quelque sorte des non-étants : ils relèvent littéralement du néant et ne font donc l’objet d’aucune pensée en propre. La Physique d’Aristote tout aussi bien que la Philosophie zoologique de Lamarck considèrent que pour tout savoir authentique, c’est-à-dire scientifique, il n’existe que deux grandes classes d’étants (“étant” traduit ici ta onta, l’expression grecque qui désigne dans la physique et la métaphysique “les choses qui sont”) : les étants inertes, relevant de la physique, c’est-à-dire les étants qui ne sont pas organisés (les minéraux) ; et les étants organiques, relevant de la biologie, c’est-à-dire les étants organisés (les végétaux, les animaux et les hommes). Entre ces deux grandes catégories d’étants, ceux qui relèvent de la physique et ceux qui relèvent des sciences du vivant, il n’y a absolument rien. Or, à partir du XIXe siècle, des penseurs – historiens, archéologues, ethnologues ou philosophes, d’abord Allemands, tels Beckmann, Kapp, Marx, puis, à partir du XXe siècle, Français, notamment Mauss, Leroi-Gourhan, Gille, Simondon – comprennent que les objets techniques ont une histoire, et qu’en étudiant des séries d’objets techniques dans le temps, par exemple des séries de haches, ou des séries d’instruments de labour, on peut mettre en évidence que ces objets techniques sont pris dans des processus évolutifs qui répondent à des lois morphogénétiques. Or, ces lois ne relèvent pas simplement de la physique, bien qu’elles soient soumises à la physique : pour qu’un objet technique fonctionne, il doit respecter les lois de la physique, mais la physique ne suffit pas à expliquer l’évolution des objets techniques. Et ces lois ne relèvent pas non plus strictement de l’anthropologie.

STIE1998.4 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 189 : Leroi-Gourhan finit par poser que l’apparition de la technique est essentiellement l’apparition non seulement d’un “troisième règne”, mais d’une troisième mémoire : à côté des mémoires somatique et germinale qui caractérisent les êtres sexués, apparaît une mémoire transmissible de générations en générations et que conservent en quelque sorte “spontanément” les organes techniques.

STIE1998.5 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 189-190 : Il se produit il y a 4 millions d’années ce que Leroi-Gourhan appelle le processus d’extériorisation. Ce terme d’“extériorisation” n’est d’ailleurs pas pleinement satisfaisant. Car il suppose que ce qui est “extériorisé” était auparavant “à l’intérieur”, ce qui n’est justement pas le cas. L’homme n’est homme que dans la mesure où il se met hors de lui, dans ses prothèses. Avant cette extériorisation, l’homme n’existe pas. En ce sens, si l’on dit souvent que l’homme a inventé la technique, il serait peut-être plus exact ou en tout cas tout aussi légitime de dire que c’est la technique, nouveau stade de l’histoire de la vie, qui a inventé l’homme. L’“extériorisation”, c’est la poursuite de la vie par d’autres moyens que la vie.

STIE1998.6 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 190 : Homme et technique forment un complexe, ils sont inséparables, l’homme s’invente dans la technique et la technique s’invente dans l’homme. Ce couple est un processus où la vie négocie avec le non-vivant en l’organisant, mais de telle manière que cette organisation fait système et a ses propres lois. Homme et technique constituent les termes de ce que Simondon appelait une relation transductive : une relation qui constitue ses termes, ce qui signifie qu’un terme de la relation n’existe pas hors de la relation, étant constitué par l’autre terme de la relation. À partir du moment où s’amorce le processus d’extériorisation, un être nouveau apparaît qui s’émancipe progressivement de la pression de sélection en plaçant les critères de sa puissance hors de son propre corps et donc de son enveloppe génétique, développant pour survivre des objets techniques à travers lesquels la vie se poursuit dans de nouvelles conditions et par d’autres moyens que la vie. Si l’on définit la vie, depuis Lamarck et Darwin, comme une évolution où des formes d’organisation ne cessent de se différencier, de s’enrichir et de se diversifier, à partir de l’extériorisation, le processus de différenciation vitale se poursuit non seulement par la différenciation des êtres vivants, mais par la différenciation fonctionnelle des objets techniques et des organisations sociales qu’ils permettent de constituer.

STIE1998.7 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 191 : s’il est vrai que le vivant sexué est défini par deux mémoires, celle, génétique, de l’espèce (le génome) et celle, épigénétique, de l’individu (la mémoire nerveuse), à partir de l’homme apparaît une troisième mémoire du fait même de cette “extériorisation”. Tous les animaux supérieurs ont une expérience individuelle, engrammée dans leur mémoire nerveuse, qui leur permet de s’adapter individuellement à tel ou tel environnement local. Pourtant, si je dresse un animal et que celui-ci meurt, rien de ce que je lui ai appris n’est transmissible à son espèce parce que l’expérience individuelle des êtres vivants n’est pas héritée par l’espèce et s’efface à chaque mort individuelle. S’il n’y a pas de cumulativité de l’expérience individuelle chez les animaux, les espèces n’héritant pas de l’expérience des individus qui les composent, c’est au contraire la possibilité de transmettre l’expérience individuelle que rend possible le processus d’extériorisation. Et c’est ce que l’on appelle la culture. A partir de l’être dit “humain”, c’est-à-dire de l’être qui se développe par la production d’outils, quelque chose de très important se produit : l’essentiel de l’expérience individuelle se concentre précisément dans le rapport à l’outil et dans l’outil lui-même. L’outil est l’organe de prédation et de défense, c’est-à-dire de survie de l’espèce, et c’est dans l’outil que toute l’expérience de la survie et de la mort se rassemble, soit comme outil guerrier, soit comme outil de travail. Or, du fait que cet outil est une extériorisation de la vie dans un organe qui n’est pas vivant lui-même, lorsque le tailleur d’outil meurt, l’expérience individuelle conservée dans sa mémoire nerveuse trépasse sans doute avec lui, mais, son outil restant, la trace de son expérience ou une partie de son expérience demeure dans l’outil. En récupérant son outil, son descendant hérite d’une partie de son expérience.

STIE1998.8 Cf. Stiegler, Leroi-Gourhan : l’inorganique organisé, op. cit., p. 193 : Si l’outil en général est un support de mémoire sans être fait spécifiquement pour conserver la mémoire, à partir du néolithique, de nouvelles techniques apparaissent, qui ont proprement pour finalité de mémoriser l’expérience. L’émergence de ces mnémotechniques, qui s’étend sur plusieurs millénaires, constitue un événement considérable, car elles permettent de transmettre non seulement des expériences liées à des comportements moteurs et de survie, mais proprement des contenus symboliques et même des arguments, de véritables visions du monde, religieuses ou profanes, collective ou individuelles. Cela commence avec les premiers systèmes de comptage et les premières écritures idéogrammatiques. Jusqu’à ce qu’apparaissent les écritures alphabétiques, que nous utilisons encore, qui nous donnent l’Ancien Testament et qui nous permettent d’accéder à la mémoire des Grecs anciens, pères du savoir rationnel et de la philosophie, et d’y accéder comme si nous y étions.

PARI2019 Critical Computation

Luciana PARISI, Critical Computation: Digital Automata and General Artificial Thinking, in Theory, Culture & Society, 36(2), 2019, p. 89-121.

PARI2019.1 Cf. Parisi, Critical Computation, op. cit., p. 89 : Learning Algorithms are an evolution of genetic algorithms invented by Holland in the 1980s aiming to transform data into knowledge. Algorithms are series of instructions telling a computer what to do. If the simplest of algorithms is to combine two bits and can be reduced to the And, Or, and Not operations, in more complex systems, we have algorithms that combine with other algorithms, forming an ecosystem. Generally speaking, every algorithm has an input and an output, as data goes in the machine, the algorithms execute the instructions and leads to the pre-programmed result of the computation. Instead, with machine learning, data and and the preprogrammed result enter the computation, whilst the algorithm turns data into the result. In particular, learning algorithms make other algorithms insofar as machines write their own programs. In other words, learning algorithms are part of the automation of programing itself: computers now write their own programs.

PARI2019.2 Cf. Parisi, Critical Computation, op. cit., p. 90 : Whilst it is arguable that computation involves the interdependence between data, software, code, algorithms, hardware, the understanding of automation with machine learning rather points to a new configuration of logical reasoning: namely a shift from deductive truths applied to small data to the inductive retrieval and recombination of infinite data volumes. In particular, a focus on the transformation of the relation between algorithms and data contributes to explain the historical origination of non-deductive reasoning, activated with and through machines.

PARI2019.3 Cf. Parisi, Critical Computation, op. cit., p. 91 : This embedding reasoning into machines is entangled to the development of statistics and pattern recognition, which define how algorithms can learn and make predictions from recognizing data (from granular analysis to flexible and modular patterning of categories with textual, visual, phonic traits). As the system gathers and classifies data, learning algorithms match-make, select and reduce choices by automatically deciding the most plausible of data correlations. Machine learning involves a mode of cognition that no longer relies on the deductive model of logic, where proofs are already implicated in initial premises. Machine learning indeed is used in situations where rules cannot be pre-designed, but are, as it were, achieved by the computational behavior of data. Machine learning is thus the inverse of programming: the question is not to deduce the output from a given algorithm, but rather to find the algorithm that produces this output. Algorithms must then search for data to solve a query. The more data is available the more learning there can be. As statistics and probability theory enter the realm of artificial intelligence with learning algorithms in neural networks, new understandings of cognition, logical thinking and reasoning have come to the fore. From the Extended Mind Hypothesis to arguments about Machine Consciousness and the Global Brain, the question of what and how is cognition has come to coincide with the computational architecture of algorithms, data, software, hardware and with experiments in robotics sensing and self-awareness.

PARI2019.4 Cf. Parisi, Critical Computation, op. cit., p. 92 : With the historical synthesis of computational logic and probability calculus in automated systems, algorithms have become generative of other algorithms as they derive a rule to explain or predict data. The possibility of elaborating a rule from data rather than applying a given rule to outcomes also points to a form of cognition that cannot be defined in terms of problem solving solutions, but is understood as a general method of experimenting with problems. With machine learning, automation has involved with the creation of training activities that could generalize the function of prediction to future cases – a sort of inductive parable that from particulars aims to establish general rules. However, whether supervised, unsupervised and reinforcement learning 2 refer not simply to a mindless training of functions, but instead can account for a form of inference proper to artificial intelligence shall concern discussion about the critical tension between reason and non-conscious and non-logical intelligence at the core of automated cognition.

PARI2019.5 Cf. Parisi, Critical Computation, op. cit., p. 93 : as opposed to conscious thinking, these automated systems of cognition perform complex modeling and informational tasks at a fast speed because they are not required to go through the formal languages of mathematics and explicit equations. In other words, todays’ interactive, adaptive and learning algorithms are processing data without having to recur to the logical order of deduction that has characterised the Enlightenment theorisation of the function of reason. However, in agreement with Hayles, this article argues that the non-logical thinking of automated systems overlaps with the efficacy of cybernetic control whereby inductive learning becomes infused with the nonconscious cognition of algorithmic capital.

PARI2019.6 Cf. Parisi, Critical Computation, op. cit., p. 99-100 : Here, the relation between the Scientific and the Manifest Image is grounded either in the formal theory of universal computation, or the non-deductive reasoning of non-conscious computation. On the one hand, the so-called field of digital philosophy claims that the world of appearance can be explained in terms of a universal ground of computation, according to which algorithmic discrete units can explain all complexity of the physical world and can imitate reasoning (e.g., the strong AI hypothesis). On the other hand, the claims of and for non-conscious computation (i.e., non-symbolic AI) have extended the scientific image of computation to include intelligent functions that are experiential rather than formal. My point, however, is that both positions tend to explain the manifest image of thought through and by means of the scientific image of what is cognition. In particular, the digital explanation of cognition remains attached to a deductive method of reasoning, in which the scientific truth about the mind and intelligence is prescriptive of what these can achieve. Here the general determines the particular. This position establishes equivalence between natural and artificial intelligence based on a deductive method of reasoning by which to cognize corresponds to, as in the strong AI hypothesis, the syntactical manipulation of symbols. On the other hand, the extension of the scientific image to include somatic explanations of cognition (as in for example the research into affective computing and emotional intelligence) instead relies on local low levels of neural organisations, which work together to achieve an overall effect that is bigger than their parts. This position embraces an inductive method of reasoning in which general claims about intelligence are derived from the observation of recurring phenomenal patterns. This scientific explanation of intelligence reveals the centrality of a non-conscious level of cognition already at work in current forms of computational intelligent devices. Despite lacking consciousness or autonomy, computational devices indeed are said to share non-conscious cognition with human intelligence and if anything, given that human intelligence is bounded to conscious cognition, smart devices are much faster than us at making connections.

PARI2019.7 Cf. Parisi, Critical Computation, op. cit., p. 102-103 : The computational model of deductive reasoning is central to digital philosophy. Here the manifest image of thought conforms to the scientific idea that the brain is equipped with an innate system of symbols, neurologically connected and syntactically processed. Digital philosophy particularly refers to the computational paradigm used to describe physical and biological phenomena in nature and to offer a computational description of the mind. This approach problematically sees computation as the merging of being and thought. It gives an algorithmic explanation to both biophysical reality and the thinking of reality. Central to this paradigm is also the view that algorithms are digital automata, evolving over time (i.e. cellular automata). These automata compress, render or simulate the various levels of physical, biological, cultural randomness, deriving semantic meaning from already determined rules, whose functions are syntactically arranged and where results can be automatically deduced.

PARI2019.8 Cf. Parisi, Critical Computation, op. cit., p. 105 : new models of AI research addressed sub-symbolic manifestations of intelligence and adopted non-deductive and heuristic methods to be able to deal with uncertain or incomplete information. Boxing away symbolic logic, there emerged algorithmic-networked procedures able to solve problems by means of trial and error by interacting directly with data. These were learning bots retrieving information through reiterative feedbacks, so as to map and navigate computational space by constructing neural connections amongst nodes. Central to these models is the idea that intelligence is not a top-down program to execute, but that automated systems need to develop intelligent skills characterized by speedy, non-conscious, non-hierarchical orders of decision based on an iterative re-processing of data, heuristically selected by means of trial and error. The development of statistical approaches was particularly central to this shift towards non-deductive logic, or the activation of an ampliative or non-monotonic inferential logic.

PARI2019.9 Cf. Parisi, Critical Computation, op. cit., p. 112 : to engage critically with the question of inferential reasoning in automated cognition, we need to first discuss the problem of the limit of computation in the context of information theory. We need to envision a form of artificial reasoning that goes beyond both the focus on locally-induced cognition, and the meta-computational reduction of the material world to the symbolic language of AI. In particular, to shift the argument for a general artificial thinking away from these two main views of computation, one has to first address some key issues within computation itself that may start with the question of the limit of the Turing Machine. Critical computation may perhaps concern how unpredictability or randomness in information theory has been addressed not as a sign of logical failure, but as an evolution of an artificial thinking with and through the computational synthesis of calculus and logic.

PARI2019.10 Cf. Parisi, Critical Computation, op. cit., p. 112-113 : For Chaitin, computation corresponds to the algorithmic compressing of maximally unknowable probabilities or incomputables. Since Alan Turing’s invention of the Universal Turing Machine, incomputables have demarcated the limits of computation or formal reasoning (i.e., the deductive logic of axioms or truths). According to Chaitin, however, incomputable are only partially indeterminable insofar as within the computational processing of infinite information, the synthesis of logic and calculus has given way to a new form of axiomatic, experimental axiomatics. The computational processing of information involves the way algorithms compress information to a final probable state (i.e., 0s or 1s) and eventually mix and match data. However, computational compression rather demonstrates that outputs are always bigger than inputs, shaking the assumption that automated thinking is grounded in simple rules and that cognitive reasoning corresponds to the manipulation of symbols hardwired to the brain. Following Chaitin, it is possible to suggest that randomness in computation or that which constitutes the very limit of computational deduction, demarcates the point at which automated cognition coincides not with non-conscious functions involves an algorithmic intelligible capacity to extract more information from data substrates. Chaitin claims that computational processing leads to postulates that cannot be predicted in advance by the program and are therefore experimental insofar as results exceed their premise, and outputs outrun inputs).

PARI2019.11 Cf. Parisi, Critical Computation, op. cit., p. 113 : with algorithmic information theory, axioms results from an algorithmic intelligibility of data environments, involving a speculative function through which unknowns are algorithmically prehended.

FLUS2019a L’art et l’ordinateur

Vilém FLUSSER, L’art et l’ordinateur, in Multitudes, 2019/1 (n° 74), p. 186-189.

FLUS2019a.1 Cf. Flusser, L’art et l’ordinateur, op. cit., p. 186-187 : pour les ordinateurs, la chose est nette : si j’achète un ordinateur, il me faut payer non seulement l’objet dur lui-même (le hardware), mais également les programmes correspondants (le software). Or, le hardware devient de plus en plus petit et bon marché, le software de plus en plus complexe et cher. La valeur se déplace de l’objet dur vers le symbole mou. Et avec la valeur se déplace également le pouvoir. Ce n’est plus celui qui possède des objets (matières premières, complexes industriels, armements) qui décide, mais celui qui sait élaborer des programmes. C’est cela, ”l’impérialisme informatique”. Ceci met en échec nos catégories politiques traditionnelles. Des catégories comme celles de ”classe”, de ”propriété”, de ”nationalisation des moyens de production” ou de ”souveraineté nationale” ne saisissent plus la réalité de la société post-industrielle. Nous voilà menacés par un totalitarisme nouveau et ”doux”, dans lequel toutes nos expériences, connaissances, valeurs et actions seront programmées centralement. Notre liberté sera limitée à des variations permises par les programmes. Toutes les méthodes traditionnelles pour préserver et élargir la liberté (les élections politiques, les grèves, les révolutions) deviendront perverses. Elles contribueront à une programmation toujours plus efficace de nos vies. Car tout comportement de la société, et surtout tout comportement opposé aux programmes, sert de feedback. Tous ces comportements ne sont que des données nouvelles à incorporer aux programmes. Pour illustrer la terreur d’un tel totalitarisme, il faut ajouter que les programmeurs ne sont pas nécessairement des êtres humains. Les ordinateurs peuvent le faire. Les programmes peuvent apprendre automatiquement à nous programmer toujours plus efficacement.

FLUS2019a.2 Cf. Flusser, L’art et l’ordinateur, op. cit., p. 187 : Dans une telle situation plutôt désespérée, ledit “art avec ordinateur” constitue une île d’espoir. Je me méfie du terme “art”, ici et partout, parce qu’il est entouré d’une aura benjaminienne. Ce n’est pas “l’art” qui est intéressant dans cette technique (si l’image ainsi produite est “belle”), mais ce qui est intéressant est le fait que, dans l’art avec ordinateur, l’appareil est effectivement programmé par un homme. Cet homme oblige l’appareil à faire des choses (des images) qui ne sont pas prévues dans les programmes centraux. Il oblige l’appareil à faire des choses imprévues, inattendues. Or, une situation imprévue, inattendue, s’appelle une “information”. En le faisant, ils se sont emparés d’une petite parcelle du pouvoir dans une situation programmée. Il ne faut pas sous-estimer la petitesse de cette parcelle. Il ne s’agit pas, dans l’art avec ordinateur, d’un petit jeu incapable de nuire au fonctionnement des appareils. Les artistes avec ordinateur nous enseignent comment soumettre les appareils, tous les appareils, y compris les géants de l’économie et de la guerre, à nos propres desseins. Ils sont le germe pour une nouvelle conception de la liberté.

FLUS2019b Programme

Vilém FLUSSER, Programme (Tes père et mère honoreras), in Multitudes, 2019/1 (n° 74), p. 190-193.

FLUS2019b.1 Cf. Flusser, Programme, op. cit., p. 193 : La culture complètement automatisée dépend du dialogue universel télématisé et du gouvernement cybernétique. D’ailleurs, “gouvernement cybernétique” est un pléonasme. Nous ne pouvons pas encore imaginer la force créatrice qui se dégagerait d’une telle culture.

FLUS2019b.2 Cf. Flusser, Programme, op. cit., p. 193 : Ne nous laissons pas tromper par la situation actuelle d’automation embryonnaire. Les gouvernements actuels (dont le gouvernement français) se déclarent pour la télématisation et la cybernétisation de la culture. Or, le réseau dialogique qu’il nous faut ne peut pas être programmé par un gouvernement “pré-automatisé” : il doit être lui-même le résultat d’un dialogue. Sinon, la télématique ne serait qu’un gadget pour programmer les hommes. Et les “décisions cybernétisées” ne peuvent pas faire partie d’un programme “pré-automatisé” : elles doivent émerger, elles-mêmes, d’un dialogue. Sinon, la cybernétique ne serait que le gadget d’un gouvernement pour programmer les hommes. Ce dont nous avons besoin, c’est de fabriquer dialogiquement un dialogue télématique et cybernétisé apte à se substituer à tous les gouvernements. Je parle, bien sûr, ici, de l’utopie platonicienne. La culture sera composée de trois couches. La couche “économique” des esclaves (les robots). La couche “politique” des artisans (des intelligences artificielles). La couche philosophique des rois (tous les hommes). Les hommes seront tous rois, tous, ils programmeront. Avec cette différence par rapport à Platon : les philosophes du futur ne découvriront pas les valeurs éternelles (aletheia), ils les fabriqueront (poiesis). C’est d’une utopie poétique que je parle. Cette utopie-là est devenue techniquement possible. Elle ne l’est pas en réalité. Des catastrophes vont intervenir pour y faire obstacle. Et les catastrophes sont, par définition, imprévisibles. Quand je parle de cette utopie, je ne dis donc pas “vrai”. […] Quand je parle de cette utopie, je fais du théâtre. Je dis faux pour dire vrai. Les termes “prescription” et “programme” trouvent un proche parent dans le terme arabe maktub que l’on traduit par “destin”. Il est devenu techniquement possible de prendre notre destin en main. C’est cela le propos du théâtre. C’est cela la liberté. C’est de cela que je parle (que je dise vrai ou que je dise faux).

FLUS2019c Se faire des idées

Vilém FLUSSER, Se faire des idées, in Multitudes, 2019/1 (n° 74), p. 194-198.

FLUS2019c.1 Cf. Flusser, Se faire des idées, op. cit., p. 197 : Le problème est épistémologique. Comment “connaître”, comment se faire une idée de ce qui est et de ce qui doit être, quand on est si éloigné du concret, quand on est “dans” la dimension zéro des chiffres ? C’est la question de l’adéquation des chiffres au monde concret perdu. Pour la faire, il faut se faire une idée du concret en zéro dimension : un ensemble de points qui se touchent sans intervalle, la “chose étendue”. Il s’agit donc de faire l’adéquation de la chose étendue à la “chose pensante” (laquelle, bien sûr, est le code des chiffres). La “connaissance” devient ainsi le transcodage de la géométrie en arithmétique, ladite “géométrie analytique”. Ce n’est pas encore tout à fait évident en Mésopotamie, mais ça l’est pour Descartes. Ce n’est pas très commode, cette idée du concret en tant qu’étendu, mais ça “marche” si l’on manipule un tout petit peu la “chose pensante”. Malheureusement, elle est claire et distincte (fourrée de trous) et la chose étendue échappe par les “distinctions”. Mais on peut farcir les trous par le calcul différentiel et tout (c’est dire : la chose étendue) devient connaissable (formalisable en équations différentielles). L’existence devient omnisciente (fin du XIXe ). Il s’avère que ça “marche” : les dents artificielles deviennent presque parfaites (révolution industrielle) et l’existence presque toute puissante. Mais soudainement, on commence à soupçonner que l’idée qu’on se fait du monde concret, du sujet de ce monde et des valeurs, n’est peut-être pas la bonne. Que peut-être la science (l’idée du monde), l’art (l’idée de la valeur) et l’anthropologie (l’idée de l’existence elle-même) ne collent pas. Il y a trois raisons à cela : (1) les équations différentielles exigent qu’on les recodifie en “numéros naturels” pour pouvoir les appliquer, et cela dure trop longtemps (c’est l’argument platonicien sous un nouvel aspect) ; (2) la raison, ce couteau qui coupe en rations, coupe un peu trop bien ; et (3), ayant atteint le zéro, on ne peut plus reculer pour se faire des idées. Il faut donc changer d’attitude existentielle.

FLUS2019c.2 Cf. Flusser, Se faire des idées, op. cit., p. 197 : (1) Tout peut être formulé en équations différentielles (être connu au sens de la science calculatrice), mais, pour que cette connaissance arrive au pouvoir, il faut renumériser les équations. Dans le cas des processus complexes, cela peut prendre du temps : les bureaux des ingénieurs d’avant-guerre étaient remplis de jeunes qui remplissaient les papiers avec des interminables sommes de chiffres. Il se peut que les problèmes vraiment intéressants soient d’une complexité dont les équations exigent une renumérisation plus longue que ne l’est la durée probable de l’univers. La connaissance s’avère donc inutile, ce qui aide à comprendre l’antirationalisme brutal qui caractérise la première moitié du siècle. Pour pallier cela, on a inventé les machines calculatrices. Ça n’a pas rendu renumérisable toute équation, mais ça a montré que le calcul (cette capacité la plus abstraite de l’existence humaine) est mécanisable, et donc indigne de l’homme. Il faut changer l’idée qu’on se fait de l’existence (de l’homme en tant que sujet de la connaissance du monde).

FLUS2019c.3 Cf. Flusser, Se faire des idées, op. cit., p. 197-198 : (2) Les machines à calculer (les computers, car “ordinateur” ne dit pas la chose) montrent que “calculer” (analyser en points) implique “computer” (synthétiser les points en tas). Elles montrent la réversibilité de la “géométrie analytique” en “image et volume de synthèse”. La raison (la pensée qui coupe en rations) n’est pas la seule pensée possible, elle est réversible. Il faut donc changer l’idée qu’on se fait de la pensée. Ceci est nécessaire : la raison coupe sans arrêt et c’est une surprise. On a cru longtemps qu’il y a des limites à la faculté raisonnable, que le monde objectif est composé de morceaux non-divisibles (a-tomes) et le monde subjectif de morceaux comparables à des atomes (des in-dividus). Le calcul montre qu’on peut continuer à couper jusqu’à l’infini, jusqu’à la dimension zéro. Il s’avère que les particules coupées, ces nullités aussi bien du côté objectif que du côté subjectif, ne sont pas définissables ontologiquement, quoique définies rationnellement. Le quark n’est ni objectif ni subjectif (symbole), quoiqu’il soit le résultat de la coupure d’un objet. Le décidème alimenté dans une machine qui décide (joue aux échecs) n’est ni “mental” ni “matériel”, quoique résultat de la coupure d’une décision subjective. Il faut changer l’idée qu’on se fait de la matière et de la valeur (par exemple, du choix libre).

FLUS2019c.4 Cf. Flusser, Se faire des idées, op. cit., p. 198 : (3) Les machines à calculer computent, et c’est cela la véritable crise de la culture dans laquelle nous nous trouvons. La computation est le renversement de la tendance de l’existence. Jusqu’ici, l’existence était une régression successive vers l’abstraction : (a) l’artefact à 3 dimensions était une abstraction par négation du temps, (b) l’image à 2 dimensions était une abstraction par négation du volume, (c) le texte alphabétique était une abstraction par négation de la hauteur de la surface, (d) le chiffre était une abstraction par négation de la ligne, et donc une réduction à la zéro-dimensionalité. La computation montre le chemin opposé, vers la concrétisation. L’existence renverse son attitude.

FLUS2019c.5 Cf. Flusser, Se faire des idées, op. cit., p. 197 : Chez homo erectus, on a nié le monde vital par des valeurs (pour pouvoir survivre). On est devenu sujet d’objets. Le résultat en était une abstraction régressive : outil, image, texte, chiffre. C’est cela l’histoire de la culture artistique, scientifique et politique. C’est terminé. On ne peut plus continuer dans cette direction vers l’abstraction au-delà du zéro. Il n’y a plus rien à nier, ni un monde objectif, ni un monde subjectif. Tout est devenu calculable, réduisible à zéro. Il n’y a plus de valeur à réaliser, toute valeur est devenue modelable et futurisable. Dans ce sens, l’existence est terminée, réduite au néant. Mais elle s’avère réversible. Elle peut devenir computation. Le Big Man sur son tas mésopotamien a calculé les possibilités. On peut computer ces calculs. On peut ramasser les points pour en faire des mondes objectifs, des mondes subjectifs et des valeurs alternatives. De la matière alternative par fusion (plasma) ; des atomes, molécules, êtres vivants alternatifs par computation d’éléments quasi-objectifs ; des sujets alternatifs (des intelligences artificielles, des robots, des décisions, des créations, des actes artificiels) par computation d’éléments quasi valoratifs. Ceci implique un changement radical des idées que nous nous faisons. L’existence ne sera plus le sujet d’objets mais le projet pour des objets et l’attitude existentielle ne sera plus celle de l’abstraction mais celle de la concrétisation. Ce sera une nouvelle humanisation : l’homo erectus se dressera pour une seconde fois, pour cesser d’être homo faber, et pour devenir homo ludens.

FLUS2019d Le vivant et l’artificiel

Vilém FLUSSER, Le vivant et l’artificiel, in Multitudes, 2019/1 (n° 74), p. 199-202.

FLUS2019d.1 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 199 : Deux tendances sont en train de converger. L’une tend vers la simulation artificielle du comportement vivant dans des objets inanimés. L’autre vers la simulation de cette simulation dans les hommes, pour que ce comportement devienne programmable. Quand ces deux tendances se fondront pour n’en former qu’une, la distinction entre le vivant et l’artificiel deviendra caduque. Cette distinction est déjà difficile à faire. Comment distinguer entre une œuvre produite par des hommes et une œuvre produite par des robots ? Entre une intelligence humaine et une intelligence artificielle ? Et l’engrenage entre le vivant et l’artificiel est tel qu’on peut autant dire que l’homme fonctionne en fonction des appareils que dire que les appareils fonctionnent en fonction de l’homme.

FLUS2019d.2 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 199-200 : {{Le projet de la culture occidentale est de tout objectiver, tout connaître et tout manipuler en tant qu’objet. Pour une telle connaissance et action objective, il n’y a pas de sens à vouloir distinguer entre un objet vivant et un objet artificiel. Les deux sont “programmables” par le sujet transcendant. La convergence des deux tendances vers la programmation sera l’aboutissement du projet occidental. End game.

FLUS2019d.3 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 200-201 : Le robot et le fonctionnaire, l’ordinateur et l’analyste de système, déjà devenus difficiles à distinguer l’un de l’autre, posent tous, à la fois, des problèmes scientifiques et politiques. La situation actuelle montre nettement que la science et la politique occidentales, avec les techniques et les arts qui en découlent, naissent de la même tendance vers l’objectivation totale et totalitaire. Pour que cette convergence se réalise, il a fallu que le sujet transcendant avance loin dans sa transcendance. Assez loin pour que le monde objectif soit perçu en tant que champ composé de virtualités ponctuelles, et non plus en tant que contexte composé d’objets solides. À partir d’une telle distance d’abstraction, il est devenu possible de décomposer les objets en particules élémentaires, les êtres vivants en combinaisons d’éléments génétiques, les actes humains en atomes élémentaires, et la pensée humaine en bits d’information. Et il est devenu possible de calculer, computer et programmer le monde-objet. La chimie peut calculer, computer et programmer des matériaux. Le génie génétique, des animaux et des plantes. La cybernétique et l’informatique, les gestes des robots et des fonctionnaires. Et la logique et la théorie de la décision peuvent calculer, computer et programmer les programmes des ordinateurs et des décideurs humains. De sorte que tout devient “artificiel” (au sens de délibérément produit).

FLUS2019d.4 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 201 : Mais ceci a posé le problème de l’automaticité. Les éléments ponctuels (molécules, atomes, particules, gènes, atomes, bits d’information) se combinent et recombinent par hasard. Ils peuvent former, par hasard, des situations peu probables. Des nébuleuses, des cellules vivantes, des cerveaux humains. Programmer ces éléments-là, c’est provoquer de tels hasards. C’est faire en sorte que le hasard, la situation peu probable, se réalise plus vite que “dans la nature”. La programmation est une accélération de l’accident. L’accident voulu est inscrit dans le programme, il se réalise par le jeu accéléré du hasard, automatiquement. Or, ceci élimine le sujet transcendant (le programmeur) du fonctionnement de l’objet programmé. C’est cela la signification du terme “automate” : ce qui marche tout seul. Les objets programmés pour simuler le vivant, et les fonctionnaires programmés pour simuler cette simulation, fonctionnent selon un programme qui marche tout seul. Ce programme-là se dirige vers un accident voulu. Vers une photographie, une grève, la guerre atomique. Les objets programmés et les fonctionnaires programmés n’y peuvent rien. […] nous disposons d’un exemple de programme tellement autonome qu’il s’est montré capable d’avaler le programmeur : Auschwitz.

FLUS2019d.5 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 202 : Les règles qui ordonnent la production, la transmission et le stockage des informations deviennent explicites. Or, ces règles-là concernent ce qu’on appelait jadis “l’esprit”. La révolution qu’entraîne la formulation de ces règles n’est donc pas seulement le fait que l’esprit (la pensée, la décision, le jugement et la perception) peut dorénavant être simulé dans des machines. La véritable révolution est dans le fait qu’il ne nous est plus possible de vivre dans l’ignorance de ces régies. Nous ne pouvons plus penser, décider, juger, ni même percevoir d’une façon spontanée. Il nous faut élaborer une stratégie de la vie, fondée sur notre connaissance théorique de la pensée. Il nous faut vivre artificiellement.

FLUS2019d.6 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 202 : Les règles de la pensée ont été calculées. C’est dire que le processus de la pensée a été décomposé en particules (en bits d’informations, en éléments de décisions, en atomes, etc.). Vivre devient la stratégie pour recomposer ces particules et en faire des ensembles secondaires. Vivre devient l’art de computer le calcul en mosaïque. Il s’agit, au fond, d’intégrer les intervalles entre les moments clairs et distincts de la vie. Il s’agit d’un jeu avec les petites pierres de la vie.

FLUS2019d.7 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 202 : La vie spontanée est ordonnée par le fil conducteur du temps linéaire. Les moments se suivent sans interruption, et ils forment une ligne qui demande le futur. Ce fil donne un sens à la vie, et ce sens est le futur. La vie artificielle n’est plus ordonnée par ce fil. Elle n’est plus unidimensionnelle. Elle n’a plus de sens. Elle est absurde. La stratégie de la vie artificielle est celle de donner un sens (Sinngebung) aux moments vitaux qui se sont désintégrés. Les intervalles entre les moments vitaux, ce néant dont la vie artificielle est bourrée, sont vécus en tant qu’ennui. Il s’agit, dans la stratégie de la vie artificielle, de dépasser l’ennui, cette miniature de la mort, et de donner un sens à la vie au-delà de l’ennui.

FLUS2019d.8 Cf. Flusser, Le vivant et l’artificiel, op. cit., p. 202 : L’homme futur, conscient de la structure de la pensée, pensera, décidera, jugera et agira comme une intelligence artificielle ou comme un robot, à la différence qu’il sera engagé à donner un sens à tout cela en dialogue avec tous les autres hommes et toutes les intelligences artificielles. Il sera joueur (homo ludens). Et l’art de la vie deviendra le méta-jeu de toutes les autres disciplines, y compris la science, la technique, la politique, et l’art au sens traditionnel de ce terme.

FLUS2019e Deux lectures du monde

Vilém FLUSSER, Deux lectures du monde, in Multitudes, 2019/1 (n° 74), p. 203-206.

FLUS2019e.1 Cf. Flusser, Deux lectures du monde, op. cit., p. 203-204 : La science de la Renaissance doit à l’Islam un de ses modèles de la connaissance : la curieuse idée que la nature est (comme) un livre (natura libellum). Cela suppose que la nature a un auteur (Dieu), une signification extérieure à elle-même (la métaphysique), une structure de séquences linéaires (la causalité), et un accord préalable entre l’auteur et le lecteur de la nature (une foi). C’est la dernière supposition qui mérite une attention plus proche. L’auteur d’un livre compose des symboles spécifiques (des lettres, des chiffres) en lignes pour former un texte. Le lecteur doit avoir appris la signification de ces symboles avant la lecture. Il lui faut disposer d’un dictionnaire pour déchiffrer le code du livre. Selon l’Islam, l’auteur de la nature a effectivement publié une telle clé de son code : l’Alcoran. Celui qui veut déchiffrer la nature doit avoir lu l’Alcoran. La science de la Renaissance n’a pas pu accepter cette partie du modèle : il lui manquait la foi en l’Alcoran. Mais elle disposait d’une clé comparable : de la mathématique et de la logique grecques. Bien sûr, la substitution de l’Alcoran par la mathématique avait pour conséquence un changement profond du livre de la nature. Il n’était plus écrit en arabesques, mais mathématiquement, et son auteur se transformait, pendant son déménagement de l’Espagne en Italie, d’un écrivain du destin (maqhtub) en un mathématicien divin (Newton). Mais la structure du modèle restait la même : la nature était toujours un livre, et la science moderne est toujours plus cordobaise qu’elle n’est byzantine. Ce n’est pas dire que l’interprétation de la connaissance scientifique n’ait pas changé au cours des siècles : elle a tellement changé qu’on ne reconnaît plus l’épistémologie originelle (l’adéquation de l’intellect à la chose) dans les épistémologies de l’actualité. C’est la praxis de la connaissance scientifique qui est restée la même : la lecture du livre de la nature. On apprend d’abord son code (la mathématique et la logique), et on déchiffre ensuite le texte pas par pas. La science doit sa progressivité (le fait qu’elle “découvre”) à la structure linéaire de son modèle livresque, et elle doit sa dialectique entre la théorie et l’observation, à la dialectique entre code et message qui caractérise le livre. Le modèle “livre” devenait de plus en plus refoulé par l’abandon successif de ses suppositions. La science ne suppose plus qu’il y a un auteur de la nature, ni qu’elle signifie quoi que ce soit, et elle doute même de sa structure causale. Comment donc parler d’un “livre” en l’absence d’un auteur, d’une signification et d’une structure linéaire ? Néanmoins, quoique refoulé, le modèle est toujours effectif : la science déchiffre toujours la nature sur la base du code mathématique et logique. […] il est certain qu’il ne se prête pas comme modèle de la connaissance pour les illettrés. Ni pour ceux qui, comme nous, ont perdu la confiance dans les textes. La crise du livre est aussi une crise du livre comme modèle de la connaissance.

FLUS2019e.2 Cf. Flusser, Deux lectures du monde, op. cit., p. 204-205 : Cette crise permet de voir que l’hypothèse de l’infrastructure mathématico-logique de la nature est un article de la foi, comparable à la foi coranique. Ainsi, l’homme peut être considéré comme mémoire qui emmagasine des informations codées. Il se trouve dans le monde selon les informations qu’il emmagasine : il vit, connaît, juge et agit selon ce programme. Un homme programmé par la mathématique connaît mathématiquement, et un homme programmé par l’Alcoran connaît coraniquement. La question quant à l’origine du programme (“qui programme qui, comment et pourquoi ?”) ne se pose pas d’un tel point de vue : la communication productrice et accumulatrice des informations se présente comme un réseau composé de mémoires individuelles (des “esprits”, des “intellects”), liées par des fils (“situations culturelles”) et formant une mémoire collective (une “société”, une “culture”). L’affirmation que la culture est un produit de l’esprit est aussi fausse que l’est l’affirmation que l’esprit est le produit de la culture : de ce point de vue, les deux sont le produit du programme fondamental de la communication. Ou : la foi ne naît pas dans “l’intimité de l’âme”, ni dans un contexte culturel, mais c’est la foi qui soutient et l’individu et la société, et c’est elle qui permet qu’on puisse parler d’un individu et d’une société. On n’a pas un programme, on est programmé. On n’a pas une foi, on est dans une foi. Tout code exige sa méthode de décodage. Les codes linéaires sont décodés comme des colliers : on les compte, raconte et calcule. Les informations codifiées en lignes sont des additions, des histoires. Ceux qui sont programmés par ce type de codes se trouvent dans le monde “historiquement” : être, pour eux, est devenir, et vivre, pour eux, est avancer. C’est cela le programme de l’Occident. La science est la dernière manifestation de ce programme. En elle, le programme occidental se réalise, et donc, la foi occidentale s’épuise.

FLUS2019e.3 Cf. Flusser, Deux lectures du monde, op. cit., p. 205 : Le but du programme occidental, ce sont les propositions scientifiques : elles articulent ce programme à perfection, car elles sont le calcul (propositionnel) parfait. Et notre crise montre que ce but est monstrueux. La foi occidentale est, finalement, épuisée.

FLUS2019f Reconsidérer le temps

Vilém FLUSSER, Reconsidérer le temps, in Multitudes, 2019/1 (n° 74), p. 207-211.

FLUS2019f.1 Cf. Flusser, Reconsidérer le temps, op. cit., p. 207 : Si on considère les résultats de l’informatique, tous ces calculateurs, word processsors, plotters, ordinateurs et les autres idiots ultra-rapides, on a tendance à croire que c’est leur vélocité qui caractérisera notre expérience temporelle dans le futur. Nous serons à même de nous débarrasser de toute tâche plus rapidement, et par là, nous aurons du temps libre à notre disposition. Je confesse que ce n’est pas la vélocité et la conséquente économie de temps disponible qui m’inspire espoir et crainte. Toutes les machines précédentes, à commencer par le levier, et à finir par l’avion, en ont fait autant. La révolution informatique aura, je pense, des conséquences beaucoup plus profondes sur notre vécu du temps.

FLUS2019f.2 Cf. Flusser, Reconsidérer le temps, op. cit., p. 207-208 : L’informatique simule le processus de la pensée dans ses appareils. Pour le faire, elle a recours à une conception plus ou moins cartésienne de la pensée. Penser serait computer des éléments clairs et distincts (par exemple des concepts ou des chiffres). Ces éléments sont des symboles qui signifient des points dans le monde étendu. Si on pouvait afficher à chaque point du monde un de ces éléments, la pensée serait omnisciente. Malheureusement, c’est impossible, parce que la structure de la pensée claire et distincte n’est pas adéquate à la structure de la chose étendue. Dans la chose étendue, les points sont compacts, tandis que, dans “la chose pensante”, ils sont séparés par des intervalles. Par ces intervalles, la plupart des points de la chose étendue s’échappent. On peut, bien sûr, intégrer ces intervalles par des calculs appropriés, mais il se trouve que ces intégrales sont, elles-mêmes, des éléments clairs et distincts. C’est pourquoi Descartes, dans son temps, avait recours à l’aide Divine pour faire l’adéquation de la pensée à la chose étendue. Les ordinateurs, eux, n’ont plus la même foi, et ils essaient donc une méthode différente. Ils renversent les vecteurs de signification qui relient la pensée à la chose étendue. Ils projettent des univers où chaque point signifie un élément déterminé contenu dans leur programme. Dans de tels univers, la pensée est effectivement omnisciente. Or ce renversement des vecteurs de signification (le symbole n’est plus signifiant, mais signifié) caractérisera la société informatique. Mais, par là même, de tels univers projetés, dans lesquels l’humanité informatisée aura à vivre, seront des univers criblés d’intervalles.

FLUS2019f.3 Cf. Flusser, Reconsidérer le temps, op. cit., p. 208 : La société informatisée habitera un univers ponctuel. Un univers de bits, d’atomes, de quanta. Un univers composé de minuscules pierres, donc un univers calculable. Un univers-mosaïque. Tout comme nous habitons un univers processuel, linéaire, historique. Et tout comme l’homme préhistorique habitait un univers scénique, plan, “imaginistique”. La société informatisée aura à vivre dans la dimension zéro, tout comme nous vivons uni-dimensionnellement, et l’homme préhistorique vivait bi-dimensionnellement. À chaque façon de vivre correspond un modèle du temps.

FLUS2019f.4 Cf. Flusser, Reconsidérer le temps, op. cit., p. 208 : L’homme est un être qui abstrait. Il peut se retirer du monde, et il peut en retirer certains aspects. Il peut le faire pas par pas. Par exemple : les images sont des surfaces qui ont été retirées des volumes, elles sont des surfaces abstraites. Les textes sont des lignes retirées des surfaces, des lignes abstraites. Et les points de la computation sont des éléments retirés des textes, des points abstraits. Par chaque pas, l’homme s’éloigne du concret, afin de mieux le voir et le saisir. L’abstraction a pour but le retour vers le concret. Les modèles servent à ce retour. Ce sont des filets et des leurres pour la réinsertion du concret dans l’abstraction. Ainsi les modèles du temps doivent réinsérer le temps concret dans l’image, dans le texte, et dans la computation. Il se trouve, malheureusement, que le concret ne se laisse pas leurrer. Il exige d’être vécu. Pour le concret, c’est comme pour la virginité : une fois perdu, il est définitivement perdu. Et les modèles sont alors acceptés à la place du concret. Le modèle préhistorique du temps est accepté comme s’il s’agissait du vécu concret du temps, et le même vaut pour le modèle historique et post-historique du temps.

FLUS2019f.5 Cf. Flusser, Reconsidérer le temps, op. cit., p. 209 : Le temps est un fleuve qui jaillit du passé, qui demande le futur, et qui arrache toute chose. Le présent n’est qu’un point fugace de transition entre passé et futur. Les choses ne sont pas là : elles deviennent, et elles montrent du doigt le futur. Rien ne se répète : toute nuit qui suit un jour est une nuit nouvelle, unique. Tout instant raté est une opportunité définitivement perdue. Toute action est irrévocable. Tout est donc processus, événement, progrès ou décadence, ordonnés par la chaîne inéluctable de cause et effet. Mais l’homme dispose de la faculté de connaître la chaîne causale et de la soumettre, malgré sa complexité inextricable, à ses propres dessins. C’est cela sa liberté : connaître la nécessité. C’est le modèle du temps de l’histoire, de l’engagement politique, de la science et de la technologie.

FLUS2019f.6 Cf. Flusser, Reconsidérer le temps, op. cit., p. 209-210 : Ce modèle a été reformulé à diverses reprises, à commencer par les présocratiques et les prophètes, en passant par le christianisme, le mécanicisme, le darwinisme et le marxisme, et pour finir par le deuxième principe de la thermodynamique. Mais sa structure est restée la même pour autant, et nous continuons à vivre dans ce modèle grâce à notre conscience, dite “historique”. Néanmoins, il y a à peu près un siècle, ce modèle est devenu insoutenable. Les fils qui ordonnent les événements, qui inscrivent les phénomènes dans des processus, commençaient à se décomposer. Par exemple : les causes et les effets se mettaient à devenir réversibles dans le noyau des choses, et on commençait à suspecter que la chaîne causale ne se trouve pas derrière les choses, mais qu’elle a été projetée dans le monde par la pensée linéaire humaine. On commençait à suspecter que la science ne découvre que sa propre structure mathématico-logique, “derrière les choses”. Mais ce qui a contribué surtout à la décomposition du modèle historique du temps, c’est la constatation phénoménologique toute bête que le temps ne nous arrive pas provenant du passé, mais qu’il nous advient du futur, et que le modèle historique est donc renversé. La véritable explication de la décadence du modèle historique est, toutefois, que l’homme commençait, à ce moment, à faire un nouveau pas vers l’abstraction, en reculant de la ligne vers le point, du texte vers le calcul, et que, pour un tel univers en bits, en quantas, qui surgissait ainsi, le modèle historique du temps n’est pas adéquat. De ce nouveau pas vers l’abstraction sont nées, entre autres choses, la computation et l’informatique.

FLUS2019f.7 Cf. Flusser, Reconsidérer le temps, op. cit., p. 210 : La structure fondamentale de cet univers vide, dans lequel bourdonnent les atomes, est le hasard (le clinamen démocritien). Les atomes ne sont pas préalablement des réalités, ils ne sont que des virtualités, et là où ces virtualités coïncident par accident, là, ils se réalisent. Cet univers a la structure d’un champ virtuel, sur lequel se forment les choses réelles selon les constellations les plus probables de sa forme. C’est pourquoi, pour s’orienter dans un tel univers, deux disciplines sont indiquées : la topologie, pour saisir la forme du champ, et le calcul des probabilités, pour saisir la formation des phénomènes. Or, cette méthode pour déchiffrer cet univers abstrait, en bits, est projetée hors cet univers pour servir de modèle du temps dans le monde.

FLUS2019f.8 Cf. Flusser, Reconsidérer le temps, op. cit., p. 210 : Seul le présent est réel, car c’est là où les virtualités se réalisent, se présentent, par hasard. Et le présent se trouve là où je suis : je suis toujours présent. Je suis ce trou noir dans lequel se précipitent les virtualités pour s’y réaliser. Les virtualités s’approchent : elles sont mon futur. N’importe où je regarde, je trouve le futur. Ce futur, pour moi, n’est pas chaotique, comme si les virtualités qui m’entourent étaient semées sans aucune structure dans un temps sans limite. Au contraire : mes virtualités s’agglomèrent dans ma proximité, et plus elles sont proches, plus elles sont probables. Et elles se découpent contre l’horizon de ma mort, au-delà duquel il n’y a plus de temps, parce qu’il n’y a plus de présent. Les virtualités qui tombent sur moi, qui se présentent, se réalisent en moi, “je les réalise”. Et elles forment, en moi, une mémoire. Ce nœud de virtualités réalisées, lequel est le Je, va en croissant ma vie durant, et j’en suis partielle- ment conscient (mémoire disponible) et partiellement inconscient (mémoire refoulée). Il y a donc, dans ce modèle du temps, deux formes distinctes du passé.

FLUS2019f.9 Cf. Flusser, Reconsidérer le temps, op. cit., p. 211 : C’est dans ce contexte qu’il faut, à mon avis, reconsidérer la vélocité des appareils informatisés, et de la vie de la société informatisée en général. Il s’agit là d’un effort pour faire en sorte que les grains du temps se suivent plus rapidement l’un l’autre. Pour diminuer les intervalles. La société informatisée vivra sous le pilonnage d’informations, de sensations, de connaissances, d’expériences, pour faire oublier l’ennui. L’homme informatisé jouera, produira de l’art, participera, anticipera, pour oublier l’ennui. Mais cette vélocité est absurde, parce que l’ennui ne peut pas être diminué par l’intégration du temps ponctuel. Au contraire : plus les informations se multiplient, plus leur caractère ponctuel, ennuyeux, apparaît. Plus vite les tâches sont accomplies, mieux elles révèlent leur vacuité, et plus j’anticipe mon futur, plus je le creuse. Je vous suggère que c’est sous le signe de l’ennui que le temps sera vécu dans la société informatisée.

FLUS2019f.10 Cf. Flusser, Reconsidérer le temps, op. cit., p. 211 : Or, l’expérience de l’ennui, c’est celle du néant, de la mort. Il se peut que l’informatique, et tout autre aspect de la révolution technologique par laquelle nous passons, précisément parce qu’elle est ennuyeuse, nous aide à ouvrir vers ce néant, vers notre mort. C’est-à-dire, nous aide à nous ouvrir vers l’autrui.

FLUS2019g Critique, Critères, Crise

Vilém FLUSSER, Critique, Critères, Crise, in Multitudes, 2019/1 (n° 74), p. 212-217.

FLUS2019g.1 Cf. Flusser, Critique, Critères, Crise, op. cit., p. 216 : Les critères traditionnels, les “valeurs suprêmes” (le vrai, le bien, le beau) sont devenus des prétextes. Ils font partie de programmes. Et les programmes, eux, sont des textes élaborés de plus en plus par des intelligences artificielles, lesquelles sont des simulations de la pensée critique et calculatrice. Il faut donc critiquer cette pensée critique et calculatrice dans les programmeurs. Il y a, bien sûr, des critères pour le faire. Ils nous sont fournis par des disciplines comme l’informatique et la cybernétique, et ce sont des critères du type “information”, “bruit”, “feed-back” ou “complexité”. Il n’est plus opératif de dire d’une photo qu’elle est belle, ou d’un système politique qu’il est bon, mais il faut dire combien d’information contient la photo ou le système pour le critiquer. Mais, de tels critères nouveaux ne sont pas des critères “humains”. Ce sont des critères d’appareils, des critères fonctionnels. Ils ne nous disent pas les “motifs” de la programmation, mais seulement le fonctionnement de la programmation. C’est pourquoi une telle critique fonctionnelle de la culture émergente ne peut que constater l’absurde de la programmation automatique. Tous ces appareils sont programmés pour fonctionner, ils nous programment pour qu’ils puissent fonctionner, et la programmation elle-même n’est qu’une des fonctions des appareils.

FLUS2019g.2 Cf. Flusser, Critique, Critères, Crise, op. cit., p. 216 : Mais nous n’avons pas d’autres critères pour critiquer les appareils, leurs programmes, et leurs œuvres. Bien sûr, nous pouvons avoir toujours recours aux critères traditionnels, et dire que les appareils sont des instruments qui servent à des propos humains, et ces propos sont traditionnellement critiquables. Mais en le faisant, nous avons perdu tout ce qui caractérise la nouvelle situation : l’automaticité du fonctionnement et l’autonomie des programmes par rapport à des décisions humaines. Nous aurons perdu de vue que les appareils ne sont pas des instruments, mais que, au contraire, c’est nous tous qui sommes en train de devenir les instruments des appareils.

FLUS2019g.3 Cf. Flusser, Critique, Critères, Crise, op. cit., p. 217 : La terreur de la programmation totale et totalitaire qui s’approche, et qui est déjà là (“the future is now”), est la terreur de la pensée critique devenue automatique. Nous ne pouvons opposer à elle que notre propre pensée critique. Mais nous pouvons le faire sans suicide de la critique. Parce que tous ces programmes, tous ces prétextes, sont des antitextes qui coulent déjà en direction opposée à la critique humaine. Les codes de ces antitextes, par exemple, les langages des ordinateurs, sont déjà des codes opposés aux codes de la pensée critique. Ce sont les programmes qui ont renversé la pensée critique comme un gant. Ce qu’il nous faut faire, c’est tout simplement renverser ce renversement. Ce serait cela, la critique de la critique : renverser le renversement des programmes, renverser le renversement de la relation “homme-appareil” que les appareils ont perpétrée. C’est-à-dire : renverser l’automaticité.

FLUS2019g.4 Cf. Flusser, Critique, Critères, Crise, op. cit., p. 217 : Nous ne pouvons à présent ni imaginer ni concevoir comment un tel renversement du renversement peut se faire. Bien sûr, il y a des phénomènes qui semblent indiquer des méthodes pour le faire. Exemples : l’auto-programmation, laquelle renverse la direction de la programmation, ou le câblage, lequel renverse le discours irradié en dialogue. Mais ce ne sont que des gadgets techniques dont une pensée critique peut se servir, à condition qu’elle ait élaboré des critères. Sans de tels critères, ces gadgets ne peuvent que renforcer la programmation totalitaire par feed-back. Nous ne savons donc pas comment faire. Mais il nous faut faire sans savoir-faire.

CAST1987 Voie sans issue ?

Cornelius CASTORIADIS, Voie sans issue ?, in dans Le Monde morcelé, Les Carrefours du labyrinthe, III, Paris, Éditions du Seuil, 1990.

CAST1987.1 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 3 : il faut aussi souligner que l’on reste dans l’inconscience de la même question lorsque l’on prétend que les “bons” et les “mauvais” côtés de la science et de la technique contemporaines sont parfaitement séparables et qu’il suffirait pour les séparer d’une plus grande attention, de quelques règles d’éthique technoscientifique, de l’élimination du profit capitaliste ou de la suppression de la bureaucratie gestionnaire Comprenons que ce n’est pas au niveau des dispositifs de surface ou même des institutions formelles que la question peut être réfléchie : une société véritablement démocratique, débarrassée des oligarchies économiques, politiques ou autres, la rencontrerait avec la même intensité. Ce qui est en jeu ici est un des noyaux de l’imaginaire occidental moderne, l’imaginaire d’une maîtrise “rationnelle” et d’une rationalité artificialisée devenue non seulement impersonnelle (non individuelle) mais inhumaine (“objective”).

CAST1987.2 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 24-25 : Après les deux théorèmes de Gödel (1931), d’autres théorèmes d’indécidabilité ont surgi (notamment Church, 1936 ; Turing, 1936). Au total ces théorèmes signifient que, en dehors des cas triviaux (finis), il existe en mathématiques des propositions indécidables, que la cohérence des systèmes formels ne peut jamais être démontrée à l’intérieur de ces mêmes systèmes, qu’aucune machine (ou algorithme) indiquant d’avance si une proposition est ou non décidable ne pourra jamais exister. Depuis leur publication, la discussion de ces théorèmes semble s’être progressivement cantonnée à l’intérieur d’un cercle étroit de spécialistes de logique mathématique. C’était en un sens naturel : ces théorèmes n’affectaient pas le travail courant des mathématiciens, quelle que soit la “profondeur” de son objet. Leur importance est ailleurs. Ils ruinent l’idée de la possibilité d’un savoir hypothético-déductif rigoureux, dans le seul domaine non trivial où nous avions semblé nous en approcher. Non seulement je n’en connais pas de véritable élaboration philosophique ; mais, à ma connaissance, personne n’a essayé d’examiner leurs implications pour la physique du réel (laquelle est supposée, certes, n’avoir affaire qu’à des quantités finies, mais qui met en œuvre constamment des ensembles infinis dans les formalismes qu’elle utilise).

CAST1987.3 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 25-26 : D’autre part, depuis Cantor, la mathématique a été progressivement reconstruite de fond en comble sur la base de la théorie des ensembles – et, en tout cas (à part toute question de “fondement”), elle contient cette théorie comme une de ses parties essentielles. Or dans la théorie des ensembles surgit nécessairement une question – en apparence “secondaire” – portant sur la suite des nombres cardinaux des ensembles infinis. En termes grossiers, la question est : entre l’infini des nombres naturels (1, 2, 3…) et l’infini des nombres réels (ceux qui correspondent aux points d’une ligne), y a-t-il ou non un infini d’un autre “type de quantité” (d’un autre cardinal) ? L’hypothèse de Cantor, dite hypothèse du continu, répond par la négative : à l’infini des naturels succède immédiatement (du point de vue de la cardinalité) l’infini des réels. Or, d’abord Gödel démontre en 1940 que l’hypothèse du continu (et même une hypothèse plus forte, dite hypothèse du continu généralisée) est compatible avec les axiomes usuels de la théorie des ensembles, notamment le système d’axiomes dit de Zermelo-Fraenkel. Puis, en 1963, Paul J. Cohen démontre que la négation de l’hypothèse du continu est également compatible avec la théorie des ensembles. Il s’ensuit d’abord que la théorie des ensembles est incomplète ; ensuite et surtout, que l’on pourrait la compléter en admettant tel ou tel axiome supplémentaire – ce qui conduirait à une situation comparable à celle des géométries euclidiennes et non euclidiennes. Il ne semble pas que l’on ait jusqu’ici élaboré les implications, probablement considérables, d’une pluralité de théories des ensembles.

CAST1987.4 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 26 : En troisième lieu, une part énorme des résultats mathématiques du XXe siècle s’appuie sur l’axiome du choix, formulé par Zermelo, équivalent à l’assertion : tout ensemble peut être bien ordonné. Or de cet axiome – qui a paru tout à fait contre-intuitif à de grands mathématiciens comme E. Borel ou H. Weyl et toute l’école intuitionniste –, on peut montrer qu’il équivaut à la fois à des propositions qui semblent intuitivement évidentes (par exemple, que le produit cartésien d’une famille d’ensembles non vides n’est pas vide) et qu’il est incompatible avec d’autres propositions qui semblent intuitivement tout aussi évidentes, comme l’axiome de la déterminité de J. Mycielski (1964 ; cet axiome affirme que tous les jeux infinis à information parfaite sont déterminés, au sens qu’il y a toujours une stratégie gagnante pour l’un des deux partenaires). Ici la question n’est pas seulement la possible fragilité d’une grande partie des résultats de la mathématique moderne (qui avait conduit N. Bourbaki à marquer d’un astérisque les théorèmes dont la démonstration dépend de l’acceptation de l’axiome du choix), mais la vacillation de l’intuition mathématique aux prises avec ses créations extrêmes.

CAST1987.5 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 33-35 : Il y a au cœur de l’époque moderne, depuis la fin des “âges obscurs”, deux significations imaginaires sociales, intrinsèquement antinomiques quoique liées (mais cette liaison ne peut nous retenir ici). L’autonomie d’une part qui a animé aussi bien les mouvements émancipateurs et démocratiques qui parcourent l’histoire de l’Occident que la renaissance de l’interrogation et de l’enquête rationnelle. L’expansion illimitée de la maîtrise “rationnelle” d’autre part, au fondement de l’institution du capitalisme et de ses avatars (parmi lesquels, par une monstrueuse inversion, le totalitarisme) et qui sans doute culmine avec le déferlement de la technoscience. Pour des raisons que j’ai longuement développées ailleurs, la maîtrise “rationnelle” en expansion illimitée ne peut être en réalité qu’une maîtrise pseudo-rationnelle. Mais une autre dimension importe ici davantage. Une “maîtrise rationnelle” implique, exige en vérité, dès que la “rationalité” a été vue comme parfaitement “objectivable”, ce qui a rapidement voulu dire : algorithmisable, une maîtrise impersonnelle. Mais une maîtrise impersonnelle étendue à tout est évidemment la maîtrise de outis, de personne – et par là même, c’est la non-maîtrise complète, l’impouvoir. (Dans une démocratie, il y a certes une règle rationnelle impersonnelle, la loi, pensée sans désir comme disait Aristote, mais il y a aussi des gouvernants et des juges en chair et en os.) Tout à fait symptomatique à cet égard est la tendance actuelle à l’“automatisation des décisions”, déjà en cours dans un grand nombre de cas secondaires mais qui commence à prendre une autre allure avec les “systèmes experts”. Et encore plus illustrative est l’idée, qui en constitue en quelque sorte l’achèvement, de la Doomsday machine, système expert qui ferait partir automatiquement les fusées d’un camp dès que celles de l’autre seraient computées ou supposées parties, éliminant ainsi tout facteur politique-psychologique “subjectif” (donc à la fois faillible et influençable) dans la dissuasion, et dont en vérité nous ne sommes pas tellement loin.

CAST1987.6 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 35 : La science offre un substitut à la religion pour autant qu’elle incarne derechef l’illusion de l’omniscience et de l’omnipotence – l’illusion de la maîtrise. Cette illusion se monnaye d’une infinité de manières – depuis l’attente du médicament miracle, en passant par la croyance que les “experts” et les gouvernants savent ce qui est bon, jusqu’à la consolation ultime : “Je suis faible et mortel, mais la Puissance existe.” La difficulté de l’homme moderne à admettre l’éventuelle nocivité de la techno­science n’est pas sans analogie avec le sentiment d’absurdité qu’éprouverait le fidèle devant l’assertion : Dieu est mauvais. De la valorisation du pouvoir-faire en tant que tel à l’adoration de la force nue, l’écart est bien petit.

CAST1987.7 Cf. Castoriadis, Voie sans issue ?, op. cit., p. 36-37 : Or, en même temps que s’épanche triomphante la rage de la “puissance”, le fétichisme de la “maîtrise rationnelle”, en même temps semble subir une éclipse l’autre grande signification imaginaire créée par l’histoire gréco-occidentale, celle de l’autonomie, notamment politique. La crise actuelle de l’humanité est crise de la politique au grand sens du terme, crise à la fois de la créativité et de l’imagination politiques, et de la participation politique des individus. La privatisation et l’“individualisme” régnants laissent libre cours à l’arbitraire des Appareils en premier lieu, à la marche autonomisée de la technoscience à un niveau plus profond. C’est là le point ultime de la question. Les dangers énormes, l’absurdité même contenue dans le développement tous azimuts et sans aucune véritable “orientation” de la technoscience, ne peuvent être écartés par des “règles” édictées une fois pour toutes, ni par une “compagnie de sages” qui ne pourrait devenir qu’instrument, sinon même sujet, d’une tyrannie. Ce qui est requis est plus qu’une “réforme de l’entendement humain”, c’est une réforme de l’être humain en tant qu’être social-historique, un ethos de la mortalité, un auto-dépassement de la Raison. Nous n’avons pas besoin de quelques “sages”. Nous avons besoin que le plus grand nombre acquière et exerce la sagesse – ce qui à son tour requiert une transformation radicale de la société comme société politique, instaurant non seulement la participation formelle mais la passion de tous pour les affaires communes. Or, des êtres humains sages, c’est la dernière chose que la culture actuelle produit.

GRAN2008 Le symbole : une notion complexe

Émilie GRANJON, Le symbole : une notion complexe in Protée, Volume 36, Numéro 1, printemps 2008, Le symbole. Réflexions théoriques et enjeux contemporains, p. 17-28

GRAN2008.1 Cf. Granjon, Le symbole : une notion complexe, op. cit., p. 17-18 : Dérivé du grec sumbolon, le mot “symbole” désigne un signe de reconnaissance, précisément un “ objet coupé en deux dont deux hôtes conservaient chacun une moitié qu’ils transmettaient à leurs enfants ; on rapprochait les deux parties pour faire la preuve que des relations d’hospitalité avaient été contractées.” [Alain REY (dir.), Dictionnaire historique de la langue française, 3 vol., Paris, Le Robert, 2004, p. 3719] L’aspect relationnel qui se dégage de cette étymologie émane du verbe sumballein signifiant “jeter ensemble”, “joindre”, “réunir”, et aussi “mettre en contact”. L’héritage grec chemine jusqu’au XIVe siècle pour être, entre autres, repris par le latin et devenir symbolum. Dès lors, il représente la croyance et désigne spécifiquement le “tableau des principaux articles de la foi” [Alain REY (dir.), Le Grand Robert de la langue française, 6 vol., Paris, Le Robert, 1991, p.95]. Cet emploi, encore rare, devient plus fréquent au cours du XVIe siècle dans le domaine de la théologie et prend le sens de “signe extérieur d’un sacrement” [ibid.]. Outre l’emploi religieux, le mot “symbole” signifie également un “[…] fait ou objet naturel perceptible qui évoque, par sa forme ou sa nature, une association d’idées “naturelle” dans un groupe social donné avec quelque chose d’abstrait ou d’absent.” [ibid.] Cette acception est courante jusqu’aux XVIIe et XVIIIe siècles pour désigner, d’une part, un “signe constituant une marque de reconnaissance pour les initiés au mystère (1690)” [ibid.], en référence à l’utilisation antique, et, d’autre part, un “jeton servant de signe monétaire (1798)” (ibid.). À la même époque, deux autres sens, provenant du bas latin symbola, sont référencés ; il s’agit de la “quote-part payée dans un repas commun” [ibid.] et de la collation. L’usage actuel du mot “symbole” ne reprend cependant pas toutes les définitions susmentionnées. Celles qui émergent à la fin du XVIIe siècle et qui renvoient au contexte culinaire sont rapidement abandonnées, alors que celles qui s’inscrivent dans la veine étymologique perdurent encore.

GRAN2008.2 Cf. Granjon, Le symbole : une notion complexe, op. cit., p. 27 : Le symbole est une notion complexe qui, en plus d’être polysémique, trouve des résonances variées selon les disciplines envisagées et au sein même de ces disciplines. Preuve en est la différence théorique entre les conceptions freudienne et jungienne du symbole. Pour comprendre ces différends, il est nécessaire de savoir quelles sont les modalités théoriques impliquées dans chacune des thèses. La sémiotique (au sens large), en tant que science des signes et du sens, a parfaitement su formaliser toutes les acceptions du mot “symbole” grâce aux diverses thèses formulées sur la question du signe. De la différence naît une communauté de sens fondamentale pour appréhender tout type de symbole et observer son mode de fonctionnement dans un contexte d’énonciation déterminé.

MORI2021 Dans le torrent du siècle

Edgard MORIN, Dans le torrent du siècle, Le Monde, 8 juillet 2021, p. 28.

MORI2021.1 Cf. Morin, Dans le torrent du siècle, op. cit., p. 28 : À partir de 1980, le mouvement transhumaniste, né en Californie, se répand dans les élites de la technique et de l’économie. Il prévoit une métahumanité dotée de l’immortalité et une métasociété harmonieusement réglée par l’intelligence artificielle. Animé par la conscience des possibilités de nouveaux pouvoirs technoscientifiques qui permettent de concevoir le prolongement de la vie humaine et un homme augmenté dans ses pouvoirs, le transhumanisme reprend et développe le mythe occidental de maîtrise illimitée du monde extérieur et l’utopie d’une société rendue harmonieuse par l’usage managérial de l’intelligence artificielle éliminant les désordres, donc les libertés. Il annonce, en fait, une métamorphose de l’humanité tant individuelle que sociale en une post-humanité ou surhumanité.

MORI2021.2 Cf. Morin, Dans le torrent du siècle, op. cit., p. 28 : Simultanément, le caractère multidimensionnel et planétaire de la crise, la multiplicité des interrétroactions entre ses composantes comme entre le local et le global, tout cela révèle la faiblesse d’une pensée si puissante mais incapable de concevoir la réalité humaine, et particulièrement dans les époques des crises, parce qu’incapable d’intégrer les connaissances dispersées et compartimentées dans les disciplines. En même temps nous apparaît l’insuffisance d’une pensée si puissante dans le calcul et l’algorithmisation des données existantes, mais aveugle à ce qui est le caractère même de l’histoire humaine : le surgissement de l’inattendu et la présence permanente des incertitudes, lesquelles s’aggravent en temps de crise et surtout de crise géante comme la nôtre.

MORI2021.3 Cf. Morin, Dans le torrent du siècle, op. cit., p. 28 : L’infirmité ne vient pas seulement de la fragilité humaine (le malheur, la mort, l’inattendu) mais aussi des effets destructeurs de la toute-puissance scientifique-technique-économique, elle-même animée par la démesure accrue de la volonté de puissance et de la volonté de profit. Cette pensée humaine capable de créer les plus formidables machines est incapable de créer la moindre libellule. Cette intelligence capable de lancer dans le cosmos fusées et stations spatiales, capable de créer une intelligence artificielle capable de toutes les computations, est incapable de concevoir la complexité de la condition humaine, du devenir humain. Cette intelligence capable de découper le réel en petits morceaux et de les traiter logiquement et rationnellement est incapable de rassembler et d’intégrer les éléments du puzzle et de traiter une réalité qui exige une rationalité complexe concevant les ambivalences, la complémentarité des antagonismes et les limites de la logique du tiers exclu. Quand saurons-nous que tout ce qui est séparable est inséparable ?

MORI2021.4 Cf. Morin, Dans le torrent du siècle, op. cit., p. 28 : Aussi devons-nous comprendre que tout ce qui émancipe techniquement et matériellement peut en même temps asservir, depuis le premier outil devenu en même temps arme, jusqu’à l’intelligence artificielle en passant par la machine industrielle. N’oublions pas que la crise formidable que nous vivons est aussi une crise de la connaissance (où l’information remplace la compréhension et où les connaissances isolées mutilent la connaissance), une crise de la rationalité close ou réduite au calcul, une crise de la pensée.

TURI1936 On Computable Numbers, with an Application to the Entscheidungsproblem

Alan TURING, On Computable Numbers, with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, série 2, Vol. 45, 1936 p. 230-265.

TURI1936.1 Cf. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, op. cit., p. 230-231 : The “computable” numbers may be described briefly as the real numbers whose expressions as a decimal are calculable by finite means. Although the subject of this paper is ostensibly the computable numbers, it is almost equally easy to define and investigate computable functions of an integral variable or a real or computable variable, computable predicates, and so forth. The fundamental problems involved are, however, the same in each case, and I have chosen the computable numbers for explicit treatment as involving the least cumbrous technique. I hope shortly to give an account of the relations of the computable numbers, functions, and so forth to one another. This will include a development of the theory of functions of a real variable expressed in terms of computable numbers. According to my definition, a number is computable if its decimal can be written down by a machine. In §§ 9, 10 I give some arguments with the intention of showing that the computable numbers include all numbers which could naturally be regarded as computable. In particular, I show that certain large classes of numbers are computable. They include, for instance, the real parts of all algebraic numbers, the real parts of the zeros of the Bessel functions, the numbers , , etc. The computable numbers do not, however, include all definable numbers, and an example is given of a definable number which is not computable. Although the class of computable numbers is so great, and in many ways similar to the class of real numbers, it is nevertheless enumerable. In §8 I examine certain arguments which would seem to prove the contrary. By the correct application of one of these arguments, conclusions are reached which are superficially similar to those of Gödel [Gödel, “Uber formal unentscheidbare Satze der Principia Mathernatica und verwant der Systeme, I”, Monatshefte Math. Phys., 38 (1931), 173-198.] . These results have valuable applications. In particular, it is shown (§11) that the Hilbertian Entscheidungsproblem can have no solution. In a recent paper Alonzo Church [Alonzo Church. “An unsolvable problem of elementary number theory”, American J of Math., 58(1936), 345-363.] has introduced an idea of “effective calculability”, which is equivalent to my “computability”, but is very differently defined. Church also reaches similar conclusions about the Entscheidungsproblem [Alonzo Church. “A note on the Entscheidungsprob1em”, J. of Symbolic logic, 1 (1930), 40-41.]. The proof of equivalence between “computability” and “effective calculability” is outlined in an appendix to the present paper.

LOMB2006 Le retrait de la vérité chez Gödel

Gabriel LOMBARDI, Le retrait de la vérité chez Gödel. Une étrange condition du succès de la science du réel in L’en-je lacanien, 2006/2 (n° 7), p. 31-42.

LOMB2006.1 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 31-32 : Il est communément admis que la logique fit ses premiers pas avec Aristote, mais ce sont les résultats obtenus vingt trois siècles plus tard par Kurt Gödel qui ont permis à Lacan de la distinguer comme étant la “science du réel” : elle ne s’occupe pas des objets de quelque réalité que ce soit – toujours questionnables dans leur vérité, dans leur objectivité, dans leur existence effective – mais seulement des impossibilités inhérentes au langage. Que l’investigation logique ne concerne pas la vérité mais la démonstration, Aristote l’explique depuis le paragraphe initial de Les Premiers Analytiques ; la démonstration est un procédé purement formel qui touche à la perfection dans la mesure où l’action du langage sur la sémantique de la signification et de la vérité reste en suspens tout au long du processus. “Si tous les a sont b, et c est a, alors c est b” est un syllogisme admis non seulement dans le cas où l’on remplace les lettres par homme, mortel et Socrate, mais aussi dans le cas où on les remplacerait par d’autres substantifs tirés au sort. Cependant, la vérité subsiste comme un facteur essentiel à la trouvaille du réel.

LOMB2006.2 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 32-34 : L’emploi que Gödel fit du concept de vérité fut surprenant, et d’une certaine façon, inexplicable pour les logiciens eux-mêmes – bien que maintenant personne ne rêve de réfuter aucune de ses preuves. Elle anticipe et exemplifie la thèse de Lacan sur le destin de la vérité dans le discours de la science. Dans les années qui ont précédé 1930, Gödel avait participé aux réunions du Cercle de Vienne ; sous l’influence de Wittgenstein, on y considérait la mathématique de nature syntactique ; dans ce lieu, parler de vérité arithmétique ou, plus généralement, de questions sémantiques était considéré insensé : “Ce dont on ne peut parler, il faut le taire” c’est la sentence finale du Tractatus. L’un de ses intégrants, Rudolf Carnap est arrivé à postuler que la mathématique est “la syntaxe du langage”, une pure syntaxe qui ne dénote rien ni n’aspire à être l’expression d’aucune vérité. C’était une position philosophiquement intéressante – elle a séduit tant d’intellectuels ! – mais scientifiquement stérile. Nous verrons qu’avant de bannir la sémantique, l’on pouvait encore en faire quelque chose d’autre. De leur côté, les formalistes de l’école de Hilbert pensaient que la démontrabilité formelle à partir des axiomes était une analyse correcte du concept de vérité mathématique. Gödel signala aussi l’insuffisance de cette position, puisqu’elle cache la distinction entre vérité et démontrabilité. Dans les systèmes formels étendus que Gödel a étudiés, il rencontra la situation suivante : il y a des propositions non déductibles dans le système, bien que vues de l’extérieur elles soient intuitivement vraies. Conscient de la place que tient l’intuition dans la mathématique – par opposition au raisonnement mécanique qui est aveugle –, au lieu de les écarter Gödel admit que la contradiction existe : une proposition non démontrable en un vaste système logico-formel peut en même temps être vraie en dehors de lui. Gödel s’éloigna du Cercle viennois sans avoir rien pris. Par contre, il se sépara autrement de la position de Hilbert, mettant en évidence qu’en vertu du théorème d’incomplétude de 1931, la notion de vérité ne coïncide pas avec la déductibilité formelle ; il prouva que cette dernière n’a pas nécessairement le dernier mot car ce n’est pas tout ce qui est vrai en mathématique qui est exprimable en un seul système logico-formel – aussi large qu’on le conçoive –. Or, ce n’est pas cela que Gödel écrit. Ou plutôt, il l’écrit et ensuite, étonnamment, dans le même article, il le supprime. En effet, la position de Gödel se distingue non seulement par sa liberté dans l’emploi de la vérité dans ses preuves – ce qui l’éloigne de Wittgenstein et l’écarte de l’École de Hilbert –, mais aussi par la combinaison singulière, déjà évidente dans l’article de 1931, entre l’emploi explicite de la notion de vérité dans la présentation intuitive de ses théorèmes, et sa complète élimination dans la démonstration précise qui le suit. Ce procédé s’est répété dans des textes ultérieurs. Entre 1929 et 1940 Gödel publia le plus remarquable de son œuvre, un total de quelques deux cents pages de travaux sur les fondements logiques de la mathématique. Il y inclut uniquement les aspects purement logico-mathématiques, irréfutables pour tous les courants épistémologiques, en laissant de côté toutes les questions philosophiques que l’on pourrait poser. Ce fut sa période créative à Vienne et elle prit fin avec son déménagement définitif à Princeton – où les échanges sociaux et la reconnaissance, comme dans le cas de Cantor, auront des effets dévastateurs sur son génie. Pendant la seconde moitié du XXe siècle plusieurs logiciens reconnus se sont cassé la tête en essayant de comprendre pourquoi Gödel s’est si radicalement abstenu, pendant sa période créative, d’inclure dans ses démonstrations des notions qu’il est évident qu’il employait “intuitivement”. Solomon Feferman, mathématicien prolifique, studieux et éditeur des œuvres de Gödel, a caractérisé ce choix dans son article “Kurt Gödel : Conviction and caution”. Il y souligne le contraste profond que l’on trouve entre quelques convictions sous-jacentes à l’œuvre de Gödel et l’extraordinaire concision des résultats publiés. Pourquoi ?, s’interroge-t-il ; et la question devient plus remuante si l’on se rend compte que cette réticence l’a privé de la paternité manifeste de notions aussi cruciales que celle la vérité formalisée, dont il céda le mérite à Tarski, et celle du calcul effectif, notion clé dans l’histoire de la science, qu’avec une générosité inquiétante il céda à Turing.

LOMB2006.3 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 34-35 : Feferman prit la peine de comparer la première version de la thèse de 1930 avec le texte présenté pour publication cet année-là et il a remarqué que tous les paragraphes indiquant une critique philosophique plus ou moins explicite des positions de Hilbert ou de Brouwer furent éliminés de la version finale. Ce n’est que trente années après que Gödel écrira en courrier privé sur “l’aveuglement des logiciens des années vingt qui les empêchait d’employer le raisonnement non finitiste.” Ce nouvel emploi de la raison sera précisément celui qui ouvrira la voie à un traitement du nombre, libre non seulement de la signification des symboles mais aussi de cet autre champ sémantique plus vaste, celui de la “vérité” que les combinaisons de symboles sont supposées apporter aux contextes qui les logent ou aux modèles qui les répliquent. La question de Feferman est donc la suivante : pourquoi Gödel, qui dans l’élaboration de ses résultats s’appuyait de façon évidente sur la notion de vérité, prit ensuite la peine de l’éliminer totalement dans ses démonstrations ? Gödel lui-même, les dernières années de sa vie, expliquera en privé que non seulement ce qui est déductible peut s’écarter de la vérité mais que celle-ci peut être supprimée des démonstrations logiques en réduisant son emploi à un “principe heuristique”, utile au mathématicien pour trouver des vérités même s’il ne réussit pas à les démontrer avec la rigueur requise par un système logico-formel. Dans une lettre à son confident Hao Wang, il écrira : “Je peux ajouter que ma conception objectiviste de la mathématique et de la métamathématique en général, et du raisonnement transfini en particulier, a aussi été fondamentale pour le reste de mon œuvre en logique. En effet, comment peut-on penser à exprimer la métamathématique dans les systèmes mathématiques eux-mêmes si on les considère comme étant composés de symboles n’ayant pas de signification, et qui n’acquièrent quelque substitut de signification que dans la métamathématique ? […] On devrait remarquer que le principe heuristique de ma construction des propositions numéro-théorétiques indécidables dans les systèmes formels de la mathématique est le concept hautement transfini de “vérité mathématique objective”, en tant il s’oppose à celui de “démontrabilité” avec lequel il a été souvent confondu avant mon œuvre et celle de Tarski.” La vérité est donc employée par Gödel comme “principe heuristique” non proprement scientifique, et remplacée dans les preuves par des répétitions qui se produisent “comme par hasard”. Une rencontre survenue sous la forme de la répétition permet de supprimer la vérité dans la démonstration. La vérité sera renvoyée par Gödel au transfini, à l’inaccessible du point de vue finitiste – ou simplement expulsée aux limbes précaires du discours philosophique. Voilà pourquoi les textes de Gödel ne parlent pas de vérité même si c’est elle, en tant que principe heuristique, qui a été le moteur de la preuve. Nous n’avons pas eu besoin de Lacan pour montrer cela puisque Gödel lui-même s’en était rendu compte, mais avec Lacan nous pouvons interpréter cette élimination de la vérité comme une forclusion, étrange parce que contrôlée et lucide, mais forclusion enfin : l’heure de la vérité est passée, et elle est passée sans que cela ne se dise ni ne s’occulte.

LOMB2006.4 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 35-37 : Ce pas, qui n’est pas un tour de passe-passe mais un laisser tomber, c’est ce qui nous permet de voir en Kurt Gödel le cas, et dans ses élaborations logiques le pas, le plus clair et le plus précis dans toute l’histoire de la science, de la Verwerfung de la vérité comme cause – condition du discours de la science. Gödel ne reconnaîtra jamais à la formalisation de la vérité proposée par Tarski les titres de gloire qu’il accorda à la calculabilité effective de Turing dont il affirma : “avec ce dernier on a réussi pour la première fois, la définition absolue, c’est-à-dire indépendante du formalisme choisi, d’une notion épistémologiquement intéressante”. Entre 1929 et 1940 Gödel ne publia que ce dont il pouvait trouver la certitude de l’absolu, ce qui n’admet que des résultats logico-mathématiques et qui relègue à la condition de “préjugés” toutes les considérations philosophiques ou épistémologiques dépendantes de suppositions en principe étrangères à une science du réel. Gödel non seulement a établi la distinction entre le réel et la vérité du symbole, mais aussi entre ce qui appartient en propre à la science du réel et les questions philosophiques, sémantiques et idéologiques qui généralement l’affaiblissent et la diluent. Il pouvait être d’accord ou en désaccord avec des formalistes, des logicistes, des intuitionnistes, des platoniciens, il pouvait même voter pour Eisenhower – ce qui était de la pure folie selon son ami Einstein. Ses opinions autres que celles relatives à la logique en tant que science du réel étaient certes discutables, elles appartenaient à une réalité particulière – au monde du possible et de l’imagination, ou à l’univers partiel d’un délire qui y supplée –. Mais la rigueur logique qu’il exerça pendant toute sa vie était pour lui quelque chose d’indépendant des postulats philosophiques qui auraient pu le soutenir en tant que sujet. Il est connu qu’un même système formel peut s’appliquer à des réalités très différentes selon l’interprétation que l’on fait de ses symboles et de ses axiomes. Gödel a été – que l’oxymoron me soit permis – un spécialiste de l’absolu, un expert dans ce qui pour un système formel est viable ou impossible, quelle que soit l’interprétation sémantique faite. Sa position sur ce point, radicale et déroutante pour beaucoup, atteignit quelques sommets d’ironie : en 1931 il publia ses théorèmes les plus connus sur l’incomplétude et l’indécidabilité ; il peut donc passer inaperçu qu’à peine une année plus tard il ait démontré en quelques pages, presque en passant, que l’arithmétique classique est un sous-système de l’arithmétique intuitionniste… et vice-versa ! C’est-à-dire que malgré les apparences, malgré les discussions enflammées de ceux qui soutiennent des positions apparemment si différentes – semblant impliquer d’énormes changements dans la conception du monde –, il n’y a aucune différence d’amplitude ni de risque entre ces deux arithmétiques une fois éclairées à la lumière froide de la logique. Ceci a représenté un coup dévastateur pour la philosophie des intuitionnistes – qui avaient cru pouvoir éliminer la dangereuse versatilité de la logique et de l’arithmétique classique et sa richesse en ambiguïtés expressives, au moyen d’exigences et restrictions qui évitaient les paradoxes.

DUBA1951 Le Colloque de Logique mathématique

Dominique DUBARLE, Le Colloque de Logique mathématique in Revue Philosophique de Louvain, Troisième série, tome 49, n°21, 1951. pp. 120-130.

DUBA1951.1 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 121-122 : Il semble d’ailleurs que la situation créée par le développement de la Logique mathématique soit en train de se clarifier. Logiciens et Mathématiciens savent un peu mieux à quoi s’en tenir au sujet de leurs rapports respectifs. Les uns et les autres s’intéressent à l’Axiomatique. Mais ce qui fait le mathématicien, c’est l’utilisation d’une axiomatique donnée, le rapport entre une axiomatique (vécue plus encore qu’objectivée) et les faits mathématiques dont cette axiomatique vise à déterminer la certitude. Ce qui fait par contre le logicien, c’est l’attention donnée au rapport entre l’axiomatique et l’esprit qui la pose. Au moment cependant où elle s’est constituée, la Logique mathématique donna à penser plus ou moins confusément que ces deux perspectives distinctes allaient coïncider. La logique mathématique fut développée pour résoudre un certain nombre de difficultés de la pensée, en peine encore de bien débrouiller le valable et l’erroné en certains domaines, passablement complexes, de l’étude mathématique. Elle se constitua en outre en empruntant à la mathématique sa technique symbolique et en prenant ainsi elle-même un visage mathématique. Il en est résulté qu’elle suscita un instant l’espoir de substituer, en ce qui concerne la détermination des vérités mathématiques, l’étude méthodique des structures axiomatiques à la hasardeuse exploration des faits telle que le mathématicien a coutume de la poursuivre à partir des axiomes posés. Cet espoir a soutenu initialement la plupart des recherches sur la théorie de la démonstration. On en sait l’issue à peu près complètement négative : les secteurs mathématiques dans lesquels la vérité est a priori décidable ne dépassent guère le domaine d’une trivialité située largement en deçà des questions que les mathématiciens se posent coutumièrement. Le mirage est donc dissipé : pour à peu près tout ce qui l’intéresse, le mathématicien est renvoyé au travail traditionnel de la démonstration, qui se fait comme il peut, besogneusement. La logique mathématique semble donc n’avoir aidé le mathématicien que de façon négative, en clarifiant certaines procédures de raisonnement. L’apport d’une efficacité positive reste problématique. Ceci permettra de comprendre l’espèce de défiance des mathématiciens, tels ceux du groupe Bourbaki, devant les spéculations logiciennes sur l’axiomatique, alors qu’ils n’hésitent aucunement à recourir comme point de départ aux structures axiomatiques les plus abstraites. Cette défiance, c’est sans doute la dernière trace d’une attente déçue. Peut-être d’ailleurs l’esprit mathématique exagère-t-il ici sa déception : l’union de la logique et du symbolisme mathématique est vraisemblablement plus féconde qu’il ne lui apparaît, en dépit d’une certaine mise à la raison d’espérances par trop exorbitantes. Mais il faut attendre pour se faire une idée plus juste de cette fécondité. De leur côté les logiciens mesurent mieux la portée de leur effort. Les exposés du Colloque, chacun à leur manière, insistèrent beaucoup sur la modestie nécessaire au praticien de la logique. Un système formel est chose assez facile à construire. Étudier les propriétés d’ensemble d’un formalisme est généralement chose beaucoup plus difficile : on sait la peine que peuvent demander les démonstrations de non-contradiction ou les études relatives à l’indépendance des axiomes, sans parler des considérations ouvertes depuis les démonstrations de Gödel. Mais ces difficultés ne sont encore que peu de chose au prix de celles auxquelles se heurte celui qui veut essayer de jeter un pont entre le résultat d’études faites sur le formalisme et la détermination des vérités qui peuvent être atteintes en vertu du formalisme. De sorte que les logiciens, loin de penser avoir réussi à frayer une “voie royale” à la connaissance mathématique, tendent de plus en plus à voir dans leur effort un simple moyen d’approfondir la connaissance du discours propre à la science, à la science mathématique en particulier.

DUBA1951.2 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 123-124 : Un système formel, note Curry dans sa communication, est une construction de l’esprit dont il faut commencer à parler dans la langue usuelle si l’on veut être compris. Ceci implique entre la langue usuelle et le système formel construit une sorte de mouvement de va-et-vient indéfini de la pensée. Lorsqu’on traite le système construit comme une langue scientifique (point de vue auquel il semble bien que Curry lui-même ne donne pas entièrement son accord), ceci se transcrit dans l’inéluctable hiérarchisation des langues et méta-langues, bien connue depuis les études faites sur la formalisation de la syntaxe des langues scientifiques. Le rapport interne de la langue scientifique à sa propre syntaxe, qu’il est impossible en général de formaliser à l’aide des seules ressources de cette langue, est comme l’image du rapport externe du système formel à la langue usuelle, indéfinie, que sa construction présuppose. Il y a là, sous une forme technique, une indication importante : l’esprit touche, dans cette analyse, à l’impossibilité qu’il y a de réduire à la catégoricité scientifique le datum originaire qu’expose non scientifiquement le langage usuel. Peut-être cette réflexion devrait-elle être rapprochée des remarques si profondes que Gödel a faites à propos de l’hypothèse du continu, en pensant pour son propre compte que l’axiomatique actuelle de la théorie des ensembles n’épuise pas la réalité mathématique à décrire, qu’il y a donc encore un progrès d’invention axiomatique à réaliser [GÖDEL, What is Cantor’s continuum problem?, The American Mathematical Monthly, vol. 54, pp. 515-525.], seul capable de décider de la vérité ou de la fausseté de l’hypothèse du continu. L’intention de Curry n’était pas d’expliciter de pareilles perspectives. Il semble cependant que ce soit quelque sentiment de ce genre qu’il faille voir à l’origine de son refus de caractériser par autre chose que par l’acceptabilité (ou la non-acceptabilité) un système formel construit pour des buts scientifiques. Ses raisons ne sont peut-être pas simplement celles d’un pragmatisme au sens usuel du mot, bien qu’il soit parfois revenu dans la discussion au langage du pragmatisme. Pour notre propre part, nous préférerions discerner dans sa position la trace d’une épistémologie réfléchie et assez fine, capable de reconnaître clairement certains facteurs d’inadéquation formelle entre l’intention primordiale de la science et ce que l’esprit met sur pied pour y répondre.

DUBA1951.3 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 124 : M. Hermes distingue l’axiomatisation au sens usuel de la pratique mathématique et celle telle qu’on la trouve à la base de la construction d’un calcul logique. Le mathématicien cherche à formuler des propositions qui soient pour lui des origines de recherche et il demande que ces propositions qu’il assume soient cohérentes avec l’ensemble des conséquences appartenant solidement à la science mathématique. Il tend en conséquence à axiomatiser en travaillant dans la perspective sémantique au sens de Tarski. Le logicien, par contre, tend à construire un ensemble de suites de signes obéissant à certaines règles de formation et de décision spécifiées avec la dernière rigueur, mais pour elles-mêmes et abstraction faite des teneurs significatives dont les signes et les suites construites de signes pourront être les véhicules. Nous avons alors l’axiomatisation dans la perspective syntactique, au sens ou Carnap parle de syntaxe. Cette distinction est profonde et éclairante pour celui qui cherche à comprendre en philosophe la différence d’attitude entre le logicien et le mathématicien.

DUBA1951.4 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 125 : Le sujet de M. Heyting était la théorie de l’espace de Hilbert, exposée du point de vue intuitionniste. Ce point de vue permet de retrouver une partie importante des résultats désormais classiques en ce domaine : ils apparaissent alors chargés d’une force de signification qu’ils n’ont pas dans la perspective ordinaire. D’autres résultats ne sont pas retrouvés et le fait même qu’ils ne le soient pas prend, lui aussi, valeur significative. Le scrupule de l’esprit qui se refuse à considérer certaines démonstrations comme probantes constitue une sorte d’avertissement. Peut-être en effet l’objectivité mathématique se présente-t-elle autrement encore que ne le suppose le mathématicien ordinaire, qui traite hardiment son sujet comme si la réalité qu’il objective dans sa théorie devait se plier absolument aux conditions a priori qu’il accepte pour lois de sa pensée. On comprend alors que l’attitude d’esprit intuitionniste intéresse les physiciens qui, eux, ont bien l’impression de se trouver devant un genre d’objectivité moins docile aux lois classiques de la pensée que ne l’est l’objectivité mathématique usuelle. Cette façon si particulière qu’a l’intuitionnisme de se rapporter à l’objectivité scientifique, les réserves tant de fois examinées et si souvent critiquées qu’il formule à l’égard de certains procédés de raisonnement, ne sont cependant qu’un élément du fait intuitionniste. L’intuitionnisme en effet met en question, non seulement une conception classique de l’objectivité mathématique, mais aussi la conception traditionnelle de l’intersubjectivité scientifique.

DUBA1951.5 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 129 : La logique mathématique donne en effet le moyen de construire un formalisme abstrait indépendamment de tout problème d’interprétation, puis de démontrer certains théorèmes sur la structure même de ce formalisme. Ces théorèmes sont vrais avant même, pour ainsi dire, que l’on ait décidé ce que l’on veut faire dire à ce formalisme. L’interprétation du formalisme par un modèle “concret” vient après. Au moment où elle se fait, il peut arriver que les résultats concernant le formalisme lui-même puissent préciser, non pas semble-t-il, la réalité même de la démonstration mathématique pour les entités qui font l’interprétation du formalisme, mais ce qui a trait au type de démonstration auquel on peut penser le cas échéant. On peut ainsi savoir que telle démonstration cherchée dépend, si elle est possible, de tel groupe d’axiomes ; ou encore que si telle démonstration est possible, alors on peut aussi songer à telle autre. Il n’est pas exclu que la suggestion se fasse si précise qu’elle conduise sans peine le mathématicien à un résultat relativement caché.

MONG2003 L’axiomatisation et les théories économiques

Philippe MONGIN, L’axiomatisation et les théories économiques in Revue économique, vol. 54, n°1, 2003. pp. 99-138.

MONG2003.1 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 101 : L’axiomatique bien entendue suppose toujours un point d’ancrage extérieur ; au minimum, il faut qu’une théorie antérieure permette d’attribuer des significations aux symboles muets du langage formel.

MONG2003.2 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 102 : Il est commode de partir de la différence générale entre axiomatisation et déduction. En un sens large, une axiomatisation n’est que la mise en forme déductive d’une théorie préalable, les propositions de cette théorie tombant soit du côté des propositions premières (les axiomes), soit du côté des propositions dérivées (les théorèmes).

MONG2003.3 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 102-103 : la méthode a connu deux modalités bien distinctes, celle des Anciens, dont les Éléments d’Euclide constituent le modèle insurpassable et qui perdure jusqu’à la fin du XIXe siècle, et celle des Modernes, qui s’est cristallisée vers 1900 dans les travaux de Hilbert en géométrie et de Peano en arithmétique. Suivant le point de vue des Anciens, les principes premiers (qui ne s’appellent alors pas tous “axiomes”) bénéficient d’une évidence absolue : ils sont à la fois vrais et sus comme tels, d’une vérité immédiate suivant la raison ou le sentiment. La mise en forme déductive a pour fonction de transmettre la certitude des principes aux autres propositions de la théorie, qui, moins bien loties qu’eux, ne bénéficient pas, ou pas au même degré, de cette évidence immédiate. En revanche, le point de vue des Modernes est hypothético-déductif, suivant une expression employée pour la première fois, semble-t-il, en 1899 chez Pieri, un disciple de Peano. Suivant cette conception, qui s’est imposée par la suite, il n’est pas nécessaire que les principes et les propositions dérivées soient vrais pour qu’une relation déductive s’établisse entre les premiers et les secondes. En même temps que l’idée de vérité, celle de certitude supérieure des principes tombe, et il ne reste finalement, pour justifier le rôle privilégié des principes, que des considérations internes à la stratégie déductive : ainsi, les axiomes doivent être cohérents, simples à formuler et peu nombreux relativement à la masse des propositions qu’ils engendrent. Rétrospectivement, la conception ancienne de l’axiomatisation paraît donc grevée d’une confusion essentielle entre la vérité des propositions et la correction des inférences. Cette dernière propriété se définit et doit s’apprécier indépendamment de la vérité des propositions qu’elle relie, c’est-à-dire de la correction des propositions elles-mêmes. Sans doute, on exigera de toute notion d’inférence déductive correcte qu’elle transmettre la vérité des prémisses aux conséquences dès lors que les prémisses sont vraies. Mais la notion d’inférence déductive correcte ne se limite pas à ce cas particulier : on peut très bien effectuer une déduction correcte à partir de prémisses fausses ou indéterminées, il suffit de les prendre comme hypothèses. Il en résulte qu’on peut entreprendre d’axiomatiser des théories qui contredisent l’intuition sensible, comme les géométries non euclidiennes, et, de même, des théories sur lesquelles l’intuition sensible ne nous informe pas directement, comme la mécanique quantique. En dissociant la notion de vérité et celle de correction logique, les Modernes se sont délivrés d’un corset qui entravait le développement mathématique de branches entières des sciences.

MONG2003.4 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 104 : On a souvent accusé la conception ancienne de créer des démarcations arbitraires et confuses entre les principes premiers, officiellement classifiés en axiomes, postulats et définitions. Les axiomes étaient censés bénéficier d’une vérité plus universelle et d’une certitude plus inébranlable que les postulats. Les premiers relèveraient de la science en général, tandis que les seconds appartiendraient à une science donnée. Par exemple, chez Euclide, les axiomes traitent de la quantité (l’addition de deux quantités égales à des quantités égales ne change pas l’égalité, etc.), tandis que les postulats portent spécifiquement sur les objets géométriques (les figures dans le plan). Quant à la définition, elle a fait l’objet de longues dissensions déjà parmi les Anciens, et c’était justement l’un des buts de Pascal, dans l’opuscule cité, que d’en clarifier le statut. En effet, les définitions d’Euclide sont “créatives” ; on ne sait comment les séparer des postulats ou des axiomes. L’axiomatique moderne fait justice de cette tripartition. Les propositions qu’elle considère comme premières seront désormais toutes désignées comme des “axiomes”. Comme elles ne sont premières que dans l’ordre déductif, et non pas dans un sens absolu, il n’y a plus lieu de mettre à part les postulats des axiomes. Quant à la définition, elle ne subsiste qu’en un sens limitatif et bien compris. On parlera de définition à propos d’une classe particulière d’axiomes qui ont la forme suivante : ils introduisent un terme en fonction d’autres à l’aide d’une égalité ou d’une équivalence logique, de sorte que, si on le désire, le terme défini peut être éliminé du système en même temps que sa définition.

MONG2003.5 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 106 : nous datons les premières axiomatiques économiques de 1944, avec von Neumann et Morgenstern

MONG2003.6 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 106-107 : La conception moderne de l’axiomatique vient seulement d’être esquissée. Avant de l’approfondir, il importe de distinguer entre l’axiomatisation, la symbolisation et la formalisation – trois concepts que, nous le verrons, les économistes ne séparent pas bien. La symbolisation est un procédé technique consistant à remplacer des signes formés dans un langage par des signes d’un autre langage, le remplacement étant uniforme et cohérent. Plus particulièrement, elle consiste à remplacer des mots de la langue naturelle par les signes d’une langue artificielle, qui est soit empruntée, soit créée pour la circonstance. C’est ainsi que Peano utilise la notation S(n) au lieu de l’expression “successeur de n”, ou que les microéconomistes remplacent l’expression “demande du consommateur” par un vecteur d’espace euclidien. La formalisation est encore un procédé technique, mais d’une espèce plus subtile. Elle consiste à traiter les signes en faisant abstraction des significations qu’on leur attribue. Traiter les signes, cela veut dire : les transformer les uns dans les autres, les regrouper, les dissocier, en un mot, effectuer sur eux des opérations. En droit, la formalisation est indépendante de la symbolisation. Lorsque, dans une boutade célèbre, Hilbert affirmait que les géomètres pourraient écrire “table”, “chaise”, “chope” au lieu de “point”, “droite”, “plan”, il indiquait non seulement que le choix des signes est arbitraire par rapport aux significations préétablies, mais aussi – c’est une conséquence moins évidente du propos – que la langue naturelle peut très bien fournir les signes arbitraires à employer. On peut donc, à la rigueur, concevoir une formalisation en l’absence d’une langue artificielle, et donc en l’absence de toute symbolisation préalable. Mais c’est là un cas limite, et peu naturel. Le principe de la formalisation, qui consiste à opérer sur des signes indépendamment de ce qu’ils signifient, ne s’accomplit vraiment qu’au prix d’un certain degré de symbolisation. Celui-ci peut être minime. Quand on symbolise par la notation fonctionnelle u(x) la satisfaction qu’apportent à un consommateur différents paniers de consommation, et que l’on étudie, par dérivation de u(x), les conditions nécessaires à l’existence d’un maximum de u(x), on a déjà formalisé (quoique modestement !) la théorie du consommateur. Le moment spécifique de la formalisation intervient ici lorsqu’on dérive la fonction u(x) sans prêter attention à ce qu’elle signifie. Le moment de la symbolisation a précédé celui-ci et, dans cet exemple comme dans beaucoup d’autres, il l’aura conditionné. Il est facile, en sens inverse, de concevoir une symbolisation sans formalisation. Les organigrammes des gestionnaires ou des informaticiens s’apparentent à la première plutôt qu’à la seconde. Les arbres symbolisent les problèmes de décision à plusieurs étapes ; on se sert de graphes, ou de matrices inputs-outputs, pour représenter symboliquement les relations entre fournisseurs et clients dans l’économie. Tant que ces représentations fonctionnent comme simples rappels des objets et ne prennent pas leur autonomie, elles ne constituent pas encore des formalisations.  Qu’en est-il alors de l’axiomatisation ? Dans la conception ancienne, elle n’est dépendante ni de la formalisation, ni de la symbolisation, ce qui mérite d’être souligné parce que l’on tend, aujourd’hui, à regrouper les trois notions. Carnap (Carnap R. [1958], Introduction to Symbolic Logic, New York, Dover (éd. originale, Einführung in die symbolische Logik, Berlin, Springer, 1954, p. 172) a fait valoir que la conception moderne pouvait, à la rigueur, se passer de l’une et de l’autre. De fait, les premières axiomatiques conformes à l’idéal hypothético-déductif, à la fin du XIXe siècle, se sont formulées en langue naturelle, sans que les règles d’opération se distinguent de celles qui régissent l’usage ordinaire du discours. Cet état intermédiaire paraît assez bien reflété dans les Leçons sur la nouvelle géométrie de Pasch [1882] et dans l’axiomatisation, pourtant considérée comme définitive, que Hilbert fit de la géométrie euclidienne (Grundlagen der Geometrie, 1899). Mais de même que la formalisation ne s’accomplit complètement qu’au prix d’une symbolisation préalable, de même l’axiomatisation, au sens moderne, demande la formalisation, et donc la symbolisation, pour réaliser ses potentialités. Aussi longtemps que l’on n’isole pas les règles permettant d’agir sur les signes, la liaison déductive entre axiomes et théorèmes risque d’être contaminée par les significations. Réussie pour l’essentiel par Peano en 1889, c’est la jonction entre formalisation et axiomatisation qui a permis d’établir définitivement la valeur strictement hypothético-déductive de celle-ci.

MONG2003.7 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 108-109 : Les deux démarches de l’axiomatisation et de la formalisation se réunissent dans l’idée de système formel, dont la logique élémentaire fournit les exemples paradigmatiques. Le calcul propositionnel constitue le plus simple des systèmes formels existants. Il peut fournir une illustration tangible des idées générales exposées jusqu’à présent et de quelques autres qui s’enchaînent avec elles. Les logiciens lui attachent peu d’importance parce qu’il n’est qu’un fragment du seul calcul qui soit fondamental à leurs yeux, le calcul des prédicats ; nous ne l’envisageons qu’à titre illustratif. Comme les axiomatisations de la géométrie et, a fortiori, celles des “sciences empiriques”, le calcul propositionnel part d’une théorie préalable informelle, mais déjà constituée. En l’occurrence, ce qu’il symbolise, formalise et axiomatise est l’usage des mots “non”, “implique”, “et”, “ou”, lorsqu’ils servent à composer des propositions complexes à partir de propositions plus simples ou lorsqu’ils interviennent dans certaines inférences. Les inférences considérées sont exclusivement celles qui dépendent de ces mots (appelés connecteurs par le logicien). Plus précisément, c’est l’emploi des connecteurs par le mathématicien, plutôt que dans la langue quotidienne, plus ambiguë, que le calcul propositionnel représente axiomatiquement (le “ou” est non exclusif, et le “implique” admet une possibilité de validation triviale). Que le calcul propositionnel se réfère ultimement à une pratique ne signifie pas qu’il ait sauté l’étape de la théorie informelle : pour s’en convaincre, il suffit de relire les écrits des fondateurs, Frege et Russell, ou plus simplement de feuilleter n’importe quelle Beginners’ logic d’aujourd’hui. Le système formel du calcul propositionnel comporte des règles morphologiques définissant les formules complexes à partir des formules plus élémentaires et des connecteurs ; un petit nombre d’axiomes liant entre elles certaines formules ; et une règle d’inférence unique (le modus ponens). Appliquée de façon répétée aux axiomes, la règle permet de prouver des théorèmes. Comme les autres notions, celles de preuve et de théorèmes sont formellement définies, et il en va de même de celle de conséquence logique. À propos d’un système formel quelconque, on peut poser les questions classiques de la cohérence (ou consistance), de l’indépendance, et de la décidabilité. Le système est cohérent si l’on ne peut pas en dériver comme théorème une contradiction (notion qui est aussi formellement définie). Les axiomes choisis sont indépendants si aucun d’eux ne peut être obtenu comme théorème en utilisant seulement les autres. Le système est décidable si, pour chaque formule, on peut décider à l’aide d’une procédure finie si cette formule est un théorème ou non. Le calcul propositionnel satisfait aux propriétés de cohérence et de décidabilité, et on lui connaît de multiples systèmes indépendants. Le résultat de décidabilité le met à part – avec certains systèmes apparentés – de la plupart des systèmes formels connus. Sous l’influence de Hilbert (celui des Grundzüge de 1928, écrits avec Ackermann), les logiciens et les mathématiciens en vinrent à valoriser considérablement cette dernière propriété. Elle garantit, intuitivement parlant, que le système reste maîtrisable, “effectif” (avec le temps nécessaire, une machine pourrait vérifier si une formule donnée est un théorème ou non). Or – c’est un des apports fondamentaux, quoiqu’il soit négatif, de la logique formelle – on peut démontrer l’indécidabilité de nombreux systèmes élémentaires en logique et en mathématiques. Pour l’arithmétique de Peano et les systèmes qui l’incluent, c’est une conséquence du très célèbre théorème publié par Gödel en 1934. Même le système logique le plus fondamental, qui est le calcul des prédicats, n’est décidable qu’en un sens affaibli ; c’est un résultat de Church en 1936. On ne pouvait éviter de mentionner, même aussi schématiquement, les grands théorèmes de limitation. Il faut se résigner au fait que le “problème de décision”, suivant l’expression de Hilbert, ou bien reçoive une réponse négative, ou bien n’ait pas de réponse claire dans la plupart des cas considérés. L’exemple du calcul propositionnel reste exceptionnel. Mais il nous aura servi du moins à illustrer les idées générales de l’axiomatique comprise au sens des systèmes formels. Tout d’abord, il illustre la démarche entièrement explicite des axiomatisations logiques : rien n’est sous-entendu, les transformations sur les signes qui ne sont pas expressément décrites ne sont pas autorisées. Il illustre ensuite le caractère hautement contraint des axiomatisations logiques : en l’occurrence, le nombre infini des théorèmes du calcul propositionnel résulte d’une manière exclusivement “finitiste” de procéder (les preuves sont par définition de longueur finie et s’appliquent à un stock lui-même fini de schémas d’axiomes). Tous les calculs logiques et, a fortiori, tous les systèmes formels existants ne manifestent pas le degré d’explicitation maximal du calcul propositionnel, et tous ne manifestent pas le même degré de contrainte, loin s’en faut. Cette dernière considération n’est d’ailleurs pas sans lien avec la question de l’indécidabilité. Mais tous les systèmes formels manifestent les deux tendances analogiquement et dans l’esprit.

MONG2003.8 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 109-110 : L’observation précédente achève de clarifier les rapports entre formalisation et axiomatisation. Il y a beaucoup plus dans celle-ci que l’idée d’un symbolisme devenu autonome, à quoi se ramène la formalisation. On ne parlera d’axiomatisation qu’en présence des trois propriétés correspondant au moins analogiquement à celles des systèmes formels de la logique et du calcul propositionnel en particulier. (i) La formalisation choisie délimite explicitement et définitivement les propositions qu’elle prend comme premières. (ii) Même si elle ne spécifie pas une notion de règle d’inférence, elle délimite au moins implicitement les opérations autorisées sur les signes. (iii) Elle s’impose, et cela reste de nouveau le plus souvent implicite, une contrainte générale d’“effectivité” : la plus évidente est le choix d’un ensemble fini de propositions premières ; en un sens plus vague, qui demande à être confronté à d’autres objectifs, on s’efforce d’en limiter le nombre.

MONG2003.9 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 110-111 : À ce point, nous avons traité de la méthode axiomatique au point de vue des systèmes formels et de leurs constituants, langage, axiomes, règles d’inférence. Depuis Carnap, on a coutume d’englober ces objets sous l’appellation de syntaxe, le mot désignant aussi l’étude que l’on peut en faire. En ce dernier sens, la syntaxe est donc l’analyse des signes pris en eux-mêmes, abstraction faite de ce qu’ils veulent dire ou représentent. La syntaxe n’est pas le tout de la méthode axiomatique. Nous avons déjà indiqué que les systèmes formels étaient inspirés par des théories informelles antérieures. Une fois qu’ils sont mis en place, ces théories heuristiques entrent avec eux dans un rapport d’interprétation à symbole : le système formel, pris dans son ensemble, symbolise la théorie informelle, prise dans son ensemble. Il faut examiner plus avant la nature de ce rapport de symbolisation, évidemment plus complexe que le rapport de symbolisation générique entre une chose et le signe qui la représente. Le système formel représente-t-il exactement la théorie informelle ? Si ce n’est pas le cas, qu’a-t-on préservé, qu’a-t-on perdu, qu’a-t-on ajouté, en passant de la théorie informelle au système formel ? La symbolisation a-t-elle un caractère conventionnel ? De quelle manière peut-on la perfectionner ? Ces questions appartiennent au champ de discussion que, avec Carnap toujours, on appelle sémantique. À son tour, le mot vise à la fois une classe d’objets et l’étude qu’on en fait ; sous ce rapport, il désigne l’analyse des signes vus dans leurs rapports aux significations et à la vérité. La sémantique est un complément indispensable de la syntaxe. Les questions qu’elles traitent découlent naturellement de la constitution des systèmes formels comme objets autonomes. Jusqu’à la dernière guerre mondiale environ, les logiciens pouvaient avoir l’impression que la sémantique n’atteindrait pas le niveau de rigueur de la syntaxe, et que les questions précédentes, pour légitimes qu’elles fussent, ne relevaient pas véritablement d’un traitement technique. Le développement dans l’après-guerre, avec Tarski notamment, de la théorie des modèles, a fait justice de cette impression. En relation avec certains systèmes formels tout au moins, il est devenu possible de formaliser aussi la sémantique. En substance, la théorie des modèles donne au calcul des prédicats une contrepartie du côté des interprétations, grâce à la notion ensembliste de modèle, puis elle formalise, grâce à la notion également ensembliste de satisfaction, les rapports de signification et de vérité que les formules du système entretiennent avec les modèles. Le mystère apparent de la notion de vérité, qui rebutait les positivistes logiques et Popper lui-même au point que, dans les années 1930, ils l’avaient exclue de la philosophie, se dissipe une fois que l’on examine les constructions mathématiquement rigoureuses de la théorie des modèles, toutes fondées sur la théorie des ensembles ordinaire.

MONG2003.10 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 111-112 : Nous détaillerons quelque peu la sémantique des deux calculs logiques les plus courants. Le calcul propositionnel n’a qu’une seule notion sémantique, la fonction de valuation. Elle attribue une valeur de vérité à chaque formule atomique et, indirectement, à chaque formule complexe aussi, parce qu’elle est tenue de respecter les tables de vérité des connecteurs. Quand on passe au calcul des prédicats, les notions de modèle et de satisfaction se dégagent pleinement. Un modèle du calcul des prédicats comporte un ensemble, le domaine, qui sert à interpréter les variables, ainsi que d’autres objets ensemblistes définis sur ce domaine, typiquement, des relations et des fonctions. Celles-ci traduisent les symboles relationnels et fonctionnels de la syntaxe. La sémantique du calcul des prédicats distingue deux rôles des modèles, l’attribution préalable de signification, qui concerne les variables, et l’attribution de vérité, ou satisfaction, qui concerne les formules. Les clauses de satisfaction des formules font intervenir à la fois les connecteurs propositionnels et les quantificateurs, universels et existentiels, qu’elles contiennent. Les précisions techniques ne nous importent pas ; il suffit d’indiquer que les modèles du calcul des prédicats font l’objet d’une définition formelle, aussi bien que la phrase “le modèle m satisfait la formule j“.

MONG2003.11 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 112-113 : Quelles que soient la syntaxe et la sémantique retenues, la langue de la première sera plus stricte que celle de la seconde. Celle-ci a, par rapport à celle-là, le rôle technique d’une métalangue : la sémantique sert à “parler de la syntaxe”. Pour cette raison, elle doit l’englober (tout ce qui peut être exprimé dans la syntaxe doit pouvoir l’être aussi dans la sémantique) et l’excéder (il lui faut des termes supplémentaires pour nommer ceux de la syntaxe). Les sémantiques formelles se contentent généralement d’exploiter les facilités de la mathématique ordinaire. Pour le calcul propositionnel et celui des prédicats, elles ne supposent rien d’autre que la théorie des ensembles “naïve” : l’usage de la notion d’appartenance et des opérations d’union, d’intersection, de complémentation et d’inclusion ; la définition des produits d’ensembles et celle des relations ou des fonctions comme parties d’un produit, et ainsi de suite. Dans le cas d’autres calculs, la sémantique peut s’enrichir, par exemple en incluant des notions de topologie ou de mesurabilité, ou encore en faisant référence aux nombres réels. Ces notions sont plus complexes que celle de la théorie “naïve” des ensembles, mais relèvent d’elle encore, puisqu’elle est tout ce dont on a besoin pour engendrer l’ensemble des mathématiques. À partir du moment où l’on a formalisé, au sens qui vient d’être dit, le rapport des interprétations au système, il est loisible de reprendre rigoureusement les questions de la sémantique intuitive, qui ouvraient les développements de cette section : 1. Le système permet-il de démontrer que ce qu’on trouve de commun aux interprétations ? Cette question imprécise devient maintenant : les théorèmes du système sont-ils satisfaits dans tout modèle ? Si oui, on dit que le système est adéquat. 2. Le système permet-il de démontrer tout ce qu’on trouve de commun aux interprétations ? Cette question imprécise devient maintenant : les formules satisfaites par tous les modèles à la fois sont-elles des théorèmes du système ? Si oui, on dit que le système est complet. Si le système formel vérifie les deux propriétés de complétude et d’adéquation, on peut, en revenant à une autre idée du début de la section, soutenir qu’il symbolise convenablement les interprétations. En effet, l’adéquation indique qu’il ne prouve pas trop (tout ce qu’on prouve est une vérité), et la complétude qu’il prouve suffisamment (toutes les vérités peuvent être prouvées). Le calcul des propositions comme celui des prédicats font justement l’objet des théorèmes d’adéquation et de complétude. Avec ces résultats bien connus, la logique offre à l’ensemble des sciences un modèle entièrement rigoureux de la méthode axiomatique.

MONG2003.12 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 113 : Malheureusement, les deux exemples du calcul propositionnel et du calcul des prédicats sont voués au statut d’exceptions. Les systèmes dotés d’une sémantique formelle – il en existe de nombreux autres exemples en logique – vérifient facilement l’adéquation ; mais la propriété de complétude leur fait le plus souvent défaut. Le théorème de Gödel déjà mentionné implique, à titre de variante, ce résultat justement célèbre : il existe une formule de l’arithmétique vraie dans le modèle ordinaire (celui des nombres entiers, doté de l’addition et de la multiplication aux sens habituels) et qui, cependant, ne peut être prouvée dans les systèmes formels de l’arithmétique (définis par le fait d’inclure l’arithmétique de Peano ou une version apparentée). Des résultat négatifs similaires, fondés sur celui de Gödel, peuvent s’énoncer à propos d’autres théories mathématiques courantes. Nous retiendrons cette conséquence épistémologique de grande portée : la notion “logicienne” la plus stricte d’axiomatisation n’est applicable directement ni aux mathématiques, ni aux autres sciences, pour autant qu’elles recourent aux mathématiques.

MONG2003.13 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 113 : Malgré cette conclusion décevante, la formalisation de la sémantique n’en revêt pas moins un importance considérable. Tout d’abord, elle a permis de définir la propriété d’adéquation, qui est facile à obtenir et qui suffit pour certaines applications importantes. On établit généralement la cohérence d’un système formel en produisant un modèle de ce système, et, de même, il est courant d’en vérifier l’indépendance sémantiquement plutôt que par des moyens syntaxiques. Ces deux applications reposent sur l’adéquation, et non sur la complétude. En outre, si elle est démontrée, l’incomplétude par rapport à une classe de modèles considérée peut constituer un phénomène intéressant à comprendre en lui-même. Le logicien est ainsi conduit à examiner les relations de similarité ou de dissimilarité des différents modèles. La théorie dont on est parti heuristiquement pour construire le système formel constitue l’un des modèles – ce qu’on peut appeler son modèle standard. Une fois que le système formel existe, il est naturel de se demander si tous les modèles qui le valident sont similaires (techniquement parlant, isomorphes) au modèle standard : poser cette question, c’est aborder la question de la complétude sous un autre angle. Loin d’apparaître comme une pathologie, la découverte éventuelle de modèles non standards illustre finalement la fécondité heuristique de l’attitude consistant à formaliser la sémantique. Plutôt que l’obtention de théorèmes d’adéquation et de complétude, cette attitude générale recouvre finalement la notion d’axiomatisation la plus représentative que l’on puisse tirer de la logique.

MONG2003.14 Cf. Mongin, Le Colloque de Logique mathématique, op. cit., p. 117-118 : Nous venons donc de voir que les axiomatisations du genre ensembliste altéraient profondément la distinction entre syntaxe et sémantique. La sémantique y est répartie entre les limbes heuristiques du travail axiomatique et certains développements qui appartiennent à la syntaxe, ce qui heurte à première vue le sens logique. Le mathématicien accomplit en une fois deux actes que le logicien voudrait séparer à la fois conceptuellement et pratiquement : il exploite la richesse déductive du système formel et, ce faisant, il en produit des modèles. Altérée, la dualité syntaxe-sémantique ne disparaît pas pour autant. Car la nature linguistique des propositions sémantiques importe moins que ces deux propriétés, dont la quatrième section avait fait sentir le rôle : (A) une notion de modèle apparaît plus ou moins clairement constituée ; (B) la sémantique ainsi comprise et le système formel sont susceptibles d’interagir et de se modifier réciproquement. Les deux propriétés sont étroitement liées, la seconde pouvant presque servir de critère à la première. Partant de la théorie informelle, on construit un système formel dont elle fournit le premier modèle. Il arrivera que le système admette d’autres modèles dont la théorie informelle, trop restrictive, ne tenait pas compte. Ou bien – à l’opposé, en quelque sorte – il arrivera que le système formel ne rende pas justice à la richesse de la théorie initiale : c’est alors le système formel qui paraît trop restrictif relativement à elle. Ces découvertes doivent conduire à reparcourir l’ensemble du processus. Tel est le va-et-vient fécond que certains calculs logiques illustrent paradigmatiquement. Leur valeur de référence persiste, même s’il ne faut pas attendre de l’axiomatisation ensembliste qu’elle en reproduise le fonctionnement technique. Une idée supplémentaire, fondamentale pour la bonne intelligence de la méthode axiomatique, va de pair avec toutes celles-ci : il n’y a aucune raison d’attendre que l’agencement du système formel – la séquence particulière d’axiomes et de théorèmes en quoi il consiste – reflète le développement naturel du sujet. Ainsi, l’intervention tardive des nombres réels dans le traité de Bourbaki ne correspond pas au rôle constitutif qu’ils jouent dans l’intuition mathématique. De même, l’axiomatisation simultanée, par Bourbaki, du calcul des prédicats et de la théorie des ensembles n’est ni véritablement intuitive, ni conforme au déroulement historique du sujet, ni particulièrement réussie sur le plan didactique : elle n’est finalement “naturelle”en aucun sens du mot. Non sans pathos, Bourbaki souligne l’écart que manifesterait l’axiomatisation par rapport à l’intuition sensible. Pourtant, du point de vue de la méthode axiomatique, il n’y a pas de raison de privilégier cette configuration en quelque sorte défavorable par rapport à la configuration opposée. D’autres axiomatisations des mathématiques réalisent un parallélisme bienheureux entre l’agencement technique et l’intuition opératoire. Il en va sans doute ainsi pour les groupes et d’autres structures algébriques encore. Il en va peut-être ainsi – encore que cela soit contesté – pour les probabilités. Nous verrons que le parallélisme de l’agencement technique et de l’intuition se présente fréquemment dans les théories économiques axiomatisées. Considérée en elle-même, la méthode n’implique rien quant à la fréquence relative des deux configurations. Une telle indétermination s’accorde avec le principe de liberté réciproque de la syntaxe et de la sémantique. Nous pouvons maintenant conclure l’analyse abstraite de la méthode axiomatique au sens des Modernes. Celle-ci se distingue de la formalisation en général par les propriétés spéciales des systèmes formels que l’on a résumées à la fin de la troisième section. Mais elle s’en distingue en outre par les propriétés (A) et (B) de cette section. Nous n’incluons pas dans la définition ainsi proposée le pouvoir unificateur ou architectonique de la méthode. Cette assertion concerne sa fécondité ou l’opportunité de l’appliquer, et il vaut mieux la dissocier des critères de définition proprement dits. Et nous n’inclurons pas non plus les opinions que l’on a pu émettre sur le parallélisme, ou l’absence de parallélisme, entre les systèmes formels et le réel perçu, car si profondes qu’elles paraissent, ce ne sont justement que des opinions.

BOUR1948 L’architecture des mathématiques

Nicolas BOURBAKI, L’architecture des mathématiques, in Les grands Courants de la pensée mathématique, dir. François LE LIONNAIS, Marseille, Édition des Cahiers du Sud, 1948.

BOUR1948.1 Cf. Bourbaki, L’architecture des mathématiques, op. cit., p. 40-41 : On peut maintenant faire comprendre ce qu’il faut entendre, d’une façon générale, par une structure mathématique. Le trait commun des diverses notions désignées sous ce nom générique, est qu’elles s’appliquent à des ensembles d’éléments dont la nature n’est pas spécifiée ; pour définir une structure, on se donne une ou plusieurs relatitons, où interviennent ces éléments (dans le cas des groupes, c’était la relation z = x τ y entre trois éléments arbitraires) ; on postule ensuite que la ou les relations données satisfont à certaines conditions (qu’on énumère) et qui sont les axiomes de la structure envisagée. Faire la théorie axiomatique d’une structure donnée, c’est déduire les conséquences logiques des axiomes de la structure, en s’interdisant toute autre hypothèse sur les éléments considérés (en particulier, toute hypothèse sur leur “nature” propre).

CASS2014b L’homme télégraphié

Pierre CASSOU-NOGUÈS, L’homme télégraphié : Wiener et le posthumain, in PostHumains : Frontières, évolutions, hybridités, dir. Elaine DESPRÉS & Hélène MACHINAL, Rennes, Presses universitaires de Rennes, 2014, p. 29-43, https://books.openedition.org/pur/52501?lang=fr.

CASS2014b.1 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Imaginons un architecte qui, depuis l’Europe, construit un bâtiment en Amérique. Il lui suffit de pouvoir observer le chantier au moyen de photographies qu’on lui transmet régulièrement ou, dirions-nous, d’une télévision, et, en retour, de pouvoir envoyer ses directives, ses plans, par télégraphe, téléphone ou ce que Wiener appelle l’Ultrafax. L’architecte n’a pas besoin de se rendre sur place. […] Il est inutile de transporter le corps humain, il suffit d’étendre son rayon d’action, de lui donner des organes de perception et d’action partout à la surface de la Terre […]. Wiener souligne que cette capacité à percevoir et à agir à travers le monde, que rendent possible son “Ultrafax” et notre Internet, est une extension, et une modification, de l’existence humaine. Les caméras qui surveillent le chantier et informent l’architecte, les machines qui crachent en retour ses ordres, sont les prothèses de ce cyborg dont le corps est disséminé à la surface de la Terre. L’architecte a rompu avec les modes d’incarnation, la localisation dans l’espace et le temps, naturels. Il a pris une sorte d’ubiquité.

CASS2014b.2 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Le modèle de l’architecte ne mène pas encore à leur terme les transformations qu’implique la théorie de l’information dans la situation humaine. L’architecte utilise les fils de télégraphe pour étendre le champ de ses messages. Ses perceptions consistent bien en certains messages, certains codes qui parcourent les fils télégraphiques, entrent dans le système nerveux, aboutissent au cerveau où ils produisent d’autres messages, des codes, qui prennent le chemin inverse le long des nerfs, puis des câbles électriques jusqu’à leur point d’arrivée, un chantier disions-nous, où ils se transforment en action, que celle-ci soit exécutée par des machines ou des ouvriers, qui sont alors utilisés comme des machines. Mais, au lieu d’envoyer ainsi les messages sur les lignes télégraphiques, pourquoi ne pas reproduire sur place ce rapport entre messages entrants et messages sortants, cet appareil à transformer des messages que représente l’architecte pour la théorie de l’information ? Notre architecte, considéré comme une boîte noire qui transforme les messages, peut être caractérisé par un certain code, ce code transmis par téléphone et le même appareil reconstruit sur place. Voici donc l’architecte qui sort de la cabine téléphonique, sur le chantier. C’est une cabine un peu spéciale, elle peut aussi servir de télétransporteur : nous entrons d’un côté, la machine nous code et, avec la mélodie d’un vieux fax, nous envoie de l’autre côté de l’Atlantique, où une autre machine nous décode et nous reconstitue.

CASS2014b.3 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Dans The Human Use of Human Beings, le savant part de l’idée que l’identité du corps ne tient pas à la matière dont il est constitué, mais à sa forme, à sa configuration : en anglais, “pattern”. La matière de notre corps semble se renouveler régulièrement. Les aliments ingérés sont assimilés, et cette matière vient remplacer celle que l’usure du temps nous enlève. Certains mécanismes permettent au corps de conserver sa configuration en même temps qu’il remplace sa matière. Or, cette configuration qui définit l’identité du corps, de l’individu, pourrait être analysée, codée sous la forme d’un message et, dès lors, envoyée par télégraphe. Wiener n’y voit pas plus d’information que dans l’Encyclopedia Britannica (ce qui n’est pas énorme). Il resterait ensuite à décoder l’information au point d’arrivée et à trouver le moyen de reconstruire l’individu à partir de sa configuration. La machine aurait à sa disposition des molécules de carbone, beaucoup d’eau, du calcium, etc., toutes les molécules qui entrent dans la composition du corps. Elle lirait la configuration reçue et reproduirait l’individu.

CASS2014b.4 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Dans God and Golem, Inc., Wiener ébauche une seconde version du télétransporteur. L’humain est à nouveau réduit à une certaine configuration, susceptible d’être transmise sous forme de message. Mais ce n’est plus la configuration du corps, la configuration isolée dans The Human Use of Human Beings, cette forme indépendante de la matière et qui se maintient alors que la matière se renouvelle. Ce qui est transmis, dans ce nouveau télé-transporteur, c’est un certain rapport entre les messages entrants et les messages sortants, par lequel toute machine, tout organisme vivant peut être caractérisé : “Pour nous, une machine est un appareil [device] qui convertit des messages entrants en messages sortants.” Et il en est de même d’un être vivant, et d’un être humain. Notre architecte peut être représenté comme une certaine façon de répondre aux sollicitations de la vie, aux perceptions par des gestes, aux paroles entendues par d’autres paroles, etc. C’est ce rapport, cette façon de répondre, qu’il s’agit maintenant de coder, de transmettre et de réactualiser. Au départ, sans doute, il faudra soumettre notre architecte à une série de tests pour enregistrer ses réponses aux situations les plus probables. Mais, ensuite, il ne sera pas difficile de coder cette configuration pour l’envoyer par télégraphe. Et, en ce qui concerne l’arrivée, qui intéresse surtout le savant dans ces chapitres de God and Golem, Inc. Wiener prouve l’existence d’une machine universelle, susceptible de mimer n’importe quelle configuration, n’importe quel rapport entre messages entrants et messages sortants.

CASS2014b.5 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : La différence dans la programmation de ces deux machines, l’ordinateur de Pohl et le diamant d’Egan, exprime parfaitement l’écart entre l’intelligence artificielle et le projet cybernétique. Dans la nouvelle d’Egan et la perspective cybernétique, le cerveau, l’esprit, est une boîte noire, que l’on ne tente pas d’ouvrir, mais seulement d’imiter. Il s’agit, dans les textes de Wiener déjà, de reproduire le rapport entre entrée et sortie sur une machine qui peut procéder d’une façon différente de celle du cerveau, ou de l’esprit humain. En revanche, l’informaticien de Pohl et l’intelligence artificielle entendent analyser le mécanisme de l’esprit humain et implémenter ce mécanisme ainsi analysé sur l’ordinateur. Il s’agit donc de formaliser les enchaînements de pensée, le “programme” de l’être humain, et d’énoncer le système de connaissances qui en forme les prémisses. C’est ce projet d’analyse qui définit l’intelligence artificielle. “L’étude procédera sur la base de la conjecture que tous les aspects de l’apprentissage et tout autre trait de l’intelligence peut en principe être analysée de façon si précise qu’une machine peut être programmée pour le simuler. […] On peut spéculer qu’une large partie de la pensée humaine consiste à manipuler des mots selon certaines règles de raisonnement et de conjecture.” La conférence de 1955 à Darmouth, à l’issue de laquelle est formulé ce texte, à la fois projet et manifeste, marque le début de l’intelligence artificielle et la rupture de celle-ci avec la sphère cybernétique. L’intelligence artificielle est le projet dominant des années 1960, après la mort de Wiener et l’éclatement du groupe cybernétique. À partir des années 1970, avec le développement du “connexionisme” et le retour aux “réseaux neuronaux”, l’informatique revient à une perspective plus proche de celle de Wiener.

CASS2014b.6 Cf. Cassou-Noguès, L’homme télégraphié, op. cit. : Il existe, en amont de l’intelligence artificielle et de la cybernétique, des machines qu’anime un humain. L’idée de reloger l’humain dans la machine ne naît pas avec la cybernétique, ni avec l’intelligence artificielle. Cependant, en amont de ces projets de l’après-guerre et de l’après-Turing, elle prend une forme différente ou, plus exactement, deux formes différentes. […] Dans les deux cas, est isolée une partie de l’humain (le cerveau, l’esprit) qui est mise en relation avec un corps mécanique. Or, la possibilité de considérer l’humain, ou son esprit, comme une structure abstraite rend inutiles ces opérations de découpe et de greffe. Car il suffit que la machine puisse prendre la même structure pour que l’humain y soit du même coup transféré. Je veux souligner que, si, avec l’intelligence artificielle, cette possibilité d’abstraction est liée à la thèse que le cerveau est une machine à calculer (on peut alors remplacer cette machine à calculer qu’est le cerveau par un autre ordinateur qui lui est équivalent), elle n’en dépend pas. Et c’est dans une autre perspective que Wiener entend abstraire son architecte et le télégraphier de l’autre côté de l’Atlantique. L’humain cybernétique reste une boîte noire et il n’est pas nécessaire pour l’abstraire de faire même cette hypothèse qu’il est une machine à calculer.

TOAM2018 Le paradigme communicationnel

Sara TOUIZA-AMBROGGIANI, Le paradigme communicationnel : de la cybernétique de Norbert Wiener à l’avènement du posthumain, Thèse de philosophie soutenue le 10 novembre 2018 à l’université Paris 8 sous la direction de Pierre CASSOU-NOGUÈS, https://www.theses.fr/2018PA080121.

TOAM2018.1 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 62 : Le Roux prend le parti d’une définition restrictive de la cybernétique partant de ce que faisaient effectivement ceux qui s’en réclamaient, elle consiste alors en “l’élaboration de modèles de rétroaction dans les sciences biologiques ou humaines”. Selon Segal, “l’originalité de la cybernétique sera d’associer au concept de rétrocontrôle, celui d’information, issu aux États-Unis des recherches dans le domaine des télécommunications”. Pour reprendre des définitions plus anciennes, Simondon et Guilbaud en faisaient, selon Xavier Guchet, “une étape décisive de la mécanologie”, c’est-à-dire une théorie générale des machines ; Couffignal l’avait définie comme l’“art de rendre l’action efficace” selon sa formule devenue célèbre. Ashby, quant à lui, affirme que son “principal sujet est le domaine de toutes les machines possibles”.

TOAM2018.2 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 65 : [Mathieu Triclot] soutient, à bon droit selon nous, que “nous ne percevons nos activités de communication sur le mode de l’échange et du traitement de l’information que depuis que nous avons appris à considérer les machines de cette manière”.

TOAM2018.3 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 95 : Wiener oscillera toute sa vie entre ces deux pôles : espoir et désespoir, condamnation et rédemption. Sa pensée les intègre tous deux, sans choisir entre l’un et l’autre, sans même les opposer : le monde est condamné donc il faut le sauver.

TOAM2018.4 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 102 : L’usine automatisée peut être une chance pour l’humanité, elle peut nous libérer du travail et nous offrir la possibilité de faire des choses plus intéressantes. Mais pour cela il faut transformer notre acception de ce qu’est un “travail”. Cela implique de sortir de la logique du marché et de la concurrence : “La solution, bien sûr, est une société basée sur des valeurs humaines autre que l’achat ou la vente.”

TOAM2018.5 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 107-108 : Nous y voyons surtout la marque de la tension, que nous évoquions plus haut, caractérisant la pensée de Wiener. D’un côté, le scientifique cherche à comprendre rationnellement le monde et la place de l’humain en son sein en évitant tout anthropomorphisme, tout “favoritisme”, cela donne une ontologie continuiste, communicationnelle, où les êtres sont définis par leur classe de comportement, leur capacité à traiter de l’information, leur niveau de régulation. D’un autre côté, Wiener le philosophe est mû par une puissante estime pour ses semblables, un immense respect pour la condition humaine, ce qui le mène parfois à sacraliser la personne humaine, à la hisser au-delà de toute autre considération. C’est la marque de son profond et vibrant humanisme. Le souci est que sa cybernétique sape en permanence les moyens intellectuels de penser cet humanisme, il en devient un sentimentalisme sans fondement autre que réactionnaire.

TOAM2018.6 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 110 : Wiener lui-même au sein d’un même texte prend différentes positions sur le sujet : “La cybernétique tente de trouver les éléments communs dans le fonctionnement des machines automatiques et du système nerveux humain et de développer une théorie qui couvrira l’ensemble du champ du contrôle et de la communication dans les machines et les organismes vivants.” [Norbert Wiener, “Cybernetics”, Scientific American, n° 179, 1948, p. 14-18]

TOAM2018.7 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 122 : Contrairement à [McCulloch], Wiener est un grand humaniste qui cherche à préserver l’être humain et son identité. Il semble que la peur du cyborg, chez Wiener, découle précisément d’une peur de la perte d’identité. Son humain augmenté de prothèses est placé au sein d’une métaphysique cybernétique où l’Entropie, l’augmentation inéluctable du désordre, de la désorganisation menant à l’indistinction, à la dissolution, est vue comme le Mal absolu. C’est le destin tragique de l’humanité vouée à disparaître, de l’univers voué à mourir. Dans ce contexte, nous avons vu que l’information est l’exacte opposée de l’entropie, elle est une mesure de la quantité d’ordre dans un système, elle est le Bien. Ce manichéisme cybernétique explique bien le rejet de la figure protéiforme du cyborg : il incarne l’indistinction, que Wiener abhorre.

TOAM2018.8 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 130 : Une angoisse profonde étreint l’être humain face au monde, il se sent seul et exclu face à sa froide objectivité. Pour “combler l’abîme”, Günther identifie trois stratégies : celle de l’église chrétienne à travers la résurrection de la chair dans le corps glorieux, participant à la fois de la matérialité et de la spiritualité ; celle des spiritualités orientales, dans le parinirvana ou “l’extinction complète de la réflexion”, et donc de toute individualité subjective ; et enfin celle de la cybernétique, où se rencontre “[… ] une nouvelle vision du monde, dans laquelle l’âme ne cherche pas sa patrie dans un au-delà mais dans ce monde-ci, qui, par un processus de réflexion, doit être déshabillé de son étrangeté et reforgé dans une image de l’homme. Dans la machine douée de ‘pensée’ et de ‘conscience’, l’homme réalise une analogie de son propre Je.”

TOAM2018.9 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 150 : Pourtant, il est aisé de comprendre ce qui a pu l’attirer malgré la vague connaissance qu’il pouvait avoir de la cybernétique. L’intérêt pour les relations entretenues entre les objets et leur environnement plutôt que pour l’objet en lui-même, la remise en cause de la prétendue inaccessibilité de l’intériorité subjective, la volonté d’étudier les processus communicationnels et de poser leur existence comme des faits mesurables et donc objectivables, sont autant d’intuitions partagées par l’anthropologue.

TOAM2018.10 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 153 : Lévi-Strauss met l’accent sur la découverte fondamentale de Wiener : il s’échange quelque chose entre les êtres humains, ce quelque chose qui circule d’émetteur à récepteur cesse de relever d’une quelconque intériorité pendant sa transmission. Il est alors un objet – à l’ontologie indéfinie, inclassable, comme nous avons pu le constater avec Günther – dont l’étude relève d’une “physique” capable d’en déterminer les propriétés et lois de fonctionnement

TOAM2018.11 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 156-157 : La cybernétique, fille de la guerre, s’intéresse dès ses balbutiements au fonctionnement du cerveau. Wiener travaille avec Rosenblueth, un physiologiste spécialiste du système nerveux. Les autres grands noms de la cybernétique sont directement intéressés par ce champ de recherche à divers égards. Von Neumann s’y intéresse en logicien et cherche à formaliser les raisonnements, qu’ils soient économiques ou qu’ils portent sur des opérations logiques effectuables par un calculateur électronique. Bateson, après ses recherches anthropologiques, s’oriente vers la psychiatrie et publie, en 1951, Communication: The Social Matrix of Psychiatry avec le psychiatre Jurgen Ruesch. McCulloch est psychiatre de formation, il exerce pendant deux ans au Rockland State Hospital. Son but, constamment répété, est d’édifier, grâce à la cybernétique, une “science du fonctionnement de l’esprit” sur des bases neurophysiologiques. De plus, nombreux sont les psychologues à participer aux conférences Macy et la première d’entre elles, celle de 1942, donne le ton : on y entendra Von Neumann et Lorente de No présenter un état de l’art dans le domaine des calculateurs électroniques et de la neurophysiologie ; Wiener rédigera une note sur les mécanismes automatiques d’autorégulation, qui sera présentée par Rosenblueth et complétée par ses propres vues sur les mécanismes téléologiques et les comportements finalisés ; le psychologue Heinrich Klüver présente “la dernière énigme du gestaltisme”, à savoir, percer le secret de la reconnaissance des formes par le cerveau humain ; la psychologue Molly Harrower y parlera des différences perceptuelles entre les personnes “normales” et les personnes présentant des lésions cérébrales ; le psychanalyste Lawrence Kubie abordera les névroses et proposera, plus particulièrement, une interprétation remarquable des comportements obsessionnels expliquant ces derniers par l’action de circuits neuronaux réverbérants.

TOAM2018.12 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 178 : l’information circule, et cela s’arrête là. La découverte philosophique de cette entité peut se lire comme l’abolition des pôles hypostasiés que furent longtemps le sujet et l’objet. L’information ne va pas d’un point à un autre, elle circule au sein d’un environnement où il n’y a plus de substances, seulement des processus, du mouvement incessant. La cybernétique cristalise ces idées en rapprochant humains et non-humains, elle mène à un bouleversement des catégories canoniques et une reconfiguration des relations entre eux.

TOAM2018.13 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 193 : le rapport au monde qu’instaure la conception cybernétique n’est pas le seul possible, nous pouvons en élaborer d’autres. Mais c’est là aussi toute la difficulté soulevée par la cybernétique : elle ne laisse pas de place pour penser un autre rapport possible, elle nie toute possibilité d’une alternative à elle-même. Elle est en cela à la fois l’achèvement complet de la métaphysique moderne et en même temps la “fin” de la philosophie elle-même.

TOAM2018.14 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 194 : La rencontre avec les cybernéticiens va l’aider à surmonter ce problème grâce au concept de causalité circulaire. Ce dernier est un dépassement de la causalité linéaire qui ne serait pas apte à rendre compte du fonctionnement des êtres (vivants ou techniques) autorégulés. Les données reçues du monde extérieur (inputs) ne permettent pas d’expliquer un comportement finalisé, pour cela il faut accepter l’idée que la réaction (ou les données qui “sortent” de l’être étudié, ses outputs) devient elle-même une nouvelle donnée en entrée. La cause (input) a un effet (output), puis l’effet est réinjecté en tant que cause. C’est le mécanisme des boucles rétroactives théorisé par Bigelow, Rosenblueth et Wiener, dans leur article de 1943.

TOAM2018.15 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 209 : L’époque de la fin de la philosophie est celle de la cybernétique, définie dans Langue de tradition et langue technique (1962) comme : “technique de la régulation et du guidage”. La commande et le guidage – deux termes qui conviennent parfaitement à l’origine militaire de la cybernétique – ne sont que l’autre nom du calcul appliqué à l’ensemble des étants. La pensée calculante tire son origine du besoin métaphysique d’identifier une cause pour tout étant. Ce besoin métaphysique a été clairement formulé par Leibniz au XVIIe siècle avec le principe de raison suffisante, il s’énonce ainsi : “[J]amais rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est-à-dire qui puisse servir à rendre raison a priori, pourquoi cela est existant plutôt que non existant, et pourquoi cela est ainsi plutôt que de toute autre façon.”

TOAM2018.16 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 213 : la théorie du management, pénétrée des vues cybernétiques, étendant de plus en plus ces domaines d’application (entreprises, États, institutions, associations, mais aussi vie personnelle avec le coaching, le développement personnel, etc.), est, en fait, une vaste “opération de dressage” des êtres humains. Le fonctionnalisme intégral mis en place par la pensée cybernétique ne laisserait aucune place à la recherche du sens (que ce soit dans le langage, dans la société ou au cœur une vie humaine).

TOAM2018.17 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 214 : McCulloch a une conscience aigüe du bouleversement opéré par la cybernétique quant à la définition de l’humain. “Notre aventure est une grande hérésie” dit-il en 1948, précisant que les cybernéticiens sont sur le point de “concevoir le connaissant comme une machine à calculer.”

TOAM2018.18 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 215 : Pour Heidegger, la cybernétique procède à une nouvelle unité des sciences, une unité sans fondement, une unité s’appuyant sur l’injonction de fonctionnement sans autre finalité que le fonctionnement lui-même.

TOAM2018.19 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 249 : Warren Weaver doit vulgariser les idées de Shannon, il le fait en traduisant information par communication et en étendant le champ d’application de la théorie de Shannon à toute forme de communication. Pourquoi ? Selon Weaver, “la théorie mathématique de Shannon est si générale et si profonde que les relations qu’elle établit s’appliquent sans discrimination à toutes les formes de communication” (nous soulignons). Les raisons avancées par Weaver d’un tel élargissement de la notion de communication hors du champ de la transmission télégraphique semblent confirmer l’hypothèse d’une foi dans le pouvoir unificateur du paradigme cybernétique. La communication est alors entendue comme transmission d’information d’un émetteur A vers un récepteur B. Cette conception devient un modèle pour penser toute forme de communication, y compris la communication humaine. Le modèle développé par Jakobson, reprend très exactement le schéma de Shannon et Weaver pour l’appliquer à la communication humaine.

TOAM2018.20 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 262 : Nous souhaitons montrer que la cybernétique a peut-être été la science qui a le plus œuvré au brouillage des frontières canoniques entre science et imaginaire, art, croyance ou fantasme.

TOAM2018.21 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267 : Ses travaux mathématiques sont très importants pour la cybernétique parce qu’ils forment la matrice qui a engendré l’architecture logique de l’ordinateur telle que la présente formellement pour la première fois von Neumann dans son important article de 1945, “First Draft of a Report on the EDVAC”. Avant cet article, il n’y avait que des calculateurs, de grosses machines capables de faire des calculs compliqués. Après cet article, il y a des ordinateurs capables d’effectuer diverses tâches (stocker des informations, exécuter des instructions, vérifier l’exécution des instructions). La différence est essentielle : elle autorise des fusions, des déplacements, des glissements de sens qui font insensiblement passer du calcul au traitement de l’information, du calculateur à l’ordinateur, de la pensée au traitement de l’information.

TOAM2018.22 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267-268 : L’article de Rosenblueth, Wiener et Bigelow avait déjà, en 1943, opéré un premier déplacement : il n’y était plus question d’êtres vivants ou non vivants, les deux catégories étaient rassemblées dans un concept unique, celui de système organisé avec un comportement dirigé vers un but. L’analogie humain-machine, déjà dotée d’une longue histoire, connaît alors un tournant dans le champ scientifique. L’article de von Neumann opère un second déplacement en passant du calcul au traitement de l’information, sur la base d’une théorie de l’information et de la communication qui décontextualise complètement la notion d’information. Désormais, tout peut être information à condition de passer par les fourches caudines de la digitalisation, c’est-à-dire d’une mise en code binaire. Il faut noter que von Neumann n’utilise jamais la notion de “traitement de l’information” dans son article mais, comme le rappelle Mathieu Triclot, il s’appuie sur l’autre article fondateur de la cybernétique, celui de McCulloch et Pitts, pour étayer sa démonstration : “Il faut bien avoir conscience que le modèle de McCulloch et Pitts ne joue pas un rôle périphérique dans le rapport. Les neurones formels de McCulloch et Pitts sont utilisés pour ce qui est considéré comme le chef d’œuvre de von Neumann : la définition de la structure logique de l’ordinateur et la mise au point des circuits de calcul au sein de l’unité arithmétique.” McCulloch et Pitts proposent de concevoir le cerveau comme un centre de traitement de l’information. Nous croyions penser ? Non, nous disent les auteurs, nous traitons de l’information : “La nouvelle théorie logique de McCulloch et Pitts rend possible de considérer le cerveau comme un organe de traitement de l’information. Cette représentation est mobilisée dans le travail de Von Neumann […], avec un double effet : d’une part l’ordinateur apparaît comme une machine équivalente (nous soulignons) au cerveau […], d’autre part l’idée du cerveau comme un organe logique de traitement de l’information en sort considérablement renforcée.” Tous ces travaux ont été fortement inspirés et rendus possibles par un article de Turing rédigé en 1936, “On Computable Numbers, with an Application to the Entscheidungsproblem”. Turing y présente un concept de machine universelle, la machine de Turing, une machine abstraite, “machine de papier”, capable d’effectuer n’importe quel calcul si l’on entend par calcul l’application mécanique d’une suite de règles explicites. Von Neumann ne fait aucune référence à cet article mais il est évident qu’il l’a lu avec attention : “Dans le ‘First Draft of a Report on the EDVAC’, l’article [de Turing, de 1936] n’est pas cité, mais le seul texte cité, l’article de McCulloch et Pitts de 1943, joue quasiment le même rôle, dans la mesure où McCulloch et Pitts présentent explicitement leur modèle comme équivalent au modèle de la machine de Turing.”

TOAM2018.23 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 267 : Turing n’extrapole pas à partir de résultats obtenus “sur le papier” pour mieux faire comprendre leur portée. Il écrit, au contraire, une véritable “profession de foi”, et il le dit explicitement. Le fait que les machines puissent penser est une “croyance” forte chez lui, il tente par cet article de convertir les esprits à cette croyance.

TOAM2018.24 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 300 : nous avons toujours été posthumains. Nous comprenons le terme posthumain dans ce contexte comme un monstre potentiel, une entité inclassable, un être constamment ailleurs. Certes, cette idée n’est pas née avec la cybernétique, mais il y a une nouveauté : une puissante technologie au service de ce fantasme, une technologie numérique qui entend faire de ses fictions une réalité et qui comprend la réalité comme une de ses fictions. Ces technologies numériques sont bien plus efficaces, bien plus présentes dans nos vies que ce que l’humanité a connu jusque-là. Elles viennent se glisser entre nos corps représentés et nos corps de chair et les redéfinir tous les deux d’une manière neuve

TOAM2018.25 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 303 : La pensée cybernétique, à partir de son avènement à la fin des années 1940, se diffuse très largement et rapidement. Elle pénètre tous les milieux. Différentes disciplines scientifiques s’emparent de ses concepts : rétroaction, information, code, circularité, homéostasie, système. Elle devient même “à la mode” : l’architecture, la littérature, l’art, le théâtre, la psychanalyse, pas un domaine ne semble lui résister. La cybernétique voyage et, avec elle, le paradigme communicationnel se propage. La distinction sujet/objet entre en crise, l’entité “information” creuse un sillon profond dans le langage courant (en anglais comme en français) et l’identité humaine se voit redéfinie comme une instance, parmi d’autres, des dispositifs communicationnels possibles.

TOAM2018.26 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 329 : La rationalisation fait perdre le contact avec le réel puisqu’il n’est plus le mètre-étalon. Au contraire, c’est le modèle qu’elle élabore qui devient la norme que le réel doit suivre. Dupuy rapporte un échange révélateur de cette tendance lors de la 9e conférence Macy, où sont présents, entre autres Ashby, McCulloch, Mc Kay et le biologiste Ralph Gerard qui “vient d’expliquer que la tâche des neurophysiologistes du groupe est de fournir aux mathématiciens des données pour qu’ils puissent construire leurs modèles sans trop perdre le sens du réel. Le réel est devenu le moyen, et le modèle la fin”. Or, que fait Perdrizet si ce n’est, lui aussi, perdre le sens du réel pour s’abandonner aux exigences propres de ses modèles ? Il perd le sens du réel quand il croit obstinément pouvoir construire un “oui-ja électrique” ou un “filet à fantômes”, certes, mais ne le perd-il pas déjà quand il se plonge dans la lecture des cybernéticiens qui proposent, à travers livres et revues, de penser l’humain dans le cadre d’un réductionnisme absolu mais ambigu ? La cybernétique ne perd-elle pas le sens du réel quand elle réduit l’humain à la machine, la machine à un système autorégulé grâce à une mystérieuse substance : l’information, le tout rendu possible grâce à un mystérieux phénomène : la communication ?

TOAM2018.27 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 330 : Wiener souhaite retrouver une physis, une unité fondamentale du monde dont l’ontologie ne se distribuerait plus de façon binaire sur les catégories du sujet et de l’objet. Cette communication devenue “éther des évènements” a toutes les caractéristiques du principe divin.

TOAM2018.28 Cf. Touiza-Ambroggiani, Le paradigme communicationnel, op. cit., p. 349 : La pensée cybernétique est emplie de paradoxe. C’est là sa marque de fabrique si l’on en croit le voyage intellectuel que nous venons de faire. Wiener a cherché à redéfinir l’idée même d’humain, il a cherché à réintégrer cette entité au sein d’un nouveau cosmos. Cependant, il ne s’agit nullement du cosmos des Anciens dans lequel à chaque être échoit une place déterminée. C’est un cosmos régi par deux forces : l’information et l’entropie. Ni matérialiste au sens classique, ni idéaliste, Wiener nous enjoint à envisager le monde comme un champ infini de communication. Ainsi, “[l]e monde est de nouveau un. Et nous avec”. En son sein, quelques îlots d’organisation luttent temporairement contre la force d’érosion de l’entropie, ce sont les êtres vivants et les machines. Tout le reste n’est que lente désorganisation. Cette vision conjugue un fantasme de maîtrise absolu du monde par la théorie (comme un regard qui embrasserait le monde dans sa totalité) et un aveu d’humilité tragique devant les forces incommensurables qui nous gouvernent. La vie même de Wiener reflète ces deux tendances, les moments d’exaltation euphorique et de grande créativité alternant avec les moments de dépression teintée de pessimisme et de manque cruel d’estime de soi. Le mathématicien a produit une philosophie à son image, délirante dans sa prétention à la connaissance absolue et touchante par la reconnaissance de la faiblesse de l’humaine condition. Mais les idées, une fois lancées au vent, mènent leur vie de manière autonome et ne se contentent pas de délivrer les messages dont les investissent l’émetteur. Dans ce vaste champ de communication, les idées de Wiener ont circulé, ont rencontré du bruit, des déformations, des interférences. Ses idées en ont généré d’autres, et, de proche en proche, toutes ont renversé l’édifice humaniste. Le monde qui en est sorti est le nôtre, un monde “cyborgien”, paradoxal s’il en est[…]