Table des matières

BELL2012 La Théorie de l’information

Aurélien BELLANGER, La Théorie de l’information, Paris, Gallimard, 2012.

BELL2012.6 Cf. Bellanger, La Théorie de l’information, op. cit., p. 355 : Il se documenta également sur Gödel, et découvrit que le logicien avait offert à Einstein, pour ses soixante-dix ans, une solution aux équations de la relativité générale qui rendait les voyages dans le temps envisageables : l’auteur du théorème d’incomplétude voyait-il là une manière de sauver la rationalité de l’univers, en permettant, à la première apparition d’une anomalie logique, d’en reprogrammer l’axiomatique ?

BELL2019 Le continent de la douceur

Aurélien BELLANGER, Le continent de la douceur, Paris, Gallimard, 2019.

BELL2019.2 Cf. Bellanger, Le continent de la douceur, op. cit., p. 133 : La question de la fondation des mathématiques était, depuis toujours, au cœur des recherches de Verninkt, elle était une dimension essentielle de son travail de chercheur, commencé par une thèse sur le paradoxe de Russell, puis continué, à l’université catholique de Louvain, par deux décennies d’enseignement centrées sur l’histoire du formalisme mathématique en Europe, entre 1879 – parution de l’Idéographie de Frege – et 1936 – parution de l’article de Turing sur la calculabilité. Soit le dernier âge d’or des mathématiques européennes et leur crise grandiloquente, quand le monde, apeuré, après avoir tout reçu de l’Occident – le calcul infinitésimal, l’analyse harmonique, l’infini de Cantor –, après avoir scrupuleusement appliqué le programme, et construit, comme des exercices de mathématiques appliquées, un pont à Brooklyn et sur le Bosphore, un canal en Égypte et au Panamá, des tunnels sous toutes les montagnes, avait soudain appris que, si les fondations des mathématiques étaient introuvables, celles de tout édifice construit selon leurs lois étaient peut-être corrompues à leur tour.

BELL2019.3 Cf. Bellanger, Le continent de la douceur, op. cit., p. 134 : La théorie des ensembles serait réparée par Zermelo, d’abord, puis par Fraenkel, au prix d’un léger renoncement à sa simplicité initiale, qui excluait par décret le barbier problématique de sa corporation. On appelait ce décret “l’axiome du choix” et c’est en l’explicitant que Verninkt perdait chaque année l’attention de la grande majorité de ses étudiants. Mais il parvenait, in extremis, à les remobiliser en invoquant Gödel, la star incontestée de la logique mathématique. Le concept d’axiomatique, l’esprit même du formalisme européen d’avant-guerre, volait là en éclats pour toujours.

BELL2019.4 Cf. Bellanger, Le continent de la douceur, op. cit., p. 136 : même de façon posthume, le prestige d’Hilbert écrasait celui de Gorinski, et l’intuitionnisme était considéré, au mieux, comme un courant mineur et folklorique. Les grands historiens des mathématiques français le négligeaient généralement, traçant une ligne droite qui reliait, par-dessus les inutiles tourments des années 30 et les très périphériques paradoxes de Gödel, le formalisme des années 1900 à sa miraculeuse résurgence dans l’axiomatique du mouvement Bourbaki.

BELL2019.5 Cf. Bellanger, Le continent de la douceur, op. cit., p. 137-138 : on avait là une définition possible de la révolution informatique, comme victoire, inattendue et totale, de l’intuitionnisme gorinskien. Mieux, cette révolution informatique serait aussi une révolution – Verninkt le pressentait – dans la façon de faire et de penser les mathématiques, grâce à la mécanisation du calcul et à l’automatisation de la preuve, permises par l’usage intensif de machines indifférentes à la notion métamathématique de vrai et de faux : des machines intuitionnistes.

BELL2019.6 Cf. Bellanger, Le continent de la douceur, op. cit., p. 166 : Tous les systèmes philosophiques, lui avait expliqué Verninkt, pouvaient être classés selon les réponses qu’ils apportaient à l’aporie de Diodore – ou selon les propositions qu’ils choisissaient de rejeter, plutôt, car l’aporie tenait à trois propositions, individuellement incontestables, mais qui ne pouvaient être vraies toutes les trois ensemble. La première proposition disait que le passé était inéluctable. Si c’était cette inéluctabilité qui posait le plus de problèmes aux hommes, elle était théoriquement bien acceptée, sauf par quelques rares théoriciens de l’éternel retour. La deuxième proposition, presque une tautologie de logicien, affirmait que le possible ne pouvait procéder de l’impossible, et inversement. La troisième proposition était la plus fragile, mais la plus évidente aussi. Elle postulait qu’il existait du possible qui ne se réalisait pas. On touchait là au sens profond de l’existence humaine, au perpétuel défilement d’une liberté impermanente.

BELL2019.8 Cf. Bellanger, Le continent de la douceur, op. cit., p. 239-240 : Ida se rappela ce que lui avait dit Verninkt, un jour, et qui tenait lieu selon lui de définition minimale de l’intuitionnisme : c’étaient des gens qui avaient horreur des démonstrations. Le problème, c’est que cela pouvait déboucher sur deux attitudes radicalement opposées : s’en remettre à des machines pour faire les démonstrations à leur place, ou parier sur l’existence d’un mystérieux sens mathématique, d’une modalité quasi divine du fonctionnement de l’esprit humain, capable d’atteindre seul, sans calcul, sans étapes intermédiaires, peut-être sans preuves, des îlots de vérités isolés.

LADR1949 Le rôle du théorème de Gödel dans le développement de la théorie de la démonstration

Jean LADRIÈRE, Le rôle du théorème de Gödel dans le développement de la théorie de la démonstration, in Revue Philosophique de Louvain. Troisième série, tome 47, n°16, 1949. p. 469-492.

LADR1949.1 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 472-473 : La méthode axiomatique est née du développement de la géométrie et de l’algèbre abstraite et a pris toute sa portée avec les travaux de Hilbert sur les axiomes de la géométrie. Elle répond à l’ancienne idée de construire la science par voie déductive, à partir de certains énoncés premiers, considérés comme valables sans démonstration. Mais, alors que l’axiomatique ancienne faisait reposer le choix de ces énoncés premiers sur leur évidence intuitive, l’axiomatique moderne se présente comme un système hypothético-déductif. Aucun énoncé n’est privilégié sous le rapport de l’évidence ; construire une théorie revient à montrer quelles sont les propositions que l’on peut déduire si l’on a admis telles et telles propositions au départ, quelles sont les possibilités de déduction offertes par telles hypothèses. Il y a, dans cette méthode, à la fois un idéal de connaissance (la constitution de systèmes déductifs) et un instrument d’analyse. Étant donné une théorie déterminée, la méthode axiomatique permet d’y introduire un ordre, en manifestant clairement les liens des diverses notions et des diverses propositions qui en font partie : il s’agira de trouver un ensemble de propositions simples (soit qu’on les isole de la théorie existante, soit qu’on les introduise grâce à une analyse des notions fondamentales de cette théorie) qui soient en quelque sorte la clef de la théorie, et dont toutes les propositions de cette théorie puissent se déduire. Mais la méthode se prête aussi à un jeu de variations : on peut, à partir d’une théorie déterminée, obtenir de nouvelles théories simplement par suppression d’axiomes ou adjonction de nouveaux axiomes, et ce procédé permet d’établir une hiérarchie entre les théories elles-mêmes. La logique symbolique est partie du double souci de reprendre, par des méthodes nouvelles, inspirées des méthodes mathématiques, les problèmes de la logique formelle classique et d’éclairer la question du fondement des mathématiques en permettant de contrôler plus exactement leurs bases logiques. La méthode axiomatique et la logique symbolique se sont rencontrées pour donner naissance au formalisme pur, par la constitution de systèmes formels. Un système formel (ou formalisme) est un système axiomatique entièrement symbolique. Il comporte essentiellement : un certain nombre de signes ; un certain nombre de règles de structure, spécifiant dans quelles conditions certains assemblages de ces signes sont considérés comme doués de sens et constituent ce qu’on appelle des “formules” ; un certain nombre de formules considérées comme valables, les axiomes ; et un certain nombre de règles de déduction, indiquant par quelles transformations il est possible d’obtenir, à partir d’une formule valable, une autre formule valable. (Les formules valables sont donc les axiomes et toutes les formules que l’on peut en déduire au moyen des règles de déduction). Le sens des signes et des formules du système est entièrement intrinsèque : il est fixé par les axiomes et les règles, donc, en somme, par des lois de manipulation. Considéré en lui-même, un système formel est donc une sorte de jeu arbitraire et dépourvu de signification extérieure (il ne signifie que lui-même). Cependant le système formel est destiné à traduire un certain domaine d’énoncés (par exemple, une théorie mathématique, comme l’arithmétique ou la géométrie métrique) ; à ce titre, il est doué d’une signification extérieure, qui lui vient grâce à une interprétation que l’on donne des signes et des règles. On peut se poser le problème de construire un système formel apte à représenter une théorie déterminée, ou, inversement, de trouver une interprétation possible pour un système formel existant.

LADR1949.2 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 475 : La première voie qui fut suivie fut celle de l’axiomatique. Si la théorie des ensembles avait pu mener à des paradoxes, c’est que les notions de base de cette théorie n’étaient pas assez précises : la théorie se trouvait en somme à un stade intuitif, ses constructions reposaient en partie sur le contenu, apparemment évident, en fait assez indéterminé, de certains concepts, comme : ensemble, partie, éléments, etc. C’est à la faveur de cette indétermination que les paradoxes avaient pu s’introduire. Il s’agissait donc de préciser le sens de ces notions, et en particulier de la notion d’ensemble, pour éliminer les paradoxes. La méthode axiomatique paraissait ici tout indiquée : dans une théorie axiomatisée, les axiomes énoncent en effet de façon explicite certaines propriétés des êtres au moyen desquels la théorie est construite, et ces êtres se trouvent définis par ces propriétés ; il ne peut être question, ultérieurement, de faire appel à des propriétés qui n’auraient pas été énoncées aux axiomes (ou déduites valablement de celles-là), en particulier à des propriétés soi-disant évidentes au point de vue intuitif.

LADR1949.3 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 479 : Il y a en réalité deux aspects dans la perspective de Brouwer. D’une part, une théorie sur l’origine de l’être mathématique (c’est l’intuition de l’unité-dualité, elle-même obtenue par abstraction à partir de l’intuition de la durée temporelle) et sur la pensée mathématique (présentée comme une possibilité indéfinie et imprévisible de constructions) : il y a là une sorte de métaphysique de la mathématique. D’autre part, un point de vue méthodologique qui s’efforce d’isoler les démarches valables de la pensée mathématique et de refaire toute la mathématique selon un style propre, entièrement constructif. Ce second aspect est lié bien entendu au premier dans la pensée de Brouwer – mais il peut parfaitement être considéré à part, en tant que révélateur d’une certaine exigence permanente de la pensée mathématique. Ce qui est donné dans l’intuition, ce qui est conforme à l’exigence de construction, c’est l’unité, la possibilité d’ajouter une unité à un ensemble déjà constitué, et la possibilité de répéter indéfiniment cette opération. Ce qui est rejeté, c’est la possibilité de traiter un ensemble infini comme un tout fermé, comme un ensemble fini (car ce serait se placer au terme d’une série indéfinie, supposée parcourue jusqu’à épuisement, ce qui n’est pas possible) – et la possibilité d’accomplir un nombre infini de choix (ce qui reviendrait en somme à parcourir une infinité de fois une série infinie). C’est à ces interdictions que se rattache le rejet du tiers-exclu : celui-ci revient en effet à traiter un ensemble infini comme un objet existant en soi, indépendamment de notre propre opération. L’être mathématique n’existe pas en soi, il n’existe que dans une construction (soit effective, soit donnée sous forme de loi). Brouwer montre comment on peut reconstruire sur ces bases une mathématique, et en particulier une théorie du continu et une théorie des ensembles.

LADR1949.4 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 486-487 : Or Gödel montre, en se basant sur sa méthode d’arithmétisation, que l’on peut construire, dans tout système formel répondant à certaines conditions assez générales (que nous préciserons dans un instant), des formules qui sont indécidables, c’est-à-dire qui ne sont pas déductibles et dont la négation n’est pas non plus déductible dans le système considéré. Les conditions dont il s’agit se ramènent essentiellement aux deux suivantes : le système doit être assez large pour qu’il soit possible d’y représenter l’arithmétique, et il doit être assez restreint pour ne pas être contradictoire. (Un système contradictoire est en effet un système où toute formule peut être déduite, c’est donc un système d’extension maximale). De ce théorème, Gödel déduit un corollaire tout aussi important : la formule qui énonce, dans un système répondant aux conditions générales ci-dessus, la non-contradiction de ce système, est indécidable. Ce qui revient à dire que, pour démontrer la non-contradiction d’un tel système, il faut nécessairement utiliser des moyens de démonstration qui n’appartiennent pas à ce système, qui le dépassent. Ce résultat expliquait la faillite des démonstrations tentées jusque là : on voulait en effet démontrer la non-contradiction d’un système correspondant à l’arithmétique sans sortir des cadres de l’arithmétique, bien plus, en se limitant à une arithmétique purement constructive. Mais, en même temps, ce résultat précisait à quelles conditions doit répondre une démonstration de non-contradiction pour aboutir : elle doit faire appel à des procédés de raisonnement qui dépassent la théorie à examiner. Et ainsi on se trouvait acculé à une révision radicale du programme de la théorie de la démonstration. Et le fait auquel on se heurtait avait été révélé par des recherches situées dans la ligne même de ce programme : c’est donc celui-ci qui se surmontait en quelque sorte lui-même dans une exigence de transformation.

LADR1949.5 Cf. Ladrière, Le rôle du théorème de Gödel…, op. cit., p. 491 : Ce théorème montre en effet le caractère incomplet d’une très large classe de formalismes. Church a montré, pour une classe sensiblement équivalente de formalismes, un autre aspect de limitation : l’impossibilité d’y résoudre le problème de la décision (c’est-à-dire de trouver un procédé général permettant de décider, de toute formule appartenant au système, si elle y est déductible ou non). Ce résultat a été obtenu précisément grâce à la formalisation de la notion : “effectivement calculable”. Skolem d’autre part avait également découvert un aspect de limitation des systèmes formels en montrant que tout système formel permettant de représenter la théorie des ensembles peut déjà être interprété au moyen de la théorie des nombres. Des recherches plus récentes ont précisé ou étendu ces théorèmes. Ces différents résultats se placent au point de vue syntaxique : ils concernent la structure interne des systèmes et en particulier leurs possibilités déductives. D’autres résultats du même type ont été obtenus, au point de vue sémantique, par Tarski : impossibilité de représenter, dans un système, certaines notions sémantiques relatives à ce système, comme la notion de “formule vraie” ou de “concept définissable”. Les recherches formalistes aboutissent ainsi, dans leur ligne propre, à découvrir les limites de la méthode formelle et les conditions de son application. En particulier, le théorème de Gödel montre que l’idéal d’un formalisme unitaire est irréalisable. Et on est amené à construire des formalismes hiérarchisés suivant certaines lois d’engendrement (éventuellement transfinies). Le théorème de Church d’autre part montre qu’il n’est pas possible de réduire la recherche mathématique à un pur mécanisme. Et les résultats de Tarski conduisent également à une hiérarchie, sémantique cette fois, des systèmes.

DOWE2004 La théorie des types et les systèmes informatiques de traitement de démonstrations mathématiques

Gilles DOWEK, La théorie des types et les systèmes informatiques de traitement de démonstrations mathématiques, in Mathématiques et sciences humaines, 165, Printemps 2004, Centre d’analyse et de mathématique sociales de l’EHESS, p. 13-29.

DOWE2004.1 Cf. Dowek, La théorie des types…, op. cit., p. 17 : Les premiers concepteurs de systèmes de démonstrations mathématiques se sont naturellement appuyés sur les travaux des logiciens de la fin du XIXe siècle et du début du XXe siècle qui, avec l’introduction des prédicats à plusieurs arguments et des quantificateurs par G. Frege et C.S. Peirce, puis la résolution des paradoxes par B. Russell et E. Zermelo, avaient enfin réussi à proposer quelques formalismes dans lesquels l’intégralité des mathématiques étaient exprimables. Dans les années soixante, la théorie la plus populaire pour formaliser les mathématiques était sans doute la théorie des ensembles des E. Zermelo et A. Fraenkel. Cette théorie repose sur un socle constitué de la logique des prédicats du premier ordre qui définit une syntaxe pour les termes et les propositions et des règles de déduction, par exemple celles de G. Frege et D. Hilbert. Un projet relativement naturel aurait donc été de concevoir un programme capable de traiter les démonstrations écrites dans ce formalisme. L’utilisateur d’un tel programme aurait écrit ses propositions dans la logique des prédicats en utilisant les symboles de la théorie des ensembles, l’égalité et le symbole d’appartenance, puis aurait démontré ces propositions en utilisant les axiomes de Zermelo et Fraenkel et les règles de déduction de Frege et Hilbert. Il est remarquable que ce projet n’ait jamais été réalisé tel quel et que tous les systèmes de traitement de démonstrations aient choisi des formalismes qui s’éloignent, plus ou moins, de la théorie des ensembles, par exemple des formalismes issus de différentes variantes de la théorie des types.

DOWE2004.2 Cf. Dowek, La théorie des types…, op. cit., p. 26-27 : De plus, savoir qu’un certain objet est une démonstration d’une certaine proposition ne requiert pas de démonstration, au risque, encore une fois, d’une régression à l’infini, mais doit pouvoir se lire sur la face de l’objet, ou plutôt d’un terme exprimant cet objet. L’alternative, comme nous l’avons vu est de s’en remettre à la grammaire pour prohiber l’application d’une fonction hors de son domaine de définition. Cela demande d’associer à chaque proposition une propriété essentielle, un type : le type de ses démonstrations. Cette association d’un type à chaque proposition du langage est ce qu’on appelle l’isomorphisme de Curry-De Bruijn-Howard, et cela demande des langages de types plus riches que celui des types simples.

DOWE2004.3 Cf. Dowek, La théorie des types…, op. cit., p. 27 : Si beaucoup de systèmes de traitement de démonstrations sont des systèmes généralistes, développés indépendamment des utilisations qu’on compte en faire, suivant ainsi la tradition de neutralité ontologique de la logique, certains systèmes ont été développés en vue d’applications déterminées, en particulier la preuve de programmes, ou bien, tout en restant généralistes, ont subi une certaine influence des utilisations visées. On peut expliquer l’importance que joue dans ce domaine la notion de constructivité. Certes, l’interprétation fonctionnelle des démonstrations a d’abord été comprise dans le cadre des démonstrations constructives comme l’évoquent les noms de Brouwer, Heyting et Kolmogorov et ce n’est que dans la dernière décennie du XXe siècle que des extensions ont été proposées pour la logique classique. Mais on peut aussi expliquer cet intérêt pour les démonstrations constructives par la volonté de transformer ces démonstrations en programmes informatiques démontrés corrects.

DOWE2004.4 Cf. Dowek, La théorie des types…, op. cit., p. 29 : indépendamment de toute théorie, il est possible d’étendre la logique des prédicats de manière à permettre la formation de termes qui ont des variables liées. On obtient alors un cadre général relativement simple dans lequel il est possible d’exprimer de nombreuses théories, parmi lesquelles la théorie des types. Cependant, bien qu’ils soient plus simples, ces cadres généraux ne sont apparus qu’après la théorie des types qui en est une instance. Les nouvelles idées ne sont pas apparues dans toute la clarté de la généralité, mais dans la complexité introduite par l’interférence avec de nombreuses autres idées dans une théorie particulière, et quelque peu accidentelle. Les progrès ne sont donc pas faits du clair au clair, mais du clair au sombre, puis du sombre au clair.

SALA2012 Appliquer les mathématiques

Jean-Michel SALANSKIS, Appliquer les mathématiques, in Rue Descartes, 2012/2 (n° 74), p. 4-19.

SALA2012.1 Cf. Salanskis, Appliquer les mathématiques, op. cit., p. 10 : Un épistémologue empiriste d’inspiration analytique du XXe siècle estimera, au contraire, que de telles applications des mathématiques révèlent ce qu’est essentiellement toute application des mathématiques : la surimposition à un ensemble de données d’un cadre théorique capable d’intégrer ces données, et n’étant contraint par rien d’autre que la rectitude et l’opérationnalité. Pour un tel point de vue, les contextes mathématiques mobilisés dans les sciences ne sont que des dispositifs théoriques intégrant l’information de l’expérience, propres à la bureaucratiser et à l’administrer, en l’insérant dans de bonnes structures : la région d’objets prélevée sur l’univers mathématique en vue de cette tâche n’est pas supposée correspondre à notre hypothèse sur la structure vraie du réel, ni à notre intuition/imagination du cadre de présentation dans lequel nous accédons aux phénomènes gages pour nous de ce réel. […] Il est indéniable que l’application des mathématiques possède bien cette dimension. Il est impossible de refuser à la science le pragmatisme qui lui fait exploiter la puissance organisationnelle résidant dans le discours mathématique, sur toute espèce de donnée, et sans avoir égard à la façon dont ces données se donnent, aux dimensions dont elles relèvent. De nos jours, c’est même devenu encore plus impossible, à l’heure de l’informatique et de l’informatisation : nous savons que mettre les données dans la bécane permet eo ipso de leur appliquer toute espèce de procédure récursive appartenant aux talents fonciers des machines numériques. Et lorsque nous le faisons, nous n’avons pas égard à ce que les données “sont” vraiment, aux axes qui leur appartiennent, ontologiquement ou simplement selon notre rapport originaire à elles (phénoménologiquement). Les usages de l’analyse réelle que nous évoquons semblent partager la posture de l’informatique : ils inscrivent seulement les données dans une sorte d’hyperordinateur continu, qui a besoin de l’usager compétent du langage mathématique pour fonctionner. Mais justement, exprimons une objection qui suggère une pause critique. Est-il vrai que l’informatisation des données ignore les axes propres de répartition ou de présentation de ces données ? Ne faut-il pas dire exactement l’inverse : qu’une grande partie de l’intelligence de la modélisation informatique de quoi que ce soit consiste à répondre à la question des “structures de données”, en déterminant dans quelle sorte d’objets du type arbre, liste, etc. encoder les données ? La modélisation étant d’autant meilleure que, justement, ces structures de données respectent les axes pertinents pour la sorte de chose dont il s’agit : c’est seulement dans ce cas que les calculs de la machine sauront dégager l’intéressant et l’important à partir de l’information en cause, en opérant de manière ajustée à la fonction de chaque composante des données. N’est-il pas alors au moins concevable qu’il puisse y avoir, dans le cas de l’investissement dans la théorie du réel de mathématiques continues – en général, infinitaires et transcombinatoires –, une rationalité similaire à celle du choix des “structures de données” en informatique ? C’est exactement, je pense, ce que la pensée transcendantale a voulu mettre en relief.

SALA2013 La littérature entre axiomatique et formalisme

Jean-Michel SALANSKIS, La littérature entre axiomatique et formalisme, in Les Temps Modernes, 2013/5 (n° 676), p. 178-197.

SALA2013.1 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 178-179 : On pense d’abord , lorsque l’on parle d’axiomatique, à ce que Hilbert a fait dans son ouvrage fameux Les Fondements de la géométrie. Il y proposait, effectivement, une liste d’axiomes, régissant d’énigmatiques entités, encore baptisées points, droites et plans, mais que l’on aurait pu nommer autrement. Et il procédait à la reconstruction de ce que l’on appelait jusqu’alors géométrie, pour l’envisager, désormais, comme la déduction logique à partir des axiomes en question. Dans ce cas donc, axiomatiser X, cela veut dire installer X dans un mode et un système déductifs propres. Appelons axiomatisation fondationnelle un tel mode de l’axiomatiser. Mais il existe en mathématiques un autre usage de l’expression axiomatiser, plus courant à mon sens : on dit, par exemple, que Kolmogorov a axiomatisé la théorie des probabilités. On fait déjà du “calcul de probabilités”, depuis Pascal, au moins selon le récit couramment admis, mais après Kolmogorov on identifie le contexte de base nécessaire au déploiement d’une mathématique probabiliste comme celui des espaces probabilisés. Les contextes dans lesquels Pascal travaillait sont désormais ré-identifiés comme des cas particuliers. Dans cet exemple, le geste dit d’axiomatisation consiste à désigner et à définir de nouveaux objets par l’exigence d’un certain nombre de propriétés, soit à introduire en fait des catégories d’objets. Dans la foulée, on impose à un ensemble de recherches un nouveau langage : le sous-idiome du langage mathématique général employant les nouvelles catégories. Ce qui, nécessairement, va susciter de nouvelles positions de problèmes. Il est ainsi immédiat que l’axiomatisation de Kolmogorov ouvre l’investigation des espaces probabilisés infinis.

SALA2013.2 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 180 : Formaliser quelque chose, c’est le faire entrer dans le cadre d’un langage formel, c’est réécrire en principe ce dont on parle intégralement au moyen de formules assemblées selon la norme d’un langage formel. En association avec cette traduction, intervient la redéfinition de l’activité de prouver comme élaboration de “preuves formelles”. Donc formaliser cela veut dire indissociablement projeter une certaine textualité sur un certain langage formel et déterminer juridiquement la seule administration de preuve acceptable comme l’écriture réglée de preuves formelles. On rapporte généralement à Frege l’invention de la formalisation au sens que nous venons de dire : Frege a fait le travail de formalisation de la logique, en établissant le langage formel de la logique des prédicats du premier ordre et en définissant simultanément une norme de la dérivation de théorèmes de cette logique, une norme de la preuve formelle. Par la suite, dans la première moitié du XXe siècle, une formalisation des mathématiques dans leur ensemble, la théorie formelle des ensembles (la théorie ZFC, de Zermelo-Fraenkel avec choix), a été proposée, qui demeure aujourd’hui généralement acceptée.

SALA2013.3 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 181 : Avant la formalisation, l’activité démonstrative, en mathématique, est supposée avoir cours au sein du langage naturel, du langage partagé. Après la formalisation, il apparaît que, pour que quelque chose puisse être considéré comme une preuve correcte, il faut que cela ait été couché dans un langage formel et que cela obéisse aux règles de la dérivation dans un tel langage. D’un point de vue pratique pourtant, la manipulation des langages formels et des preuves formelles est plutôt le fait des logiciens (et des informaticiens, le XXe siècle ayant révélé la congruence forte de la preuve et du calcul). Pour les mathématiciens, la formalisation reste seulement un horizon juridique : écrire les démonstrations rigoureusement dans le système formel de la théorie des ensembles rendrait la preuve d’un résultat même très élémentaire à peu près illisible. Donc les mathématiciens écrivent dans un idiome très à distance du langage formel, gardant nombre de traits du langage naturel, bien qu’il possède un lexique propre et affiche volontiers les formes logiques enseignées et mises en vedette dans la formalisation (comme la quantification). Ce que les mathématiciens fréquentent assez ordinairement en revanche est l’axiomatisation dont je parlais plus haut : les gestes d’axiomatisation non fondationnels qui réorientent le travail dans un domaine en dégageant l’importance de certains concepts ou catégories (certains objets si je pense aux items subsumés), et de certaines relations fondamentales entre eux. Ces gestes incarnent ce que l’on pourrait appeler le structuralisme mathématicien : la volonté systématique d’étudier la manière dont des multiplicités d’objets peuvent réaliser un groupe de propriétés.

SALA2013.4 Cf. Salanskis, La littérature entre axiomatique et formalisme, op. cit., p. 182 : Axiomatisation et formalisation, cela dit, se croisent et se superposent à un endroit absolument fondamental, celui de la réinstitution de la mathématique comme mathématique formelle ensembliste : l’instauration de la théorie ZFC, évoquée plus haut, comme référence juridique ; une instauration qui est à la fois axiomatisation fondationnelle et formalisation. Cette ré-institution postule en effet, d’un côté, que toutes les mathématiques traditionnelles peuvent être réécrites dans un langage formel particulier, celui des ensembles, et que l’activité de la preuve mathématique doit désormais avoir pour horizon juridique celui de la preuve formelle dans un système associé à ce langage : c’est le côté formalisation. Mais, de l’autre côté, des axiomes ont été choisis pour la théorie ZFC afin d’exprimer les propriétés fondamentales de la notion informelle de collection, que Cantor avait déjà en vue quand il lança sa théorie intuitive des ensembles, sans formalisation. Dans la formalisation des mathématiques qui en un certain sens fait loi depuis bientôt un siècle, on trouve ainsi une axiomatisation qui, si je la regarde indépendamment de la formalisation, possède des traits communs avec les axiomatisations non fondationnelles évoquées plus haut : elle dégage la notion fondamentale d’appartenance et explicite les lois syntaxiques gouvernant celle-ci. Elle propose des notions, identifiées par un certain jeu relationnel, en termes desquelles tout repenser et reproblématiser.

HUFL2005 Mathématiques et informatique

Gérard HUET et Philippe FLAJOLET, Mathématiques et informatique, in Rapports sur la science et la technologie : Les Mathématiques dans le monde scientifique contemporain, dir. Jean-Christophe YOCCOZ, Paris, TEC & DOC-Lavoisier, 2005, p. 215-237.

HUFL2005.1 Cf. Huet & Flajolet, Mathématiques et informatique, op. cit., p. 227 : De même que certaines précautions doivent être prises en théorie des ensembles pour éviter les paradoxes issus de notations ensemblistes trop laxistes telles que {x ∣ x ∉ x}, il convient de munir le λ-calcul de limitations stratifiantes pour le restreindre à des calculs convergents. C’est ainsi que Church dut recourir à un système de types pour restreindre le calcul à dénoter des fonctions totales, dans un calcul des prédicats d’ordre supérieur appelé théorie des types simples. Bien sûr, tout système bureaucratique de ce genre est relativement ad-hoc, et l’espoir d’une notation uniforme pouvant servir de fondement à une Mathématique cohérente universelle s’est évanoui avec la destruction par Gödel du programme de Hilbert. Le λ-calcul n’est pas qu’une notation pour les expressions fonctionnelles. Sous sa forme typée, les règles d’inférence définissant le typage peuvent être considérées comme des règles logiques très générales. C’est ainsi que les λ-termes simplement typés peuvent être vus comme des notations pour les preuves sous forme de déduction naturelle du fragment implicationnel du calcul propositionnel. Cette correspondance, dégagée progressivement par Curry, Howard et de Bruijn, est un isomorphisme profond entre espaces fonctionnels et structures de démonstration. Elle permet notamment de faire correspondre à la preuve formelle d’un énoncé mathématique un programme informatique, qui réalise cet énoncé comme spécification. À l’inverse, un programme informatique peut être considéré comme squelette d’un raisonnement mathématique. Ce point de vue extrêmement fécond allait être développé dans les vingt dernières années dans un programme de Théorie des Types, rassemblant des logiciens et des informaticiens à la recherche des fondements logiques de la programmation. Le cadre dit intuitionniste des mathématiques constructives allait servir de langage de spécification à la partie purement fonctionnelle de la programmation, mais d’autres paradigmes allaient trouver leur place pour justifier d’autres constructions programmatoires, comme le call-cc, qui correspond à l’utilisation du tiers exclu en logique classique, par exemple dans le λ-calcul. Ce programme de réalisabilité logique fait ainsi apparaître une analogie profonde entre la programmation d’algorithmes informatiques et la mise au point de démonstrations mathématiques.

HUFL2005.2 Cf. Huet & Flajolet, Mathématiques et informatique, op. cit., p. 230 : le calcul formel peut être vu comme une version extrême (allant jusqu’à l’informatisation) du courant constructif en mathématiques, où les preuves d’existence abstraites sont remplacées par des constructions explicites.

TURI1938 Systems of Logic Based on Ordinals

Alan TURING, Systems of Logic Based on Ordinals, PhD thesis, Princeton University, 1938, p.161-228.

TURI1938.1 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 161 : The well-known theorem of Gödel shows that every system of logic is in a certain sense incomplete, but at the same time it indicates means whereby from a system L of logic a more complete system L’ may be obtained.

TURI1938.2 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 166 : A function is said to be “effectively calculable” if its values can be found by some purely mechanical process. Although it is fairly easy to get an intuitive grasp of this idea, it is nevertheless desirable to have some more definite, mathematically expressible definition. Such a definition was first given by Gödel at Princeton in 1934, following in part an unpublished suggestion of Herbrand, and has since been developed by Kleene. These functions were described as “general recursive” by Gödel. We shall not be much concerned here with this particular definition. Another definition of effective calculability has been given by Church, who identifies it with λ-definability. The author has recently suggested a definition corresponding more closely to the intuitive idea, see also Post. It was stated above that “a function is effectively calculable if its values can be found by some purely mechanical process”. We may take this statement literally, understanding by a purely mechanical process one which could be carried out by a machine. It is possible to give a mathematical description, in a certain normal form, of the structures of these machines. The development of these ideas leads to the author’s definition of a computable function, and to an identification of computability [We shall use the expression “computable function” to mean a function calculable by a machine, and we let “effectively calculable” refer to the intuitive idea without particular identification with any one of these definitions. We do not restrict the values taken by a computable function to be natural numbers; we may for instance have computable propositional functions.] with effective calculability. It is not difficult, though somewhat laborious, to prove that these three definitions are equivalent.

TURI1938.3 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 172-173 : Let us suppose that we are supplied with some unspecified means of solving number-theoretic problems; a kind of oracle as it were. We shall not go any further into the nature of this oracle apart from saying that it cannot be a machine.

TURI1938.4 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 200 : It should be noticed that our definitions of completeness refer only to number-theoretic theorems. Although it would be possible to introduce formulae analogous to ordinal logics which would prove more general theorems than number-theoretic ones, and have a corresponding definition of completeness, yet, if our theorems are too general, we shall find that our (modified) ordinal logics are never complete. This follows from the argument of §4. If our “oracle” tells us, not whether any given number-theoretic statement is true, but whether a given formula is an ordinal formula, the argument still applies, and we find that there are classes of problem which cannot be solved by a uniform process even with the help of this oracle. This is equivalent to saying that there is no ordinal logic of the proposed modified type which is complete with respect to these problems. […] We might hope to obtain some intellectually satisfying system of logical inference (for the proof of number-theoretic theorems) with some ordinal logic. Gödel’s theorem shows that such a system cannot be wholly mechanical; but with a complete ordinal logic we should be able to confine the non-mechanical steps entirely to verifications that particular formulae are ordinal formulae.

TURI1938.5 Cf. Turing, Systems of Logic Based on Ordinals, op. cit., p. 214-216 : Mathematical reasoning may be regarded rather schematically as the exercise of a combination of two faculties, which we may call intuition and ingenuity. The activity of the intuition consists in making spontaneous judgments which are not the result of conscious trains of reasoning. These judgments are often but by no means invariably correct (leaving aside the question what is meant by “correct”). Often it is possible to find some other way of verifying the correctness of an intuitive judgment. We may, for instance, judge that all positive integers are uniquely factorizable into primes; a detailed mathematical argument leads to the same result. This argument will also involve intuitive judgments, but they will be less open to criticism than the original judgment about factorization. I shall not attempt to explain this idea of “intuition” any more explicitly. The exercise of ingenuity in mathematics consists in aiding the intuition through suitable arrangements of propositions, and perhaps geometrical figures or drawings. It is intended that when these are really well arranged the validity of the intuitive steps which are required cannot seriously be doubted. The parts played by these two faculties differ of course from occasion to occasion, and from mathematician to mathematician. This arbitrariness can be removed by the introduction of a formal logic. The necessity for using the intuition is then greatly reduced by setting down formal rules for carrying out inferences which are always intuitively valid. When working with a formal logic, the idea of ingenuity takes a more definite shape. In general a formal logic, will be framed so as to admit a considerable variety of possible steps in any stage in a proof. Ingenuity will then determine which steps are the more profitable for the purpose of proving a particular proposition. In pre-Gödel times it was thought by some that it would probably be possible to carry this programme to such a point that all the intuitive judgments of mathematics could be replaced by a finite number of these rules. The necessity for intuition would then be entirely eliminated. In our discussions, however, we have gone to the opposite extreme and eliminated not intuition but ingenuity, and this in spite of the fact that our aim has been in much the same direction. We have been trying to see how far it is possible to eliminate intuition, and leave only ingenuity. We do not mind how much ingenuity is required, and therefore assume it to be available in unlimited supply. In our metamathematical discussions we actually express this assumption rather differently. We are always able to obtain from the rules of a formal logic a method of enumerating the propositions proved by its means. We then imagine that all proofs take the form of a search through this enumeration for the theorem for which a proof is desired. In this way ingenuity is replaced by patience. In these heuristic discussions, however, it is better not to make this reduction. In consequence of the impossibility of finding a formal logic which wholly eliminates the necessity of using intuition, we naturally turn to “non-constructive” systems of logic with which not all the steps in a proof are mechanical, some being intuitive. An example of a non-constructive logic is afforded by any ordinal logic. When we have an ordinal logic, we are in a position to prove number-theoretic theorems by the intuitive steps of recognizing formulae as ordinal formulae, and the mechanical steps of carrying out conversions. What properties do we desire a non-constructive logic to have if we are to make use of it for the expression of mathematical proofs? We want it to show quite clearly when a step makes use of intuition, and when it is purely formal. The strain put on the intuition should be a minimum. Most important of all, it must be beyond all reasonable doubt that the logic leads to correct results whenever the intuitive steps are correct. It is also desirable that the logic shall be adequate for the expression of number-theoretic theorems, in order that it may be used in metamathematical discussions.

BECA2004 Ontologies… déontologie

Aurélien BÉNEL et Sylvie CALABRETTO, Ontologies… déontologie : réflexion sur le statut des modèles informatiques, in Digital Technology and Philological Disciplines, Linguistica Computazionale, A. BOZZI, L. CIGNONI, J.L. LEBRAVE (eds), 2004, vol. 20-21, p.31-47.

BECA2004.1 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 33 : Que signifierait un statut ontologique des modèles informatiques ? Ni plus ni moins que l’aboutissement du programme de l’intelligence artificielle. En effet, l’ordinateur, en opérant sur le discours, manipulerait directement des connaissances sur le monde réel. Hubert Dreyfus (DREYFUS H., Intelligence artificielle : mythes et limites, Flammarion, Paris, 1984. (Edition originale en anglais publiée en 1972).) fut l’un des premiers à identifier l’intelligence artificielle comme étant un mythe, entraînant la fin du financement de la plupart des projets américains et européens.

BECA2004.2 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 37 : Un statut purement logique des modèles informatique signifierait que seul importe l’aspect formel, indépendamment du contenu (du rapport au monde). Dit autrement, il s’agirait de modèles qui pourraient faire l’objet d’une normalisation.

BECA2004.3 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 39 : Au XIXe et au début du XXe, l’idéal de la Science est donné par la Mathématique telle qu’elle serait si elle était libérée de l’influence du mathématicien : une mathématique “mécanique”, une mathématique exécutable par une machine. Hilbert, en refondant les mathématiques sur des axiomes et des inférences, suit ce programme, mais ses résultats vont aller à l’encontre des attentes des positivistes. En effet, on cite souvent la phrase d’Hilbert : “Il doit toujours être possible de substituer ‘table’, ‘chaise’ et ‘chope de bière’ à ‘point’, ‘droite’ et ‘plan’ dans un système d’axiomes géométriques”. Si on y regarde de plus près, Hilbert, dans cette citation, coupe définitivement les mathématiques de la réalité. La vérité en mathématique n’est donc plus “ce qui est conforme au réel” mais ce qui est inféré d’une axiomatique. La vérité n’y est plus ontologique mais logique (au sens de “conventionnel”).

BECA2004.4 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 40 : On peut se demander si l’approche logique est auto-fondée ou si elle fondée ontologiquement. Pour répondre, nous devons étudier l’histoire du théorème d’incomplétude de Gödel (1931) (DUBUCS J., La logique depuis Russell, in R. BLANCHÉ, La logique et son histoire, Armand Colin/Masson, Paris, 1996. (Seconde édition revue et complétée).), (GIRARD J.-Y., Le champ du signe ou la faillite du réductionnisme, in E. NAGEL, J.R. NEWMAN, K. GÖDEL, J.-Y. GIRARD (eds.), Le théorème de Gödel, Seuil, Paris, 1989 (Traduction française et commentaires).). Par ce théorème, Gödel prouve que pour toute axiomatique (aussi complexe ou plus complexe que l’arithmétique des entiers) soit le principe du tiers-exclu, soit celui de non-contradiction est violé. Le plus surprenant est que Hilbert a passé le reste de sa vie à chercher une erreur dans la démonstration et que Gödel lui-même a toujours pensé que l’incomplétude était due aux systèmes complexes et pas à la logique “naturelle” (c’est-à-dire contenant les deux principes). En fait, même s’ils ont défini les mathématiques comme conventionnelles, ils gardent tout deux une foi sans faille dans la nature ontologique de la logique. On doit noter, au contraire, que d’autres mathématiciens à la même époque plaident pour l’intuitionnisme (c’est-à-dire une logique sans le principe de non-contradiction). En résumé, le statut des mathématiques a changé. Les mathématiques ne sont plus considérées comme conformes à la réalité. Elles sont un jeu de langage. Aujourd’hui, même les règles de la logique “naturelle” ne nous semblent plus “naturelles” et peuvent être changées afin d’obtenir de nouvelles logiques.

BECA2004.5 Cf. Bénel & Calbretto, Ontologies… déontologie, op. cit., p. 45 : Nous avons montré que l’ambiguïté du statut des modèles informatiques provient du fait que les trois finalités assumées par la communauté (intelligence artificielle, interopérabilité, faire sens pour l’usager) sont issues de trois courants philosophiques opposés. Le lecteur aura compris que, dans nos projets de recherche, nous nous engageons clairement dans la troisième voie, celle que nous avons qualifiée “d’épistémologique”. Cela signifie que nous limitons la mission de l’ordinateur à ce qui est purement formel et laissons à la charge de l’être humain ce qui concerne la substance des choses. C’est parce que nous sommes convaincus que l’intelligence sera toujours du côté de l’humain et non de l’automate qu’il nous semble indispensable de mettre au cœur de la conception de nos systèmes : l’interactivité, les conflits d’interprétation ainsi que l’aspect dynamique et toujours incomplet de la connaissance.

LARO1993 Logique et fondements de l’informatique

Richard LASSAIGNE et Michel de ROUGEMONT, Logique et fondements de l’informatique : Logique du 1er ordre, calculabilité et λ-calcul, Paris, Hermès, 1993.

LARO1993.1 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 1 : Le développement de la Logique mathématique et celui de l’Informatique dans la dernière décennie ont mis en lumière un certain nombre d’interactions entre preuve et calcul, modèles de machines et fonctions calculables, pouvoir d’expression d’un langage et complexité des problèmes exprimés dans ce même langage.

LARO1993.2 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 1-2 : L’origine de la Logique mathématique contemporaine en tant qu’outil de formalisation, est marquée par les publications de G.Frege (1879 et 1892) sur le langage des formules, sur le sens et la dénotation. L’utilisation d’un langage formel dans un cadre mathématique, informatique ou linguistique, soulève une question fondamentale : quelle sémantique peut-on associer à un tel langage ? Un énoncé est représenté par une référence (ou dénotation), mais possède également un sens plus général. Pour les langages de la Logique du premier ordre, la dénotation est donnée en termes de valeurs de vérité. La notion syntaxique de preuve est définie à l’aide d’un système d’axiomes et de règles de déduction. Dans sa thèse, K. Gödel démontra en 1930 la propriété de complétude pour un tel système, c’est-à-dire l’adéquation entre aspect sémantique et aspect syntaxique. L’année suivante, il publiait ses deux théorèmes d’incomplétude et obligeait ainsi la Logique, en tant que métamathématique, a redéfinir ses objectifs : il montrait l’inexistence d’une formalisation complète de l’arithmétique et apportait ainsi la preuve de l’impossibilité de résoudre l’un des problèmes énoncés dans le fameux programme de Hilbert. Ce dernier voulait réduire les mathématiques aux déductions logiques à partir de simples axiomes. À la même époque, se développaient les bases de la théorie des fonctions récursives. Cette théorie étudie les fonctions pour lesquelles il existe une méthode effective de calcul. Elle a pris son essor à partir des travaux de Church, Kleene, Markov, Post et Turing : les différentes classes de fonctions qu’ils définissent sont constituées des fonctions calculables, elles incluent toutes les fonctions calculables connues et coïncident toutes. Cette constatation amena Church à proposer en 1936 sa fameuse thèse : toute fonction calculable est récursive. À la même époque, A.Turing définit une machine abstraite [?], qui porte maintenant son nom et montre que les fonctions calculables sur cette machine sont exactement les fonctions récursives. L’impulsion donnée par Gödel à la Logique se retrouve également dans la théorie de la démonstration développée à partir des travaux de Herbrand et Gentzen. Le théorème de Herbrand (1929), qui précise le caractère semi-décidable de la Logique du premier ordre, est le fondement des méthodes de démonstration automatique. Les travaux de Gentzen (1935) ont ensuite permis de développer de nouvelles méthodes applicables à un système de règles de déduction, sans axiomes, appelé calcul des séquents. Ce genre de système a été utilisé récemment par J.Y.Girard pour construire la Logique linéaire, dont l’un des objectifs est de permettre l’expression des problèmes de ressources et de communication dans les systèmes informatiques. Les systèmes de types sont des systèmes récents de déduction naturelle pour lesquels il est possible d’établir une correspondance entre preuves et programmes fonctionnels, ainsi qu’entre formules et types : la construction d’un terme fonctionnel typé associé à un programme d’un certain type, est la trace de la preuve de la formule exprimant le type considéré. Ce domaine de recherche est l’un des plus actifs actuellement en Logique. Enfin, la théorie des modèles s’est constituée vers 1950 à partir des travaux de A.Tarski. Les notions de définissabilité implicite et explicite, dans un langage du premier ordre, ont été introduites par Beth et se sont révélées fondamentales pour la théorie des modèles finis, particulièrement importante en Informatique.

LARO1993.3 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 3 : Dans le cas de la programmation logique, la stratégie d’un programme peut être considérée comme un cas particulier d’une méthode générale de démonstration automatique : la résolution.

LARO1993.4 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 4 : Si la machine de Babbage est souvent reconnue comme étant une des premières machines informatiques, c’est Turing qui donne pour la première fois une définition précise d’un modèle de calcul et étudie les fonctions définissables à l’aide d’un tel modèle, appelées aussi fonctions calculables au sens de Turing. L’équivalence entre ces fonctions calculables au sens de Turing et les fonctions récursives partielles est une des premières interactions entre Logique et Informatique. Turing reconnaissait implicitement l’importance du temps et de l’espace de calcul d’une machine de Turing car, dans son fameux test de Turing, il comparait une telle machine à un être humain, du point de vue à la fois des réponses et du temps de calcul : si la machine répond comme l’être humain, alors seulement elle lui sera comparable. L’étude de la complexité en temps et en espace est donc bien, au départ, une des questions fondamentales de l’Informatique.

LARO1993.5 Cf. Lassaigne & Rougemont, Logique et fondements de l’informatique, op. cit., p. 4 : La théorie de la complexité a permis d’isoler certaines classes de problèmes qui étaient aussi difficiles à résoudre en prenant en compte les ressources de temps et d’espace, en particulier deux grandes classes P et NP. P est la classe des problèmes que l’on peut résoudre en temps polynomial , c’est-à-dire par des programmes dont le temps de calcul est borné par une fonction polynomiale de la taille de l’entrée. NP est la classe des problèmes que l’on peut vérifier en temps polynomial.

JORA2011 Regards croisés sur l’axiomatique

Pierre JORAY, Introduction in Regards croisés sur l’axiomatique, Ed. Pierre Joray & Denis Miéville, Centre de recherches sémiologiques, Université de Neuchâtel, 2011.

JORA2011.1 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. viii : A. N. Whitehead, B. Russell, F. P. Ramsey, R. Carnap et aussi, à sa manière, S. Leśniewski furent sur ce plan parmi les héritiers de Frege. En atteignant à des degrés divers l’idéal de rigueur que s’était fixé Frege, chacun pratiqua en effet l’analyse logique à l’aide d’une axiomatique formelle, mais sans être formaliste, en usant d’un langage interprété, à savoir une idéographie dont les formules ne sont pas de simples suites de caractères, mais des expressions pourvues de sens.

JORA2011.2 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. ix : Avec Gödel, avec Tarski aussi (pourtant l’élève de Leśniewski), le travail premier des logiciens devenait de montrer de manière métamathématique les propriétés de systèmes formels, à savoir de systèmes symboliques considérés comme dépouillés de tout contenu représentationnel. Dans cette perspective, la logique telle que l’avait conçue des Frege, Russell et Leśniewski devait passer au second plan et laisser sa place au langage devenu idiome universel de la théorie des modèles.

JORA2011.3 Cf. Joray, Regards croisés sur l’axiomatique, op. cit., p. ix : Avec le renouveau des entreprises fondationnalistes, celui de l’intuitionnisme, avec l’urgence d’éclaircir les notions de réduction et de définition en épistémologie, avec aussi le développement de l’inférentialisme en philosophie du langage, l’usage de l’axiomatique comme instrument précieux de clarification et de découverte revient sur le devant de la scène logique.

VAND1980 La philosophie intuitionniste et ses conséquences mathématiques

Dirk VAN DALEN, La Philosophie intuitionniste et ses conséquences mathématiques in Séminaire de Philosophie et Mathématiques, n° 2, 1980, p. 1-17.

VAND1980.1 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 1 : Aujourd’hui l’intuitionnisme est une source pour les recherches des mathématiques constructives, et particulièrement pour l’analyse des notions fondamentales, comme : preuve, fonction, construction et vérité.

VAND1980.2 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 3 : En considérant l’homme comme unité fermée en soi, comme le gardien et comme l’origine du contenu psychique changeant, Brouwer conclut que la transmission de la volition et de l’information entre des individus est presque impossible. Le langage peut transmettre des messages simples comme des transactions commerciales ou des instructions pour construire un pont. Mais il est certainement insuffisant pour transmettre les nuances raffinées de la volition. En particulier toutes les émotions esthétiques, religieuses, mystiques échappent à une communication exacte. Car les mathématiques pures sont des développements libres de l’esprit de l’homme, dit Brouwer ; cela a des conséquences graves et négatives pour la possibilité de formaliser les mathématiques. Ces idées sont antérieures au conflit intuitionnisme-formalisme entre Brouwer et Hilbert, et c’est évident que l’opinion négative de Brouwer concernant la logique est une conséquence directe de cela.

VAND1980.3 Cf. Van Dalen, La philosophie intuitionniste et ses conséquences mathématiques, op. cit., p. 13 : Depuis les innovations de Herbrand et Gödel il y a une caractérisation du concept “algorithme” . La notion précise et formalisée d’algorithme est celle de fonction récursive. Les fonctions récursives peuvent être définies par des schémas ou par des machines de Turing, etc. On peut identifier les deux concepts : calculabilité algorithmique humaine et calculabilité par des fonctions récursives. Cette identification est la “thèse de Church” ou la “thèse de Turing”. On ne peut pas formuler la thèse de Church en mathématiques classiques, parce qu’on ne peut formuler ce qu’est un algorithme. Au contraire, dans l’intuitionisme on peut formuler la thèse de Church parce que ∀ x ∃ y signifie qu’il y a une construction transformant x dans y.

AUDU2007 Méthode axiomatique et négation chez Hilbert

Éric AUDUREAU, Méthode axiomatique et négation chez Hilbert, in Philosophia Scientiæ, 11-2, 2007.

AUDU2007.1 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : On sait que les recherches de Hilbert sur les fondements des mathématiques se distinguent de celles de ses contemporains par le fait que celui-ci se propose de fonder simultanément la logique et l’arithmétique. Ce qui revient à construire indépendamment les mots logiques et le concept de nombre. Hilbert s’opposait ainsi, d’une part, à ceux qui, comme Frege, Russell ou Hanh, voulaient déduire le concept de nombre à partir des concepts de la logique et, d’autre part, à ceux qui, comme Poincaré ou Brouwer, jugeant la logique stérile, estimaient que seule l’origine du concept de nombre était redevable d’une justification épistémologique.

AUDU2007.2 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : La seule fonction de la méthode axiomatique qui ne soit pas explicitement mentionnée dans la Conférence de Paris est l’ambition de neutraliser les oppositions philosophiques, c’est-à-dire ce que Hilbert exprimera plus tard ainsi : “Les mathématiques sont une science sans présupposé. Pour les fonder je n’ai besoin ni de Dieu, comme Kronecker, ni de la supposition d’une faculté particulière de notre entendement s’accordant avec le principe d’induction mathématique, comme Poincaré, ni de l’intuition primordiale de Brouwer, ni, non plus, comme le font Russell et Whitehead, des axiomes de l’infini, de réductibilité ou de complétude, lesquels sont en fait des suppositions réelles pourvues de contenu qui ne peuvent être neutralisées par des démonstrations de cohérence”.

AUDU2007.3 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : L’aspect paradoxal de la doctrine de Hilbert se manifeste le plus nettement dans ses positions à l’égard de l’infini en acte. Les intuitionnistes et les réalistes reconnaissent ensemble que la notion d’infini en acte ne peut provenir de notre propre fonds. Ils se distinguent en décrétant, pour les premiers, que l’infini en acte n’existe pas, et, pour les seconds, qu’il existe hors de nous. Hilbert se propose de concilier ces deux positions alors que chacune des parties adverses les reconnaît clairement comme irréconciliables. Comme les intuitionnistes, il exclut l’infini des méthodes des mathématiques (“[…] comme si quelqu’un était jamais parvenu à effectuer un nombre infini d’inférences”, Jean Van Heijenoort, From Frege to Gödel, A Source Book in Mathematical Logic, 1879-1931, Harvard University Press, 1967, p. 370 et Jean Largeault, Logique mathématique. Textes, A. Colin, Paris, 1970, p. 221) et, comme les réalistes, il estime cependant que l’on peut connaître cet infini qui, hors de nous et de la Nature, est au Paradis. Ce programme de conciliation revient à ne reconnaître aucune légitimité à l’opposition du réalisme et de l’intuitionnisme. Mais, en même temps, Hilbert reconnaît une part de vérité à l’intuitionnisme : la logique ne permet pas de construire l’arithmétique, et une part de vérité au réalisme : la logique n’est pas stérile. Donnons des axiomes pour les signes de la logique qui n’est pas stérile. Donnons indépendamment, puisqu’ils ne dépendent pas de la logique, des axiomes pour les signes des nombres. Construisons les figures où se mêlent ces deux espèces de signes. Tous les “présupposés”, qu’il s’agisse des actions de l’âme des intuitionnistes ou des êtres immatériels des réalistes, ont été éliminés. Les axiomes n’ont saisi que ce qui est essentiel aux mathématiques. L’origine de la connaissance mathématique n’est ni dans l’ego ni dans le concept de totalité infinie.

AUDU2007.4 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : Les distinctions de sens des mots logiques proviennent des conditions stipulées par les règles structurelles qui concernent les mécanismes inférentiels purs. Il y a un abîme entre les mots logiques des logiques classique et intuitionniste, toute traduction de l’une dans l’autre est une trahison, mais ce n’est là que l’effet direct et profond, invisible dans la méthode axiomatique, des mécanismes inférentiels admissibles. En l’espèce, c’est le rejet de la règle d’adjonction d’une conséquence, donnée plus haut, qui rend compte de l’inacceptabilité des principes du tiers exclu et de la double négation pour les intuitionnistes.

AUDU2007.5 Cf. Audureau, Méthode axiomatique et négation chez Hilbert, op. cit. : L’un des problèmes qui a dominé la recherche en intelligence artificielle au cours des trois dernières décennies consistait à rechercher une interprétation procédurale de la négation de la logique classique. Cette question s’est présentée lorsqu’on a voulu employer le langage de cette logique comme un langage de programmation. Les travaux qui lui ont été consacrés furent si nombreux qu’il a fallu créer plusieurs magazines spécialisés pour les accueillir. Comme on pouvait s’y attendre, le concept de vérité de la logique classique étant “hautement transfini” et la négation de la logique classique étant liée indissociablement à ce concept, ces travaux se sont soldés par un échec, car les ordinateurs, eux, ne peuvent effectivement manipuler que la forme matérielle des signes des mots logiques.

PATR2003 L’horizon sémantique et catégorial de la méthode axiomatique

Frédéric PATRAS, L’horizon sémantique et catégorial de la méthode axiomatique, in Noesis, n°5 Formes et crise de la rationalité au XXe siècle, Tome 2 Épistémologie, 2003, p. 9-29.

PATR2003.1 Cf. Patras, L’horizon sémantique et catégorial de la méthode axiomatique, op. cit., p. 18 : L’étude des Fondements de la géométrie permet de comprendre ce qu’a représenté l’émergence de la méthode axiomatique moderne (dont une forme édulcorée de tous ses aspects philosophiques a fait le fond du structuralisme mathématique de tradition bourbakiste au cours des cinquante dernières années), à savoir : une mutation de sens du concept de vérité, qui devient d’abord conventionnel avant de s’interpréter comme simple non-contradiction ; l’émergence de la notion d’axiomatiques ouvertes et d’objets ou de théories mathématiques abstraits susceptibles de s’incarner dans différents modèles ; enfin, le problème qui s’affirme (avant d’être nié par l’école structuraliste) des liens entre contenus et formalisme, entre formes et intuitions.

PARI2016 La raison instrumentale, le capitalisme algorithmique et l’incomputable

Luciana PARISI, La raison instrumentale, le capitalisme algorithmique et l’incomputable, traduit de l’anglais par Yves CITTON, in Multitude, 2016/1 (n° 62), p. 98-109.

PARI2016.1 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 99 : et la pensée philosophique et le numérique reposent sur des principes d’indétermination et d’incertitude, tout en incluant ces principes au cœur de leur théorie de la complexité. Tous deux, dès lors, se trouvent à la fois présenter un défi et une définition en direction de l’ordre néolibéral – ce qui n’est pas le moindre de leurs paradoxes. Pour analyser ce paradoxe, je me tournerai vers la notion d’incomputabilité théorisée par l’informaticien Gregory Chaitin, dont la contribution principale au champ de recherche de la théorie algorithmique est la découverte du nombre incomputable Omega. Ce nombre possède la qualité remarquable d’être définissable sans être pour autant computable. En d’autres termes, Omega définit un état de computation qui est à la fois discret et infini, occupant l’espace qui sépare le 0 du 1. D’un point de vue philosophique, la découverte d’Omega met au jour un processus de détermination de l’indéterminé, processus qui n’implique pas une structure de raisonnement a priori, mais le traitement dynamique d’infinités dont les résultats ne sont pas inclus dans les prémisses logiques du système.

PARI2016.2 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 100 : Dans ce régime automatisé des affects et des savoirs, les capacités se mesurent et se quantifient au sein d’un champ défini en termes d’argent ou d’information. En collectant des données et en quantifiant des comportements, des attitudes et des croyances, l’univers néolibéral des produits dérivés de la finance et des big data fournit un mode de calcul destiné à juger des actions humaines, ainsi qu’un mécanisme destiné à inciter et à diriger ces actions.

PARI2016.3 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 101 : D’un point de vue historique, les algorithmes interactifs ont été inventés pour contourner les contraintes algorithmiques de la machine de Turing. Selon son concept, cette machine était incapable de prendre en compte la complexité du monde empirique – complexité qui, en termes philosophiques, possède sa propre logique non-représentationnelle.

PARI2016.4 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 102 : Aujourd’hui, la combinaison d’inputs environnementaux et d’instructions a posteriori proposée par le paradigme interactif a ouvert une cybernétique de deuxième génération [second-order cybernetics], caractérisée par les mécanismes de boucles récursives ouvertes. Le but de ce nouveau type d’interactions dynamiques est d’inclure la variation et la nouveauté dans l’automatisation, de façon à élargir l’horizon du calcul et à intégrer des facteurs qualitatifs comme variables externes au sein même des mécanismes de computation.

PARI2016.5 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 102 : Comme Deleuze l’avait annoncé, un système interactif d’apprentissage et d’adaptation continue est déjà au cœur de la logique de gouvernance animée par un réagencement constant de variabilités. La centralité du capitalisme dans nos sociétés force désormais l’axiomatique à s’ouvrir à des outputs externes, constituant un environnement d’agents à travers lesquels la logique de gouvernance du capital correspond de plus en plus étroitement aux plus petits investissements du socius et, en fin de compte, aux plus fines variations de la vie. La question de l’indécidable devient de première importance, parce qu’elle définit une vision immanente (et non transcendante) du capital, comme Deleuze et Guattari l’avaient rappelé. Tel est en effet le cas, dès lors que l’extension du capital vers l’ensemble de la vie exige de son appareil de capture qu’il soit ouvert aux contingences, aux variations et au changement imprévu.

PARI2016.6 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 103 : Comme on le sait, l’automatisation algorithmique implique d’analyser les processus continus en composants discrets, dont les fonctions peuvent être constamment réitérées sans erreur. En d’autres termes, l’automatisation implique que les conditions initiales peuvent être reproduites à l’infini. Le type d’automatisation qui nous intéresse ici est né avec la machine de Turing : un mécanisme absolu d’itération basé sur des procédures de calcul pas à pas. Rien n’est plus opposé à la pensée pure – ou à “l’être du sensible”, comme l’appelait Deleuze – que cette machine de calcul universel basée sur la discrétisation des éléments.

PARI2016.7 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : Au sein de la théorie informatique, toutefois, les calculs de l’aléatoire ou des infinis ont transformé ce qui apparaissait comme incomputable en de nouvelles formes de probabilités, qui présentent la caractéristique remarquable d’être à la fois discrètes et infinies. Autrement dit, alors que l’automatisation algorithmique a été comprise comme relevant d’une machine universelle de computation discrète à la Turing, le volume croissant de données incomputables (ou aléatoires) généré au sein des computations interactives et diffuses actuellement opérées en ligne est en train de nous révéler que les données infinies et dépourvues de pattern prédéterminé sont en réalité centrales dans les processus de computation.

PARI2016.8 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 104-105 : En 1931, Gödel formula ses objections au programme méta-mathématique de David Hilbert. Il démontra qu’il ne pouvait pas y avoir de méthode axiomatique complète ni de formule mathématique pure, selon laquelle la réalité des choses pouvait être démontrée vraie ou fausse. Les théorèmes d’incomplétude de Gödel expliquent que certaines propositions sont vraies, même si elles ne peuvent pas être vérifiées par une méthode axiomatique complète. Ces propositions sont donc réputées être finalement indécidables : elles ne peuvent pas être prouvées selon la méthode axiomatique sur laquelle reposent leurs hypothèses. Selon Gödel, le problème de l’incomplétude, issu d’un effort pour démontrer la validité absolue de la raison pure et de sa méthode déductive, aboutit plutôt à affirmer le principe suivant : aucune décision a priori, et donc aucun ensemble fini de règles, ne peuvent être utilisés pour déterminer l’état des choses avant que ces choses ne puissent advenir selon leur développement propre.

PARI2016.9 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 105 : la machine de Turing démontre que les problèmes sont computables s’ils peuvent être décidés selon la méthode axiomatique . À l’inverse, les propositions qui ne peuvent être décidées par la méthode axiomatique sont vouées à rester incomputables. En prouvant que quelques fonctions particulières ne peuvent pas être computées par une telle machine hypothétique, Turing démontra qu’il n’y a pas de méthode de décision ultime du type de celle que Hilbert souhaitait établir. La force de la proposition avancée par Turing tient à ce que sa fameuse machine offrait une formalisation viable d’une procédure mécanique. Au lieu de se contenter de faire mouliner des chiffres, les machines computationnelles de Turing – de même que celles de nos machines numériques contemporaines qui se sont développées à partir d’elles – peuvent résoudre des problèmes, prendre des décisions et accomplir des tâches. La seule exigence en est que ces problèmes, décisions et tâches doivent être formalisés à travers des symboles et un ensemble d’opérations séquentielles discrètes et finies.

PARI2016.10 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 106 : La théorie de l’information algorithmique élaborée par Gregory Chaitin traite de la computation en termes de probabilités éminemment inconnaissables. Il pose le problème en combinant la question de Turing concernant la limite de la computabilité avec la théorie de l’information de Claude Shannon, qui démontre la capacité productive du bruit et de l’aléatoire au sein des systèmes de communication.

PARI2016.11 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 106 : la conception de l’incomputabilité promue par Chaitin ne correspond plus exactement à la notion de limite de la computation (c’est-à-dire de limite à ce qui est calculable). Au lieu de cela, cette limite, comme l’incomputable lui-même, s’en trouvent transformés : ils s’identifient au fait que, au développement présent du traitement computationnel, s’additionnent de nouvelles parties algorithmiques éminemment inconnaissables. Ces parties sont des séquences algorithmiques qui tendent à devenir plus grandes en volume que les instructions du programme, et qui tendent à prendre le dessus sur elles, transformant ainsi de façon irréversible la finalité préétablie des règles initialement formulées. La façon dont Chaitin réarticule l’incomputable est à la fois frappante et très productive d’un point de vue spéculatif. Ce qui, chez Turing, était conçu comme la limite externe de la computation (c’est-à-dire l’incomputable) se voit désormais internalisé dans l’arrangement séquentiel des algorithmes (l’aléatoire opérant à l’intérieur des procédures algorithmiques).

PARI2016.12 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputabilité n’est pas simplement en rupture avec la raison : elle est plutôt une raison qui s’est trouvée étendue au-delà de ses limites, pour envelopper le traitement de parties éminemment inconnaissables dépourvues de finalité téléologique.

PARI2016.13 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : ce qui vient d’être dit remet en question la vue commune selon laquelle le traitement computationnel correspond à des calculs conduisant à des résultats préprogrammés et déjà connus. Au lieu de cela, les limites de l’automatisation – à savoir l’incomputable – sont devenues le point de départ d’une dynamique interne à la computation, dynamique qui excède et dépasse le projet d’instrumentalisation de la raison par le technocapital.

PARI2016.14 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputable ne saurait être compris comme simplement opposé à la raison. Autrement dit, il n’est pas l’expression d’un point terminal de la raison et ne peut être expliqué selon la perspective critique qui se réclame de la primauté de la pensée affective.

PARI2016.15 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 107 : l’incomputable démontre les insuffisances de la vision mécaniste de la computation, selon laquelle le chaos et l’aléatoire constitueraient des erreurs au sein de la logique formelle du calcul. Les incomputables ne décrivent nullement la défaillance de l’intelligibilité face au triomphe de l’incalculable, tout au contraire. Ces limites suggèrent bien plus subtilement la possibilité d’une dynamique de l’intelligibilité, définie par les capacités des infinis incomputables ou de l’aléatoire à infecter tout ensemble computable ou discret.

PARI2016.16 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 108 : la computation, en tant que mécanisation de la pensée, est intrinsèquement peuplée de données incomputables, et que des règles discrètes sont ouvertes à une forme de contingence interne au traitement algorithmique.

PARI2016.17 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 108 : la découverte d’Omega par Chaitin […] déboulonne radicalement le fondement axiomatique de la vérité, en révélant que la computation est une affaire incomplète, ouverte à la révision de ses conditions initiales, et donc à la transformation de ses vérités et de sa finalité. Dans la mesure où Omega est simultanément une probabilité discrète et infinie, ce nombre atteste le fait que la condition initiale d’une simulation, basée sur des étapes discrètes, est et peut être infinie. En résumé, les algorithmes incomputables découverts par Chaitin suggèrent que la complexité des nombres réels défie la fondation de la raison dans une axiomatique de type fini et dans la finalité téléologique.

PARI2016.18 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : J’ai tenté de suggérer la possibilité de voir l’automatisation algorithmique coïncider avec un mode de pensée dans lequel l’incomputable ou l’aléatoire sont devenus intelligibles, calculables, mais non nécessairement totalisables par le technocapitalisme. En dépit de toute instrumentalisation de la raison par le capitalisme, et en dépit de la répression de la connaissance et du désir sous couvert de quantifications en termes de tâches, de fonctions, d’objectifs, il demeure certainement une inconsistance au cœur de la computation.

PARI2016.19 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : Dans la transition de phase caractérisée par la communication d’algorithme à algorithme, illustrée au mieux par le trading à haute vitesse évoqué au début de cet article, il est difficile d’exclure la possibilité de voir l’automatisation de la pensée excéder toute représentation pour révéler que la computation elle-même est devenue dynamique.

PARI2016.20 Cf. Parisi, La raison instrumentale, le capitalisme algorithmique et l’incomputable, op. cit., p. 109 : Si l’automatisation algorithmique ne correspond plus à la simple exécution d’instructions préétablies, mais à la constitution d’une écologie machinique infectée d’aléatoire, alors on peut suggérer que ni le technocapitalisme ni la critique du technocapitalisme ne peuvent contenir la tendance du traitement automatisé de l’aléatoire à outrepasser les vérités axiomatiques.

BOUR2004 Présentation. Intuitionnisme et philosophie

Michel BOURDEAU, Présentation. Intuitionnisme et philosophie, in Revue internationale de philosophie, 2004/4 (n° 230), p. 383-400.

BOUR2004.1 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 384 : Tout allait changer presque du jour au lendemain, sous l’influence de Gödel, puisque c’est du côté de l’intuitionnisme que ce dernier venait d’aller chercher cette extension du point de vue finitiste nécessaire pour atteindre l’objectif fixé par Hilbert et démontrer la non-contradiction de l’arithmétique.

BOUR2004.2 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 385 : Initialement pensés dans le cadre d’une problématique des fondements, les travaux entrepris entre 1960 et 1970 dans la voie ouverte par Gödel en 1958 ont rapidement trouvé à s’appliquer en informatique. Depuis lors, celle-ci a fait un très large usage de l’isomorphisme de Curry-de Bruijn-Howard, encore connu sous le nom de principe de la proposition comme type (Formula as type), qui explicite le rapport existant entre théorie de la démonstration et théorie des types et qui ne vaut que pour la logique intuitionniste. Le visage actuel de l’intuitionnisme doit certainement beaucoup au poids de cette demande venue des informaticiens, ce qui explique par exemple la place occupée par la théorie constructive des types de Per Martin-Lof, dont la première version date de 1972.

BOUR2004.3 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 386 : Dès 1908, c’était non le tiers-exclu en lui-même mais sa seule application à des domaines infinis qui était visée. Avec Cantor, les mathématiques avaient pris possession d’un nouveau territoire et l’erreur a consisté à y étendre inconsidérément des règles de raisonnement conçues pour s’appliquer au fini.

BOUR2004.4 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 386-387 : En tant que constructivisme, l’intuitionnisme est souvent associé à la défense d’une certaine idée de l’existence : une preuve d’existence doit être accompagnée de la construction d’un objet. […] ce qui est en cause, c’est moins la nature de l’existence des objets mathématiques que la nature de la vérité des propositions mathématiques. C’était bien elle que Brouwer avait en vue lorsqu’il objectait à son adversaire : “une théorie incorrecte, impossible à arrêter par une contradiction qui la réfuterait, ne laisse pas d’être incorrecte, de même qu’une politique criminelle qu’aucune cours de justice n’est capable d’empêcher ne laisse pas d’être criminelle”.

BOUR2004.5 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 387 : La métamathématique en effet s’en tient à la seule administration de la preuve, sans se préoccuper de la vérité, qui relève d’une autre discipline que Tarski nous a habitués à penser comme sémantique.

BOUR2004.6 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 387 : Comme Dummett l’a fortement souligné, le tiers exclu n’est que le contrecoup sémantique de la bivalence : par définition, une proposition est vraie ou fausse. Savoir ensuite si une proposition donnée est vraie ou si elle est fausse, c’est une autre question. Il se peut que nous soyons actuellement incapables d’y répondre, mais cette incapacité doit être considérée comme un fait purement contingent.

BOUR2004.7 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 388 : L’intuitionniste estime impossible de dissocier la vérité et la connaissance, ou l’expérience, de la vérité ; le rapport à la connaissance est inscrit dans l’idée de vérité et il n’y a pas de sens à vouloir le faire disparaître. Or qu’est-ce que l’expérience de la vérité, en mathématique, sinon la possession d’une preuve ? En ce sens, la notion de vérité a cessé d’être primitive : elle dépend bien conceptuellement de celle de preuve.

BOUR2004.8 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 389-390 : L’analyse des antinomies montre que, loin que les mathématiques se fondent sur la logique, c’est plutôt celle-ci qui se fonde sur celles-là en ce sens que la logique classique n’est que la codification a posteriori de nos pratiques inférentielles. Si les principes logiques ne sont pas fiables, c’est qu’il est impossible d’étendre aux domaines infinis auxquels Cantor nous a donné accès ce qui a été conçu pour des domaines finis, et qui, là, est effectivement valide.

BOUR2004.9 Cf. Bourdeau, Présentation. Intuitionnisme et philosophie, op. cit., p. 391 : L’usage des ordinateurs dans la modélisation des processus cognitifs a suscité une prolifération de logiques (logiques non monotones, logique épistémique, logique floue, logiques sub-structurales, logique linéaire, etc.) parmi lesquelles la logique intuitionniste occupe incontestablement une place éminente. Encore que ce soit pour des motivations et sous des modalités différentes, l’informaticien et l’intuitionniste partagent en effet un même souci d’effectivité et il n’est donc pas étonnant que le principe de la proposition comme type, qui a été au centre de l’informatique théorique récente, ne soit valable qu’intuitionnistiquement. Ce principe, encore nommé isomorphisme de Curry-de Bruijn-Howard, établit un rapprochement à première vue inattendu entre deux théories nées de perspectives différentes : la théorie de la démonstration d’une part (déduction naturelle ou calcul des séquents), les théories de la calculabilité et de la fonctionnalité de l’autre, le lambda calcul reposant sur la notion de fonction lambda-calculable.

CHAI2006a The Halting Probability Omega

Gregory CHAITIN, The Halting Probability Omega: Irreducible Complexity in Pure Mathematics, Enriques lecture given Monday, October 30, 2006, at the University of Milan.

CHAI2006a.1 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 2 : Hilbert stated the traditional belief that mathematics can provide absolute truth, complete certainty, that mathematical truth is black or white with no uncertainty. His contribution was to realize, to emphasize, that if this were the case, then there should be, there ought to be, a formal axiomatic theory, a theory of everything, for all of mathematics.

CHAI2006a.2 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 2-3 : Hilbert did not invent mathematical logic, he took advantage of work going back to Leibniz, de Morgan, Boole, Frege, Peano, Russell and Whitehead, etc. But in my opinion he enunciated more clearly than anyone before him the idea that if math provides absolute truth, complete certainty, then there should be a finite set of axioms that we can all agree on from which it would in principle be possible to prove all mathematical truths by mechanically following the rules of formal mathematical logic. It would be slow, but it would work like an army of reason marching inexorably forward. It would make math into a merciless machine.

CHAI2006a.3 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 3 : the idea was to eliminate all uncertainty, to make clear exactly when a proof is valid, so that this can be checked mechanically, thus making mathematical truth completely objective, eliminating all subjective elements, all matters of opinion.

CHAI2006a.4 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 7-8 : The basic model of what I call algorithmic information theory (AIT) is that a scientific theory is a computer program that enables you to compute or explain your experimental data […] a theory is of value only to the extent that it compresses a great many bits of data into a much smaller number of bits of theory. […] AIT does this by considering both theories and data to be digital information; both are a finite string of bits. Then it is easy to compare the size of the theory with the size of the data it supposedly explains, by merely counting the number of bits of information in the software for the theory and comparing this with the number of bits of experimental data that we are trying to understand.

CHAI2006a.5 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 8 : Leibniz’s original formulation of these ideas was like this. Take a piece of paper, and spot it with a quill pen, so that you get a finite number of random points on a page. There is always a mathematical equation that passes precisely through these points. So this cannot enable you to distinguish between points that are chosen at random and points that obey a law. But if the equation is simple, then that’s a law. If, on the contrary, there is no simple equation, then the points are lawless, random.

CHAI2006a.6 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 8 : In fact, it is easy to see that most finite binary strings require programs of about the same size as they are. So these are the lawless, random or algorithmically irreducible strings, and they are the vast majority of all strings. Obeying a law is the exception, just as being able to name an individual real is an exception.

CHAI2006a.7 Cf. Chaitin, The Halting Probability Omega, op. cit., p. 12 : Ω is an extreme case of total lawlessness; in effect, it shows that God plays dice in pure mathematics. More precisely, the bits of Ω refute Leibniz’s principle of sufficient reason, because they are mathematical facts that are true for no reason (no reason simpler than they are). Essentially the only way to determine bits of Ω is to directly add these bits to your axioms. But you can prove anything by adding it as a new axiom; that’s not using reasoning!

CHAI1993 Le hasard en arithmétique

Gregory CHAITIN, Le hasard en arithmétique & le déclin et la chute du réductionnisme en mathématiques pures, in Bulletin of the European Association for Theoretical Computer Science (EATCS), No. 50, June 1993, pp. 314-328, Traduit de l’anglais (USA) par Patrick PECCATTE http://peccatte.karefil.com/PhiMathsTextes/randomness.html.

CHAI1993.1 Cf. Chaitin, Le hasard en arithmétique, op. cit. : Au début du siècle, les trois écoles principales en philosophie des mathématiques étaient celle de Russell et Whitehead selon laquelle la logique est le fondement de toutes les mathématiques, l’école formaliste de Hilbert et enfin l’école "intuitionniste" et constructiviste de Brouwer. Certains estiment que Hilbert croyait que les mathématiques sont un jeu sans signification mettant en œuvre des marques d’encre sur le papier. Pas du tout ! Il disait simplement que pour que les mathématiques soient absolument claires et précises, on doit spécifier les règles qui puissent permettre de déterminer si une preuve est correcte de façon si rigoureuse qu’elles deviennent mécaniques. Quiconque aurait pensé que les mathématiques sont sans signification aurait dû être très énergique, déployer un travail considérable et être un leader d’une immense influence.

CHAI1993.2 Cf. Chaitin, Le hasard en arithmétique, op. cit. : Pour terminer, ce n’est donc ni Gödel, ni Turing, ni mes propres résultats qui ont conduit les mathématiques dans une direction expérimentale, une orientation quasi-empirique. La raison pour laquelle les mathématiciens ont changé leurs habitudes de travail s’appelle l’ordinateur. C’est, je pense, une excellente plaisanterie ! Il est également amusant de constater que des trois anciennes écoles de philosophie mathématique – logiciste, formaliste et intuitionniste –, la plus négligée ait été celle de Brouwer qui avait défendu une attitude constructiviste bien des années avant que l’ordinateur ne donne une impulsion fantastique au constructivisme.

CHAI2006b Les limites de la raison mathématique

Gregory CHAITIN, Les limites de la raison mathématique, in Pour la science, N° 342, avril 2006, p. 70-76, https://www.pourlascience.fr/sd/mathematiques/les-limites-de-la-raison-mathematique-2539.php.

CHAI2006b.1 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Ce logicien [Gödel] a utilisé les mathématiques pour prouver que les mathématiques elles-mêmes ont des limitations. Il a ainsi réfuté le point de vue du grand mathématicien allemand David Hilbert, qui avait clamé sa foi en l’existence d’une “théorie du tout” pour les mathématiques, c’est-à-dire d’un ensemble fini de principes à partir desquels toutes les vérités mathématiques peuvent se déduire sans recours à des raisonnements transcendants, mais simplement par une application laborieuse des règles de la logique symbolique.

CHAI2006b.2 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : L’information algorithmique permet de montrer que certains faits mathématiques sont vrais sans raison particulière, une découverte qui fait voler en éclats le principe de la raison suffisante. De fait, une infinité de faits mathématiques sont irréductibles, ce qui signifie qu’aucune théorie n’explique pourquoi ils sont vrais. Ces faits ne sont pas seulement algorithmiquement irréductibles, mais aussi logiquement irréductibles. La seule façon de “prouver” de tels faits est de les admettre comme axiomes, sans recourir au moindre raisonnement. La notion d’axiome est très proche de l’idée d’irréductibilité logique. Les axiomes sont des faits mathématiques considérés comme évidents et que nous ne tentons pas de déduire de principes plus simples. Toutes les théories mathématiques reposent sur des axiomes, dont sont déduites les conséquences logiques, qui forment le corpus des théorèmes. Le célèbre traité de géométrie d’Euclide, Les éléments, est l’archétype de cette méthode.

CHAI2006b.3 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Le contre-exemple illustrant le pouvoir limité de la démonstration, le réservoir infini de faits mathématiques indémontrables, est incarné par un nombre que j’ai nommé Ω, la lettre grecque oméga.

CHAI2006b.4 Cf. Chaitin, Les limites de la raison mathématique, op. cit. : Le nombre Ω étant irréductible, on en conclut qu’une théorie du tout pour les mathématiques ne peut exister. La suite infinie de bits de Ω constitue un fait mathématique (que chaque bit prenne la valeur zéro ou un) qui ne peut être déduit d’un principe plus simple que la séquence de bits elle-même. Les mathématiques ont donc un degré infini de complexité, alors que toute théorie du tout aurait une complexité finie et n’engloberait donc pas toute la richesse du monde des vérités mathématiques. Cette conclusion ne signifie pas que les démonstrations sont sans valeur, et elle ne remet pas en cause l’idée de raison. Que certaines choses soient irréductibles ne signifie pas qu’il faille abandonner le raisonnement. Les principes irréductibles, les axiomes, ont toujours fait partie des mathématiques. L’existence du nombre Ω montre simplement qu’ils sont plus nombreux qu’on ne le pensait.

DELA2005 Démonstrations et certitude en mathématiques

Jean-Paul DELAHAYE, Démonstrations et certitude en mathématiques, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/demonstrations-et-certitude-en-mathematiques-5796.php.

DELA2005.1 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : certains développements de la logique et de l’informatique ont atténué les belles certitudes des mathématiciens sur l’idée d’une notion parfaite et définitive de démonstration qui, découverte par les Grecs, serait restée immuable : les démonstrations classiques ne procurent pas une certitude absolue, et certaines certitudes absolues en mathématiques ne proviennent pas des démonstrations classiques.

DELA2005.2 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : L’écriture complète d’une démonstration formelle conforme au modèle axiomatique défendu par les Grecs et adopté universellement depuis par tous les mathématiciens est un idéal que ceux-ci se donnent rarement la peine de satisfaire : ils se contentent dans la grande majorité des cas de preuves informelles. Celles-ci sont, en principe, transformables en preuves formelles, mais, en pratique, c’est difficile, voire matériellement inenvisageable. Les logiciels assistants de preuve ont justement la fonction d’aider les mathématiciens à produire ces démonstrations absolument complètes et mécaniquement vérifiables, strictement conformes à l’idéal axiomatique.

DELA2005.3 Cf. Delahaye, Démonstrations et certitude en mathématiques, op. cit. : Cette acceptation de l’ordinateur pour fonder certaines certitudes mathématiques repose toujours sur la notion de preuve formalisée que Hilbert défendait.

VANA2005 Brouwer et Gödel : deux frères ennemis

Mark VAN ATTEN, Brouwer et Gödel : deux frères ennemis, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/brouwer-et-goedel-deux-freres-ennemis-5794.php.

VANA2005.1 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Le premier résultat obtenu par Gödel, présenté dans sa thèse de doctorat de 1929, est le théorème de complétude pour la logique du premier ordre, c’est-à-dire une logique qui s’applique à des objets, et non aux relations entre ces objets (qui serait une logique du deuxième ordre). Ce théorème peut s’énoncer ainsi : tout énoncé valide de la logique du premier ordre admet une démonstration formelle dans un système qui formalise cette logique. En termes informatiques d’aujourd’hui, si un énoncé de cette logique est vrai, on peut commander à un logiciel de produire une preuve formelle de cet énoncé, alors que ce logiciel ignore totalement le sens de cet énoncé.

VANA2005.2 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Gödel avait en tête un argument de la seconde conférence de Brouwer. En premier lieu, le continu nous est donné par l’intuition a priori du temps (on reconnaît la philosophie de Brouwer). En second lieu, le continu ne se laisse appréhender par aucun langage qui ne contiendrait qu’une quantité dénombrable d’expressions (parce que les nombres réels ou les points de la ligne sont, eux, indénombrables).

VANA2005.3 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : Dans une lettre de 1931 au mathématicien allemand Ernst Zermelo, Gödel précise (cette fois sans faire référence aux conférences de Brouwer) : “l’essentiel est que, pour tout système des mathématiques, il existe des énoncés exprimables dans ce système, mais indécidables à partir des axiomes de ce système, et que ces énoncés sont assez simples, puisqu’ils appartiennent à la théorie des nombres entiers positifs.”

VANA2005.4 Cf. Van Atten, Brouwer et Gödel : deux frères ennemis, op. cit. : si l’intuitionnisme exerce aujourd’hui une influence considérable dans certains domaines des mathématiques et de l’informatique, cette influence réside non pas dans les mathématiques elles-mêmes, mais dans la logique, que Brouwer considérait comme moins intéressante.

MIQU2005 L’intuitionnisme : où l’on construit une preuve

Alexandre MIQUEL, L’intuitionnisme : où l’on construit une preuve, in Pour la science, N° 49, octobre 2005, https://www.pourlascience.fr/sd/logique/lintuitionnisme-ou-lon-construit-une-preuve-5795.php.

MIQU2005.1 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : loin d’amputer les mathématiques, l’intuitionnisme donne au contraire un caractère plus tangible aux objets mathématiques et renforce la notion de preuve.

MIQU2005.2 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La conception classique des mathématiques est essentiellement réaliste : elle considère implicitement que chaque énoncé mathématique réfère à une réalité extérieure, indépendante du mathématicien. Si cette conception se justifie aisément pour des énoncés simples, qui ne portent que sur des objets élémentaires, elle devient plus hasardeuse dès que les énoncés et les objets manipulés gagnent en complexité. Car enfin, à quelle réalité extérieure peuvent bien référer des objets aussi abstraits qu’un espace de dimension infinie ou l’ensemble des parties de l’ensemble des parties de la droite réelle ? Sans doute parce qu’ils manipulent fréquemment de tels objets, de nombreux mathématiciens se réclament de l’école néo-platonicienne, qui accorde une existence objective aux entités mathématiques les plus abstraites ; c’était aussi le cas du logicien Kurt Gödel. Brouwer refuse le recours à des arguments de nature métaphysique pour justifier le raisonnement mathématique. Selon lui, le raisonnement est avant tout une construction du mathématicien, une activité du sujet créateur. Les énoncés mathématiques réfèrent non pas à une quelconque réalité extérieure, mais aux constructions de l’esprit du mathématicien. En particulier, la démarche intuitionniste ne sépare pas le caractère constructif des objets mathématiques du caractère constructif des preuves, ce qui explique sans doute que Brouwer ne se soit jamais intéressé à la partie purement logique de l’intuitionnisme.

MIQU2005.3 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : En revanche, la partie purement logique de l’intuitionnisme, c’est-à-dire le calcul propositionnel intuitionniste et le calcul des prédicats intuitionniste, est définie sans ambiguïté. Comme la logique classique, elle admet diverses formalisations, qui sont toutes équivalentes.

MIQU2005.4 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : À partir de cette constatation, Gödel a démontré qu’en insérant des doubles négations dans une formule à certains endroits stratégiques (notamment devant des disjonctions et des quantifications existentielles), toute formule démontrable en logique classique devient démontrable en logique intuitionniste. Cette transformation des formules, qu’on appelle une “non-non-traduction”, est fondamentale pour comprendre les liens qui unissent les deux logiques. Avec elle en effet, ce n’est plus la logique intuitionniste qui s’insère dans la logique classique, mais c’est la logique classique elle-même qui peut être étudiée comme un fragment de la logique intuitionniste. Brouwer conçoit l’intuitionnisme comme une démarche de nature philosophique et délibérément informelle. Cette volonté de tenir l’intuitionnisme à l’écart de tout formalisme a sans doute handicapé les intuitionnistes face aux tenants de l’approche formaliste prônée par le mathématicien David Hilbert. De fait, l’intuitionnisme n’avait pas à ses débuts les outils mathématiques pour préciser ce qu’il fallait entendre par “construction” ou par “méthode effective”.

MIQU2005.5 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : Dans les années 1930 et 1940, les liens entre la prouvabilité en logique intuitionniste et la calculabilité en mathématiques se sont resserrés. À cette époque, on comprend mieux les notions mathématiques de fonction calculable, de programme et d’algorithme. Trois approches proposent des définitions équivalentes de la notion de fonction calculable, et engendreront trois familles de langages de programmation.

MIQU2005.6 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : la logique intuitionniste interdit toute possibilité de définir une fonction non calculable !

MIQU2005.7 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : à chaque règle de raisonnement intuitionniste correspond un mécanisme de construction de programme dans les types de données correspondants. Cette correspondance entre propositions et types, entre preuves et programmes, permet de relier nombre d’intuitions mathématiques à des intuitions informatiques.

MIQU2005.8 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : On le devine, la correspondance de Curry-Howard ouvre la voie à la programmation des preuves par l’informatique. En 1970, le mathématicien français Jean-Yves Girard définit un langage de programmation fondé sur le lambda-calcul, qu’il appelle le système F, et qui garantit la terminaison des programmes (à l’inverse de la machine de Turing). Il montre alors que toute fonction dont l’existence est prouvable en analyse intuitionniste peut être exprimée comme un programme bien typé (qui respecte les types des données qu’il manipule) dans le système F, et vice versa''.

MIQU2005.9 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : Dans les années 1970, le mathématicien suédois Per Martin-Löf propose un langage de programmation pour exprimer les mathématiques constructives : la théorie des types. Son point de départ est le suivant : si on définit un langage de programmation dont le système de types est suffisamment riche pour pouvoir exprimer toutes les constructions de la correspondance de Curry-Howard, alors ce langage de programmation permet également d’exprimer toutes les propositions et les démonstrations de la logique intuitionniste, à condition d’identifier les propositions aux types de données, et les preuves aux programmes.

MIQU2005.10 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La correspondance de Curry-Howard s’est étendue à toutes les mathématiques constructives, et même au-delà. Au début des années 1990, les informaticiens Matthias Felleisen et Timothy Griffin reconnaissent dans l’opérateur “call-cc”, une instruction de traitement des erreurs dans un langage dérivé du lambda-calcul, le type correspondant à la loi de Peirce ((A ⇒ B) ⇒ A) ⇒ A, variante du principe de raisonnement par l’absurde : dans le cas où B est la proposition absurde, cette loi exprime que s’il est possible de démontrer une proposition A à partir de l’hypothèse selon laquelle A est absurde, alors la proposition A est vraie. Or cette loi, énoncée à la fin du XIXe siècle par le logicien américain Charles Sanders Peirce, implique de manière intuitionniste le principe du tiers exclu. Il ne reste donc qu’un pas à franchir pour étendre la correspondance de Curry-Howard à la logique classique… Il semble extraordinaire de conférer un contenu calculatoire à toutes les preuves de la logique classique, y compris aux preuves non constructives que nous avons mentionnées au début de cet article. Un tel miracle est possible grâce à un mécanisme, basé sur la notion de “continuation”, qui permet aux programmes d’effectuer des retours en arrière au cours de leur exécution, et donc de revenir sur certains de leurs choix. Ainsi, au cours d’une preuve constructive, on peut “bluffer” en empruntant temporairement une piste de démonstration fausse (quitte à donner un témoin factice pour justifier une quantification existentielle), avant de revenir en arrière en cas de contradiction. Grâce aux continuations, les preuves constructives acquièrent la possibilité de “prêcher le faux pour découvrir le vrai”, le principe même du raisonnement par l’absurde.

MIQU2005.11 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : La boucle est bouclée : l’intuitionnisme permet de revenir à la logique classique, ce qui expliquerait que l’immense majorité des mathématiques repose encore sur la logique classique sans que cela ne pose le moindre problème. Cependant l’intuitionnisme a permis d’explorer des pistes nouvelles et fécondes en logique, et a engendré de nombreux sous-produits, aussi bien en logique, en informatique théorique que dans d’autres secteurs des mathématiques.

MIQU2005.12 Cf. Miquel, L’intuitionnisme : où l’on construit une preuve, op. cit. : la logique intuitionniste a bouleversé notre compréhension même du raisonnement mathématique, en le ramenant à une construction de programme.

KRIV2005 Tiers exclu et choix dépendant

Jean-Louis KRIVINE, Tiers exclu et choix dépendant, Colloque D.Lacombe, I.H.P. Paris, 21 octobre 2005, https://www.irif.fr/~krivine/articles/Lacombe.pdf.

KRIV2005.1 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 1-2 : Le tiers exclu est un axiome du calcul des propositions. Il affirme “A ou non A” pour chaque proposition “A”. Brouwer est le premier à avoir compris qu’il était tout à fait à part dans le calcul propositionnel et qu’il fallait absolument l’isoler des autres axiomes et règles de ce calcul qui sont (dans le système de Hilbert) : les axiomes A→(B→A) ; (A→(B→C))→((A→B)→(A→C)) ; le modus ponens, à savoir “de A→B et de A, on déduit B”. Il s’est intéressé, à juste titre, à ce qu’on pouvait montrer sans utiliser cet axiome. On dit que de telles démonstrations sont “intuitionnistes”. Mais, comme toutes les idées importantes qui arrivent un peu trop tôt, l’intuitionnisme a été incompris puis marginalisé par les mathématiciens et même les logiciens. Brouwer lui-même y a sans doute pas mal contribué par son dogmatisme. Pour mieux isoler le tiers exclu des autres axiomes, il l’a accusé de peste aviaire et interdit formellement à ses disciples de seulement s’en approcher. Du coup, l’intuitionnisme s’est peu à peu transformé en secte et stérilisé. C’est l’arrivée en force de l’informatique qui a, dans un premier temps, réveillé l’intérêt pour la logique intuitionniste. Mais cela s’est fait sur un malentendu : on a cru, pendant longtemps (jusque dans les années 90) que les seules preuves “constructives”, c’est-à-dire susceptibles de donner lieu à des calculs, étaient les preuves intuitionnistes. Voilà, pensait-on, pourquoi la logique intuitionniste est intéressante en informatique (théorique). Mais ce sont les progrès de l’informatique (pratique) dans le domaine des langages de programmation qui ont finalement permis de comprendre l’axiome du tiers exclu et de l’interpréter correctement. Il faut noter que le premier à l’avoir fait est un informaticien, Tim Griffin, et non pas un logicien.

KRIV2005.2 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 2 : L’autre axiome auquel je vais m’intéresser ici est l’axiome du choix dépendant. Il est beaucoup plus compliqué à énoncer que le tiers exclu, car c’est un axiome de la théorie des ensembles. Il est fondamental dans la partie des mathématiques qu’on appelle “l’Analyse”, qui est un très vaste domaine : théorie des fonctions de variable réelle ou complexe, théorie de la mesure et probabilités, équations différentielles et aux dérivées partielles, etc. Il exprime que si, pour tout réel r il existe un réel s tel que l’on ait P(r, s) (P(r, s) est une proposition quelconque qui parle de r et s), alors il existe une suite de réels r0, r1, …, rn, … telle que l’on ait P(rn, rn+1) pour tout entier n. Bien entendu, il est intuitivement évident, mais c’est la moindre des choses pour un axiome. Lui aussi a été le sujet d’une vive discussion au début du siècle dernier, entre Baire, Borel,Hadamard et Lebesgue. Mais il n’en est pas résulté la constitution d’une secte s’opposant à l’usage de cet axiome !

KRIV2005.3 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 4 : En effet, à ce moment-là, tout le monde “savait” que la logique intuitionniste était constructive, que la logique classique ne l’était pas et qu’un programme était un calcul. Donc la correspondance preuves-programmes ne pouvait exister que pour la logique intuitionniste. Le raisonnement était peut-être juste, seulement les trois prémisses étaient fausses. Et la conclusion aussi.

KRIV2005.4 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 4-5 : À ce stade, tout le monde était content et on pensait que la correspondance preuves-programmes avait atteint sa plus grande extension possible avec la logique intuitionniste du second ordre. On ne pouvait transformer en programmes que les preuves dites constructives, ce qui semble tout à fait sensé. Malheureusement cela exclut pratiquement toutes les preuves mathématiques, car le tiers exclu est omniprésent dans le raisonnement mathématique. C’est donc avec beaucoup de scepticisme et un peu de condescendance que les logiciens ont accueilli la découverte de Tim Griffin en 1990 : une obscure instruction d’un dialecte de LISP appelé SCHEME avait comme type la loi de Peirce (¬A→A)→A, qui n’est autre que le raisonnement par l’absurde. Cette instruction, au nom bizarre de “call-with-current-continuation”, servait essentiellement dans des tâches informatiques subalternes comme la programmation système ou la gestion des erreurs. Cet informaticien ignorant ne savait même pas qu’il ne fallait pas utiliser la logique classique pour typer des programmes. En plus, il ne s’agit pas de vrais programmes car, en programmation système, on ne fait pas de calcul et les programmes sérieux sont des calculs. Cette vision caricaturale de l’informatique a cours dans tout le milieu scientifique, logiciens, mathématiciens, physiciens, etc. L’informatique serait là pour servir d’outil. La programmation système est une affaire de techniciens besogneux et le scientifique sérieux s’en désintéresse complètement, pour se consacrer à ses calculs numériques ou formels. Pourtant, le monde réel nous montre à l’évidence que le système est, de très loin, le programme le plus important : l’empire de Microsoft est basé sur un “système d’exploitation” (la locution française pour “operating system” décrit particulièrement bien la situation). L’importance de la découverte de Tim Griffin sur le tiers exclu est de nous obliger à voir les choses tout autrement : ce sont des programmeurs qui ont inventé l’instruction associée au raisonnement par l’absurde. Et ils l’ont fait pour des besoins pratiques de programmation système. Il est évident, vu la nature de cette instruction, que jamais un logicien n’aurait pu y penser. Cela veut dire que la relation entre les preuves et les programmes est beaucoup plus profonde qu’on le pensait au début : les “vraies” preuves (où l’on autorise le tiers exclu) correspondent aux “vrais” programmes (qui ne font pas de calcul, mais gèrent le système). On a évidemment fait là un progrès capital dans la compréhension de ce qu’est une démonstration.

KRIV2005.5 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 5 : Mais maintenant, on voit que, pour transformer en programmes toutes les preuves de l’Analyse, il ne manque plus que de trouver une instruction qui corresponde à l’axiome du choix dépendant. Et là encore, on trouve une instruction essentielle de la programmation système, à savoir l’horloge. C’est l’instruction qui compte le nombre de pas de programme exécutés.

KRIV2005.6 Cf. Krivine, Tiers exclu et choix dépendant, op. cit., p. 6 : Revenons à notre problème, qui est de comprendre la nature des démonstrations mathématiques. Nous avons vu au début qu’une preuve est un texte satisfaisant à des règles syntaxiques absolument strictes. Nous venons d’expliquer que les constituants de ce texte, à savoir les axiomes, correspondent à des instructions de programmation. La conclusion qui s’impose alors est que les démonstrations mathématiques ne sont pas autre chose que des programmes. Cela nous donne une vision très claire et que je trouve très amusante des débats à propos de l’utilisation de tel ou tel axiome. Quand Brouwer met les mathématiciens en garde sur l’utilisation du tiers exclu, ou quand Baire et Borel font de même avec l’axiome du choix, on pense immédiatement aux mises en garde que l’on trouve dans les manuels de programmation à propos d’instructions comme goto ou de ce qu’on appelle les effets de bord. Finalement, le message de Brouwer est le suivant : surtout, ne programmez pas à l’aide de continuations, car c’est aller au-devant des bugs. Et le conseil de Borel est d’éviter d’utiliser l’instruction d’horloge, pour la même raison.

MORI2009 Logique et contradiction

Edgar MORIN, Logique et contradiction, in Ateliers sur la contradiction, Coordination Bernard Guy, Paris, Presses des Mines, 2009, p. 17-49.

MORI2009.1 Cf. Morin, Logique et contradiction, op. cit., p. 22 : Le surgissement de contradictions dans les sciences physiques, l’incapacité de la logique classique d’éliminer par elle-même les contradictions qui surgissent à son niveau syllogistique de base (le paradoxe du Crétois) nous montrent, de façon irrémédiable, que le spectre de la contradiction ne peut plus être exorcisé. Il y a des contradictions qui naissent d’une infirmité rationnelle dans le discours. C’est la sotte, absurde contradiction. Il y a, comme Grize et Pieraut Le Bonniec (1983) l’ont bien montré, une contradiction qui ouvre (c’est-à-dire problématise, met en cause un préconstruit, appelle à renoncer à une idée fausse) et une contradiction qui ferme (c’est-à-dire clôt un débat et ruine un argument). Il y a la contradiction négative, qui signale une erreur de raisonnement, et il y a la contradiction heuristique, qui détecte une nappe profonde du réel, fait surgir la dimension cachée, appelle le méta-point de vue. Il y a la contradiction “faible”, qui nous permet d’accéder à une connaissance complexe en associant les termes contradictoires, et il y a la contradiction radicale, qui signale l’arrivée aux limites de l’entendement et le surgissement de l’énormité du réel, là où il y a non seulement l’indécidable, mais l’inintelligible, l’indicible… Il y a des contradictions qui naissent au sein de systèmes clos et qui peuvent être surmontées, dans le cadre même de la logique classique, dans un méta-système ouvert. Mais il est des contradictions insurmontables, quel que soit le niveau de pensée. Il y a des contradictions inhérentes à la relation entre la logique et le réel, qui naissent dans l’exercice même de la pensée empirique-rationnelle (l’onde/corpuscule) et d’autres qui sont inhérentes à la rationalité elle-même (les antinomies kantiennes).

MORI2009.2 Cf. Morin, Logique et contradiction, op. cit., p. 23 : C’est des marges mêmes du cercle de Vienne que vinrent les coups mortels pour les certitudes du positivisme logique. Karl Popper opéra un retournement épistémologique décisif : en insistant sur l’insuffisance de l’induction et l’insuffisance de la vérification, il sapa le caractère universel de la certitude que l’une et l’autre pouvaient apporter. Quand elle n’est pas triviale, l’induction comporte toujours un risque. Comme le dit Radnitzky (1981), l’application de l’induction à un domaine fini est non problématique, mais non intéressante. Son application à un domaine dénombrable infini est intéressante, mais incertaine. De son côté, le dernier Wittgenstein (De la certitude) avait remarqué que l’induction se fonde sur l’idée des lois la nature, laquelle se fonde sur l’induction. Induction et lois de la nature s’entre-fondant l’une l’autre, il n’y a pas de fondement à l’une et l’autre… Du côté de la déduction, le paradoxe du Crétois avait déjà révélé, comme l’avait dit Tarski, un grippage et un dérapage, non accidentel, mais intrinsèquement lié au fonctionnement logique. Mais l’infaillibilité de la déduction semblait absolument assurée dans le domaine de la formalisation mathématique. Or, cette déduction devait être elle-même affaiblie. En ouvrant une brèche irrefermable dans la logique mathématique, le Viennois Gödel détermina du coup l’effondrement du mythe d’une logique souveraine et autosuffisante.

MORI2009.3 Cf. Morin, Logique et contradiction, op. cit., p. 23-25 : Depuis que se disputaient, dans le champ clos de la méta-mathématique, l’intuitionnisme d’un Brouwer (voir p. 203) et le formalisme d’un Hilbert, on avait à de nombreuses reprises noté qu’il est impossible de mener jusqu’à son terme final l’œuvre d’axiomatisation, c’est-à-dire la réduction de l’intuitif par sa résorption finale dans la logique; toujours il subsiste “quelque chose d’antérieur, un intuitif préalable” (R. Blanché, 1968, p. 65). Arend Heyting, mathématicien “intuitionniste”, avait soutenu en 1930 l’impossibilité d’une complète formalisation, pour la raison profonde et essentielle que “la possibilité de penser ne peut être réduite à un nombre défini de règles construites antérieurement”. Mais on pouvait croire, et beaucoup le croient encore, que s’il existait un résidu final, non logifiable, dans une axiomatisation, du moins le royaume formalisé, entièrement soumis au contrôle logique, pouvait être considéré comme immarcessible. Or, le théorème d’indécidabilité de Gödel vint, en 1931, ouvrir une brèche précisément au cœur même de la formalisation, et la conséquence - logique - du théorème de Gödel est que l’idéal dit “rationnel” d’une théorie absolument démontrable est, dans sa part logique même, impossible. Le théorème formulé par Kurt Gödel en 1931 (Über formal unentscheidbare Sätzen der Principia mathematica. On formally undecidable Propositions of Principia mathematica and related Systems) démontre que tout système formalisé comportant de l’arithmétique (assez puissant - puissance, richesse en moyens de démonstration - pour formaliser l’arithmétique) comporte nécessairement des énoncés indécidables (ni démontrables ni réfutables), et que la non-contradiction du système constitue une proposition non démontrable dans le système. Il frappe tout système formel d’incomplétude et d’incapacité à démontrer sa non-contradiction (consistance) à l’aide de ses seules ressources. Comme l’a indiqué Jean Ladrière (1957, p. 398-399) dans son ouvrage capital sur les limitations internes du formalisme, il en résulte qu’un système formel ne peut se réfléchir totalement en lui-même, notamment en ce qui concerne la notion d’élément définissable dans ce système et celle de vérité relative à ce système. Gödel a très bien reconnu la portée générale de son théorème : “La complète description épistémologique d’un langage A ne peut être donnée dans le même langage A parce que le concept de la vérité des propositions de A ne peut être défini en A” (Gödel, in von Neumann, 1966, p. 55). La faille gödélienne semble avoir été depuis élargie par une prolifération de théorèmes qui nous découvrent que les questions les plus simples débouchent sur l’indécidabilité, comme le théorème de Cohen sur l’axiome du choix et l’hypothèse du continu (1962). De son côté, le théorème d’Arrow d’impossibilité d’agrégation des préférences individuelles démontre que l’on peut calculer un choix collectif à partir des préférences des individus. Enfin, Chaitin (1975) a démontré qu’il est impossible de décider si un phénomène relève ou non du hasard, bien qu’on puisse définir rigoureusement le hasard (incompressibilité algorithmique). Ainsi, paradoxalement, l’essor de la méta-mathématique, qui “a produit un complexe de concepts et de méthodes de nature à préciser et à affiner les instruments théoriques propres à dégager et à dominer les structures à l’œuvre dans les textes démonstratifs”, est cela même “qui a produit les théorèmes de limitation interne, restreignant par là le domaine où l’on peut légitimement poser les problèmes de fondement” (Desanti, 1975, p. 261). Si la formalisation, stade suprême de la logique classique, ne peut trouver en elle-même un fondement absolument certain, alors la logique ne peut trouver en elle-même un fondement absolument certain.

MORI2009.4 Cf. Morin, Logique et contradiction, op. cit., p. 25-26 : Toute découverte de limitation ouvre paradoxalement une voie nouvelle à la connaissance. La voie ouverte est très clairement indiquée par Gödel et Tarski. Le théorème de Gödel débouche sur l’idée que la démonstration de la consistance du système peut se faire éventuellement en recourant à un méta-système comportant des procédés de démonstration qui sont extérieurs au système. Ainsi, des démonstrations de non-contradiction ont été effectivement données pour des systèmes soumis au théorème de Gödel, comme la démonstration de la non-contradiction de l’arithmétique. Mais un méta-système comporte lui-même des énoncés qui y sont indécidables, et il aurait besoin d’un méta-méta-système où se reposeraient, à un niveau supérieur, les mêmes problèmes. C’est dire que la brèche gödelienne est aussi une ouverture… Tarski, de son côté, aboutit à un résultat analogue en étudiant le problème de la vérité dans les langages formalisés (Tarski, 1972, t. 1, p. 157-269). Il démontre l’inconsistance des langages sémantiquement clos (c’est-à-dire où toutes les propositions qui déterminent l’usage adéquat des termes peuvent être affirmées dans ce langage), et que le concept de vérité relatif à un langage n’est pas représentable dans ce langage ; mais il démontre également que l’on peut rendre décidables tous les énoncés d’un langage à condition de les placer dans un méta-langage plus riche. Bien entendu, ledit méta-langage comporterait à son tour des énoncés indécidables, et requerrait un méta-méta-langage, et ainsi à l’infini. Ainsi, Gödel et Tarski nous montrent conjointement que tout système conceptuel inclut nécessairement des questions auxquelles on ne peut répondre qu’à l’extérieur de ce système. Il en résulte la nécessité de se référer à un méta-système pour considérer un système.

MORI2009.5 Cf. Morin, Logique et contradiction, op. cit., p. 26-27 : il y a une possibilité de “dépasser” une incertitude ou une contradiction en constituant un méta-système : celui-ci doit embrasser en lui le système (la théorie) mais doit en même temps être plus riche (enrichi par des “variables d’ordre supérieur”) et inclure nécessairement en lui des termes et une problématique logique qui offrent la définition de la vérité pour le système (théorie)-objet considéré. Cet énoncé tarskien ne peut être interprété dans le sens où le méta-système se constituerait en tribunal suprême, porteur de la décidabilité et de la consistance, et serait capable de se clore sur lui-même. En effet, une insuffisance à se considérer soi-même se retrouverait également au niveau du méta-système, puis de tout méta-système de méta-système, cela à l’infini. La connaissance reste inachevée, mais cela veut dire en même temps qu’elle peut se poursuivre. Cela veut dire enfin et surtout que les progrès de l’élucidation et de la reproblématisation seront désormais dialectiquement liés, qu’aucun dispositif ne pourra colmater à jamais la brèche sur l’inconnu. Nous débouchons ainsi sur l’idée complexe de progrès de la connaissance, qui s’effectue non pas par refoulement ou dissolution, mais par reconnaissance et affrontement de l’indécidable ou du mystère… La perte de la certitude est en même temps l’invitation au méta-point de vue. L’acquisition de la relativité n’est pas la chute dans le relativisme. Toute découverte d’une limite à la connaissance est en elle-même un progrès de connaissance. Toute introduction de la contradiction et de l’incertitude peut se transformer en gain de complexité ; c’est dans ce sens que la limitation apportée par la physique quantique à la connaissance déterministe /mécaniste se transforme en un élargissement complexificateur de la connaissance, et prend un sens pleinement épistémologique.

MORI2009.6 Cf. Morin, Logique et contradiction, op. cit., p. 27 : La logique ne saurait s’autosuffire. Système formel, elle ne peut être conçue que dans un contexte non formel. […] Le système logique ne peut être conçu que dans un contexte, et ses problèmes essentiels ne peuvent être traités que dans un méta-système lui-même méta-formel. La formalisation, en purgeant les systèmes de ce qui n’est pas logique, révèle le vide de la logique à l’état pur. Elle détruit la parole qui la constitue […]. Implacable, anonyme, la logique occulte l’existence du sujet, tout en faisant de celui-ci un omniscient abstrait dès lors qu’il sait utiliser la logique. Déjà, la mathématisation de la science vidait celle-ci de la substantialité, de la phénoménalité, de l’existence, de la causalité. Le formalisation parachève ce nettoyage par le vide ; Jean Ladrière avait bien vu et dénoncé “l’idée limite d’un système parfaitement clos, ne renvoyant à rien d’autre qu’à lui-même, coupé de tout enracinement comme de tout horizon, vivant de sa propre intelligibilité, unissant paradoxalement les caractères de la chose à ceux de la conscience. L’avènement d’un tel système réaliserait l’éclatement de l’expérience, la fin de ce dialogue incessant avec le monde qui constitue la vie de la science, et l’établissement d’une totalité close, pleine et silencieuse, dans laquelle il n’y aurait plus ni monde ni science mais seulement le retour éternel de l’homogène, l’échange perpétuel de l’identique avec lui-même” (ibid., p. 410).

MORI2009.7 Cf. Morin, Logique et contradiction, op. cit., p. 28 : Les travaux de Frege, Russel, Whitehead avaient montré que la logique était un système symbolique obéissant à des règles de “calcul” (“calcul des propositions” = computation). Les computers ont pu donc réaliser les processus logiques du raisonnement, révélant le caractère à la fois autonome, mécanique, anonyme des processus logiques. La logique déductive-identitaire et la conception mécaniste/ atomiste de la réalité s’entre-confirment l’une l’autre. Cette logique correspond à la composante mécanique de tous systèmes, y compris vivants, mais ne peut rendre compte de leur complexité organisationnelle.

MORI2009.8 Cf. Morin, Logique et contradiction, op. cit., p. 28-29 : La logique déductive-identitaire s’articule parfaitement sur tout ce qui est isolable, segmentaire, parcellaire, déterministe, mécanique ; elle s’applique adéquatement aux machines artificielles, aux caractères mécaniques et déterministes du monde, du réel, de la vie, de la société, de l’homme, aux entités stables, cristallisées, dotées d’identité simple, à tout ce qui est segmentaire ou fragmentaire dans le discours et la pensée (de même que les molécules sont les éléments non vivants constitutifs de la vie, les phonèmes, lettres, considérés isolément, sont les éléments “non vivants” de la vie du discours, les segments déductifs-identitaires sont les éléments non vivants de la vie de la pensée). La logique déductive-identitaire s’ouvre non sur la compréhension du complexe et de l’existence, mais sur l’intelligibilité utilitaire. Elle correspond à nos besoins pratiques de surmonter l’incertain et l’ambigu pour porter un diagnostic clair, précis, sans équivoque. Elle correspond, quitte à dénaturer les problèmes, à nos besoins fondamentaux de séparer le vrai du faux, d’opposer l’affirmation à la négation. Son intelligibilité refoule la confusion et le chaos. Aussi cette logique est-elle pratiquement et intellectuellement nécessaire. Mais elle défaille justement lorsque la désambiguïsation trompe, lorsque deux vérités contraires se lient, lorsque la complexité ne peut être dissoute qu’au prix d’une mutilation de la connaissance ou de la pensée. De fait, la logique déductive-identitaire correspond non à nos besoins de compréhension, mais à nos besoins instrumentaux et manipulatoires, que ce soit la manipulation des concepts ou la manipulation des objets.

MORI2009.9 Cf. Morin, Logique et contradiction, op. cit., p. 29 : Les limites de cette logique sont nécessairement apparues dans la crise du mécanisme et de l’atomisme, et plus largement dans la crise de la conception classique de la science, lorsqu’au rêve einsteinien d’un univers obéissant à une loi déterministe absolue se sont opposées la mécanique quantique d’abord, puis la complexité physique du chaos organisateur (voir La Méthode 1, p. 45-83) ; lorsqu’à la certitude du positivisme logique se sont opposées toutes les incertitudes positives et toutes les incertitudes logiques ; lorsqu’au rêve hilbertien d’achèvement logique de la théorie s’est opposé l’indécidable gödelien ; lorsqu’au Wittgenstein 1 du langage logifié s’est opposé le Wittgenstein 2 des jeux du langage.

MORI2009.10 Cf. Morin, Logique et contradiction, op. cit., p. 29-30 : La logique déductive-identitaire suppose un objet et un observateur l’un et l’autre fixes, immobiles, constants, entre genèses, métamorphoses et désintégrations. Ce qui en fait son utilité segmentaire en fait également sa limite. […] Cette logique permet de penser à l’avance le temps déterministe, mais elle doit courir après le temps aléatoire, le temps transformateur, le temps novateur. La logique déductive-identitaire est faite pour le mécanique et le monotone ; ses conclusions découlent immanquablement de ses prémisses. Le nouveau ne peut être logiquement déduit ou induit. […] Brouwer l’avait dît de son côté : “La logique est impuissante à nous fournir les normes d’une démarche heuristique, à nous indiquer comment nous y prendre pour faire la moindre découverte, résoudre le moindre problème.”

MORI2009.11 Cf. Morin, Logique et contradiction, op. cit., p. 31 : Ici, brusquement, nous découvrons que ce qui est isomorphe entre la pensée, la vie, l’univers, c’est la complexité, qui comporte évidemment de la cohérence logique, mais aussi de l’infra-logique, de l’a-logique, du méta-logique. La pensée et l’univers phénoménal sont l’une et l’autre complexes, c’est-à-dire l’une et l’autre marqués par une même nécessité et une même insuffisance intrinsèque de la logique déductive-identitaire. La pensée, la connaissance, la théorie, la logique comportent en elles, comme les autres réalités organisatrices vivantes, incertitudes, aléas, ambiguïtés, antagonismes, béances, ouvertures. C’est donc non seulement dans une constitution logique commune, mais dans une incomplétude logique commune que la pensée communique avec l’univers. La logique déductive-identitaire ne s’applique pas à toute la réalité objective. Elle nous rend intelligibles des provinces et segments d’univers et elle nous rend inintelligible ce qui, dans le réel, la nature, la vie, l’humain, lui échappe. Mais la pensée peut transgresser cette logique en l’utilisant, et elle peut s’ouvrir aux complexités du réel, de la nature, de la vie, de l’humain.

MORI2009.12 Cf. Morin, Logique et contradiction, op. cit., p. 31-32 : À la limite, il y a, dans l’esprit humain comme dans la réalité, quelque chose d’a-formalisable, d’a-logifiable, d’a-théorisable, d’a-théorémisable. Ainsi, il y a complexité dans l’une et l’autre sphère, qui se chevauchent et se dévorent mutuellement, puisque évidemment la sphère de l’esprit pensant est dans la sphère de la réalité, laquelle n’apparaît en tant que telle que dans la sphère de l’esprit pensant. Alors, on peut tenter de faire jouer ensemble ces deux complexités. Plus on se haussera aux niveaux complexes du réel, plus on fera appel aux potentialités complexes de la pensée rationnelle… En conclusion, ce n’est pas seulement dans une logique fragmentairement et provincialement adéquate au réel, c’est aussi dans une incomplétude logique et de façon méta-logique que la pensée dialogue avec l’univers.

MORI2009.13 Cf. Morin, Logique et contradiction, op. cit., p. 32-33 : De tous côtés, on est arrivé à la nécessité d’aboutir à des conceptions moins rigides que le tout/rien de la logique formelle (von Neuman, 1963, p. 304). Les logiques intuitionnistes ont en perspective la pensée au travail, elles veulent en considérer sa progression, introduisant le temps et le devenir de façon intrinsèque ; ce sont des logiques où on ne peut conclure du non-contradictoire au vrai ; elles introduisent explicitement la contradiction et tentent de représenter les démarches d’une pensée qui se débat avec les contradictions et tente de les surmonter soit par élimination progressive, soit selon un schéma dialectique. Il y a la logique quadrivalente de Heyting (vrai, faux, ni vrai, ni faux). Dans la logique trivalente de Lukasiewicz (vrai, faux, possible), le principe de contradiction et celui du tiers exclu sont seulement “possibles”. Gottard Gunther (1962, p. 352) a proposé une logique “transjonctionnelle” à plusieurs valeurs. Dans les logiques polyvalentes, les valeurs s’échelonnent entre le oui et le non. Les logiques probabilitaires sont, comme le dit Gusatz, des logiques polyvalentes à une infinité non démontrable de valeurs. Il y a du non nécessairement vrai et du non nécessairement faux dans les logiques floues. Les logiques modales introduisent des catégories autres que le vrai et le faux (le ni vrai ni faux, le possible, le performatif, le normatif) et peuvent former des modalités complexes comme l’incertitude dans la possibilité. Enfin, les logiques para-consistantes admettent des contradictions en certaines de leurs parties. Toutes ces logiques assouplissent, dépassent, complexifient la logique classique, qui devient pour elles un cas particulier. Elles acceptent ce que ne pouvait accepter la logique classique, surtout dans son noyau déductif-identitaire : elles ne requièrent plus impérativement la clarté, la précision, et elles accueillent, quand celles-ci sont jugées inévitables, les indéterminations, les incertitudes, les ambiguïtés, les contradictions. Ce sont des logiques qui s’ouvrent donc à la complexité. Mais intégrer le contradictoire n’est pas le surmonter, et ces logiques, qui en reconnaissent l’inévitabilité, voire la vertu dans certains cas, ne “dépassent” pas la contradiction qu’elles intègrent.

MORI2009.14 Cf. Morin, Logique et contradiction, op. cit., p. 35 : Cela veut dire du coup que la pensée ne peut plus, dans ce cas, prétendre être le miroir de la réalité. Elle est plutôt, dans ce cas, le miroir d’une opacité de la réalité. Toutefois, on peut dire qu’en plus des grandes apories qui sont aux horizons et au coeur de notre raison le monde peut présenter des antagonismes indissolublement complémentaires que notre pensée traduit en contradictions. C’est l’erreur des conceptions qui font de la connaissance le miroir de la réalité d’imaginer que le réel comporte des contradictions que la pensée détecterait et enregistrerait. En fait, toute connaissance est traduction, et la contradiction est le mode par lequel se traduisent aux yeux de notre raison les trous noirs dans lesquels s’effondrent nos cohérences logiques.

MORI2009.15 Cf. Morin, Logique et contradiction, op. cit., p. 37-38 : Les principes aristotéliciens fournissent un code d’intelligibilité à la fois absolument nécessaire et absolument insuffisant. Ce sont des régulateurs et des contrôleurs nécessaires à l’organisation de la pensée, mais celle-ci ne se réduit pas à la régulation ni au contrôle, et ils stérilisent la pensée s’ils deviennent dictateurs. […] Les pensées créatrices, inventives, complexes sont transgressives.

MORI2009.16 Cf. Morin, Logique et contradiction, op. cit., p. 38-39 : Aristote, qui avait déjà circonscrit la validité de ses axiomes à un même temps et à un même rapport, avait de plus admis qu’il y avait suspension du tiers exclu en ce qui concerne le futur contingent, ce qui ouvrait la porte à des propositions ni vraies ni fausses, mais potentiellement l’une et l’autre. Le principe du tiers exclu est suspendu dans toutes les propositions incertaines (où il est impossible de fournir une preuve en leur faveur ou contre elles), dans le domaine de la mécanique quantique, et plus généralement il peut se trouver suspendu là où la pensée rencontre la nécessité rationnelle d’associer deux propositions contraires. Brouwer avait considéré que le tertium non datur doit non pas être posé a priori, mais advenir a posteriori. Il pensait que le logique dépendait de “l’activité mathématique originelle”, et que par conséquent le principe du tiers exclu ne pouvait se justifier sur le terrain d’une logique pure. Brouwer lisait ainsi ce principe : “Étant donné une proposition A, pour moi sujet connaissant, ou bien A est évident, ou c’est non-A. La prétention de donner un statut de vérité objective à l’une ou l’autre évidence constitue un postulat erroné d’omniscience humaine. Il est par contre nécessaire de recourir à l’introspection du moment conscienciel où l’on élit comme vraie et chasse comme fausse l’une des propositions.” Brouwer arrivait ainsi à réintroduire le sujet-concepteur, chassé de la mathématique par la pensée disjonctive-simplifiante qui commanda corrélativement logique classique et science classique.

MORI2009.17 Cf. Morin, Logique et contradiction, op. cit., p. 42 : Et ici, dans l’invention, la création, l’imagination, la transgression, le sujet réapparaît. C’était déjà la leçon du théorème de Gödel, qui apporte au sommet la même vérité profonde que l’intuitionnisme brouwérien apporte à la base. Brouwer maintenait, contre le formalisme de Hilbert, l’idée qu’il y a toujours un intuitif irréductible dans la mathématique et la méta-mathématique, désignant ainsi la place du sujet; la faille qu’ouvre Gödel, c’est la faille où se situe le sujet qui construit la théorie et la méta-théorie. Alors que l’accomplissement final de la formalisation logique mettant en marche une machine à penser parfaite digne de Borges semblait devoir exclure à jamais le logicien-sujet, elle a généré, dans ce développement même, une catastrophe logique, qui non seulement appelle la réflexion du logicien, mais nécessite la réapparition du sujet pour éviter l’absurdité totale (laquelle n’est autre que la rationalisation totale). C’est là même où le sujet est cassé et chassé qu’il réapparaît soudain, sabre au clair.

MORI2009.18 Cf. Morin, Logique et contradiction, op. cit., p. 43-44 : L’étoffe de ce que nous nommons le réel comporte des nappes, des trous, des émergences qui sont sub-logiques, supra-logiques, a-logiques, extra-logiques, on ne sait. L’être n’a pas d’existence logique, et l’existence n’a pas d’être logique. L’être, l’existence, l’émergence, le temps, autant de défis à la pensée parce qu’ils sont des défis à la logique. La vie comporte des opérations logiques, tout être vivant compute et calcule sans trêve; mais ses solutions, inventions ou créations surmontent des impossibilités logiques. Tout en contenant la logique, l’existence vivante est a-logique, sub-logique, méta-logique. Il y a des brèches logiques dans notre bande moyenne, là où apparaissent les émergences indéductibles, là où il y a dialectiques et dialogiques, là où notre pensée ne peut éviter ambiguïtés, paradoxes, contradictions, apories. La logique déductive-identitaire purge le discours de l’existence, du temps, du non-rationalisable, de la contradiction; dès lors, le système cognitif qui lui obéit aveuglément se met en contradiction à la fois avec le réel et avec sa prétention cognitive. […] Ce qui constitue notre réalité intelligible n’est qu’une bande, une strate, un fragment d’une réalité dont la nature est indécidable. Sans qu’elle puisse être résolue, la question du réel ne peut être traitée que de façon non seulement méta-physique, mais aussi méta-logique (englobant/ dépassant la logique).

MORI2009.19 Cf. Morin, Logique et contradiction, op. cit., p. 44 : La logique ne peut se clore sur elle-même, et, même se brise dès qu’elle s’encapsule sous vide dans la formalisation. La logique n’est pas un fondement absolu et n’a pas de fondement absolu : elle est un outillage, un appareillage au service de la composante analytique de la pensée, et non pas la machine infaillible capable de guider la pensée. Une “grande logique s’avère impossible, c’est-à-dire une logique suffisamment forte pour qu’on puisse, à l’intérieur des procédures qu’elle définit, assurer la pleine sécurité de ses démarches” (Desanti, 1975, p. 260). D’où un certain nombre de conséquences : aucun système logiquement organisé ne peut embrasser l’univers dans la totalité ni rendre compte exhaustivement de sa réalité ; la subordination de la pensée à la logique conduit à la rationalisation, laquelle est une forme logique de l’irrationalité, puisqu’elle constitue une pensée en divorce avec le réel. La pensée (stratégique, inventive, créative) à la fois contient et dépasse la logique. De fait, la complexité de la pensée est méta-logique (englobant la logique, tout en la transgressant).

MORI2009.20 Cf. Morin, Logique et contradiction, op. cit., p. 45-46 : Une fois encore, nous retrouvons l’injonction de méthode : ne pas briser une réalité complexe en éléments compartimentés, ne pas éliminer a priori une incertitude et une contradiction. Entre la “réification” des objets, qui les rend saisissables et contrôlables par la logique, et leur dissolution dans l’inséparabilité et le devenir, il est nécessaire de conduire la pensée non pas dans un entre-eux, mais dans un zigzag, revenant à la logique pour la transgresser puis y revenir encore… L’usage de la logique est nécessaire à l’intelligibilité, le dépassement de la logique est nécessaire à l’intelligence. La référence à la logique est nécessaire à la vérification. Le dépassement de la logique est nécessaire à la vérité. La logique est au service de l’observation, de l’expérience, de l’imagination. Elle prolonge l’idée neuve dans ses conséquences inattendues, mais elle ne la suscite pas. Contrairement à ce qu’avaient cru Russell et Hilbert, et conformément à ce qu’avait pensé Brouwer, la pensée mathématique elle-même doit éventuellement oublier la logique : pour Brouwer, la construction de la mathématique est un devenir imprévisible, et les antinomies qui y surgissent viennent du fait que la mathématique se soumet à la juridiction d’une logique étrangère à sa vraie nature. Ainsi la pensée, même mathématique, ne peut être enfermée dans la logique (classique), mais elle doit l’emporter comme bagage.

EHRE1941 J. Cavaillès. Méthode axiomatique et formalisme

Charles EHRESMANN, Revue critique : J. Cavaillès. Méthode axiomatique et formalisme, in Revue Philosophique de la France et de l’Étranger, Presses Universitaires de France, T. 131, No 1/2 (Janv.-Févr. 1941), p. 81-86.

EHRE1941.1 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 81 : l’essor rapide du calcul différentiel et intégral au XVIIIe siècle a amené une crise due à l’emploi irréfléchi de notions d’infiniment petit, d’infiniment grand et de limite. Plus tard le développement de l’œuvre hardie de Cantor – la théorie abstraite des ensembles – s’est heurtée à des antinomies qui ont provoqué de nombreuses recherches sur le fondement des mathématiques.

EHRE1941.2 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 82 : La théorie autonome de l’infini actuel ne prend corps que par la découverte de l’inégalité de puissances de certains ensembles infinis : l’ensemble des nombres entiers peut être mis en correspondance biunivoque avec l’ensemble des nombres rationnels ou même des nombres algébriques, mais non avec l’ensemble des nombres réels. La notion de puissance des ensembles conduit alors à la théorie des nombres cardinaux. Enfin la notion d’ensemble bien ordonné amène l’admirable et audacieuse création des nombres ordinaux, transfinis. Mais si une réunion quelconque d’objets est considérée comme un ensemble, ce qui est conforme au point de vue ontologique naïf de Cantor, les nombres ordinaux donnent lieu à un paradoxe, celui de Burali-Forti et dont Cantor semble avoir eu la première idée : l’ensemble de tous les nombres ordinaux est contradictoire. Dans ces conditions les autres ensembles considérés par Cantor ne le sont-ils pas également ? Cette question ne pouvait plus être évitée. Elle a amenée les successeurs de Cantor à éliminer autant que possible le recours à l’intuition et à reprendre la construction de la théorie sur une base axiomatique.

EHRE1941.3 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 82-83 : Après une discussion de l’axiome de choix de Zermelo, l’auteur poursuit par l’axiomatique de Zermelo, complétée par Frænkel, et termine par l’axiomatique de von Neumann. Ces systèmes axiomatisés permettent de retrouver les résultats de la théorie de Cantor. Les antinomies, comme celle de Burali-Forti ou celle de Russel, sont éliminées, mais on n’a aucun moyen de démontrer la non-contradiction de ces systèmes. Le problème du fondement de la théorie des ensembles reste donc entier, mais il est inséparable du problème du fondement des mathématiques en général

EHRE1941.4 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 83 : Ayant montré l’insuffisance des solutions empiristes [Poincaré, Baire, Borel, Lebesgue], l’auteur fait une analyse approfondie de l’intuitionnisme de Brouwer qui reprend et dépasse les thèmes essentiels du Kantisme. Pour Brouwer l’évidence mathématique se constate dans une expérience sui generis ; l’activité mathématique est une construction imprévisible, “on ne peut la définir mais la poursuivre”. La logique classique n’est pas adaptée à la mathématique de l’infini ; les principes de cette logique, principes de non contradiction, du tiers exclu et du syllogisme, correspondent à des opérations intuitives sur des ensembles finis ; le principe du tiers exclu doit être abandonné. Au lieu de fonder la mathématique classique, Brouwer est amené à construire un autre édifice dans lequel on retrouvera, mais avec une signification différente, une partie des mathématiques traditionnelles, alors que certaines de leurs méthodes et de leur théories doivent être sacrifiées. Mais la plupart des mathématiciens, n’étant pas convaincus du néant de ces théories qui se sont révélées harmonieuses et fécondes, répugnent à suivre Brouwer, et des efforts tenaces ont été entrepris pour sauvegarder l’intégrité des mathématiques traditionnelles.

EHRE1941.5 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 83-84 : Dans l’évolution mathématique du XIXe siècle deux courants parallèles se manifestent : d’une part, en prolongement des travaux de Grassmann, Hankel, Dedekind sur l’arithmétique et l’algèbre, le logicisme qui cherche à incorporer les mathématiques à une logique formelle réduite à un jeu réglé de symboles ; il aboutit aux systèmes de Dedekind, Frege, Peano, Russel. D’autre part, dans les travaux sur le fondement de la géométrie, comme ceux de Riemann, Pasch, Hilbert, se précise la méthode axiomatique qui consiste à poser un certain nombre de propositions primitives ou axiomes à partir desquels on peut construire une théorie, en utilisant le raisonnement logique traditionnel. L’apparition de la méthode axiomatique est un caractère essentiel des mathématiques du XIXe siècle. S’opposant à la méthode génétique qui exige que tous les concepts soient engendrés à partir du nombre entier, “seul créé par le bon Dieu”, elle conduit à la formation de théories autonomes et permet de dégager la notion même de théorie mathématique. Mais permet-elle de fonder les théories définies axiomatiquement ? C’est en étudiant cette question que Hilbert a dû examiner la notion d’indépendance des axiomes et surtout les notions de non contradiction, de saturation et de catégoricité d’un système d’axiomes. Mais si l’on veut préciser et démontrer qu’une théorie possède une de ces propriétés, on doit commencer par formaliser complètement le raisonnement mathématique. La méthode axiomatique appelle le formalisme.

EHRE1941.6 Cf. Ehresmann, J. Cavaillès. Méthode axiomatique et formalisme, op. cit., p. 84-85 : L’auteur étudie alors la notion de système formel, le rôle du signe d’après Hilbert et expose les systèmes formels de Russell et Hilbert. Dans un système mathématique formalisé, les propositions seront des assemblages de signes ou des formules, les démonstrations seront des dessins-démonstrations. Mais ces assemblages de signes posent à leur tour des problèmes qui font appel à la pensée effective : par exemple, démonstrabilité d’une formule, non contradiction ou saturation du système. Toute mathématique formalisée a donc pour corrélat une zone de pensée effective, la métamathématique. Fonder un système mathématique revient alors pour l’école formaliste à démontrer la non contradiction et la saturation de ce système, problèmes de la métamathématique. Pour l’étude des problèmes métamathématiques il sera essentiel de n’utiliser que des méthodes intuitivement sûres ; sinon le problème du fondement réapparaîtrait pour la métamathématique. Par conséquent on se bornera à des méthodes constructives finies. Ce principe finitiste est respecté par les démonstrations de non contradiction données par von Neumann et par Herbrand ; elles vont être examinées par l’auteur qui esquissera une nouvelle démonstration du théorème d’Herbrand. Cependant ces démonstrations ne s’appliquent qu’à des formalismes relativement pauvres : Herbrand réussit à démontrer la non contradiction d’une arithmétique restreinte mais non de l’arithmétique générale ; toutes les méthodes échouent devant l’axiome général d’induction complète. Les limites de la métamathématiques hilbertienne sont définitivement étables par le théorème de Gödel. En partant de l’arithmétique formalisée, Gödel réussit à formaliser dans cette arithmétique même les raisonnements finis de la métamathématique correspondante, ce qui lui permet de montrer que cette arithmétique n’est pas saturée : il y a des propositions non décidables, c’est-à-dire dont la vérité ou la fausseté ne peuvent être démontrées ; en particulier la non contradiction de la théorie ne peut être décidée. Restait encore l’espoir de démontrer la non contradiction de l’arithmétique en abandonnant le point de vue finitiste dans la métamathématique. C’est à Gentzen que l’on doit une telle démonstration ; en utilisant un segment déterminé de la classe II des nombres ordinaux transfinis, elle sort du cadre de la métamathématique de Hilbert, mais satisfait aux exigences intuitionnistes.

KIRS2012 Les dynamiques du déferlement informatique

Émile KIRSCHEY, Les dynamiques du déferlement informatique. De la machine de Turing à la production marchande, l’informatique comme moment, forme et détermination du capital, in Le monde en pièces. Pour une critique de la gestion. 1. Quantifier, Groupe Oblomoff, Paris, Éditions La Lenteur, 2012.

KIRS2012.1 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : il nous est apparu primordial de mettre en lumière la quantification comme dimension spécifique de la gestion à l’époque industrielle. La problématique ainsi posée exprime de façon implicite que quantifier n’est pas simplement compter, ou même comptabiliser, mais représente une activité productive inscrite dans les particularités de notre époque. Cette activité ne peut être réduite au dénombrement et à la compilation qui représentaient antérieurement les fondations, mais aussi les limites d’un gouvernement par les nombres. Ainsi, le terme d’inflation qui vient à l’esprit pour décrire les phénomènes contemporains de diffusion des chiffres ne renvoie pas seulement à la multiplication des usages que l’on peut en faire – et qui s’avèrent de moins en moins évidents à justifier concrètement –, mais bien en amont à une frénésie productive d’accumulation de chiffres. Cette inflation s’appuie sur un appareillage technique lui-même de plus en plus développé. L’informatique représente aujourd’hui le front le plus avancé de ce développement, à la fois par la généralisation de cet outil dans tous les aspects de nos vies, mais aussi parce qu’il constitue en soi le moyen le plus abouti techniquement pour automatiser le calcul. Cette automatisation déploie ainsi à une échelle élargie la dimension productive qui différencie la quantification d’une simple comptabilité. Si la trajectoire qui voit la quantification devenir un fait déterminant de nos sociétés débute bien antérieurement à l’avènement de l’informatique, sa mécanisation, inscrite dans une machine dédiée, offre un terrain particulier pour en faire l’analyse critique.

KIRS2012.2 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : L’ordinateur est une machine, plus exactement un automate logique universel, c’est-à-dire une machine capable d’exécuter mécaniquement n’importe quelle séquence d’opérations logiques ou manipulations de symboles formels. “Mécaniquement” veut dire que les opérations s’enchaînent de façon déterminée, sans échappatoire possible : en partant d’un état A, elle arrive forcément à un et un seul état B qui est déjà contenu virtuellement dans A. Comme l’ordinateur a la capacité d’aller de A à B beaucoup plus rapidement que n’importe quel être humain, il nous semble que l’ordinateur développe une capacité magique à faire des choses (in)sensées, mais il ne s’agit pourtant que de parcourir un chemin balisé pas à pas. Le concept d’ordinateur a été inventé au cours de recherches tentant d’identifier les fondements de toute théorie mathématique. Bien que ces recherches aient fini par conduire à une impasse, elles ont permis en passant d’établir les éléments aussi bien théoriques (machine de Turing) que pratiques (architecture de von Neumann), nécessaires à la construction de cette machine inédite. La définition théorique de l’ordinateur, qui contient toute la logique de son développement concret ultérieur, met en place, comme nous allons le mettre en lumière progressivement, les ressorts d’une dynamique intrinsèque. Cette définition s’appuie sur la description imagée d’un dispositif (la machine de Turing) qui, par sa simplicité et son évocation en terme quasi-concret, est une invitation à réaliser matériellement cette puissance potentielle. Il est donc nécessaire de se pencher plus en détail, non pas sur l’ingénieuse mise en œuvre des premiers ordinateurs, mais sur le “petit mécanisme” conceptuel qui est mis en place pour en énoncer le principe.

KIRS2012.3 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : L’article dans lequel Turing expose le concept de sa “machine” est avant tout une tentative de résolution du problème dit “de la décision”. Il s’agit d’un problème de logique formelle, dérivé de la recherche de fondements en mathématiques, qui peut s’énoncer comme suit : peut-on déterminer “mécaniquement” (c’est-à-dire par le simple enchaînement pas à pas d’opérations automatiques) si un énoncé est dérivé des seuls axiomes de l’égalité, c’est-à-dire s’il s’agit d’un théorème de la logique du premier ordre égalitaire. Pour cela, il va effectivement décrire le dispositif mécanique le plus épuré qui puisse prendre en charge la réalisation d’un processus déductif. C’est la fameuse machine de Turing : la mécanisation de l’exécution d’un calcul. Est “décidable” un problème auquel une machine peut fournir une réponse en un nombre fini d’étapes. Malgré l’aspect “virtuel” de ce genre de machine, on est bien dans une dimension concrète : la mécanisation d’un calcul donné afin de répondre à une question concernant un énoncé particulier. Dans un deuxième temps, Turing s’attaque à la généralisation du procédé de mécanisation de la décision afin de déterminer s’il existe une solution au “problème de la décision” sous la forme d’une procédure décisionnelle générale. Il faut se pencher sur la façon dont Turing répond à cette question pour comprendre comment apparaît un pôle abstrait de l’ordinateur (et comment l’ordinateur rend ainsi indissociable le pôle concret et le pôle abstrait de la décidabilité). La réponse de Turing – obtenue par une démonstration formelle dans les chapitres 8 à 10 de son article – est négative. Elle va fonder une frontière entre décidable et indécidable, au sens du calcul automatisé. Le lien avec la distinction entre calculable (réalisable par une machine de Turing en un nombre d’étapes fini) et non calculable vient du fait que chaque décision – au sens de “détermination de la validité d’un énoncé sur la base des axiomes de la logique de premier ordre égalitaire” – peut être encodée dans un nombre calculé par une machine de Turing. Au cours de sa démonstration, il franchit une étape fondamentale pour l’émergence du concept d’ordinateur : puisque le fonctionnement de n’importe quelle machine de Turing peut-être encodé dans un nombre calculable, il est possible de concevoir une machine de Turing qui simule n’importe quelle machine de Turing, c’est-à-dire une machine de Turing universelle. Avec une machine de Turing universelle, on accède donc à la totalité abstraite des calculs possibles en un nombre fini d’étapes. On parle de totalité abstraite parce qu’elle ne se caractérise pas par l’inventaire exhaustif ou synthétique de ses éléments mais parce qu’elle définit un domaine, celui de la décidabilité, dont la frontière n’est elle-même pas “décidable”, bien qu’on puisse en démontrer l’existence logique (tout simplement parce qu’il existe des énoncés non-décidables, des “décisions” auxquelles aucune machine de Turing n’est en mesure d’aboutir) Un ordinateur n’est pas autre chose qu’une machine de Turing universelle matérialisée à laquelle on confie le rôle d’exécuter des machines de Turing particulières que sont les applications. Il présente donc ce double aspect, deux faces qui ne peuvent être disjointes, l’une concrète, l’autre abstraite. Son aspect concret est dans le fait d’être une machine de Turing “tout court”, c’est-à-dire d’exécuter mécaniquement un calcul (combinaison d’un algorithme et d’un ensemble de données). Son aspect abstrait, c’est d’être une machine de Turing universelle, c’est-à-dire de potentiellement aboutir à une décision pour n’importe quel énoncé décidable. Ainsi, les combinaisons d’un logiciel et des données inscrits ensemble dans la mémoire d’un ordinateur sont autant de machines de Turing, composant ainsi la face concrète de l’informatique. Mais ce même ordinateur du fait de son architecture contient potentiellement l’ensemble indéfini des machines de Turing, ce qui compose la face abstraite de l’informatique. L’architecture interne d’un ordinateur constitue l’essence de la lignée technique propre à l’informatique que von Neumann a conceptualisé à partir de la notion de machine de Turing universelle : une unité de commande agissant sur une mémoire, suivant une séquence d’action inscrite dans cette même mémoire. Philippe Breton situe cette invention concrète dans l’EDVAC (1945), dont l’originalité est de disposer d’une mémoire contenant à la fois les données et les instructions de calcul. Dans les machines à calculer qui précèdent l’ordinateur, seules les données étaient en mémoire, tandis que les instructions restaient figées dans des branchements mécaniques, électromécaniques puis électroniques. On ne pouvait alors parler d’informatique mais seulement d’un ensemble de machines toujours fini et dépourvu en son sein du principe de l’extension de cet ensemble. Il manque à cette lignée le pôle abstrait de l’informatique sans lequel on ne peut parler de dynamique interne à l’ordinateur, mais seulement d’usages concrets qui commandent, au coup par coup, la fabrication de machines à calculer particulières dédiées à des usages particuliers. L’informatique n’est donc pas un domaine technique comme un autre, mais une technique générique, non seulement générale dans ses applications possibles, mais contenant en elle-même le principe générateur de l’extension du domaine de ces applications.

KIRS2012.4 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Bien entendu la fabrication et la mise en œuvre concrète des ordinateurs rencontrent immédiatement des limites que sont les capacités techniques et industrielles de l’époque. D’autres limites “matérielles” au déploiement de l’informatique sont, respectivement, la capacité à fournir des données aux ordinateurs, qui suppose toujours de lourds processus d’acquisition des informations (saisie), la mise en forme préalable du monde social pour satisfaire des catégories générales (investissements de forme) et la création de modèles dynamiques tirant profit de ces formes (ingénierie logicielle). C’est cependant en s’appuyant aussi sur de telles limites que le processus du déferlement informatique est relancé vers un élargissement du domaine du “mécaniquement décidable” et chaque étape sur la trajectoire de ce déferlement en renouvelle les ressorts. En effet, c’est l’écart permanent entre d’une part la totalité indéfinie des calculs envisageables et d’autre part l’ensemble des décisions “mécanisées” à un moment donné qui prolonge cette trajectoire, et non les seuls besoins concrets qui leur servent de justifications.

KIRS2012.5 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Dans les discours managériaux et les pratiques qu’ils influencent, les données numériques ont explicitement basculées dans les catégories du capital et de la marchandise. Elles constituent dorénavant tout à la fois un investissement requis pour rester dans la course et un patrimoine destiné à la vente.

KIRS2012.6 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Certes, la quantification se déploie sur la base d’un travail de comptage tout azimut, mais elle n’est pas la simple conséquence de ce recensement. Au contraire, elle le suscite, car c’est plutôt le recensement qui trouve ses justifications dans les potentialités de la quantification automatisée, forme abstraite et auto-référentielle. Il y a une visée gestionnaire abstraite car indéfinie s’appuyant sur un outil suffisamment générique pour offrir la perspective d’une saisie totale, qui se combine avec un travail concret et sans cesse renouvelé d’alimentation par et pour l’outil en question.

KIRS2012.7 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : Une machine de Turing universelle a donc la structure logique – au sens épistémologique et non mathématique – de la marchandise marxienne. Sa valeur d’usage est d’aboutir à une décision donnée, sa valeur “tout court” est d’être capable d’aboutir à n’importe quelle décision.

KIRS2012.8 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : La contradiction qui est au cœur du capitalisme est la même que celle qui est au cœur de l’informatique. Elle aboutit dans les deux cas au déferlement car le principe abstrait qui transite par des éléments concrets ne se maintient qu’en s’ajoutant à lui-même et donc en renouvelant indéfiniment ce mouvement. L’informatique ne peut être envisagée que dans le monde de la marchandise, concrétisée à un certain stade de son développement et engagée dans le déploiement du même mouvement tautologique. C’est à la fois un produit et une figure de la valeur. Faire une critique conséquente de l’informatique n’est ni plus ni moins que développer à nouveaux frais une critique des abstractions réelles (ou fétiches) qui dominent et orientent notre société aujourd’hui globalisée, telles que valeur, travail et… quantification. L’informatique démultiplie la portée et l’emprise de ce qui nous domine – parfois sous le masque de l’émancipation –, à la fois par les moyens qu’elle apporte, mais aussi possiblement par l’affinité de ses ressorts avec ceux que déploient l’économie marchande. À ce titre, une critique de ces dominations ne peut s’affranchir d’une critique de l’informatique, mais ne doit pas se limiter au fait que l’informatique se présente comme un outil au service des dominations. Il faut d’abord et avant tout prendre en compte le fait que l’informatique est peut-être la première lignée technique de l’histoire qui reprend les ressorts logiques du déploiement de la société marchande industrielle au lieu d’en constituer simplement une base matérielle de plus. Toute l’activité des sociétés dans lesquelles règnent les conditions numérisées de production s’annonce comme une immense accumulation de calculs. Cependant, cette accumulation ne doit pas être réduite à un déploiement contingent ou, au contraire, téléologique de virtualisations des travaux ou des échanges. Comme pour la valeur des marchandises, cette accumulation est animée par la dialectique d’une totalité abstraite qui entraîne avec elle tout le réel pour se perpétuer, sa seule dimension viable étant l’accroissement.

KIRS2012.9 Cf. Kirschey, Les dynamiques du déferlement informatique, op. cit. : La frontière entre calculable et non calculable étant de même nature logique que celle entre productif et improductif au sens de la valeur, par exemple. Le genre de dialectique sans résolution qui démarre avec la marchandise ou le calcul automatisé forme une classe de dynamiques se couplant les unes avec les autres.

PARI2019 Critical Computation

Luciana PARISI, Critical Computation: Digital Automata and General Artificial Thinking, in Theory, Culture & Society, 36(2), 2019, p. 89-121.

PARI2019.1 Cf. Parisi, Critical Computation, op. cit., p. 89 : Learning Algorithms are an evolution of genetic algorithms invented by Holland in the 1980s aiming to transform data into knowledge. Algorithms are series of instructions telling a computer what to do. If the simplest of algorithms is to combine two bits and can be reduced to the And, Or, and Not operations, in more complex systems, we have algorithms that combine with other algorithms, forming an ecosystem. Generally speaking, every algorithm has an input and an output, as data goes in the machine, the algorithms execute the instructions and leads to the pre-programmed result of the computation. Instead, with machine learning, data and and the preprogrammed result enter the computation, whilst the algorithm turns data into the result. In particular, learning algorithms make other algorithms insofar as machines write their own programs. In other words, learning algorithms are part of the automation of programing itself: computers now write their own programs.

PARI2019.2 Cf. Parisi, Critical Computation, op. cit., p. 90 : Whilst it is arguable that computation involves the interdependence between data, software, code, algorithms, hardware, the understanding of automation with machine learning rather points to a new configuration of logical reasoning: namely a shift from deductive truths applied to small data to the inductive retrieval and recombination of infinite data volumes. In particular, a focus on the transformation of the relation between algorithms and data contributes to explain the historical origination of non-deductive reasoning, activated with and through machines.

PARI2019.3 Cf. Parisi, Critical Computation, op. cit., p. 91 : This embedding reasoning into machines is entangled to the development of statistics and pattern recognition, which define how algorithms can learn and make predictions from recognizing data (from granular analysis to flexible and modular patterning of categories with textual, visual, phonic traits). As the system gathers and classifies data, learning algorithms match-make, select and reduce choices by automatically deciding the most plausible of data correlations. Machine learning involves a mode of cognition that no longer relies on the deductive model of logic, where proofs are already implicated in initial premises. Machine learning indeed is used in situations where rules cannot be pre-designed, but are, as it were, achieved by the computational behavior of data. Machine learning is thus the inverse of programming: the question is not to deduce the output from a given algorithm, but rather to find the algorithm that produces this output. Algorithms must then search for data to solve a query. The more data is available the more learning there can be. As statistics and probability theory enter the realm of artificial intelligence with learning algorithms in neural networks, new understandings of cognition, logical thinking and reasoning have come to the fore. From the Extended Mind Hypothesis to arguments about Machine Consciousness and the Global Brain, the question of what and how is cognition has come to coincide with the computational architecture of algorithms, data, software, hardware and with experiments in robotics sensing and self-awareness.

PARI2019.4 Cf. Parisi, Critical Computation, op. cit., p. 92 : With the historical synthesis of computational logic and probability calculus in automated systems, algorithms have become generative of other algorithms as they derive a rule to explain or predict data. The possibility of elaborating a rule from data rather than applying a given rule to outcomes also points to a form of cognition that cannot be defined in terms of problem solving solutions, but is understood as a general method of experimenting with problems. With machine learning, automation has involved with the creation of training activities that could generalize the function of prediction to future cases – a sort of inductive parable that from particulars aims to establish general rules. However, whether supervised, unsupervised and reinforcement learning 2 refer not simply to a mindless training of functions, but instead can account for a form of inference proper to artificial intelligence shall concern discussion about the critical tension between reason and non-conscious and non-logical intelligence at the core of automated cognition.

PARI2019.5 Cf. Parisi, Critical Computation, op. cit., p. 93 : as opposed to conscious thinking, these automated systems of cognition perform complex modeling and informational tasks at a fast speed because they are not required to go through the formal languages of mathematics and explicit equations. In other words, todays’ interactive, adaptive and learning algorithms are processing data without having to recur to the logical order of deduction that has characterised the Enlightenment theorisation of the function of reason. However, in agreement with Hayles, this article argues that the non-logical thinking of automated systems overlaps with the efficacy of cybernetic control whereby inductive learning becomes infused with the nonconscious cognition of algorithmic capital.

PARI2019.6 Cf. Parisi, Critical Computation, op. cit., p. 99-100 : Here, the relation between the Scientific and the Manifest Image is grounded either in the formal theory of universal computation, or the non-deductive reasoning of non-conscious computation. On the one hand, the so-called field of digital philosophy claims that the world of appearance can be explained in terms of a universal ground of computation, according to which algorithmic discrete units can explain all complexity of the physical world and can imitate reasoning (e.g., the strong AI hypothesis). On the other hand, the claims of and for non-conscious computation (i.e., non-symbolic AI) have extended the scientific image of computation to include intelligent functions that are experiential rather than formal. My point, however, is that both positions tend to explain the manifest image of thought through and by means of the scientific image of what is cognition. In particular, the digital explanation of cognition remains attached to a deductive method of reasoning, in which the scientific truth about the mind and intelligence is prescriptive of what these can achieve. Here the general determines the particular. This position establishes equivalence between natural and artificial intelligence based on a deductive method of reasoning by which to cognize corresponds to, as in the strong AI hypothesis, the syntactical manipulation of symbols. On the other hand, the extension of the scientific image to include somatic explanations of cognition (as in for example the research into affective computing and emotional intelligence) instead relies on local low levels of neural organisations, which work together to achieve an overall effect that is bigger than their parts. This position embraces an inductive method of reasoning in which general claims about intelligence are derived from the observation of recurring phenomenal patterns. This scientific explanation of intelligence reveals the centrality of a non-conscious level of cognition already at work in current forms of computational intelligent devices. Despite lacking consciousness or autonomy, computational devices indeed are said to share non-conscious cognition with human intelligence and if anything, given that human intelligence is bounded to conscious cognition, smart devices are much faster than us at making connections.

PARI2019.7 Cf. Parisi, Critical Computation, op. cit., p. 102-103 : The computational model of deductive reasoning is central to digital philosophy. Here the manifest image of thought conforms to the scientific idea that the brain is equipped with an innate system of symbols, neurologically connected and syntactically processed. Digital philosophy particularly refers to the computational paradigm used to describe physical and biological phenomena in nature and to offer a computational description of the mind. This approach problematically sees computation as the merging of being and thought. It gives an algorithmic explanation to both biophysical reality and the thinking of reality. Central to this paradigm is also the view that algorithms are digital automata, evolving over time (i.e. cellular automata). These automata compress, render or simulate the various levels of physical, biological, cultural randomness, deriving semantic meaning from already determined rules, whose functions are syntactically arranged and where results can be automatically deduced.

PARI2019.8 Cf. Parisi, Critical Computation, op. cit., p. 105 : new models of AI research addressed sub-symbolic manifestations of intelligence and adopted non-deductive and heuristic methods to be able to deal with uncertain or incomplete information. Boxing away symbolic logic, there emerged algorithmic-networked procedures able to solve problems by means of trial and error by interacting directly with data. These were learning bots retrieving information through reiterative feedbacks, so as to map and navigate computational space by constructing neural connections amongst nodes. Central to these models is the idea that intelligence is not a top-down program to execute, but that automated systems need to develop intelligent skills characterized by speedy, non-conscious, non-hierarchical orders of decision based on an iterative re-processing of data, heuristically selected by means of trial and error. The development of statistical approaches was particularly central to this shift towards non-deductive logic, or the activation of an ampliative or non-monotonic inferential logic.

PARI2019.9 Cf. Parisi, Critical Computation, op. cit., p. 112 : to engage critically with the question of inferential reasoning in automated cognition, we need to first discuss the problem of the limit of computation in the context of information theory. We need to envision a form of artificial reasoning that goes beyond both the focus on locally-induced cognition, and the meta-computational reduction of the material world to the symbolic language of AI. In particular, to shift the argument for a general artificial thinking away from these two main views of computation, one has to first address some key issues within computation itself that may start with the question of the limit of the Turing Machine. Critical computation may perhaps concern how unpredictability or randomness in information theory has been addressed not as a sign of logical failure, but as an evolution of an artificial thinking with and through the computational synthesis of calculus and logic.

PARI2019.10 Cf. Parisi, Critical Computation, op. cit., p. 112-113 : For Chaitin, computation corresponds to the algorithmic compressing of maximally unknowable probabilities or incomputables. Since Alan Turing’s invention of the Universal Turing Machine, incomputables have demarcated the limits of computation or formal reasoning (i.e., the deductive logic of axioms or truths). According to Chaitin, however, incomputable are only partially indeterminable insofar as within the computational processing of infinite information, the synthesis of logic and calculus has given way to a new form of axiomatic, experimental axiomatics. The computational processing of information involves the way algorithms compress information to a final probable state (i.e., 0s or 1s) and eventually mix and match data. However, computational compression rather demonstrates that outputs are always bigger than inputs, shaking the assumption that automated thinking is grounded in simple rules and that cognitive reasoning corresponds to the manipulation of symbols hardwired to the brain. Following Chaitin, it is possible to suggest that randomness in computation or that which constitutes the very limit of computational deduction, demarcates the point at which automated cognition coincides not with non-conscious functions involves an algorithmic intelligible capacity to extract more information from data substrates. Chaitin claims that computational processing leads to postulates that cannot be predicted in advance by the program and are therefore experimental insofar as results exceed their premise, and outputs outrun inputs).

PARI2019.11 Cf. Parisi, Critical Computation, op. cit., p. 113 : with algorithmic information theory, axioms results from an algorithmic intelligibility of data environments, involving a speculative function through which unknowns are algorithmically prehended.

LOMB2006 Le retrait de la vérité chez Gödel

Gabriel LOMBARDI, Le retrait de la vérité chez Gödel. Une étrange condition du succès de la science du réel in L’en-je lacanien, 2006/2 (n° 7), p. 31-42.

LOMB2006.1 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 31-32 : Il est communément admis que la logique fit ses premiers pas avec Aristote, mais ce sont les résultats obtenus vingt trois siècles plus tard par Kurt Gödel qui ont permis à Lacan de la distinguer comme étant la “science du réel” : elle ne s’occupe pas des objets de quelque réalité que ce soit – toujours questionnables dans leur vérité, dans leur objectivité, dans leur existence effective – mais seulement des impossibilités inhérentes au langage. Que l’investigation logique ne concerne pas la vérité mais la démonstration, Aristote l’explique depuis le paragraphe initial de Les Premiers Analytiques ; la démonstration est un procédé purement formel qui touche à la perfection dans la mesure où l’action du langage sur la sémantique de la signification et de la vérité reste en suspens tout au long du processus. “Si tous les a sont b, et c est a, alors c est b” est un syllogisme admis non seulement dans le cas où l’on remplace les lettres par homme, mortel et Socrate, mais aussi dans le cas où on les remplacerait par d’autres substantifs tirés au sort. Cependant, la vérité subsiste comme un facteur essentiel à la trouvaille du réel.

LOMB2006.2 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 32-34 : L’emploi que Gödel fit du concept de vérité fut surprenant, et d’une certaine façon, inexplicable pour les logiciens eux-mêmes – bien que maintenant personne ne rêve de réfuter aucune de ses preuves. Elle anticipe et exemplifie la thèse de Lacan sur le destin de la vérité dans le discours de la science. Dans les années qui ont précédé 1930, Gödel avait participé aux réunions du Cercle de Vienne ; sous l’influence de Wittgenstein, on y considérait la mathématique de nature syntactique ; dans ce lieu, parler de vérité arithmétique ou, plus généralement, de questions sémantiques était considéré insensé : “Ce dont on ne peut parler, il faut le taire” c’est la sentence finale du Tractatus. L’un de ses intégrants, Rudolf Carnap est arrivé à postuler que la mathématique est “la syntaxe du langage”, une pure syntaxe qui ne dénote rien ni n’aspire à être l’expression d’aucune vérité. C’était une position philosophiquement intéressante – elle a séduit tant d’intellectuels ! – mais scientifiquement stérile. Nous verrons qu’avant de bannir la sémantique, l’on pouvait encore en faire quelque chose d’autre. De leur côté, les formalistes de l’école de Hilbert pensaient que la démontrabilité formelle à partir des axiomes était une analyse correcte du concept de vérité mathématique. Gödel signala aussi l’insuffisance de cette position, puisqu’elle cache la distinction entre vérité et démontrabilité. Dans les systèmes formels étendus que Gödel a étudiés, il rencontra la situation suivante : il y a des propositions non déductibles dans le système, bien que vues de l’extérieur elles soient intuitivement vraies. Conscient de la place que tient l’intuition dans la mathématique – par opposition au raisonnement mécanique qui est aveugle –, au lieu de les écarter Gödel admit que la contradiction existe : une proposition non démontrable en un vaste système logico-formel peut en même temps être vraie en dehors de lui. Gödel s’éloigna du Cercle viennois sans avoir rien pris. Par contre, il se sépara autrement de la position de Hilbert, mettant en évidence qu’en vertu du théorème d’incomplétude de 1931, la notion de vérité ne coïncide pas avec la déductibilité formelle ; il prouva que cette dernière n’a pas nécessairement le dernier mot car ce n’est pas tout ce qui est vrai en mathématique qui est exprimable en un seul système logico-formel – aussi large qu’on le conçoive –. Or, ce n’est pas cela que Gödel écrit. Ou plutôt, il l’écrit et ensuite, étonnamment, dans le même article, il le supprime. En effet, la position de Gödel se distingue non seulement par sa liberté dans l’emploi de la vérité dans ses preuves – ce qui l’éloigne de Wittgenstein et l’écarte de l’École de Hilbert –, mais aussi par la combinaison singulière, déjà évidente dans l’article de 1931, entre l’emploi explicite de la notion de vérité dans la présentation intuitive de ses théorèmes, et sa complète élimination dans la démonstration précise qui le suit. Ce procédé s’est répété dans des textes ultérieurs. Entre 1929 et 1940 Gödel publia le plus remarquable de son œuvre, un total de quelques deux cents pages de travaux sur les fondements logiques de la mathématique. Il y inclut uniquement les aspects purement logico-mathématiques, irréfutables pour tous les courants épistémologiques, en laissant de côté toutes les questions philosophiques que l’on pourrait poser. Ce fut sa période créative à Vienne et elle prit fin avec son déménagement définitif à Princeton – où les échanges sociaux et la reconnaissance, comme dans le cas de Cantor, auront des effets dévastateurs sur son génie. Pendant la seconde moitié du XXe siècle plusieurs logiciens reconnus se sont cassé la tête en essayant de comprendre pourquoi Gödel s’est si radicalement abstenu, pendant sa période créative, d’inclure dans ses démonstrations des notions qu’il est évident qu’il employait “intuitivement”. Solomon Feferman, mathématicien prolifique, studieux et éditeur des œuvres de Gödel, a caractérisé ce choix dans son article “Kurt Gödel : Conviction and caution”. Il y souligne le contraste profond que l’on trouve entre quelques convictions sous-jacentes à l’œuvre de Gödel et l’extraordinaire concision des résultats publiés. Pourquoi ?, s’interroge-t-il ; et la question devient plus remuante si l’on se rend compte que cette réticence l’a privé de la paternité manifeste de notions aussi cruciales que celle la vérité formalisée, dont il céda le mérite à Tarski, et celle du calcul effectif, notion clé dans l’histoire de la science, qu’avec une générosité inquiétante il céda à Turing.

LOMB2006.3 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 34-35 : Feferman prit la peine de comparer la première version de la thèse de 1930 avec le texte présenté pour publication cet année-là et il a remarqué que tous les paragraphes indiquant une critique philosophique plus ou moins explicite des positions de Hilbert ou de Brouwer furent éliminés de la version finale. Ce n’est que trente années après que Gödel écrira en courrier privé sur “l’aveuglement des logiciens des années vingt qui les empêchait d’employer le raisonnement non finitiste.” Ce nouvel emploi de la raison sera précisément celui qui ouvrira la voie à un traitement du nombre, libre non seulement de la signification des symboles mais aussi de cet autre champ sémantique plus vaste, celui de la “vérité” que les combinaisons de symboles sont supposées apporter aux contextes qui les logent ou aux modèles qui les répliquent. La question de Feferman est donc la suivante : pourquoi Gödel, qui dans l’élaboration de ses résultats s’appuyait de façon évidente sur la notion de vérité, prit ensuite la peine de l’éliminer totalement dans ses démonstrations ? Gödel lui-même, les dernières années de sa vie, expliquera en privé que non seulement ce qui est déductible peut s’écarter de la vérité mais que celle-ci peut être supprimée des démonstrations logiques en réduisant son emploi à un “principe heuristique”, utile au mathématicien pour trouver des vérités même s’il ne réussit pas à les démontrer avec la rigueur requise par un système logico-formel. Dans une lettre à son confident Hao Wang, il écrira : “Je peux ajouter que ma conception objectiviste de la mathématique et de la métamathématique en général, et du raisonnement transfini en particulier, a aussi été fondamentale pour le reste de mon œuvre en logique. En effet, comment peut-on penser à exprimer la métamathématique dans les systèmes mathématiques eux-mêmes si on les considère comme étant composés de symboles n’ayant pas de signification, et qui n’acquièrent quelque substitut de signification que dans la métamathématique ? […] On devrait remarquer que le principe heuristique de ma construction des propositions numéro-théorétiques indécidables dans les systèmes formels de la mathématique est le concept hautement transfini de “vérité mathématique objective”, en tant il s’oppose à celui de “démontrabilité” avec lequel il a été souvent confondu avant mon œuvre et celle de Tarski.” La vérité est donc employée par Gödel comme “principe heuristique” non proprement scientifique, et remplacée dans les preuves par des répétitions qui se produisent “comme par hasard”. Une rencontre survenue sous la forme de la répétition permet de supprimer la vérité dans la démonstration. La vérité sera renvoyée par Gödel au transfini, à l’inaccessible du point de vue finitiste – ou simplement expulsée aux limbes précaires du discours philosophique. Voilà pourquoi les textes de Gödel ne parlent pas de vérité même si c’est elle, en tant que principe heuristique, qui a été le moteur de la preuve. Nous n’avons pas eu besoin de Lacan pour montrer cela puisque Gödel lui-même s’en était rendu compte, mais avec Lacan nous pouvons interpréter cette élimination de la vérité comme une forclusion, étrange parce que contrôlée et lucide, mais forclusion enfin : l’heure de la vérité est passée, et elle est passée sans que cela ne se dise ni ne s’occulte.

LOMB2006.4 Cf. Lombardi, Le retrait de la vérité chez Gödel, op. cit., p. 35-37 : Ce pas, qui n’est pas un tour de passe-passe mais un laisser tomber, c’est ce qui nous permet de voir en Kurt Gödel le cas, et dans ses élaborations logiques le pas, le plus clair et le plus précis dans toute l’histoire de la science, de la Verwerfung de la vérité comme cause – condition du discours de la science. Gödel ne reconnaîtra jamais à la formalisation de la vérité proposée par Tarski les titres de gloire qu’il accorda à la calculabilité effective de Turing dont il affirma : “avec ce dernier on a réussi pour la première fois, la définition absolue, c’est-à-dire indépendante du formalisme choisi, d’une notion épistémologiquement intéressante”. Entre 1929 et 1940 Gödel ne publia que ce dont il pouvait trouver la certitude de l’absolu, ce qui n’admet que des résultats logico-mathématiques et qui relègue à la condition de “préjugés” toutes les considérations philosophiques ou épistémologiques dépendantes de suppositions en principe étrangères à une science du réel. Gödel non seulement a établi la distinction entre le réel et la vérité du symbole, mais aussi entre ce qui appartient en propre à la science du réel et les questions philosophiques, sémantiques et idéologiques qui généralement l’affaiblissent et la diluent. Il pouvait être d’accord ou en désaccord avec des formalistes, des logicistes, des intuitionnistes, des platoniciens, il pouvait même voter pour Eisenhower – ce qui était de la pure folie selon son ami Einstein. Ses opinions autres que celles relatives à la logique en tant que science du réel étaient certes discutables, elles appartenaient à une réalité particulière – au monde du possible et de l’imagination, ou à l’univers partiel d’un délire qui y supplée –. Mais la rigueur logique qu’il exerça pendant toute sa vie était pour lui quelque chose d’indépendant des postulats philosophiques qui auraient pu le soutenir en tant que sujet. Il est connu qu’un même système formel peut s’appliquer à des réalités très différentes selon l’interprétation que l’on fait de ses symboles et de ses axiomes. Gödel a été – que l’oxymoron me soit permis – un spécialiste de l’absolu, un expert dans ce qui pour un système formel est viable ou impossible, quelle que soit l’interprétation sémantique faite. Sa position sur ce point, radicale et déroutante pour beaucoup, atteignit quelques sommets d’ironie : en 1931 il publia ses théorèmes les plus connus sur l’incomplétude et l’indécidabilité ; il peut donc passer inaperçu qu’à peine une année plus tard il ait démontré en quelques pages, presque en passant, que l’arithmétique classique est un sous-système de l’arithmétique intuitionniste… et vice-versa ! C’est-à-dire que malgré les apparences, malgré les discussions enflammées de ceux qui soutiennent des positions apparemment si différentes – semblant impliquer d’énormes changements dans la conception du monde –, il n’y a aucune différence d’amplitude ni de risque entre ces deux arithmétiques une fois éclairées à la lumière froide de la logique. Ceci a représenté un coup dévastateur pour la philosophie des intuitionnistes – qui avaient cru pouvoir éliminer la dangereuse versatilité de la logique et de l’arithmétique classique et sa richesse en ambiguïtés expressives, au moyen d’exigences et restrictions qui évitaient les paradoxes.

DUBA1951 Le Colloque de Logique mathématique

Dominique DUBARLE, Le Colloque de Logique mathématique in Revue Philosophique de Louvain, Troisième série, tome 49, n°21, 1951. pp. 120-130.

DUBA1951.1 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 121-122 : Il semble d’ailleurs que la situation créée par le développement de la Logique mathématique soit en train de se clarifier. Logiciens et Mathématiciens savent un peu mieux à quoi s’en tenir au sujet de leurs rapports respectifs. Les uns et les autres s’intéressent à l’Axiomatique. Mais ce qui fait le mathématicien, c’est l’utilisation d’une axiomatique donnée, le rapport entre une axiomatique (vécue plus encore qu’objectivée) et les faits mathématiques dont cette axiomatique vise à déterminer la certitude. Ce qui fait par contre le logicien, c’est l’attention donnée au rapport entre l’axiomatique et l’esprit qui la pose. Au moment cependant où elle s’est constituée, la Logique mathématique donna à penser plus ou moins confusément que ces deux perspectives distinctes allaient coïncider. La logique mathématique fut développée pour résoudre un certain nombre de difficultés de la pensée, en peine encore de bien débrouiller le valable et l’erroné en certains domaines, passablement complexes, de l’étude mathématique. Elle se constitua en outre en empruntant à la mathématique sa technique symbolique et en prenant ainsi elle-même un visage mathématique. Il en est résulté qu’elle suscita un instant l’espoir de substituer, en ce qui concerne la détermination des vérités mathématiques, l’étude méthodique des structures axiomatiques à la hasardeuse exploration des faits telle que le mathématicien a coutume de la poursuivre à partir des axiomes posés. Cet espoir a soutenu initialement la plupart des recherches sur la théorie de la démonstration. On en sait l’issue à peu près complètement négative : les secteurs mathématiques dans lesquels la vérité est a priori décidable ne dépassent guère le domaine d’une trivialité située largement en deçà des questions que les mathématiciens se posent coutumièrement. Le mirage est donc dissipé : pour à peu près tout ce qui l’intéresse, le mathématicien est renvoyé au travail traditionnel de la démonstration, qui se fait comme il peut, besogneusement. La logique mathématique semble donc n’avoir aidé le mathématicien que de façon négative, en clarifiant certaines procédures de raisonnement. L’apport d’une efficacité positive reste problématique. Ceci permettra de comprendre l’espèce de défiance des mathématiciens, tels ceux du groupe Bourbaki, devant les spéculations logiciennes sur l’axiomatique, alors qu’ils n’hésitent aucunement à recourir comme point de départ aux structures axiomatiques les plus abstraites. Cette défiance, c’est sans doute la dernière trace d’une attente déçue. Peut-être d’ailleurs l’esprit mathématique exagère-t-il ici sa déception : l’union de la logique et du symbolisme mathématique est vraisemblablement plus féconde qu’il ne lui apparaît, en dépit d’une certaine mise à la raison d’espérances par trop exorbitantes. Mais il faut attendre pour se faire une idée plus juste de cette fécondité. De leur côté les logiciens mesurent mieux la portée de leur effort. Les exposés du Colloque, chacun à leur manière, insistèrent beaucoup sur la modestie nécessaire au praticien de la logique. Un système formel est chose assez facile à construire. Étudier les propriétés d’ensemble d’un formalisme est généralement chose beaucoup plus difficile : on sait la peine que peuvent demander les démonstrations de non-contradiction ou les études relatives à l’indépendance des axiomes, sans parler des considérations ouvertes depuis les démonstrations de Gödel. Mais ces difficultés ne sont encore que peu de chose au prix de celles auxquelles se heurte celui qui veut essayer de jeter un pont entre le résultat d’études faites sur le formalisme et la détermination des vérités qui peuvent être atteintes en vertu du formalisme. De sorte que les logiciens, loin de penser avoir réussi à frayer une “voie royale” à la connaissance mathématique, tendent de plus en plus à voir dans leur effort un simple moyen d’approfondir la connaissance du discours propre à la science, à la science mathématique en particulier.

DUBA1951.2 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 123-124 : Un système formel, note Curry dans sa communication, est une construction de l’esprit dont il faut commencer à parler dans la langue usuelle si l’on veut être compris. Ceci implique entre la langue usuelle et le système formel construit une sorte de mouvement de va-et-vient indéfini de la pensée. Lorsqu’on traite le système construit comme une langue scientifique (point de vue auquel il semble bien que Curry lui-même ne donne pas entièrement son accord), ceci se transcrit dans l’inéluctable hiérarchisation des langues et méta-langues, bien connue depuis les études faites sur la formalisation de la syntaxe des langues scientifiques. Le rapport interne de la langue scientifique à sa propre syntaxe, qu’il est impossible en général de formaliser à l’aide des seules ressources de cette langue, est comme l’image du rapport externe du système formel à la langue usuelle, indéfinie, que sa construction présuppose. Il y a là, sous une forme technique, une indication importante : l’esprit touche, dans cette analyse, à l’impossibilité qu’il y a de réduire à la catégoricité scientifique le datum originaire qu’expose non scientifiquement le langage usuel. Peut-être cette réflexion devrait-elle être rapprochée des remarques si profondes que Gödel a faites à propos de l’hypothèse du continu, en pensant pour son propre compte que l’axiomatique actuelle de la théorie des ensembles n’épuise pas la réalité mathématique à décrire, qu’il y a donc encore un progrès d’invention axiomatique à réaliser [GÖDEL, What is Cantor’s continuum problem?, The American Mathematical Monthly, vol. 54, pp. 515-525.], seul capable de décider de la vérité ou de la fausseté de l’hypothèse du continu. L’intention de Curry n’était pas d’expliciter de pareilles perspectives. Il semble cependant que ce soit quelque sentiment de ce genre qu’il faille voir à l’origine de son refus de caractériser par autre chose que par l’acceptabilité (ou la non-acceptabilité) un système formel construit pour des buts scientifiques. Ses raisons ne sont peut-être pas simplement celles d’un pragmatisme au sens usuel du mot, bien qu’il soit parfois revenu dans la discussion au langage du pragmatisme. Pour notre propre part, nous préférerions discerner dans sa position la trace d’une épistémologie réfléchie et assez fine, capable de reconnaître clairement certains facteurs d’inadéquation formelle entre l’intention primordiale de la science et ce que l’esprit met sur pied pour y répondre.

DUBA1951.3 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 124 : M. Hermes distingue l’axiomatisation au sens usuel de la pratique mathématique et celle telle qu’on la trouve à la base de la construction d’un calcul logique. Le mathématicien cherche à formuler des propositions qui soient pour lui des origines de recherche et il demande que ces propositions qu’il assume soient cohérentes avec l’ensemble des conséquences appartenant solidement à la science mathématique. Il tend en conséquence à axiomatiser en travaillant dans la perspective sémantique au sens de Tarski. Le logicien, par contre, tend à construire un ensemble de suites de signes obéissant à certaines règles de formation et de décision spécifiées avec la dernière rigueur, mais pour elles-mêmes et abstraction faite des teneurs significatives dont les signes et les suites construites de signes pourront être les véhicules. Nous avons alors l’axiomatisation dans la perspective syntactique, au sens ou Carnap parle de syntaxe. Cette distinction est profonde et éclairante pour celui qui cherche à comprendre en philosophe la différence d’attitude entre le logicien et le mathématicien.

DUBA1951.4 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 125 : Le sujet de M. Heyting était la théorie de l’espace de Hilbert, exposée du point de vue intuitionniste. Ce point de vue permet de retrouver une partie importante des résultats désormais classiques en ce domaine : ils apparaissent alors chargés d’une force de signification qu’ils n’ont pas dans la perspective ordinaire. D’autres résultats ne sont pas retrouvés et le fait même qu’ils ne le soient pas prend, lui aussi, valeur significative. Le scrupule de l’esprit qui se refuse à considérer certaines démonstrations comme probantes constitue une sorte d’avertissement. Peut-être en effet l’objectivité mathématique se présente-t-elle autrement encore que ne le suppose le mathématicien ordinaire, qui traite hardiment son sujet comme si la réalité qu’il objective dans sa théorie devait se plier absolument aux conditions a priori qu’il accepte pour lois de sa pensée. On comprend alors que l’attitude d’esprit intuitionniste intéresse les physiciens qui, eux, ont bien l’impression de se trouver devant un genre d’objectivité moins docile aux lois classiques de la pensée que ne l’est l’objectivité mathématique usuelle. Cette façon si particulière qu’a l’intuitionnisme de se rapporter à l’objectivité scientifique, les réserves tant de fois examinées et si souvent critiquées qu’il formule à l’égard de certains procédés de raisonnement, ne sont cependant qu’un élément du fait intuitionniste. L’intuitionnisme en effet met en question, non seulement une conception classique de l’objectivité mathématique, mais aussi la conception traditionnelle de l’intersubjectivité scientifique.

DUBA1951.5 Cf. Dubarle, Le Colloque de Logique mathématique, op. cit., p. 129 : La logique mathématique donne en effet le moyen de construire un formalisme abstrait indépendamment de tout problème d’interprétation, puis de démontrer certains théorèmes sur la structure même de ce formalisme. Ces théorèmes sont vrais avant même, pour ainsi dire, que l’on ait décidé ce que l’on veut faire dire à ce formalisme. L’interprétation du formalisme par un modèle “concret” vient après. Au moment où elle se fait, il peut arriver que les résultats concernant le formalisme lui-même puissent préciser, non pas semble-t-il, la réalité même de la démonstration mathématique pour les entités qui font l’interprétation du formalisme, mais ce qui a trait au type de démonstration auquel on peut penser le cas échéant. On peut ainsi savoir que telle démonstration cherchée dépend, si elle est possible, de tel groupe d’axiomes ; ou encore que si telle démonstration est possible, alors on peut aussi songer à telle autre. Il n’est pas exclu que la suggestion se fasse si précise qu’elle conduise sans peine le mathématicien à un résultat relativement caché.

MASU2014 Le design des programmes

Anthony Masure, Le design des programmes : Des façons de faire du numérique, Thèse dirigée par M. Pierre-Damien Huyghe. Université Paris 1 Panthéon-Sorbonne, ufr 04, École doctorale d’arts plastiques et sciences de l’art. Discipline : Esthétique et Sciences de l’Art, spécialité Design, Thèse soutenue le 10 novembre 2014 en Sorbonne avec mention très honorable et félicitations du jury à l’unanimité, http://www.softphd.com/.

MASU2014.1 Cf. Masure, Le design des programmes, op. cit. : Dans cette mise en doute de la faculté des mathématiques à parvenir à une valeur de vérité universelle, Gödel nous intéresse parce qu’il désespère d’avance tout “programmeur” de parvenir à réaliser un système formel parfaitement automatisé (un programme) : il y aura toujours une thèse (un bug) qui ne pourra pas être démontrable (envisagée) au sein de ce système.

MASU2014.2 Cf. Masure, Le design des programmes, op. cit. : Un système formel est donc constitué d’axiomes (les points de départ) et de programmes (les thèses démontrables au sein du système), c’est un mélange de règles et d’expressions de cette règle (les expressions “en actes”). Ce que nous apprennent Gödel et Turing, c’est qu’en tant que langage informatique, tout programme est voué à l’incomplétude : il finira par “planter”. S’il n’est pas possible de concevoir un langage complet, il est malgré tout possible de gérer et d’anticiper les bugs (erreurs) par l’ajout d’autres programmes. C’est là que le concept de machine prend son sens : elle est ce qui marche et se complète seule. Cette façon de faire des programmes se donne ainsi comme impossible horizon de résoudre l’incomplétude par l’automatisation. La “machine universelle” de Turing joue comme modèle de programme informatique, un modèle de papier ramené à l’infini déroulé d’un ruban inscriptible.

MASU2014.3 Cf. Masure, Le design des programmes, op. cit. : Calculer, c’est symboliser, c’est effectuer des opérations sur des entités “discrètes” (au sens mathématiques du terme) pouvant se ranger dans des cases. Se pose alors la question du choix : “Pour certains besoins, nous devons utiliser des machines à choix dont le comportement ne dépend que partiellement de la configuration (d’où la notion de comportements possibles) : lorsqu’une telle machine atteint une configuration ambiguë, un opérateur extérieur doit intervenir et faire un choix arbitraire pour que la machine puisse continuer son travail” [A. Turing,  On Computable Numbers, with an Application to the Entscheidungsproblem, 1936, trad. de l’anglais par J.-Y. Girard, dans : La Machine de Turing, Paris, Seuil, coll. Points Science, 1999, p. 52].

CANO2014 Une petite histoire pas très sérieuse de deux très sérieuses logiques

Guillaume CANO, Une petite histoire pas très sérieuse de deux très sérieuses logiques, in Image des mathématiques, CNRS, 8 mai 2014, http://images.math.cnrs.fr/Une-petite-histoire-pas-tres.html.

CANO2014.1 Cf. Cano, Une petite histoire pas très sérieuse de deux très sérieuses logiques, op. cit. : En mathématiques, il faut dire ce qui est Vrai, l’axiome du tiers exclu n’est pas contradictoire et n’est pas aberrant non plus, il permet au mathématicien d’accéder à certains résultats et d’avancer dans la théorie. Mais en informatique il faut construire les preuves de manière algorithmique. Pour l’informaticien un objet existe seulement si il y a un algorithme qui permet de le calculer, donc l’utilisation de la logique intuitionniste lui assure que les objets sur lesquels il faits des preuves peuvent bien être obtenus par un algorithme.

CANO2014.2 Cf. Cano, Une petite histoire pas très sérieuse de deux très sérieuses logiques, op. cit. : Une preuve consiste à construire petit à petit ce qu’on appelle un arbre de preuve. Un arbre de preuve est une trace de toutes les règles que l’on a utilisées pour faire une preuve. Vérifier qu’un arbre de preuve est correct est quelque chose de très facile à faire. On n’a même pas besoin de connaître le sens des symboles ∧, ∨ ou → pour faire cela. Il suffit simplement de vérifier que les règles sont appliquées correctement, autrement dit il suffit de vérifier si toutes les règles utilisées ont la bonne forme. Ce que l’on vient de voir ici est une formalisation de la logique que l’on a présentée avant. Le fait que l’on n’ait pas besoin de connaître le sens des symboles pour vérifier ou même pour faire des preuves facilite l’automatisation de ces procédures. La formalisation est le premier pas vers l’automatisation de l’acte de démonstration et de vérification de preuve.

PROS2006 En toute logique

Frédéric PROST, En toute logique : une origine de l’ordinateur, in Interstices, 10/02/2006, https://interstices.info/en-toute-logique-une-origine-de-lordinateur/.

PROS2006.1 Cf. Prost, En toute logique, op. cit. : Babbage disait de sa machine analytique qu’elle “pourrait tout faire mis à part composer des chansons populaires”.

PROS2006.2 Cf. Prost, En toute logique, op. cit. : il imaginait que nos pensées pouvaient se décrire au moyen d’un alphabet des pensées humaines, qu’on pourrait combiner entre elles par des combinaisons semblables aux opérations de l’algèbre usuelle. C’est en particulier par cette notion de calculus ratiocinator que Leibniz s’inscrit dans la lignée des précurseurs de l’informatique.

PROS2006.3 Cf. Prost, En toute logique, op. cit. : c’est par une réponse négative à un problème sur le fondement des mathématiques que l’ordinateur a été défini – ce problème des fondements provenant lui-même de toute une réflexion sur les statuts relatifs de la vérité et de la démonstration (pendant longtemps les deux notions ont été considérées comme équivalentes).

DELE1979 Appareils d’États et machines de guerre

Gilles DELEUZE, Appareils d’États et machines de guerre : Cours de 1979-1980, https://soundcloud.com/user-375923363/sets/appareil-detat-et-machine-de.

DELE1979.3 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 58:57 : en logique, vous savez qu’à la formalisation s’est opposé, ou s’est distingué, du moins, quelque chose de très, très différent. Et ce quelque chose de différent, c’est justement ce qu’on a appelé axiomatique ou axiomatisation, et qu’il importe surtout de ne pas confondre l’axiomatisation et la formalisation.

DELE1979.4 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:00:05 : C’est complètement formel une axiomatique. Oui, c’est formel une axiomatique. Seulement, c’est une formalisation d’immanence, de pure immanence. C’est à dire, la formalisation se fait au même niveau que celui des ensembles formalisés. L’axiomatique est immanente à ses modèles. C’est par là que c’est pas une formalisation. Ou, si vous préférez, c’est une formalisation d’immanence, alors que la formalisation logique est une formalisation par transcendance.

DELE1979.15 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:24:38 : Une axiomatique est inséparable de ce qu’on appelle des modèles de réalisation.

DELE1979.16 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:34:17 : Il y a une axiomatique chaque fois que vous vous trouvez devant, ou chaque fois que vous construisez des relations, chaque fois que vous déterminez des relations entre éléments non spécifiés.

DELE1979.17 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:47:02 : c’est complètement différent d’une démarche de formalisation logique. Pourquoi ? Parce que dans une axiomatique vous avez un ensemble de relations fonctionnelles entre éléments non spécifiés qui baignent de manière immanente les modèles de réalisation en même temps que les modèles de réalisation effectuent directement chacun pour son compte, effectuent directement, chacun dans son hétérogénéité, chacun pour son compte, les relations de l’axiomatique. […] Les modèles de réalisation d’une même axiomatique sont hétérogènes les uns par rapport aux autres, pourtant ils réalisent la même axiomatique. D’où la notion proprement axiomatique d’isomorphie.

DELE1979.18 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:51:15 : la limite d’une axiomatique c’est le point où l’on ne peut pas ajouter de nouvel axiome sans que le système ne devienne contradictoire. On dit à ce moment-là que l’axiomatique considérée, que cette axiomatique, est saturée. C’est le problème de la saturation, ou des limites, des limites d’une axiomatique. Système saturé, lorsqu’on ne peut plus ajouter d’axiome sans rendre le système contradictoire.

DELE1979.19 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:53:21 : dans toute axiomatique un peu complexe, comportant un grand nombre d’axiomes, cette axiomatique comporte nécessairement un modèle de réalisation dans les nombres dits naturels. […] l’axiomatique ne pouvait dépasser la puissance du dénombrable.

DELE1979.20 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:57:47 : toute axiomatique, y compris l’axiomatique mondiale supposée, comporte un certain type et un certain nombre de propositions qu’on serait en droit d’appeler des propositions indécidables

DELE1979.21 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 19:53 : ne confondez pas la formalisation logique et l’axiomatisation. […] une formalisation, voilà ce que c’est : c’est le dégagement et la détermination de relations formelles entre éléments spécifiés d’après tel ou tel type. […] la formalisation logique ou logistique est la détermination de relations formelles entre éléments spécifiés d’après le type de proposition qui leur correspond. En ce sens, la formalisation érige un modèle à réaliser.

DELE1979.22 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 37:07 : Tandis que dans la formalisation, vous deviez passer toujours par une homogénéisation au niveau du type supérieur. Les ensembles de type 1 ne pouvaient comparés, du point de vue de la formalisation, ne pouvaient être comparés que dans la mesure où ils étaient homogénéisés par un ensemble du type 2. Les ensembles de type 2 ne pouvaient être comparés que dans la mesure où ils étaient homogénéisés par un ensemble de type 3. […] l’axiomatique, c’est précisément les relations fonctionnelles qui renvoient à des modèles de réalisation, la formalisation c’est les relations formelles qui constituent des modèles à réaliser […] contrairement à l’État archaïque, l’État moderne a cessé d’être un modèle à réaliser, et il est devenu modèle de réalisation par rapport à une axiomatique.

DELE1979.23 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 47:22 : le vrai et le faux ça suppose que ce qu’on dit a déjà un sens.

DELE1979.24 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 57:16 : l’axiomatique c’est encore une manière d’arrêter les flux, dans ce cas les flux de science.

DELE1979.25 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:02:15 : l’axiomatique c’est une espèce de structuration, de restructuration, de reterritorialisation symbolique. Voyez en quel sens je ferais la distinction, donc, entre trois concepts : les conjonctions topiques ou qualifiées entre flux. Les conjugaisons généralisées de flux. Et quelque chose de plus : les connexions, c’est-à-dire ce qui pousse les flux encore plus loin, ce qui les fait échapper à l’axiomatique même, et ce qui les met en rapport avec des vecteurs de fuite.

DELE1979.26 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:40:25 : nous aurions des raisons d’assimiler le capitalisme à une axiomatique, et aussi que nous aurions des raisons – je veux dire, premier point, assimiler le capitalisme à une axiomatique, je n’ai plus à le faire, parce que j’estime que ce qu’on a fait précédemment, toutes nos définitions du capitalisme, consistaient à dire oui, le capitalisme il surgit lorsque les conjonctions topiques sont débordées au profit d’une conjugaison généralisée, au profit d’une conjugaison généralisée de deux flux : le flux de richesses devenu indépendant, le flux de travail devenu “libre”.

DELE1979.27 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:45:13 : Est-ce qu’il y a bien une addition et un retrait des axiomes, des axiomes du capital ?

DELE1979.28 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:47:12 : C’est cette thèse des limites en tant qu’immanentes et non pas obstacle extérieur, qui en ferait des limites absolues, en d’autres termes, c’est lui qui engendre ses propres limites, et qui dès lors s’y heurte, et qui les déplace. Cette thèse fondamentale, je crois, pose le problème de la saturation, de ce qu’on pourrait appeler la saturation du système à tel ou tel moment.

DELE1979.29 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:47:48 : Les États et les pays, les États-nation, peuvent d’une certaine manière être considérés comme des modèles de réalisation de cette axiomatique du capital. En ce sens, quel est le statut des modèles de réalisation ? Quelle est la mesure de leur indépendance par rapport à la situation mondiale, par rapport à l’axiomatique elle-même, quelle est la mesure de leur dépendance, etc. ?

DELE1979.30 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 11 du 11/03/80, 1:48 : quels critères axiomatiques peuvent-ils nous permettre, nous permettent-ils, de nous orienter dans les situations politiques actuelles ?

DELE1979.35 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:09:45 : être vrai ou faux ça semble être une exigence de tout savoir ou de toute compréhension bien connue sous le nom de tiers-exclu.

DELE1979.36 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:11:25 : Mais voilà que pour des raisons ou pour d’autres, les deux procédés par lesquels l’axiomatique pourrait récupérer ces propositions indécidables ou du tiers-inclus, ne marche pas. Pourquoi ça marche pas ? Parce que on a beau ajouter des axiomes, il y a un certain type de proposition, les axiomes mordent pas dessus.

DELE1979.37 Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:21:25 : ces propositions indécidables, je dirais, c’est les lignes de fuite du système.

BELH2016 Entre le certain et l’incertain

Badreddine BELHAMISSI, Entre le certain et l’incertain, un siècle de controverses sur la fondation des Mathématiques (et de la physique) ou une petite histoire (un peu ) philosophique de l’ordinateur, 2016 https://www.researchgate.net/publication/316560750_Entre_le_certain_et_l%27incertain_un_siecle_de_controverses_sur_la_fondation_des_Mathematiques_et_de_la_physique_ou_une_petite_histoire_un_peu_philosophique_de_l%27ordinateur_Par_B_Belhamissi.

BELH2016.1 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : On sait que le projet de Hilbert était de formaliser complètement la Mathématique et le raisonnement Mathématique. Gödel et après lui Turing ont montré que cela n’était pas possible. Mais cet échec de la formalisation du raisonnement a néanmoins été une réussite dans la formalisation des algorithmes, c’est la vraie mèche responsable de l’explosion Babelienne du foisonnement de la technologie actuelle des langages de programmation informatique. Ce n’est peut-être pas complètement vrai, mais on peut dire que Turing a inventé l’ordinateur pour répondre à la question plutôt philosophique posée par Hilbert.

BELH2016.2 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Ce que Gödel et Turing ont montré : c’est que le raisonnement axiomatique formel possède des limitations. On ne peut formaliser le raisonnement axiomatique dans son entier.

BELH2016.3 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Cantor montre que le nombre de points sur une droite est plus infini (transfini, disait-il) que l’infini des nombres entiers. C’est la puissance du continu, dit-il.

BELH2016.4 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Avec Hilbert, un axiome n’est plus vrai car il traduit l’expérience mais car il s’inscrit dans un système consistant. Cela marque le début des mathématiques modernes et marque aussi un point de rupture avec les autres sciences dont on a souvent eu l’occasion de discuter ici. Ce changement a aussi une autre implication, en tuant le lien avec l’expérience, le problème de l’axiomatisation deviens un problème mathématique et, au même titre que les autres problèmes mathématiques, il pourra être étudié et mener à des démonstrations tel que le théorème de Gödel.

BELH2016.5 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Puisque ce qui jette le trouble et la contradiction en mathématique avec la théorie des ensembles est l’utilisation de mots et que les mots peuvent être très vagues, Hilbert propose un ensemble fini d’axiomes et un langage artificiel pour faire des mathématiques.

BELH2016.6 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : ces règles doivent être si précises que l’on pourrait avoir un vérificateur mécanique de ces preuves. Donc il est complètement certain, objectif et mécanique que la preuve obéit ou non uniquement aux règles. Il ne doit pas y avoir d’élément humain, d’élément subjectif et il n’est pas question d’interpréter.

BELH2016.7 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Le travail de Gödel a consisté à démontrer que dans les systèmes formels suffisamment complexes pour contenir l’arithmétique : on ne peut pas simplement démontrer la consistance ; si le système formel est consistant, alors il est incomplet.

BELH2016.8 Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Von Neumann lui, l’avait vu : la machine universelle de Turing s’identifie à la machine programmable capable de prendre en charge par le calcul n’importe quel problème. Il existait, bien sûr, déjà bien avant Turing des machines à résoudre des problèmes par le calcul, mais ces machines ne prenaient en charge par le calcul qu’un type très spécifique de problèmes. Ce n’est pas pour rien que John Von Neumann eut l’idée du logiciel et fut le premier programmeur de l’histoire de l’informatique, il a su voir cette flexibilité, cette notion potentielle d’universalité du calcul de la machine de Turing.

GANA2004 Alan Turing : du calculable à l’indécidable

Jean-Gabriel GANASCIA, Alan Turing : du calculable à l’indécidable, 19/02/2004 https://interstices.info/alan-turing-du-calculable-a-lindecidable/

GANA2004.1 Cf. Ganascia, Alan Turing : du calculable à l’indécidable, op. cit. : Indépendamment, en 1937, Alan Turing a circonscrit, à l’aide du concept de machine de Turing, une autre classe de fonctions répondant elles aussi à l’intuition que l’on se fait des fonctions calculables. Simplification extrême des machines possibles, qu’elles soient réelles, futures, ou simplement concevables, ces machines ressemblent, à s’y méprendre, à des machines à écrire à ruban dont on aurait supprimé le clavier. Plus précisément, elles se composent toutes d’un ruban infiniment long divisé en petites cases, sur lesquelles sont imprimés des idéogrammes puisés dans une réserve finie donnée par avance. Une petite fenêtre découvre l’une des cases de ce ruban à une tête de lecture, de sorte que la machine soit en mesure d’identifier l’idéogramme qui y est inscrit, de le gommer ou d’en imprimer un autre qui efface le premier. Le ruban peut se mouvoir vers la gauche ou vers la droite, de façon à placer l’une quelconque des cases qu’il contient sous la fenêtre. Outre son ruban, les moteurs qui le déplacent, la petite fenêtre de lecture, d’effacement et d’impression, une machine de Turing possède ce que l’on désigne ici comme des “états internes” […] les machines de Turing admettent un nombre fini d’états internes. Chacun conditionne de façon totalement déterministe les réactions de la machine aux nouveaux événements lus sur le ruban. Enfin, une “table”, ou ce qu’en termes modernes nous appellerions aujourd’hui un “programme”, décrit, pour chaque état interne, l’action exacte que la machine doit exécuter. Les actions possibles : “déplacement” du ruban vers la gauche ou vers la droite, “lecture, effacement ou impression” d’un idéogramme sur la case du ruban qui se trouve juste sous la fenêtre, et enfin, “arrêt définitif”, ainsi que l’état interne qui s’en suivra.

GANA2004.2 Cf. Ganascia, Alan Turing : du calculable à l’indécidable, op. cit. : Selon Turing, résoudre le problème de la décision est équivalent à pronostiquer la terminaison de l’exécution d’un programme informatique sur une machine de Turing. Turing a démontré qu’il n’est pas possible de concevoir un algorithme qui, étant donné un programme quelconque, nous avertisse avec certitude et au bout d’un temps fini si ce programme doit éventuellement “tourner en rond” et s’exécuter indéfiniment, sans trouver jamais la sortie.

DELM2014 Les machines de Turing

Yannis DELMAS-RIGOUTSOS, Les machines de Turing, in Histoire de l’informatique, d’Internet et du Web, Université de Poitiers, 28 août 2014, https://delmas-rigoutsos.nom.fr/documents/YDelmas-histoire_informatique/logique.html.

DELM2014.1 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Les calculateurs auraient certainement pu progresser encore longtemps sans devenir des ordinateurs. Entre les deux, il n’est pas qu’une simple différence de degré. Nous verrons que l’ordinateur introduit plusieurs différences majeures par rapport aux calculateurs. Pour le comprendre, nous devons revenir en arrière dans le temps. L’histoire de l’ordinateur proprement dit commence bien avant ses mises en œuvre matérielles, avec des recherches fondamentales de logique et d’algorithmique qui mettent en jeu des objets mathématiques très abstraits. Leur réalisation attendra la “faveur” de la seconde Guerre mondiale et de la guerre froide qui s’ensuivra. Plus encore, l’informatique s’appuie sur de nombreuses évolutions (voire révolutions) conceptuelles très antérieures, de l’ordre du siècle parfois. Toutes sont liées à la communication en général ou aux télécommunications en particulier.

DELM2014.2 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : L’élément le plus central de toute théorie de l’information, le changement conceptuel le plus fondamental, est la séparation fond-forme, l’articulation arbitraire qui peut s’établir entre un signifié et un signifiant, pour formuler cela en termes modernes (Ferdinand de Saussure, 1857-1913). Cette séparation, fondamentalement en germe dans le principe de l’écriture alphabétique, avait déjà intéressé les théoriciens du langage antiques et médiévaux, avant la linguistique moderne. Elle existait également dans un autre champ très pratique, là aussi depuis l’Antiquité, celui du cryptage de la correspondance pour des raisons de confidentialité, quel que soit son transport : à pied, à cheval ou électrique. Une des méthodes, simple, consistait à remplacer des lettres, des mots ou des expressions par des écritures spécifiques connues des seuls émetteurs et destinataires.

DELM2014.3 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Issue de ces réflexions sur le langage et de la nouvelle algèbre, qui se met en place au 19e siècle, la logique moderne reprend systématiquement et à nouveaux frais la question de l’articulation entre le sens, en particulier les valeurs de vérité (vrai/faux), et les notations, particulièrement dans le domaine mathématique. Dans un premier temps, suivant des principes remontant à l’arithmétique binaire de Leibniz (17e s.: 1646-1716) et au diagrammes d’Euler (18e s.: 1707-1783), les travaux de George Boole (19e s.: 1815-1864) définissent une algèbre, un calcul, des valeurs de vérité. Ces travaux eurent un impact considérable sur la logique naissante du début du 20e siècle. On montra, dès la fin du 19e siècle, que cette logique pouvait être mise en œuvre par des relais “téléphoniques”.

DELM2014.4 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Parmi toutes les questions théoriques qui intéressaient la logique à cette époque, une en particulier fut déterminante pour l’informatique. Beaucoup de mathématiciens pensaient à l’époque que le travail de démonstration mathématique était “mécanique” et qu’il était en principe possible de concevoir un procédé systématique permettant (potentiellement au bout d’un temps très long) de résoudre toute question bien formulée. Cette idée conduisit dans un premier temps à axiomatiser les mathématiques, puis, dans un second temps à formaliser la notion-même de procédé de calcul.

DELM2014.5 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Aujourd’hui on appelle “algorithme” un procédé de calcul décrit de façon systématique. Il permet, certaines données étant fournies, de produire un certain résultat (généralement la solution d’un problème donné). On connaît depuis l’Antiquité (au moins) de tels procédés, par exemple l’algorithme d’Euclide qui permet de poser une division de nombres entiers. Le nom “algorithme” a été donné en l’honneur du mathématicien perse Al-Khwârizmî (850) qui est à l’origine de la notation symbolique et de l’introduction du zéro indien dans l’aire culturelle arabe et qui rédigea une encyclopédie des procédés de calcul connus à son époque. Dans le domaine de l’automatique, le mot sera conceptuellement renforcé au 19e siècle par Ada Lovelace (1815-1852). Les logiciens du début du 20e siècle, en particulier Kurt Gödel (1906-1978), Alan Turing (1912-1954) et Alonzo Church (1903-1995), firent de ces algorithmes des objets mathématiques, à propos desquels il devenait donc possible de démontrer des théorèmes.

DELM2014.6 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Jusqu’aux années 1930, les mathématiciens pensaient généralement qu’il existait des algorithmes pour résoudre chaque problème et même un algorithme universel susceptible de trancher tout problème. Émise par Leibniz, cette hypothèse sera formulée en termes rigoureux par le mathématicien David Hilbert (1862-1943) : existe-t-il un procédé mécanique permettant de trancher tout problème mathématique formulé de manière précise ? Hilbert était un immense mathématicien, très influent, et ce programme suscita de nombreuses recherches, dont émergea la logique mathématique. Les travaux de Gödel, Turing et Church montrèrent par trois approches différentes qu’un tel procédé ne peut pas exister.

DELM2014.7 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : L’objet mathématique inventé à cette fin par Turing, qu’il décrit en 1936, donc bien avant les premiers ordinateurs, est sa fameuse “machine de Turing”. Ses principaux éléments sont : une bande infinie constituée de cases mémoire, un module de lecture/écriture de la bande et une unité de contrôle automatique permettant à chaque étape d’écrite une donnée puis de se déplacer à gauche ou à droite, le tout en fonction de son état antérieur. Il s’agit bien d’un dispositif universel : il permet de mettre en œuvre n’importe quel algorithme. Précisément (c’est ce qu’on appelle la “thèse de Church”) : tout traitement d’information réalisable mécaniquement peut être mis en œuvre par une machine de Turing appropriée. Si la machine de Turing avait eu une contrepartie matérielle, ç’aurait été la première machine à programme enregistré capable de traiter de façon universelle de l’information, autrement dit le premier ordinateur. La thèse de Church peut s’interpréter, aujourd’hui, en disant que tout traitement systématique d’information peut être réalisé par un ordinateur correctement programmé et suffisamment puissant. Attention : ceci ne signifie pas que tout problème est résoluble mécaniquement, seulement que ce qui est résoluble mécaniquement l’est informatiquement.

DELM2014.8 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Dans son article de 1936, On Computable Numbers with an Application to the Entscheidungsproblem, Turing fonde ainsi l’informatique, à la fois la science informatique et ce qui sera plus tard la technique informatique. Il donne aussi la première définition systématique des programmes informatiques.

DELM2014.9 Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Conceptuellement, ce précurseur théorique des ordinateurs est fondamentalement immatériel puisque les machines de Turing ne sont rien moins que des objets mathématiques. Un autre fait aura une incidence historique considérable : la notion-même de machine universelle porte en elle le fait que programmes et données, tous les programmes et toutes les données, sont fondamentalement de même nature.

LERO2019 Le logiciel, entre l’esprit et la matière

Xavier LEROY, Le logiciel, entre l’esprit et la matière : Leçon inaugurale prononcée au Collège de France le jeudi 15 novembre 2018, Paris, Collège de France 2019, https://books.openedition.org/cdf/7681.

LERO2019.2 Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : À plusieurs reprises, les mathématiciens et les philosophes se sont tournés vers le calcul comme source de raisonnements incontestables et accessibles à tous. Dès les années 1670, Gottfried Wilhelm Leibniz rêve de représenter les concepts philosophiques par des symboles mathématiques, et d’identifier les règles de calcul symbolique qui permettent de raisonner sur ces concepts. Avec ce calculus ratiocinator, comme il l’appelle, les désaccords philosophiques pourraient se résoudre par simple calcul : “Quando orientur controversiae, non magis disputatione opus erit inter duos philosophus, quam inter duos computistas. Sufficiet enim calamos in manus sumere sedere que ad abacos, et sibimutuo (accito si placet amico) dicere : calculemus.” “Alors, il ne sera plus besoin entre deux philosophes de discussions plus longues qu’entre deux comptables, puisqu’il suffira qu’ils saisissent leur plume, qu’ils s’asseyent à leur table de calcul (en faisant appel, s’ils le souhaitent, à un ami) et qu’ils se disent l’un à l’autre : ‘Calculons !’” [G. W. Leibniz, Nova Methodus pro Maximis et Minimis, in : Acta Eruditorum, oct. 1684.] Le chemin est long de ce rêve de Leibniz à la logique mathématique moderne. Cependant, cet impératif, calculemus, est resté comme un cri de ralliement chez les informaticiens : c’est notamment le titre d’une série de congrès sur le calcul symbolique. Calculons, mes frères ! Calculons, mes sœurs ! Il en sortira des vérités ! Dans la seconde moitié du XIXe siècle, la logique fait d’énormes progrès, avec la formalisation du calcul propositionnel (George Boole, 1854) et du calcul des prédicats (Gottlob Frege, 1879), ainsi que la naissance de la théorie des ensembles (Georg Cantor, 1875-1884)11. Vers 1900, il devient envisageable de fonder l’intégralité des mathématiques sur la base d’une logique formelle. Cependant, des paradoxes logiques apparaissent, qui minent ce beau projet. Le plus célèbre est le paradoxe de Bertrand Russell (1903) : si on peut définir A = {x ∣ x ∉ x}, “l’ensemble de tous les ensembles n’appartenant pas à eux-mêmes”, alors A appartient à A en même temps que A n’appartient pas à A. Cette contradiction interne rend la théorie naïve des ensembles incohérente et donc inutilisable comme logique mathématique. Le bel édifice des mathématiques, qu’on s’imagine s’élançant vers le ciel, bien appuyé sur de solides fondations, semblable à la tour Eiffel, ressemblerait-il davantage à la tour de Pise, penchant dangereusement à cause de fondations défectueuses ? C’est la crise des fondements des mathématiques, qui va préoccuper quelques-uns des plus grands mathématiciens et philosophes au début du XXe siècle. En 1900, David Hilbert, dans sa liste de 23 grands problèmes mathématiques ouverts, mentionne en deuxième position le problème de la cohérence de l’arithmétique – un fragment important des mathématiques. Vingt ans plus tard, il formule ce que nous appelons aujourd’hui le “programme de Hilbert”. Il s’agit de formaliser l’arithmétique par un système déductif [Composé d’axiomes (par exemple “n + 0 = n pour tout n”) et de règles de déduction (par exemple le modus ponens, “de PQ et de P je peux déduire Q”).] et de démontrer que ce système satisfait trois propriétés essentielles : cohérence : il n’existe pas de proposition P, telle qu’on puisse déduire P et sa négation non-P (la logique ne contient pas de paradoxes) ; complétude : pour toute proposition P on peut déduire P ou non-P (la logique n’a pas le droit de dire “je ne sais pas”) ; décidabilité (Entscheidungsproblem, “problème de la décision”) : il existe un procédé systématique – un algorithme, disons-nous aujourd’hui – qui, étant donnée une proposition P, décide si elle peut être déduite ou non. On voit ici que, tout comme Leibniz avec son calculus ratiocinator, Hilbert accorde une grande importance à la possibilité de calculer la véracité d’une proposition logique. Tel un professeur du Collège de France qui “passe” sur France Culture, Hilbert popularise ce programme via une célèbre allocution radiodiffusée en 1930, qui se conclut par “Wir müssen wissen ; wir werden wissen” : “nous devons savoir ; nous saurons”. Peu de temps après, nous sûmes… que le programme de Hilbert est irréalisable. En 1931, Kurt Gödel publie son célèbre premier théorème d’incomplétude, qui montre que toute axiomatisation cohérente de l’arithmétique contient un énoncé P tel qu’on ne peut déduire ni P ni non-P. En 1936, Alonzo Church et Alan Turing démontrent, indépendamment et suivant des approches différentes, les premiers résultats d’indécidabilité (du problème de l’arrêt d’un calcul), d’où il s’ensuit que le Entscheidungsproblem n’a pas de solution algorithmique. C’est la fin du programme de Hilbert mais le début d’un nouveau savoir. L’informatique fondamentale est née de cet échec du programme de Hilbert, telle une herbe sauvage qui pousse sur les ruines d’un temple effondré. Pour démontrer l’incomplétude, Gödel montre comment représenter toute formule logique par un nombre entier. Aujourd’hui, on utiliserait plutôt une suite de “bits”, 0 ou 1, et un codage plus compact que celui de Gödel, mais l’idée est bien là : toute information – nombre, texte, son, image, vidéo, formule logique, programme informatique, etc. – peut être codée par une suite de bits afin d’être transmise, ou stockée, ou manipulée par un ordinateur. Et pour montrer l’indécidabilité, Church et Turing caractérisent précisément ce qu’est un algorithme, créant ainsi la théorie de la calculabilité, chacun à sa manière. Turing formalise sa “machine universelle”, un petit robot imaginaire qui déplace une bande et y lit et écrit des symboles, capturant ainsi l’essence de l’ordinateur moderne : le calculateur programmable à programme enregistré. Church développe son “lambda calcul”, une notation algébrique centrée sur la notion de fonction, qui est le grand ancêtre des langages de programmation modernes. Cette naissance de la théorie de la calculabilité est un moment si important dans l’histoire de l’informatique qu’il mérite une métaphore culinaire. On dit souvent qu’un algorithme, c’est comme une recette de cuisine. Pour expliquer un algorithme résolvant un problème donné, comme pour communiquer une recette de cuisine produisant un plat donné, le langage naturel suffit : nul besoin de formaliser mathématiquement la recette. Ce n’est plus le cas s’il nous faut raisonner sur toutes les recettes possibles et tous les plats qu’elles produisent. Ainsi en est-il du problème de la recette (Rezeptproblem) : Toute nourriture peut-elle être produite par une recette de cuisine ? Pour répondre par la négative, il nous faut identifier une nourriture non “cuisinable”, comme l’ambroisie de la mythologie grecque, puis démontrer qu’aucune recette ne peut la produire. Pour cela, il est nécessaire d’avoir une définition mathématique de ce qu’est une recette. (Par exemple, “sonner à la porte de Zeus pour lui demander un reste d’ambroisie” n’est pas une recette.) Ainsi, nous allons développer une théorie de la “cuisinabilité” qui sera plus générale et plus intéressante que le Rezeptproblem initial. Mutatis mutandis et toutes proportions gardées, c’est une démarche similaire qu’ont suivie Church et Turing pour répondre négativement au Entscheidungsproblem. Qui plus est, les deux modèles de calcul qu’ils ont proposés, quoique d’inspirations bien différentes, sont équivalents entre eux, au sens où l’un peut simuler l’autre, et équivalents à un troisième modèle d’inspiration plus mathématique, les fonctions µ-récursives étudiées par Stephen Cole Kleene à la même époque. Une machine (la machine universelle de Turing), un langage (le lambda-calcul de Church), et une classe de fonctions mathématiques (les fonctions µ-récursives) s’accordent sur les fonctions qui sont calculables et les problèmes qui sont décidables. C’est la naissance d’une notion universelle de calcul, la complétude au sens de Turing. Des centaines de modèles de calculs sont connus aujourd’hui, des jeux mathématiques aux modèles inspirés du vivant en passant par l’ordinateur quantique, qui calculent tous les mêmes fonctions qu’une machine de Turing.

LERO2019.3 Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : Quelque chose manque encore pour que les rêves de Turing et les lambda-obsessions de Church débouchent sur l’informatique moderne : un aspect quantitatif, complètement absent de la théorie de la calculabilité. Ainsi, un problème peut être décidable simplement parce que l’espace des solutions est fini, en testant les 2N solutions possibles, même si cela épuiserait toute l’énergie de notre Soleil dès que N atteint 200 environ. De même, un modèle de calcul comme le jeu de la vie de Conway peut être Turing-complet et pourtant parfaitement inadapté à la programmation. La dernière étape qui mène à l’informatique fondamentale moderne est précisément la prise en compte de ces impératifs d’efficacité des algorithmes (efficiency) et de capacité à programmer ces algorithmes (effectiveness). D’un côté se développe l’algorithmique : la science de concevoir des algorithmes et d’en caractériser mathématiquement la consommation en temps, en espace, ou en énergie. De l’autre, la programmation de ces algorithmes – leur “implémentation” comme nous, informaticiens, disons – fait naître de nouveaux besoins : des principes de structuration et de composition des programmes ; des langages de programmation expressifs ; des sémantiques pour ces langages ; des techniques d’interprétation et de compilation pour rendre ces langages exécutables par le matériel ; des méthodes de vérification pour s’assurer de l’absence d’erreurs de programmation – le bug tant redouté. Ces savoirs, mi-empiriques, mi-mathématiques, sont autant de balises sur le long chemin menant de la spécification abstraite d’un logiciel à son implémentation effective. Ensemble, ils constituent le cœur des sciences du logiciel […]

LERO2019.4 Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : Arrivé à la fin de cet exposé, la première chose que je voudrais souligner, c’est l’ampleur des progrès dans le monde du logiciel depuis l’apparition de l’ordinateur. Langages de programmation de haut niveau, compilateurs, sémantiques, systèmes de types, spécifications formelles, logiques de programmes, outils automatisant entièrement ou partiellement la vérification, vérification de ces outils ainsi que des compilateurs : autant d’étapes franchies au cours des soixante dernières années qui décuplent – voire multiplient par mille – nos capacités à créer du logiciel sûr et sécurisé. Allons-nous atteindre la perfection logicielle, cet idéal où le logiciel se comporte exactement comme prescrit par sa spécification, et où la programmation devient invisible ? Comme tout idéal, il s’éloigne à mesure que nous nous en approchons… La bien mal nommée “intelligence artificielle” réalise des tâches, de perception notamment, inimaginables il y a quelques années encore, mais fait apparaître des “boîtes noires” vulnérables aux biais, au bruit, et à la malveillance. En termes de fiabilité du logiciel, cela nous ramène vingt ans en arrière et nécessite de nouvelles méthodes de vérification et de validation. Le matériel se révèle moins infaillible que les auteurs de logiciels le supposaient. Les vulnérabilités de type “Spectre” montrent qu’il a décidément bien du mal à garder un secret. Les méthodes formelles restent difficiles à mettre en place et continuent à terrifier beaucoup de programmeurs. Un premier pas serait de rendre plus agréable l’écriture de spécifications, par exemple via de nouveaux langages de spécification. Enfin, il faut s’interroger sur la manière dont nous enseignons l’informatique et même les mathématiques. Nos étudiants confondent souvent les quantificateurs “pour tout” et “il existe”. Difficile d’écrire des spécifications sans maîtriser les notions de base de la logique… La logique ! On y revient encore et toujours ! C’est le leitmotiv de cette leçon : l’informatique fondamentale qui naît de l’hubris des logiciens du début du XXe siècle ; les langages de programmation et leurs sémantiques ; les spécifications et les logiques de programmes ; jusqu’aux systèmes de types qui suggèrent que programmer et démontrer, c’est la même chose… Finalement, le logiciel serait-il juste de la logique qui s’exécute ? Pas toujours (l’erreur est humaine !) ; pas seulement (il y a d’autres dimensions à considérer) ; mais si seulement ! Être l’incarnation de la logique est une des meilleures choses que l’on puisse souhaiter au logiciel. Au moment où nous confions de plus en plus de responsabilités aux logiciels et déléguons de plus en plus de décisions à des algorithmes, dans l’espoir naïf qu’ils feront moins d’erreurs que les humains, ou pour d’autres raisons moins avouables, nous avons plus que jamais besoin de rigueur mathématique pour exprimer ce qu’un programme doit faire, raisonner sur ce qu’il fait, et maîtriser les risques qu’il présente. C’est dans cet équilibre entre rigueur formelle et créativité débridée que s’inscrit le logiciel ; c’est à nous, informaticiens et citoyens, de construire cet équilibre.

SIMA2015 Puis Turing vint…

Jean-Claude Simard, Puis Turing vint…, https://www.acfas.ca/publications/magazine/2015/02/puis-turing-vint.

SIMA2015.1 Cf. Simard, Puis Turing vint…, op. cit. : Trois écoles mathématiques concurrentes virent alors le jour, toutes trois déterminées à tirer les conséquences de cette crise et à y apporter les correctifs nécessaires. En quoi consistent-elles ? Soit on tente de rabattre les mathématiques sur la logique, les faisant profiter de sa rigueur. C’est l’immense programme qu’entreprit de réaliser le philosophe et mathématicien britannique Russell (1872-1970), en collaboration avec son ancien professeur Whitehead (1861-1947). On appelle cette première avenue le logicisme parce que, pour elle, la nature du nombre est dérivée. Soit encore on rejette certains types classiques de raisonnement parce qu’ils mènent à des contradictions lorsqu’on les applique à des ensembles infinis, une des marques de commerce de la théorie de Cantor. C’est ainsi que le mathématicien néerlandais Brouwer (1881-1966) et son disciple, le logicien Heyting (1898-1980), en viennent à écarter le raisonnement par l’absurde et le tiers exclu comme principes universellement valides. Cette deuxième approche est appelée intuitionniste, parce que ses deux promoteurs appuyaient les mathématiques sur l’arithmétique, qu’ils considéraient comme une production de l’esprit humain reposant elle-même sur la liberté créatrice et une intuition primitive du temps [Sur ce point, Brouwer reconnaissait volontiers sa dette envers le philosophe idéaliste allemand Kant (1724-1804) et sa célèbre théorie du temps et de l’espace comme formes a priori de la sensibilité.]. Cette avenue a d’ailleurs ouvert la voie aux diverses variétés de constructivisme, une position actuellement assez répandue chez les mathématiciens et les philosophes des mathématiques. La troisième et dernière solution considère aussi les mathématiques comme une construction de l’esprit, mais à la différence de l’intuitionnisme, elle fait son deuil de la vérité. Pour le formalisme, en effet, les mathématiques constituent une sorte de jeu intellectuel, et dans la série d’opérations qu’il développe, le mathématicien ne doit pas se préoccuper de la nature des symboles ou des signes qu’il manipule : seules lui importent la non-contradiction de ses propositions et la cohérence de ses démonstrations. Il n’a donc pas à se demander si ses axiomes de départ sont vrais ou faux, mais seulement si son axiomatique est consistante et si elle est complète. Cette position a été élaborée par le mathématicien allemand David Hilbert (1862-1943).

SIMA2015.2 Cf. Simard, Puis Turing vint…, op. cit. : C’est ici que le Britannique Alan Turing (1912-1954) entre en scène. Formé en mathématiques et versé en logique, il pense d’abord s’attaquer à la question très débattue des fondements. Mais il rejette à la fois le logicisme et l’intuitionnisme. Le logicisme parce que, selon lui, le nombre est une donnée primitive qu’on ne peut réduire à des caractéristiques ensemblistes. Sur ce point, il abonde donc dans le sens de l’intuitionnisme, sauf qu’il ne peut cependant accepter l’amputation que cette école impose à l’univers mathématique. Au début, Turing va donc emprunter l’avenue ouverte par Hilbert. C’est dans cet esprit qu’il s’inscrit, au printemps 1935, à l’âge de 22 ans, au cours donné à Cambridge par Max Newman, un adepte du formalisme. Cependant, il doit très vite déchanter. En effet, il subit alors un choc qui va orienter toute sa future vie professionnelle et intellectuelle : c’est le fameux Entscheidungsproblem, le problème de la décision. Ici, un mot d’explication s’impose. Pour réaliser son ambitieux programme, Hilbert devait présumer l’existence d’un algorithme, une procédure universelle permettant de déterminer avec certitude quels théorèmes on peut déduire d’un système d’axiomes quelconques, bref, permettant à coup sûr l’entscheidung, la décision (1928). Prenant ce programme à la lettre, Kurt Gödel (1906-1978), un jeune logicien autrichien, décide de le tester. Or il se rend compte que tout système formel suffisamment puissant pour inclure l’arithmétique des entiers naturels comportera au moins une proposition qui n’est pas décidable, c’est-à-dire qui n’est ni démontrable, ni réfutable à l’intérieur du système. En outre, il prouve qu’une axiomatique, quel que soit par ailleurs le nombre de théorèmes qu’on en peut dériver, ne saurait faire la démonstration de sa propre cohérence. Ce sont les célèbres théorèmes d’incomplétude (1931). L’espoir de produire un système formel à la fois cohérent et complet s’évanouissait soudain, et cette limite entraînait en même temps la chute du rêve hilbertien.

SIMA2015.3 Cf. Simard, Puis Turing vint…, op. cit. : Perplexe, Turing décide alors d’aborder autrement la question. Fort originale, son optique marquera l’histoire. S’il existe, raisonne-t-il, l’algorithme recherché par Hilbert doit être purement mécanique et, par conséquent, une machine idéale serait en mesure de le mettre en application. Dans un article intitulé On computable numbers, with an application to the Entscheidungs problem, il établit d’abord un lien logique entre proposition décidable et nombre calculable. Ensuite, il imagine ce qu’on appelle, depuis lors, une machine de Turing, c’est-à-dire le modèle abstrait d’une machine universelle de calcul. C’est ce cerveau mécanique, capable en principe de traiter toute fonction mathématique, pourvu évidemment qu’elle soit calculable (computable, comme disent les anglophones), que matérialisera plus tard l’ordinateur, le computer. C’est pourquoi, aujourd’hui, on considère ce travail comme une étape décisive dans la naissance de l’informatique théorique.

DEGU1980 Mille plateaux

Gilles DELEUZE et Félix GUATTARI, Mille plateaux : Capitalisme et schizophrénie 2, Paris, Les Éditions de Minuit, 1980.

DEGU1980.22 Cf. Deleuze & Guattari, Mille plateaux, op. cit., p. 448 : Les mathématiques ne cesseront pas d’être traversées par cette tension ; et, par exemple, l’élément axiomatique se heurtera à un courant problématique, “intuitionniste” ou “constructiviste”, qui fait valoir un calcul des problèmes très différent de l’axiomatique et de toute théorématique

DEGU1980.76 Cf. Deleuze & Guattari, Mille plateaux, op. cit., p. 576 : L’école “intuitionniste” (Brouwer, Heyting, Griss, Bouligand, etc.) a une grande importance mathématique, non parce qu’elle a fait valoir des droits irréductibles de l’intuition, ni même parce qu’elle élaborait un constructionnisme très nouveau, mais parce qu’elle développe une conception des problèmes, et d’un calcul des problèmes, qui rivalise intrinsèquement avec l’axiomatique et procède avec d’autres règles (notamment à propos du tiers exclu).

BLAN1955 L’Axiomatique

Robert BLANCHÉ, L’axiomatique, Paris, Presses Universitaires de France, 1955.

BLAN1955.1 Cf. Blanché, L’axiomatique, op. cit., p. 62 : Par un changement brusque d’attitude qu’on pourrait comparer à celui qui affecte la conscience devant une figure ambiguë, la pensée, au lieu de traverser les symboles pour viser, par leur intermédiaire, les choses symbolisées, s’arrête maintenant aux symboles eux-mêmes, remettant à plus tard leur interprétation éventuelle et leur retirant, pour le moment, leur fonction de symboles, afin de les prendre comme objets derniers.

BLAN1955.2 Cf. Blanché, L’axiomatique, op. cit., p. 73 : il est impossible de mener jusqu’à son terme final l’œuvre d’axiomatisation, la réduction de l’intuitif par sa résorption dans le logique : toujours il subsiste quelque chose d’antérieur, un intuitif préalable.

BLAN1955.3 Cf. Blanché, L’axiomatique, op. cit., p. 77 : Ainsi obtient-on, avec l’axiomatique, une importante économie de pensée : on rassemble plusieurs théories en une seule, on pense le multiple dans l’un.

BLAN1955.4 Cf. Blanché, L’axiomatique, op. cit., p. 78 : À ces avantages qu’offrent déjà, à quelque degré, les premières axiomatiques, viennent naturellement se combiner, dans les axiomatiques formalisées, ceux de tout calcul symbolique : sûreté, objectivité. Le caractère aveugle et quasi mécanique de ses démarches n’est pas son moindre intérêt : il permet de les faire exécuter par une machine, et de réserver ainsi l’esprit pour les opérations du niveau supérieur. Par la symbolisation et la formalisation des théories, et à la faveur des isomorphismes ainsi révélés, les grandes calculatrices américaines sont en train de devenir, sinon de vraie “machines à penser”, du moins des auxiliaires scientifiques dont les aptitudes dépassent très largement l’exécution des opérations ou problèmes purement numériques.

BLAN1955.5 Cf. Blanché, L’axiomatique, op. cit., p. 87 : En réalité, le formalisme ne peut fonctionner sans s’alimenter, de part et d’autre, à l’intuition.

BLAN1955.6 Cf. Blanché, L’axiomatique, op. cit., p. 88 : (I) Rappelons que deux ensemble sont dits avoir même puissance lorsqu’on peut établir entre leurs éléments une correspondance bi-univoque (c’est-à-dire qu’à tout éléments de l’un correspond un et un seul élément de l’autre, et réciproquement) ; que, pour des ensembles finis, avoir même puissance se ramène à avoir même nombre d’éléments ; que, pour des ensembles infinis, la plus faible puissance est celle du dénombrable (la suite indéfinie des nombres naturels) ; que la puissance du continu (celle, par exemple, des points d’une ligne, ou de l’ensemble des nombres réels) est supérieure à celle du dénombrables ; enfin, qu’on peut toujours construire un ensemble dont la puissance surpasse celle d’un ensemble quelconque.

BLAN1955.7 Cf. Blanché, L’axiomatique, op. cit., p. 89 : Si, maintenant, les systèmes qu’elle [l’axiomatique] réunit peuvent n’être pas isomorphes, c’est donc qu’elle laisse échapper certaines particularités des structures et qu’elle ne suffit plus à différencier celles-ci. Pour les distinguer, un recours à l’intuition sera nécessaire.

BLAN1955.8 Cf. Blanché, L’axiomatique, op. cit., p. 89 : De la théorie l’intuition se réfugie dans la métathéorie, puis de celle-ci, réduite à son tour à un système formel, dans la méta-métathéorie, et ainsi sans fin : toujours le maniement du symbolisme exige un survol de l’esprit. Les théorèmes de Gödel ont rendu la chose manifeste aux formalistes eux-mêmes.

BLAN1955.9 Cf. Blanché, L’axiomatique, op. cit., p. 97 : Les différences entre logicisme et axiomatisme se sont aujourd’hui presque évanouies, au point que les deux tendances se composent chez certains auteurs comme Quine.

BLAN1955.10 Cf. Blanché, L’axiomatique, op. cit., p. 97 : En transportant les problèmes sur le plan des constructions symboliques, le formalisme hilbertien parle un langage accessible à l’intuitionniste ; tandis que ce dernier est décidément entré, à la suite de Heyting (1930), dans la voie de l’axiomatique formelle.

BLAN1955.11 Cf. Blanché, L’axiomatique, op. cit., p. 103 : La vieille distinction entre science rationnelle et science empirique, lieu commun de l’épistémologie depuis l’époque de Bacon, mérite sans doute d’être conservée, mais à la condition qu’on cesse d’y confondre deux acceptions qui ne se recouvrent que partiellement, et que l’axiomatique permet de dégager clairement l’une de l’autre. Ou bien on l’entend comme une nette dichotomie, et alors elle ne divise pas les sciences en deux classes, elle marque une dualité intérieure à chaque science. Ou bien l’on veut ainsi distribuer les diverses sciences, mais dans ce cas la séparation est indécise et relative, comme celle d’une assemblée d’hommes qu’on répartirait en grands et petits. L’opposition des sciences formelles et des sciences du réel n’est justifiable que dans la mesure où, superposant ces deux distinctions, on appelle formelles celles qui, ayant atteint les premières un haut degré d’abstraction, se prêtent par excellence à un traitement axiomatique, et sciences du réel celles qui, moins avancées, se laissent difficilement détacher des interprétations concrètes. Ce faisant, on caractérise moins deux espèces de sciences que deux types idéaux qui se réalisent inégalement dans les diverses sciences ou, mieux encore, deux pôles de la pensée scientifique.

BLAN1955.12 Cf. Blanché, L’axiomatique, op. cit., p. 104 : La méthode axiomatique n’est pas seulement un procédé technique des mathématiciens ; on peut y trouver une illustration particulièrement suggestive, de la manière dont procède la pensée dans la connaissance. En lui appliquant les notions dont elle fait elle-même usage, on dirait qu’elle nous apporte, des opérations cognitives, un modèle concret, sur lequel on peut essayer une lecture abstraire.

BLAN1955.13 Cf. Blanché, L’axiomatique, op. cit., p. 105-106 : Le concret ne se définit que comme une vection. De la géométrie de Hilbert on peut remonter à celle d’Euclide, de celle-ci à la géométrie des Orientaux, de cette dernière à d’autres formes plus primitives : on va ainsi en direction du concret, on n’atteint jamais un concret pur, privé de toute conceptualisation, comme celui que l’empirisme feint d’étaler devant l’esprit. […] Un abstrait n’est dernier que provisoirement. Et il n’est jamais pensé seul, jamais présenté à l’esprit comme sur un tableau. Il n’apparaît que réalisé dans un modèle, fût-ce seulement le modèle symbolique. Pas plus que de contenu informe, nous ne connaissons de forme pure.

BLAN1955.14 Cf. Blanché, L’axiomatique, op. cit., p. 106 : Les notions un peu vagues de la théorie de la connaissance – concept et intuition, forme et contenu – s’y précisent dans la corrélation qu’elle [la pensée axiomatique] établit entre la structure abstraite et la réalisation concrète, entre le schéma et le modèle.

BLAN1955.15 Cf. Blanché, L’axiomatique, op. cit., p. 107 : le logicisme, l’idée d’une science rationnelle qui ne présupposerait plus rien, se voit démenti par la régression axiomatique qui, si loin qu’elle pousse, trouve toujours devant soi un “antérieur” non assimilé.

BLAN1955.16 Cf. Blanché, L’axiomatique, op. cit., p. 108 : Et rien ne manifeste mieux son [l’esprit] activité que l’établissement ou l’aperception d’une correspondance analogique entre le schéma symbolique et le modèle concret.

TIQQ2003 Tout a failli, vive le communisme !

Tiqqun, Tout a failli, vive le communisme !, Paris, La fabrique éditions, 2003.

TIQQ2003.11 Cf. Tiqqun, Tout a failli, vive le communisme !, op. cit., p. 243 : L’unité des avancées cybernétiques provient d’une méthode, c’est-à-dire qu’elle s’est imposée comme méthode d’inscription du monde, à la fois rage expérimentale et schématisme proliférant. Elle correspond à l’explosion des mathématiques appliquées consécutive au désespoir causé par l’Autrichien Kurt Gödel lorsqu’il démontra que toute tentative de fondation logique des mathématiques, et par là d’unification des sciences, était voué à l’“incomplétude”. Avec l’aide d’Heisenberg, plus d’un siècle de justification positiviste vient de s’effondrer. C’est Von Neumann qui exprime à l’extrême cet abrupt sentiment d’anéantissement des fondements. Il interprète la crise logique des mathématiques comme la marque de l’imperfection inéluctable de toute création humaine. Il veut par conséquent établir une logique qui sache enfin être cohérente, une logique qui ne saurait provenir que de l’automate !

WIEN1954 Cybernétique et société

Norbert WIENER, Cybernétique et société : L’usage humain des êtres humains, Paris, Éditions du Seuil, 2014, traduction Pierre-Yves MISTOULON, préface de Ronan LE ROUX, seconde édition originale 1954.

WIEN1954.17 Cf. Wiener, Cybernétique et société, op. cit., p. 150 : Il est possible de traduire la totalité des mathématiques en effectuant une suite d’opérations purement logiques. Si on incorpore dans l’appareil cette représentation des mathématiques, celui-ci sera une machine à calculer au sens ordinaire. Néanmoins cette dernière, outre les opérations habituelles, saura mener la tâche logique de canaliser une série d’ordres concernant les opérations mathématiques. Comme les calculateurs ultra-rapides actuels, elle contiendra au moins un grand ensemble purement logique. Les instructions adressées à une telle machine, comme on le fait actuellement dans la pratique, sont données par ce que l’on a appelé le programme. Les ordres donnés à la machine peuvent l’alimenter par un programme complètement prédéterminé. Il est également possible que les contingences effectives rencontrées dans le fonctionnement de la machine soient remises, en tant que bases d’un nouveau réglage, à un nouveau programme élaboré par la machine elle-même, ou bien à une modification de l’ancien programme. J’ai déjà expliqué de quelle manière ces processus sont, à mon avis, analogues à ceux de l’apprentissage.

ALIZ2017 Informatique céleste

Mark ALIZART, Informatique céleste, Paris, Presses Universitaires de France, 2017.

ALIZ2017.6 Cf. Alizart, Informatique céleste, op. cit., p. 14-15 : L’ordinateur est apparu au pays de l’utilitarisme. Mais il est sans doute plus décisif encore qu’il soit né à l’époque de sa crise. C’est la crise du monde industriel qui a mis Babbage sur le chemin de son invention : les entrepreneurs de son siècle étaient freinés dans leur développement par les machines à calculer qui étaient à leur disposition, machines qui ne pouvaient pas faire de calculs complexes comme ceux que nécessite la prévision des marées par exemple, et ce alors que le commerce maritime en plein essor demandait toujours plus de ce type de données. De même, c’est la crise des fondements de ce monde industriel, la grande crise de la logique des années 1900, qui a poussé Turing à développer l’informatique. Pour Turing, il s’agissait de faire mentir les mathématiciens Georg Cantor, Bertrand Russell, et surtout le logicien Kurt Gödel, qui venaient de découvrir qu’il ne serait jamais possible de rendre mathématiquement compte de la totalité de l’expérience humaine.

ALIZ2017.7 Cf. Alizart, Informatique céleste, op. cit., p. 15-16 : Babbage s’est donné pour tâche d’inventer un nouveau type de calculateur, comme Turing s’est donné pour mission d’inventer un nouveau type de logique. Mais l’un et l’autre ont surtout découvert à cette occasion que leur désir de prolonger l’utilitarisme par-delà son impasse impliquait en fait de rompre d’une manière radicale avec lui. Babbage a compris que résoudre le problème du calcul des marées ne passait pas seulement par l’invention d’une machine à calculer plus performante que les machines existantes ; il lui fallait concevoir une machine entièrement nouvelle. En effet, les limites des calculateurs en utilisation venaient de ce qu’ils sont essentiellement mécaniques alors que la vie ne l’est pas. La vie n’est pas linéaire, elle est cumulative, récursive, impressionniste et changeante. Pour fabriquer une machine aussi grande que la vie, Babbage devait parvenir à dépasser le concept de machine lui-même. De même, Turing a vite compris que dépasser les limites de la mécanisation de la pensée ne pouvait se faire qu’en dépassant l’idée que la pensée fonctionne de manière mécanique, comme le préjugeaient les tenants de la logique formelle. Car la pensée aussi est vivante. C’est une forme de vie. Prétendre l’imiter suppose paradoxalement de renoncer à la maîtriser, de lâcher prise, de se laisser aller au courant de la vie.

ALIZ2017.8 Cf. Alizart, Informatique céleste, op. cit., p. 16 : Ainsi, Babbage et Turing témoignent l’un et l’autre de ce fait méconnu qui est que l’informatique s’est inventée contre la mécanisation de la pensée, qu’il existe une différence de nature entre les machines à calculer et l’ordinateur. L’informatique a été inventée pour remédier aux carences du mécanisme, pour dépasser le monde des machines en crise, pas pour le prolonger. Ou du moins si elle l’a prolongé, elle n’a pu le faire qu’en transformant tellement le sens qu’on donne aux mots “machine” et “mécanisme” que la représentation du monde à laquelle elle a donné naissance a été en tout point inédite et irréductible à celle qu’offrait la pensée classique. Avec l’informatique, la métaphysique de la “présence” a dû céder la place à une philosophie du vide.

ALIZ2017.9 Cf. Alizart, Informatique céleste, op. cit., p. 17 : Toute mécanisation de la pensée repose sur cette opération de transmutation proprement onto-logique. Dans le boulier, il y a de la pensée, représentée sous la forme du nombre, et de l’Être, incarné par la boule. Il y a une certaine articulation de la pensée et de l’Être, de l’ontos et du logos. En ce sens, les machines à calculer “accomplissent” bien la métaphysique, pour reprendre le mot de Heidegger : alors que la métaphysique doit se contenter de porter des jugements sur l’Être, les calculateurs sont ces jugements, ils les effectuent. Leur capacité à traiter un contenu tient directement à leur forme.

ALIZ2017.10 Cf. Alizart, Informatique céleste, op. cit., p. 17 : Ce fait est fondamental parce qu’il détermine la puissance d’une machine à calculer. Celle-ci dépend directement de son niveau d’intégration entre Être et pensée, ou encore de la puissance de son ontologie. Ainsi, on voit que le boulier est une machine à calculer rudimentaire parce qu’Être et pensée y sont seulement “extraposés” – la pensée est d’un côté (dans la tête de l’opérateur) et l’Être de l’autre (sur les tiges du boulier). Être et pensée n’y sont pas “le même”, pour paraphraser Parménide. Le boulier n’autorise que des calculs pareillement extraposés : des additions partes extra partes, nécessitant autant de gestes que de nombres.

ALIZ2017.11 Cf. Alizart, Informatique céleste, op. cit., p. 17-18 : Réciproquement, le boulier nous renseigne sur ce qui constitue la limite intrinsèque de toute machine à calculer : une limite qui tient à celle de l’ontologie elle-même. Pour nous, créatures finies, pensée et Être sont irrévocablement distincts. C’est d’ailleurs cette séparation qui caractérise le “mécanisme” en tant que tel. Le mécanisme désigne le fait que “rien n’arrive sans raison”, autrement dit que les choses (les êtres) reçoivent leur forme (leur pensée) d’un autre qu’elle-même, elles sont commandées. Produire l’unité pure de l’Être et de la pensée suppose de s’extraire du continuum de l’existence : elle ne peut se concevoir que d’une entité qui serait “cause de soi”, à la fois hors de ce monde et entièrement égale à ce monde, d’une pensée produisant son Être en même temps qu’elle se pense.

ALIZ2017.12 Cf. Alizart, Informatique céleste, op. cit., p. 18 : La machine à calculer automatique est le premier pas qui mène au dépassement de l’ontologie mécaniste.

ALIZ2017.13 Cf. Alizart, Informatique céleste, op. cit., p. 19-20 : Précisément, la supériorité de la machine à calculer sur le boulier est d’abord, ou encore, une supériorité métaphysique. Dans le boulier, la pensée et l’Être (le nombre et la boule) sont chacun d’un côté. Dans la machine à calculer, la pensée et l’Être forment une vraie unité grâce à la roue qui les unit. La roue, qui est un Être, “accumule” la pensée. Elle la transporte également. Elle peut l’échanger. Toute action mécanique produit une action mentale. “Penser” et “Être” sont davantage “le même”.

ALIZ2017.14 Cf. Alizart, Informatique céleste, op. cit., p. 20-21 : Là encore, la puissance de la machine à calculer de Pascal est directement liée à son ontologie : l’unité de l’Être et de la pensée y est bien effective, davantage que dans le boulier, mais uniquement à l’intérieur de la machine. La machine entière reste, en tant que telle, contrainte par la limite ontologique déjà évoquée. Autrement dit, la machine ne se produit pas en calculant. Elle est un simple outil dont on se sert. Elle est indifférente à sa propre existence. Un chiffre entre (input), il est transformé, un autre chiffre sort (output), ainsi de suite à l’infini. Là encore, la machine a son principe “hors d’elle”. Elle est littéralement aliénée, autre à elle-même (alienus). Partant, son monde est aussi aliéné que celui de l’utilitarisme. Elle fait des calculs comme Charlot visse des boulons dans Les Temps Modernes, à la chaîne, sans jamais qu’il soit possible de lui faire faire autre chose.

ALIZ2017.15 Cf. Alizart, Informatique céleste, op. cit., p. 22 : Le principe de la machine à différences est simple en théorie : c’est une machine qui a la capacité de mémoriser les résultats de ses additions et de les réinjecter dans son système afin de les mettre à la disposition de nouvelles additions et d’autoriser de la sorte des additions progressives. […] Grâce à cette astuce, la machine à différences n’est plus linéaire. Son mécanisme est considérablement enrichi. Il est beaucoup plus proche d’une ontologie organique, dont la caractéristique est de pouvoir se modifier au cours du temps

ALIZ2017.16 Cf. Alizart, Informatique céleste, op. cit., p. 23-24 : Pour le dire comme Ada Lovelace – fille de Byron, mathématicienne de génie, élève de Babbage et figure tutélaire de l’informatique moderne –, la machine analytique ne relève plus du registre du calcul, mais de celui du “programme”. Les opérations sur les chiffres ne sont plus seulement des additions ou des multiplications, mais des ordres logiques (“si” 1 / “alors” recommencer / “jusqu’à” 0) selon les termes de la logique formelle, dont l’invention par George Boole est presque contemporaine de la machine de Babbage (1854). Aussi bien la machine peut-elle se prendre elle-même pour objet d’un calcul. Elle n’est plus indifférente à ce qu’elle fait. Elle peut enfin se modifier. […] La machine analytique n’est pas seulement plus puissante qu’une machine à calculer, elle est d’une autre nature. Les nombres ne circulent plus sur les roues dentées comme s’ils étaient montés sur elles à la manière de passagers clandestins. La machine n’est plus bête. Elle “sait” qu’elle transporte des nombres (elle peut même “savoir” qu’une roue est bloquée). Certes, elle ne sait pas pourquoi elle pense, ni même qu’elle pense, ni où elle pense ; elle ne peut pas se représenter, comme machine, à l’intérieur de sa machinerie, puisqu’elle est cette représentation même. Mais elle pense. Et chaque fois qu’elle le fait, elle réorganise toute son architecture pour “être” sa pensée. Précisément, la machine de Babbage est supérieure à la machine à calculer parce qu’elle possède une ontologie qui lui est supérieure. La boucle qui la constitue – “boucle étrange” plus exactement – voit résultat et programme, calcul et commande, contenu de l’opération et forme de l’opération s’échanger à même ses roues dentées. C’est-à-dire pensée et Être. C’est pourquoi on peut dire de cette machine qu’elle surmonte la limite ontologique des calculatrices : elle se produit elle-même en pensant. Elle abolit toute solution de continuité entre pensée et Être. Du point de vue de son fonctionnement, l’ordinateur ne relève plus du mécanisme. C’est une machine organique, elle a son principe “en elle”. Mais c’est encore davantage. Car elle n’est pas limitée à un programme. La machine de Babbage peut être n’importe quel organisme en fonction de ce qu’on lui demande de faire, elle peut prendre n’importe quelle forme […]. Moyennant quoi, ce n’est même pas une chose. On ne peut pas la rencontrer, la saisir. Ce qui la constitue, c’est le trou en son centre qui en détermine le fonctionnement. C’est un pur échangeur ontologique. Toute chose du monde, tout Être, n’est pour elle qu’une donnée, une data, une pensée. Et réciproquement toute donnée a vocation à devenir une chose, un rouage dans son système. Si bien qu’utiliser un ordinateur, c’est être utilisé par lui, c’est se voir devenir une ligne de code parmi d’autres et, inversement, accepter que le résultat d’une opération puisse piquer au vif.

ALIZ2017.17 Cf. Alizart, Informatique céleste, op. cit., p. 25 : Précisément, le mathématicien a également compris qu’il était possible d’articuler la pensée et l’Être dans une machine de telle sorte que la pensée passe dans l’Être et que l’Être passe dans la pensée jusqu’à ce qu’ils ne se laissent plus distinguer et que la machine elle-même ne se laisse plus distinguer du monde, rendant possible la création d’un appareil qui ne ferait plus simplement des opérations sur le monde, mais qui le serait.

ALIZ2017.18 Cf. Alizart, Informatique céleste, op. cit., p. 25-26 : La logique formelle désigne à la fois une organisation mathématique du discours et une organisation discursive des mathématiques. Elle a été inventée pour en finir avec les paradoxes indémêlables de la philosophie et pour articuler les différentes propositions mathématiques dans un langage universel vers la fin du XIXe siècle. Pour cela, elle a été structurée par des protocoles de pensée hyperrigoureux, c’est-à-dire hypermécanistes, issus notamment de l’algèbre de Boole, un contemporain de Babbage, qui a entrepris de réduire tout raisonnement à des règles strictes d’inclusion, d’exclusion et d’appartenance dans les années 1850. Elle s’est ensuite développée avec les travaux de Georg Cantor, qui a tenté d’élaborer une théorie complète des mathématiques, dite théorie des ensembles, qui ne se présentait rien de moins que comme une nouvelle ontologie, une nouvelle théorie complète de la réalité.

ALIZ2017.19 Cf. Alizart, Informatique céleste, op. cit., p. 27-28 : Gödel a semblé mettre un point d’arrêt à la possibilité d’une connaissance totale du monde qui animait, bon gré mal gré, la philosophie depuis des siècles. Il a borné la raison de l’intérieur. […] Pour Turing, le véritable intérêt de ce théorème n’est pas sa preuve en effet, mais la manière dont elle permet au cours de sa démonstration de substituer au couple forme/contenu, le couple discret/continu. La démonstration de Gödel prouve qu’il n’y a rien de discret pour la pensée pure, pour la pensée préconsciente, avant la mise en forme qui s’opère au niveau de la pensée consciente : il n’y a que du continu, que ce que Turing appelle du “calculable”, c’est-à-dire un échange incessant entre la forme et le contenu des nombres. Quand elle calcule, la pensée ne procède pas en ajoutant des unités aux unités, comme on le croit naïvement – parce qu’une unité ne veut rien dire pour l’esprit, pas plus qu’une addition –, elle procède en associant une “instruction” à un “état” (“il y a”/“il n’y a pas”). Autrement dit, la pensée ne traite pas le nombre comme une substance, mais comme une fonction, comme la limite ou l’arrêt d’une tendance. Et pour cause. Il n’y a pas de “choses” pour la pensée pure. La pensée ne peut traiter que la pensée elle-même, un Être entièrement dissout dans la pensée. Mais alors le théorème d’incomplétude de Gödel se retourne comme un gant : au lieu qu’il mette un coup d’arrêt aux prétentions de formaliser la logique, il lui donne une extension sans précédent. Les paradoxes logiques nous permettent de comprendre le vrai fonctionnement de la raison, partant, de la mécaniser comme jamais cela ne fut possible. Précisément, c’est ici que Turing retrouve la grande intuition de Pascal qui a pavé le chemin à l’invention de l’ordinateur. Le secret de la pensée est le même que celui de la machine à calculer : c’est l’opération de conversion, à même ses roues dentées, du discret en continu. Aussi bien, pour autant qu’on cesse de se représenter la pensée de manière mécaniste – comme une boîte (les ensembles), des outils (les opérations) et des pièces (les nombres) – et qu’on la remplace par une conception dynamique des processus mentaux – faite de programmes, d’algorithmes et de calculabilité –, la pensée peut être assimilée à une machine. La ré(invention) de l’ordinateur s’accompagne ainsi d’une toute nouvelle représentation du monde. L’espace de la pensée (et donc celui de l’ontologie elle-même) ne doit pas être considéré comme une terre plate au bout de laquelle se trouve le précipice du non-savoir. Il faut plutôt se le figurer comme un ruban de Möbius, un plan euclidien recourbé par un vortex repliant ses bords l’un sur l’autre, de sorte à ce qu’il n’ait plus d’extérieur ni d’intérieur. Ici encore, comme chez Babbage, le trou autour duquel la machine s’organise, le vide central des mathématiques, n’est pas stérile. Il est une puissance. Il est la véritable ressource dont procède tout Être et toute pensée.

ALIZ2017.20 Cf. Alizart, Informatique céleste, op. cit., p. 28-29 : Comme la machine de Babbage est construite autour d’un trou, dessiné par sa boucle, on peut dire de l’informatique qu’elle est bâtie autour d’un vide. Ce que Turing découvre, c’est que c’est parce que le mécanisme intégral est impossible que l’informatique est possible. C’est parce que la pensée est en mouvement, en “vertige”, qu’il lui faut autre chose qu’une mécanique pour être mécanisée.

ALIZ2017.21 Cf. Alizart, Informatique céleste, op. cit., p. 29-30 : Très contre-intuitif, son coup de génie [à Claude Shannon] consiste à comprendre que le seul moyen de déterminer la quantité d’information que contient un message passe par la suppression de toute référence au sens du message. Il n’y a “rien”, au sens propre, dans l’information. Pas de centre, pas de contenu, pas de noyau. La grandeur physique de l’information ne dépend pas du sens, mais de l’ordre. Elle désigne un certain degré d’incertitude quant à la forme du message. Pour le dire autrement, avec Shannon, l’information ne relève plus ni de la compréhension ni de son opposé, l’absurde (qui ressortissent tous les deux du sens), mais de l’ordre ou du désordre (qui est une grandeur mathématisable, connue en thermodynamique depuis les travaux de Boltzmann sur les gaz). L’information définit le degré d’organisation d’un système. Aussi bien, l’information est-elle identique à la formule de Boltzmann sur l’entropie des gaz, à son signe près, puisqu’elle ne calcule pas le degré d’entropie (de désordre) mais de néguentropie (d’ordre) du système.

ALIZ2017.22 Cf. Alizart, Informatique céleste, op. cit., p. 31-32 : L’idée de Wiener est que cette faculté des ordinateurs à interroger leurs propres résultats et à modifier leur comportement en fonction les apparente à des organismes vivants. […] Or, comme Shannon et Turing avant lui, Wiener pense que la meilleure manière de comprendre un organisme n’est pas de scruter ses intentions, son libre arbitre, ou son intériorité. Pour lui non plus, il n’y a rien à comprendre dans un organisme. En revanche, on peut décrire son comportement d’une manière purement formelle, comme s’il n’était qu’une machine à recevoir de l’information par ses sens externes, à la décoder et à agir en fonction, un pur protocole, un programme adaptatif.

ALIZ2017.23 Cf. Alizart, Informatique céleste, op. cit., p. 32 : Le monde a été entièrement encodé, traduit en nombres et en instructions. Autrement dit, le monde fait désormais vraiment partie de la machine. Et en se traitant, elle traite donc le monde.

ALIZ2017.24 Cf. Alizart, Informatique céleste, op. cit., p. 33 : Un ordinateur est une machine à calculer réflexive non linéaire et, en ce sens, ce n’est pas du tout une machine, c’est un organisme. Alors que les machines à calculer sont rigides et linéaires, incapables de se prendre elles-mêmes pour objet, incapables de souplesse, d’adaptation, d’évolution, et cela parce qu’elles sont pleines, les ordinateurs, qui sont vides au centre, qui ont la forme d’une boucle, peuvent revenir sur eux-mêmes, prendre le résultat qu’ils produisent pour objet et le réintroduire dans le processus du calcul, et donc progresser au cours de leurs opérations. Ils sont “automatiques” au plein sens du terme, c’est-à-dire au sens où ils donnent l’impression d’avoir un “Soi” (auto en grec), une volonté, une intelligence. Ils peuvent suivre un raisonnement, porter des jugements et prendre des décisions.

ALIZ2017.25 Cf. Alizart, Informatique céleste, op. cit., p. 42-43 : Whitehead a compris qu’il tenait, avec la découverte de Turing, un moyen de sortir des dualismes et des antinomies communes à la logique formelle et à la métaphysique. C’est pourquoi il a élaboré une métaphysique du “Process” où tout est “diffusion” (pour reprendre le mot de Turing), flux, ou encore algorithme (comme on dirait plus volontiers maintenant), même Dieu, et où l’opposition entre forme et contenu, pensée et Être, fini et infini qui grève la pensée depuis les Grecs, perd toute raison d’être.

ALIZ2017.26 Cf. Alizart, Informatique céleste, op. cit., p. 48 : La célèbre dialectique de l’Être et du Néant est d’abord la preuve par l’absurde que rien ne saurait être dit qui ne relève de l’unité de la pensée et de l’Être. De l’Être pur, de l’Être sans “détermination” (c’est-à-dire sans forme, sans eidos, sans idée, donc sans “pensée”), on ne peut rien dire, sinon qu’il est le néant pur. Et réciproquement, une détermination pure, qui ne viendrait rien déterminer, est absurde. Mais cela ne signifie pas que la pensée soit condamnée à ne pouvoir rien dire de rien. Car du fait que l’Être sans détermination tombe dans le néant, il ressort qu’il a au moins une détermination, celle de “devenir”. L’Être “devenu” est l’Être qui est déterminé par la pensée. Au commencement, nous dit Hegel, il n’y a donc que de l’information. L’Être est nativement informé. Il en va de sa nature même. Y compris avant qu’il ne transporte quelque information que ce soit. Il est la forme pure d’une information possible.

ALIZ2017.27 Cf. Alizart, Informatique céleste, op. cit., p. 49 : Au commencement, il n’y a que de l’information, un mixte de pensée et d’Être, et cette information est en même temps une informatique, un traitement automatique de l’information : voilà donc le premier mot de la Science de la Logique, ce qui en fait véritablement la première ontologie digitale, la première ontologie identifiant une informatique à l’œuvre dans l’Être.

ALIZ2017.28 Cf. Alizart, Informatique céleste, op. cit., p. 50 : Précisément, la différence entre mauvais infini et bon infini est que le bon infini a l’infini en lui-même : la roue peut générer le nombre, elle a en elle le principe d’engendrement du nombre (le + 1). C’est pourquoi la roue ne permet pas seulement de clore le chapitre de l’Être-là, mais d’ouvrir à la “quantité”. La quantité, c’est le continu. C’est l’infinité vraie, sans trous. Elle n’est pas composée d’un Être-là plus un autre Être-là plus un autre Être-là, mais du nombre qui se génère lui-même, en lui-même, à l’infini, dans l’ordre de l’infiniment grand et surtout, fait nouveau, dans celui de l’infiniment petit, de l’infinitésimal, du différentiel.

ALIZ2017.29 Cf. Alizart, Informatique céleste, op. cit., p. 50-51 : Aussi bien, Hegel suit ici encore Babbage : comme la machine à différences est capable de conserver en elle-même le fruit de ses opérations au moyen de ses unités de mémoire qui la rendent infiniment supérieure à la Pascaline, le bon infini de la quantité est capable de dépasser le mauvais infini de la qualité au moyen d’un processus d’intériorisation de ses opérations.

ALIZ2017.30 Cf. Alizart, Informatique céleste, op. cit., p. 53-54 : Pourquoi Hegel dit-il que l’Idée est “libre” ? Elle l’est pour trois raisons. 1) Parce que la boucle permet à la machine de juger. Or pour Hegel, la possibilité d’émettre des jugements est fondamentalement ce qui constitue le “Sujet”. Aussi bien le Sujet est-il le premier chapitre de la section du Concept, et, en tant que résultat de l’autotranscendance de l’essence, le Sujet est d’abord “entendement”. Il peut procéder à des jugements simples (ou bien/si/et) qui s’apparentent de près à la logique booléenne. 2) Parce que de la sorte, la machine se dote aussi d’une apparence de volonté. La machine prend des décisions. Elle ne se contente pas d’agir, elle est capable de rétroaction, de feedback, comme dira Norbert Wiener. La machine à penser devient une machine à commander, une machine cybernétique. 3) Parce que si le programme s’identifie à la machine, si ce qui fait tourner la machine est identique à la machine, alors l’unité de la pensée et de l’Être est désormais chez soi dans son autre, définition récurrente de la liberté chez Hegel. C’est ainsi qu’en même temps que le Sujet, l’objectivité apparaît également. L’objectivité désigne le fait que la machine-sujet est capable d’être une machine-objet, c’est-à-dire de poser le concept de machine en face d’elle, ou encore d’être une machine de machine, une machine universelle.

ALIZ2017.31 Cf. Alizart, Informatique céleste, op. cit., p. 67 : André Leroi-Gourhan nous l’a appris, l’homme a commencé par transformer les choses autour de lui en outils. C’est cette faculté de fabriquer des outils qui l’arrache progressivement au règne animal. Et on dit “progressivement” tant il est vrai que beaucoup d’animaux fabriquent des outils, comme s’ils étaient parvenus eux-mêmes au bord de l’hominisation par un autre chemin. Mais cette faculté n’a de sens en tant que processus hominisateur que parce qu’un outil, c’est un savoir déposé dans un objet, un objet organisé en fonction d’un certain savoir, ou encore une tentative de donner la conscience à un Être hors de soi, et de donner par là même de l’Être à la conscience. L’outil est la première tentative pour prendre conscience de la conscience, en la posant devant soi, ou, si l’on préfère, la première tentative de se débarrasser de la douloureuse scission intérieure qui constitue l’homme en tant qu’homme, en l’extériorisant dans un autre. Aussi bien, il est logique que ce geste doive donner naissance au langage. La conscience déposée dans la chose est, de fait, déjà un signe qui s’ignore. Et réciproquement, le langage n’est jamais qu’un outil, ou plutôt le propre corps de l’homme – son système ORL, ses mains – transformé en outil. Le langage n’est cependant, au commencement, que bruit, lui aussi. Il est cri. Il n’est pas encore le “propre de l’homme”, il est tout juste un fait de nature. Pour qu’il devienne le langage humain, il doit s’organiser. Et le langage a, pour ce faire, une qualité essentielle : l’autoréférence. On peut dire : “Je parle” ou “Ceci est du langage”. Le langage peut donc très facilement se faire machine.

ALIZ2017.32 Cf. Alizart, Informatique céleste, op. cit., p. 71 : Ainsi, l’État est-il une machine cybernétique complexe, comme l’ont intuitionné les philosophes qui l’ont comparé à un animal. Comme la machine analytique de Babbage, il a un programme (le Droit), une mémoire (la Constitution), une horloge (l’histoire des peuples), un moulin/processeur (le gouvernement, dont Hegel dit que la seule fonction est “la production incessante de l’État en général”). Mais surtout, on peut dire de l’État qu’il est à nouveau un cerveau. Il s’y échange des marchandises comme des informations qui empruntent des canaux spécifiques : routes larges comme des axones d’abord, puis de plus en plus fines, comme des dendrites, qui aboutissent à des échangeurs-synapses, qui desservent des villes-neurones. C’est pourquoi la fonction régalienne par excellence, la première, comme l’Empire romain en a fait la démonstration, c’est la construction de routes et d’aqueducs. L’histoire peut alors s’écrire comme l’histoire de l’accélération des transmissions sur ces canaux et la réduction du bruit qui les parasite : voiture plutôt que cheval, autoroute plutôt que voie carrossable, train plutôt que voiture, avion plutôt que train… Sécurité, police, etc.

ALIZ2017.33 Cf. Alizart, Informatique céleste, op. cit., p. 72-73 : La dernière section de la Philosophie de l’Esprit sur l’Esprit absolu décrit la machine de Hegel complète, le moment du réglage exact du Système, préalable à sa mise en marche. Elle comporte trois sections : “L’Art”, “La Religion révélée”, “La Philosophie”. Ces trois sections sont les trois dernières étapes que l’Esprit doit parcourir pour parvenir à réconcilier les deux côtés du Concept, l’unité de la pensée et de l’Être dans la pensée (le logique, l’Esprit subjectif) et l’unité de la pensée et de l’Être du côté de l’Être (la nature, l’Esprit objectif). Au terme de cette double réconciliation, l’histoire touche à sa fin, le temps est aboli, la philosophie est supprimée et l’âge de la Science s’ouvre. Vaste programme, pourrait-on dire. Mais peut-être pas pour un ordinateur, justement…

ALIZ2017.34 Cf. Alizart, Informatique céleste, op. cit., p. 76 : l’existence des ordinateurs traduit le fait que le Concept est parvenu au dernier stade de son histoire, le stade où bouliers et autres machines à calculer ont été dépassés. Le stade où le Tout formé par l’unité de la pensée et de l’Être est capable de se produire. À la fin de l’histoire, l’unité de la pensée et de l’Être prend conscience d’elle-même comme information et se donne les moyens de se produire et de se reproduire comme informatique. Elle revient à la Logique, ou plutôt elle la produit, et c’est cela qui est fondamental, puisque la Logique ne contenait pas, en elle-même, son automatisme. La Logique avait une existence purement abstraite, seule, au commencement du Système, à côté de la nature. Avec l’informatique, la Logique est produite par la nature, la nature produit son processus, sa forme, grâce à la médiation de l’Esprit, qui n’est jamais que la nature elle-même prenant conscience de soi.

ALIZ2017.35 Cf. Alizart, Informatique céleste, op. cit., p. 80-81 : Aussi bien, le temps ne cesse pas de couler, simplement il n’est plus un temps subi, imposé de l’extérieur, il n’est plus la marque du désordre et de l’entropie, il est un temps voulu, créé, qui inverse l’entropie : le temps produit par le calcul, nécessaire à la synchronisation des opérations du Système, ce temps que les informaticiens appellent le temps de l’“horloge” de l’ordinateur.

ALIZ2017.36 Cf. Alizart, Informatique céleste, op. cit., p. 89 : On sait beaucoup mieux maintenant que la nature est un équilibre systémique où même le chaos, produisent spontanément des formes organisées. On sait que le bruit n’est pas que l’opposé de l’information. Il en est partie prenante. Il est générateur d’information. Mieux, on peut désormais évaluer scientifiquement la stabilité de l’information en présence de bruit. Le mathématicien Andreï Kolmogorov a pu, dans les années 1960, mesurer la valeur de cette information intensivement structurée. Il a appelé cette nouvelle grandeur la complexité.

ALIZ2017.37 Cf. Alizart, Informatique céleste, op. cit., p. 101-102 : L’information désigne, depuis la découverte de Shannon, le contraire de l’entropie. Penser, c’est littéralement inverser le cours du monde. En l’absence d’information, l’énergie a vocation à se dissiper en chaleur. En présence d’information, ce processus peut être maîtrisé et même inversé. C’est pourquoi le physicien James Clerk Maxwell avait conçu l’expérience de pensée dite du “démon de Maxwell”. Cette expérience se présente comme suit : si un démon pouvait avoir une connaissance précise de la vitesse de chaque particule d’un gaz et qu’il était pourvu d’un petit instrument pour les ranger en fonction, il parviendrait, en distinguant celles qui vont vite (les chaudes) et celles qui vont lentement (les froides), à violer la deuxième loi de la thermodynamique. […] Maxwell se trompait sur un point crucial : réduire l’entropie d’un système a un coût, celui d’accroître l’entropie de l’information qu’il faut pour y parvenir. Or cette entropie informationnelle a aussi une valeur énergétique. À défaut d’avoir une mémoire infinie, le démon doit effacer de l’information. Et effacer de l’information libère de l’énergie sous forme de chaleur. Mais cet obstacle n’en est pas complètement un non plus. Car nous pouvons imaginer pouvoir stocker des quantités considérables d’information dans un futur proche. Il y a presque autant de connexions neuronales dans un seul cerveau que d’atomes dans l’univers (1012 pour être exact). Il y en a donc beaucoup, beaucoup plus dans plusieurs cerveaux associés par des machines, et encore plus s’ils sont associés à des machines. Et encore davantage, peut-être même une infinité, si ces machines sont des ordinateurs quantiques.

ALIZ2017.38 Cf. Alizart, Informatique céleste, op. cit., p. 129 : “C’est moins les réponses à ces questions qui doivent nous retenir que la démarche suivie par Gödel, dont Turing se servira pour son propre compte. Celle-ci est en effet très originale et consiste à opérer une arithmétisation de la métamathématique”, J. Lassègue, Turing, Paris, Les Belles Lettres, 1998, p. 56.

ALIZ2017.38 Cf. Alizart, Informatique céleste, op. cit., p. 129 : “À la source de l’expression humaine, on trouve une structure algorithmique seulement possible, structure disponible en quantité illimitée, dont l’équivalence avec l’intuition peut cependant être empiriquement retrouvée sous forme de trace partielle, mais dont on ne peut jamais être certain qu’elle soit pleinement consistante. Il me se semble que cette expression algorithmique, cette machine seulement possible, à la fois spontanée, infinie et nécessairement décalée par rapport à l’intuition, est une nouvelle façon d’envisager la notion d’inconscient, conçu comme inconscient mécanique”, ibid., p. 90.

ALIZ2017.39 Cf. Alizart, Informatique céleste, op. cit., p. 130 : “Le concept de machine de Turing est d’un même mouvement la caractérisation de la notion de calcul et l’outil permettant d’explorer le domaine du calculable. Cette réflexion du concept sur son propre domaine d’application incite à dire que le concept de machine de Turing se comporte comme un organisme qui aurait les fonctions calculables pour milieu. Selon cette interprétation, la notion de machine universelle en particulier apparaît comme un schéma capable de s’auto-entretenir : grâce à elle, toute table d’instruction peut être indéfiniment combinée à d’autres pour former de nouvelles machines. Il y a là une autoconstitution des machines par rapport aux fonctions dont elles rendent possible le calcul qui, assez paradoxalement, apparente le concept de machine à celui d’un organisme”, J. Lassègue, Turing, op. cit., p. 91.

ALIZ2017.40 Cf. Alizart, Informatique céleste, op. cit., p. 133 : la logique formelle est mécaniste, la logique hégélienne non. Ce qui ne signifie pas que la logique hégélienne ne soit pas mathématisable. Mais à la condition d’y faire entrer la notion turingienne de calculabilité qui fonde précisément l’informatique.

ALIZ2017.41 Cf. Alizart, Informatique céleste, op. cit., p. 134 : La démonstration est connue sous le nom de l’hypothèse du continu. On pourrait se demander si l’infini dénombrable ne désigne pas, en l’espèce, l’Être (les entiers), et l’infini continu la pensée (les réels), de sorte que leur unité serait en effet aussi impensable que celle de l’unité de la pensée et de l’Être.

LASS2003 Turing

Jean LASSÈGUE, Turing, Paris, les Belles Lettres, 2003.

LASS2003.4 Cf. Lassègue, Turing, op. cit., p. 22 : La guerre a donc eu une influence décisive sur Turing, faisant mûrir un certain nombre de ses idées touchant le rapport entre le calcul tel qu’il est défini en logique mathématique, les machines abstraites qui en effectuent les opérations et les machines physiques qui rendent possible cette effectuation au moyen de la technologie électronique : c’est la conjonction de ces trois points qui allait donner naissance à l’informatique.

LASS2003.7 Cf. Lassègue, Turing, op. cit., p. 27-28 : Le troisième niveau est celui du langage, formalisé par la logique mathématique. C’est à ce niveau que doivent se rapporter tous les énoncés, qu’ils émanent des sciences de la nature ou des mathématiques, pour être pleinement admissibles.[…] Il soutient en revanche très fermement des opinions sur les fondements psychologiques de l’investigation scientifique : d’où l’importance, chez lui, du niveau logique qui provient de son aspect subjectif plutôt qu’objectif. Tout raisonnement doit en effet pouvoir être rapporté au niveau logique parce que l’esprit humain est, pour Turing, une machine logique dont l’enchaînement des idées doit obéir à une norme, celle du calcul effectif : c’est pourquoi sa démarche scientifique consiste toujours à tenter de se placer du point de vue de l’effectivité du calcul. Il en résulte que la détermination de la nature comme celle de l’esprit peut être envisagée au moyen du même formalisme. […] Ce formalisme consiste à ne prendre en considération que la matérialité des formules (les différentes traces qu’elles font sur le papier) et leurs règles d’enchaînement. S’en tenir à la matérialité de l’écriture implique alors un point de vue discret : les signes sont discrets parce que les variations de leur forme n’entraînent pas de variations du signe. Aussi les formules abstraites du langage scientifique telles qu’elles peuvent être formalisées par la logique visent-elles “l’exportation” générale vers la sphère du discret de ce qui ne relève pas de cet ordre. Il existe donc une tension essentielle, chez Turing, entre une physique continuiste et sa description logique par le biais d’un langage écrit discret. Résoudre ce conflit consiste, pour lui, à montrer que le fossé entre le continu et le discret est compensé par un surcroît toujours possible d’écriture formelle. Le but que s’est fixé Turing n’est de ce fait accessible que parce qu’il est possible de recueillir au sein de formules composées de symboles spécifiques ce qui leur est par définition inaccessible : le continu non-linguistique qui sous-tend l’apparition de formes stabilisées au sein du réel physique, chimique ou biologique. Ainsi le chemin entre une physique continuiste et son investigation humaine par le moyen d’un langage discret passe-t-il chez Turing par une réflexion sur l’écriture formelle, réflexion qui associe de façon originale, nous le verrons, symboles abstraits et mécanisme.

LASS2003.8 Cf. Lassègue, Turing, op. cit., p. 37 : Dans l’axiomatique formelle, les axiomes prenaient alors un sens nouveau : ils étaient caractérisés par la seule forme des énoncés introduisant des propriétés. Il ne s’agissait plus de réduire les mathématiques à la logique – ce qui laissait intact un contenu de signification dans la notion d’ensemble – mais d’éliminer la signification même des énoncés pour permettre d’utiliser conjointement les répliques du concept de nombre et celle des connecteurs logiques – la logique devenant aussi du même coup “formelle” en un nouveau sens – Ainsi le couple réel / idéal s’établissait-il selon un nouveau partage : alors qu’auparavant, l’idéal renvoyait à un défaut des propositions que l’on ne pouvait pas interpréter parce qu’elles ne pouvaient pas être intuitionnées, contrairement aux propositions réelles, maintenant les propositions formelles étaient à la fois idéales parce qu’elles ne devaient pas être interprétées et réelles dans la mesure où elles étaient perçues seulement comme des assemblages matériels de signes écrits (symboles, schémas, croquis, bref, tous les signes rencontrés habituellement dans les articles de mathématiques ou de logique). Ainsi les questions de la nature et du pouvoir de l’axiomatique formelle ne concernent-elles pas un domaine parmi d’autres des mathématiques : elles concernent la nature de toutes les mathématiques ainsi que ce que le mathématicien est en droit d’espérer à l’égard de la résolution de tous les problèmes mathématiques en général.

LASS2003.9 Cf. Lassègue, Turing, op. cit., p. 38 : C’est ce finitisme de la pensée – c’est-à-dire sa réduction à l’effectivité d’une procédure – censé pouvoir maîtriser l’infini par le biais du formel entendu au sens de la métamathématique, qui fait le fond de la pensée formaliste de Hilbert. On voit donc que la racine de l’identification de l’esprit à une procédure effective “finitiste” est une conséquence nécessaire de la stratégie métamathématique telle qu’elle a été définie par Hilbert.

LASS2003.10 Cf. Lassègue, Turing, op. cit., p. 39-40 : Le même K. Gödel démontra en 1931 qu’une axiomatique formelle susceptible de servir de réplique à l’arithmétique des entiers est structurellement incomplète : on peut montrer qu’il y a un “reste” arithmétique qui échappe à l’axiomatique formelle quels que soient les aménagements axiomatiques ultérieurs susceptibles de se produire.[…] il devenait nécessaire de dissocier la déductibilité de nature syntaxique et la vérité de nature sémantique au sein de l’axiomatique formelle. D’un point de vue philosophique, la conséquence la plus apparente concernait le passage du finitisme métamathématique au finitisme de la pensée : ce passage perdait le caractère de présupposé nécessaire qu’il pouvait avoir chez Hilbert. […] Il fallait donc revoir à la baisse les espoirs conçus par Hilbert pour la stratégie métamathématique prise au sens strict et pour la méthode axiomatique en général, ou attendre, comme Gödel, d’une modification en profondeur du point de vue sur l’axiomatique, un dépassement des limitations internes touchant la complétude et la consistance.

LASS2003.11 Cf. Lassègue, Turing, op. cit., p. 40 : de Hilbert à Gödel, on passe de la construction d’une axiomatique formelle à celle d’une arithmétique formelle. Mais n’y a-t-il pas là un retour à la signification ? Comment ce retour à l’arithmétique est-il justifié puisque, en métamathématique, l’axiomatique n’est formelle que pour autant qu’elle se dégage de toute interprétation et qu’elle se présente comme une simple réplique fidèle de l’axiomatique à contenu ? C’est que l’instrument de cette fidélité peut précisément être le nombre. Le mouvement de réplication peut alors aller dans les deux sens : une fois constituée l’axiomatique formelle, celle-ci peut, précisément parce qu’elle n’a plus de signification, être recodée de façon rigoureuse sous forme de nombres. L’arithmétique des entiers subit donc une double transformation : on en abstrait tout d’abord l’aspect formel au moyen d’une axiomatique sans contenu et on recode ces signes ininterprétés, simples signes sur le papier, sous forme de nombres. A tout signe ininterprété de l’axiomatique formelle peut être attribué un nombre unique et toutes les formules ou suites de formules de l’axiomatique formelle reçoivent ainsi un nombre spécifique (appelé par la suite “nombre de Gödel”) qui leur appartiennent à chacune en propre. De cette façon, il devient possible de coder sous la forme d’une relation arithmétique, obéissant aux lois de l’arithmétique, les relations d’inférence entre axiomes et théorèmes. Les nombres servent ainsi de répliques à des propositions portant sur les nombres. On superpose donc deux interprétations sur ces mêmes nombres : une interprétation métamathématique et une interprétation arithmétique. C’est par ce biais que l’axiomatique formelle peut devenir un calcul formel et qu’une passerelle peut être construite entre la théorie de la démonstration et la théorie de l’arithmétique.

LASS2003.12 Cf. Lassègue, Turing, op. cit., p. 41-42 : La notion de calcul possède un équivalent technique – mais pas encore formel – dans la notion d’algorithme. Par algorithme, on entend la liste d’instructions que l’on doit suivre pour réussir à atteindre un résultat après un nombre fini d’étapes. […] Mais un algorithme ne permet pas seulement d’obtenir un résultat singulier : en tant que l’algorithme est une procédure générale, il permet de répondre à une classe de questions

LASS2003.13 Cf. Lassègue, Turing, op. cit., p. 45 : La notion de calcul, définie formellement dans le cadre de la métamathématique, permettrait ainsi d’aborder dans toute leur généralité les questions de décision : elle rendrait possible l’établissement d’une frontière entre les classes de problèmes susceptibles d’être résolues par un calcul et celles dont on peut démontrer qu’elles ne le sont pas et ne le seront pas, par conséquent de circonscrire avec précision la classe des fonctions calculables.

LASS2003.14 Cf. Lassègue, Turing, op. cit., p. 58 : Dans le contexte de la métamathématique de Hilbert et de sa réinterprétation en termes mécanistes par la thèse de Turing, il y a bien une mise en rapport du concept de machine universelle de Turing avec la notion d’esprit humain. […] Selon le Hilbert de 1928, la pensée devrait pouvoir s’extérioriser intégralement dans la manipulation des symboles que l’on évite d’interpréter au sein de l’axiomatique formelle. Mais Gödel et Turing, en remarquant les limitations internes de l’axiomatique formelle, ont montré qu’il n’était pas possible de prouver que cette extériorisation était bien complète. Dès lors, les machines ne sont que l’un des moyens d’expression du décalage perpétuel de la pensée algorithmique avec elle-même.

LASS2003.15 Cf. Lassègue, Turing, op. cit., p. 59 : On a vu que le concept de machine de Turing est, d’un même mouvement, la caractérisation de la notion de calcul et l’outil permettant d’explorer le domaine du calculable. Cette réflexion du concept sur son propre domaine d’application incite à dire que le concept de machine de Turing se comporte comme un organisme qui aurait les fonctions calculables pour milieu. Selon cette interprétation, la notion de machine universelle en particulier apparaît comme un schéma capable de s’auto-entretenir : grâce à elle, toute table d’instructions peut être indéfiniment combinée à d’autres pour former de nouvelles machines. Il y a là une auto-constitution des machines par rapport aux fonctions dont elles rendent possible le calcul qui, assez paradoxalement, apparente le concept de machine à celui d’un organisme. La nouveauté épistémologique capitale me paraît être l’aspect biologique de cette caractérisation du mécanique : dès lors, c’est plutôt la machine qui ressemble à l’organisme que l’organisme à la machine.

LASS2003.16 Cf. Lassègue, Turing, op. cit., p. 66 : à un certain niveau de description, le cerveau et la pensée peuvent être conçus selon le même plan d’organisation. Ce plan d’organisation commun, c’est précisément la simulation informatique qui permet de le figurer : elle autorise à considérer que “[…] le modèle de la machine à état discret est la description adéquate de l’un des aspects du monde matériel – à savoir l’activité du cerveau”[Andrew HODGES, Alan Turin and the Turing Machine in R. Herken, The Universal Turing Machine ; a Half-Century Survey, Oxford, Oxford University Press, 1988, p. 3]

LASS2003.17 Cf. Lassègue, Turing, op. cit., p. 72 : le problème de l’organisation matérielle des composants de l’ordinateur séquentiel et de leur interaction est dominé par des questions d’ordre temporel. L’aspect digital de l’information qui permet de manipuler une quantité d’information de la taille que l’on veut, compte tenu du degré d’exactitude que l’on souhaite atteindre, exige que le temps interne à la machine soit rendu discret, sans quoi les informations auraient tendance à s’amalgamer en un flux continu, ce qui interdirait tout traitement : c’est le rôle de l’horloge.

LASS2003.18 Cf. Lassègue, Turing, op. cit., p. 82 : en supposant que le modèle de la pensée émanant de l’analyse du jeu était valable pour toute pensée, Turing oubliait de remarquer que le jeu est un univers déjà formalisé et laissait, de ce fait, dans l’ombre tout ce qui dans la pensée ne relève pas du formel. Or les univers formalisés sont très particuliers parce que l’activité de formalisation qui les produit est une activité qui ne s’applique qu’à des domaines bien précis : les axiomatiques en sont un et les jeux en sont un autre. Il n’est d’ailleurs même pas sûr que ce soit par l’explicitation de règles que l’on devienne un bon joueur d’échecs car c’est plutôt l’appréhension de la pertinence du problème posé par la partie en cours qui distingue le bon du mauvais joueur. Quoi qu’il en soit, il est difficile de concevoir, à partir de ces cas, une généralisation à la pensée entière, sauf à concevoir que tout domaine est en droit formalisable, ce qui, sans être absolument exclu, est peu vraisemblable parce qu’une formalisation n’a d’intérêt que si elle porte au contraire sur des portions limitées de la réalité dont on connaît déjà bien les propriétés.

LASS2003.19 Cf. Lassègue, Turing, op. cit., p. 117-118 : Dans le contexte de la métaphore de la “machine- esprit”, c’est cette discipline absolue qui permet d’atteindre l’universalité, c’est-à-dire, dans le cas de Turing, de parvenir à l’invention du concept de machine universelle, comme Turing le fait remarquer dans un texte d’informatique immédiatement antérieur à “Computing Machinery and Intelligence” : “Transformer un cerveau ou une machine en une machine universelle est la forme la plus extrême de la discipline” [Alan TURING, Intelligent Machinery in Executive Committee National Physics Laboratory (HMSO), 1948, p. 49]. On a vu à quoi ressemblait cette forme extrême de discipline et on ne peut pas ne pas se demander quelle fut, pour Turing, l’expérience personnelle de type sacrificiel qui lui permit de dégager l’universalité du concept de machine de Turing, rendant ainsi possible, dans le domaine culturel, une “induction” jusqu’à l’universel.

LASS2003.20 Cf. Lassègue, Turing, op. cit., p. 138-139 : La profonde originalité de Turing, qui a rapproché de façon inédite des domaines scientifiques restés hétérogènes jusqu’à lui, est de, ce point de vue, incontestable. Il faut ainsi lui attribuer la paternité d’une nouvelle science dont le nom n’est pas encore définitivement stabilisé : intelligence artificielle, modélisation des systèmes intelligents, bio-informatique. Quel qu’en soit le nom, elle consiste en une mise en rapport de la logique et de la biologie. Quand, au XVIIe siècle, Galilée posa les premiers linéaments d’une autre mise en rapport, celle des mathématiques et du monde matériel de la physique, la philosophie cartésienne répondit au problème de cette mise en rapport par une métaphysique du fondement dans la véracité divine. Au problème actuel de la mise en rapport de la logique et de la biologie, la philosophie répond par une analyse de la notion d’intelligence à partir de la catégorie de Sujet.

NEUM1951 Théorie générale et logique des automates

John Von NEUMANN, Théorie générale et logique des automates, traduit de l’anglais par Jean-Paul AUFFRAND, précédé de Gérard CHAZAL, La Pensée et les machines : le mécanisme algorithmique de John von Neumann, Seyssel, Champ-Vallon, 1951 (1996 pour la traduction française).

NEUM1951.4 Cf. Von Neumann, Théorie générale et logique des automates, op. cit., p. 58 : Axiomatiser le comportement des éléments signifie ceci : nous supposons que les éléments ont des caractéristiques fonctionnelles, externes, bien définies, ce qui veut dire qu’on doit les traiter comme des “boîtes noires”. Il faut les voir comme des automatismes dont la structure interne n’a pas à être dévoilée, mais dont on suppose qu’ils produisent certaines réponses, définies sans ambiguïté, en réaction à des stimuli eux aussi définis sans ambiguïté. […] Je n’ai pas besoin de souligner les limites de cette procédure. Il est possible que des chercheurs engagés dans cette voie fournissent la preuve que le système d’axiomes utilisé est commode et proche de la réalité, dans ses effets du moins. Ce n’est cependant pas la méthode idéale, et peut-être même pas une méthode efficace, pour déterminer la validité des axiomes.

CAVA1938 Méthode axiomatique et formalisme

Jean CAVAILLÈS, Méthode axiomatique et formalisme : essai sur le problème du fondement des mathématiques, Paris, Hermann, 1938.

CAVA1938.1 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 29-30 : C’est l’originalité de l’intuitionnisme brouwérien que son effort direct pour résoudre le problème actuel du fondement des mathématiques l’ait amené à reprendre les thèmes essentiels du Kantisme : caractère intuitif immédiat de la connaissance mathématique où la vérité se constate dans une expérience sui generis ; définition de son développement comme une construction imprévisible, indépendante de la logique ; enfin primat du type de construction arithmétique sur le géométrique, transposition du primat du schéma nombre sur les synthèses dans l’espace. Toutefois l’intuition dont il s’agit ici n’a plus de contenu propre : la forme de l’espace est entièrement éliminée. Dans ses premiers exposés Brouwer “considérait le continu comme donné dans l’intuition temporelle” [Heiting A., Mathematische Grundlagenforschung Intuituinismus Beweistheorie, Ergebn. d. Mathematik, , Berlin, Springer, 1942, p. 19.]. Dans la doctrine actuelle si le temps opaque de l’histoire intervient, c’est extérieurement : l’apparition d’une solution à un problème peut infléchir dans une direction déterminée la construction en cours d’un objet mathématique ; mais le caractère intrinsèque de la construction en tant que mathématique n’est pas touché par là : si elle se déroule dans le temps, celui-ci ne représente guère qu’un ordre, temps actif du je pense unifiant plutôt que temps senti du je pense affecté. L’activité mathématique en réalité s’éprouve elle-même dan son développement original : on ne peut la définir mais la poursuivre. Tout au plus peut-on la caractériser à ses débuts “comme acte de volonté au service de l’instinct de conservation de l’homme isolé” [Brouwer, Mathematik Wissenschaft und Sprache, Monatshefte f. Math. u. Physik., t. 36, 1929, p/15.] par les deux phases où elle se manifeste, celle de la “position temporelle” et celle de la “position causale”.

CAVA1938.2 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 47-48 : Fonder les mathématiques est donc à la fois isoler les principes et décrire les modes d’enchaînement logiques, programme pour lequel Bolzano manquait d’instruments – il essaye, de façon assez curieuse, de déborder le cadre du syllogisme – mais que ses successeurs devaient réaliser. Deux tendances apparaissent en effet qui se juxtaposeront au long du XIXe siècle et agiront, l’une plutôt sur l’analyse, l’autre sur la géométrie. La première critique la logique, la ramène à un formalisme : si les habitudes mêmes de la pensée doivent être abandonnées, le substitut de l’évidence intuitive sera cette évidence sensible particulière que constitue l’aperception des symboles. Les opérations intellectuelles effectives sont remplacées par un jeu mécanique dans lequel on a confiance parce qu’on en a donné une fois pour toutes les règles. Ainsi la mathématique puisqu’elle n’est qu’enchaînements de raisons (et non plus d’intuitions) s’incorporera à une logique formelle élargie : l’aboutissement est le logicisme des système de Frege et de Dedekind, continués par Russel. La seconde au contraire laisse intact le raisonnement logique traditionnel : ce qui importe est l’analyse des notions et des principes initiaux, exactement recensés et à partir desquels il suffit ensuite de déduire correctement ; elle provoque toute l’exploration abstraite de la représentation spatiale, de Gauss à Riemann, aboutit à l’axiomatisation de Pasch, à celle perfectionnée des Grundlagen de Hilbert. Ainsi s’élabore, dans l’épreuve même de son efficacité, la méthode axiomatique. Enfin, au confluent, le système de Hilbert, le formalisme proprement dit. Le recours aux symboles est exigé par l’extension des opérations : si l’addition ordinaire possède l’évidence immédiate que lui reconnaît Kant, il faudra pour définir des espèces diverses d’addition ne plus procéder que par maniement de signes suivant des règles. Or, il faut élargir le calcul. Puisque les objets ne déterminent pas, dans une intuition désormais impossible, leur mode d’emploi spécifique, ils ne seront que des supports pour un certain traitement : la certitude de leur connaissance – et son contenu – ne peuvent provenir que de l’exact enchaînement des opérations qui leur conviennent. Donc, autant de calculs que de théories mathématiques et un calcul général qui les subsume tous et qui ne peut être qu’une théorie formelle des opérations.

CAVA1938.3 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 77-78 : La méthode axiomatique non seulement permet de fonder les mathématiques mais encore justifie leur application universelle dans les sciences de la nature. Grâce à elle nous atteignons, en effet, ce qui constitue “l’essence de la pensée scientifique”. “Tout ce qui peut être en général objet de pensée scientifique tombe sous le coup de la méthode axiomatique et par là, médiatement appartient à la mathématique [Hilbert D. Axiomatische Denken, Math. Ann., t. 78, 1918, p. 156.]”

CAVA1938.4 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 80 : Pour Hilbert, l’autorité d’un système d’axiomes, relative cette fois à la théorie dont il constitue l’indispensable préface, est fondée sur trois caractéristiques : non contradiction, indépendance des axiomes entre eux, saturation. Leur mode d’établissement seul peut leur donner un sens ; on voit toutefois que le premier fournit l’étoffe logique des deux autres : un axiome est indépendant des autres si le système formé de ceux-ci et de sa négation est non-contradictoire ; un système est saturé si l’adjonction de tout nouvel axiome, indépendant de ceux précédemment posés le rend contradictoire. Ainsi la non contradiction joue pour l’axiomatique le rôle que jouait l’identité pour l’axiome traditionnel. Exister, pour un objet mathématique, disait Poincaré, c’est être non contradictoire.

CAVA1938.5 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 98-99 : La métamathématique, ou théorie de la démonstration, devient la science véritable : ses objets seront les assemblages de signes ou formules, leur organisation en unités de dépendance ou théories. C’est dans le groupement de celles-ci, l’adjonction d’axiomes, l’épreuve de leurs fécondités relatives que consiste le travail réel, capable de procurer une vérité. La pensée est d’ailleurs toujours sûre d’elle-même, puisque la pleine conscience accompagne chacune de ses démarches, en nombre fini : les exigences intuitionnistes sont ici rigoureusement satisfaites.

CAVA1938.6 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 144-145 : L’originalité de Gödel est d’avoir effectué l’opération inverse, en essayant de déterminer ce qui, des procédés de la métalangue, peut être formalisé dans la langue. L’entreprise procure ainsi une analyse de la notion brute de raisonnement intuitif. En prenant comme langue l’arithmétique ordinaire, on peut coordonner de façon biunivoque aux nombres entiers tout le matériel symbolique, grâce à l’unicité de décomposition d’un nombre en ses facteurs premiers : les signes logiques (constantes, variables) sont représentés par des nombres (leurs numéros) ; les formules ou suites de signes et les raisonnements ou suites de formules, par le produit des n premiers facteurs premiers affectés comme exposants des nombres (numéros) correspondant aux signes – ou formules – de la suite. La coordination est évidemment biunivoque. Dès lors les concepts et les relations de la métascience deviennent des concepts et des relations arithmétiques, ils portent sur les numéros des formules.

CAVA1938.7 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 151 : On voit par là le décalage essentiel entre formalisme complet et les relations qu’il a charge d’exprimer ; la façade peut être sauvée parce que l’application des règles d’usage introduit des relations implicites qui n’apparaissent pas dans le formalisme : en y intégrant une partie de la syntaxe, Gödel a ressuscité le paradoxe du Menteur que l’on croyait définitivement éliminé. Il n’y a d’ailleurs paradoxe que relativement à la saturation, c’est-à-dire si l’on exige que le système se suffise à lui-même (ou qu’il y ait une seule langue) : la notion de totalité reparaissant rend vaine la distinction des types (faite à l’intérieur du système) ; on ne peut éviter la question de l’appartenance d’un élément à la classe de toute les classes du système, question débordant le formalisme (en tant que capable de fournir les réponses) mais posée par lui.

CAVA1938.8 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 166-167 : La théorie de la langue, comme image du monde, vient enfin donner au tautologique son sens négatif : les proposition logiques puisque syntaxiques n’ont pas de contenu (empirique), elles ne nous apprennent rien sur les faits [Wittgenstein, Tractatus logico-philosophicus, with an introd. by Russel, London, 1922, proposition 5.43.]. À cette définition un peu brève de la logique, les travaux de Carnap sont venus apporter élargissements et complications nécessités par le développement même de la technique formaliste. La relation de consécution cesse d’être univoque : on peut la définir arbitrairement par l’énoncé des règles de structure et de déduction. Chaque détermination engendre une syntaxe particulière : la logique n’est plus la syntaxe d’une langue, mais le système de toutes les syntaxes possibles. La non saturation de l’arithmétique et des théories qui l’englobent et ne les exclut donc pas de la logique : “tout concept mathématique peut être défini dans un système approprié et toute proposition mathématique peut être décidée dans un système approprié. Mais il n’y a pas un système unique qui contienne tous les concepts mathématiques valables. La mathématique exige une suite infinie de langues toujours plus riches” [Carnap R., Remarques sur la formation de la théorie abstraite des ensembles, Paris, Hermann, 1937, p. 165.]. Il peut y avoir d’ailleurs juxtaposition : ainsi Carnap envisage des relations de consécution infinie (une proposition est conséquence d’une classe infinie d’autres propositions) comme la dernière règle de Hilbert. C’est le principe de tolérance de la syntaxe ; on ne doit pas se demander : telle règle ou tels signes sont-ils admissibles ? mais : comment voulons-nous bâtir une langue déterminée ? – Mais cette tolérance ne risque-t-elle pas de détruire les thèse essentielles du logicisme ? D’abord l’évidence logique disparaît, ou du moins est repoussée des fondements (départ axiomatique) à l’enchaînement des procédés par lesquels est tirée de ces fondements la structure d’une syntaxe. Ici – deuxième conséquence – se produit un curieux renversement : ces enchaînements sont d’ordre mathématique. La logique devient une partie des mathématiques. La traduction de Gödel – que Carnap utilise pour définir deux exemples de langues (les langues I et II) – l’imposait. “Il n’y a pas de propositions particulières de la logique de la science. Les propositions de la syntaxe sont, partie, des propositions de l’arithmétique, partie, des propositions de la physique [dans la mesure où la syntaxe est descriptive c’est-à-dire étudie des discours effectivement donnés dans l’espace et le temps] qui ne sont appelés propositions syntaxiques que parce qu’elles sont rapportées à des configurations linguistiques ou à leur structure formelle” [Ibid. p. 210.].

CAVA1938.9 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 172 : Dans tous les cas la fécondité du travail effectif est obtenue par ces ruptures dans le tissu mathématique, ce passage dialectique d’une théorie portant en elle-même ses bornes à une théorie supérieure qui la méconnaît quoique et parce qu’elle en procède.

CAVA1938.10 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 176 : Mais où situer les expériences, à quoi reconnaître l’existence effective des objets ? Le problème est insoluble si l’on conserve l’ontologie non critique admise implicitement dans la plupart des discussions, la dualité d’un monde sensible en soi et d’une pensée confondue avec des manifestations historiques. D’où le recours à Platon, la référence à un système intelligible, garantie objective de la conscience empirique : il y a plutôt reconnaissance de l’impossibilité de s’en tenir au système des objets effectivement construits, affirmation d’une complexité de la notion d’existence mathématique, qu’indication vers une solution – à moins d’admettre une intuition intellectuelle qui, sans jouer de rôle dans le travail mathématique proprement dit, interviendrait pour rendre plausible un système d’axiomes, appréhender l’harmonie d’une théorie déjà construite et échappant à toute démonstration de non contradiction comme la théorie des ensembles dans l’axiomatique Zermelo-Frankel. Il semble plus sûr de ne pas rompre, même pour une justification, l’enchaînement avec les démarches de la conscience empirique depuis l’origine.

CAVA1938.11 Cf. Cavaillès, Méthode axiomatique et formalisme, op. cit., p. 180 : Dans cet enchevêtrement la notion d’expérience pure ou conscience disparaît. Quant à l’application des mathématiques à la “réalité”, c’est-à-dire au système d’interactions vitales entre homme et choses, il est visible d’après ce qui précède qu’elle n’intéresse plus le problème du fondement des mathématiques : l’enfant devant son boulier est mathématicien, et tout ce qu’il peut y faire n’est que mathématique ; mais l’ordre suivi, la liaison aussi avec d’autres expériences peuvent être dirigées par une intention technique de rôle d’abord négatif : arrêt de l’approfondissement de conscience réclamé par chaque expérience séparément. En second lieu abandon de tout a priori. La signification véritable de la logique semble avoir été définitivement précisée par Brouwer : c’est la traduction, dans la syntaxe du langage, d’expériences générales sur les systèmes finis ; son autorité est celle d’une première étape par laquelle il faut toujours passer, autorité identique à celle de l’arithmétique et de l’analyse pour les théories postérieures. Mais de là aussi, l’abandon d’une critique qui ne peut être efficace quand elle porte non sur les discours mathématiques mais sur la réalité des enchaînements. La contradiction n’est que l’expérience d’une échec (impossibilité d’accomplissement d’un geste prévu par la conscience inadéquate). D’où la confusion – que signalait Hilbert – entre existant, c’est-à-dire saisissable empiriquement, et non contradictoire : c’est, contrairement aux apparences, cela qui constitue le véritable sens de ceci.

STEN1997b Mécanique quantique : la fin du rêve

Isabelle STENGERS, Mécanique quantique : la fin du rêve. Cosmopolitiques IV, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997b.3 Cf. Stengers, Mécanique quantique : la fin du rêve, op. cit., p. 138-139 : En d’autre termes, l’axiomatique de von Neumann porte à une puissance quasi perverse l’ironie ambiguë du formalisme quantique. Car l’espace de Hilbert, où des “états quantiques” peuvent être représentés, suscite irrésistiblement une présentation de la situation où il semble bel et bien que la fonction d’onde “représente“ le système quantique. Un “réalisme hilbertien“, qui assimile l’espace de Hilbert à la “vérité physico-mathématique” transcendant le monde phénoménal comme l’espace quadridimensionnel d’Einstein transcende notre monde où l’espace et le temps sont séparés ; est donc quasi dicté au physicien (et au philosophe).

STEN1997e Pour en finir avec la tolérance

Isabelle STENGERS, Pour en finir avec la tolérance. Cosmopolitiques VII, Paris, la Découverte ; Le Plessis-Robinson, les Empêcheurs de penser en rond, 1997.

STEN1997e.2 Cf. Stengers, Pour en finir avec la tolérance, op. cit., p. 141-142 : Au parasitage généralisé que j’ai associé à la redéfinition capitaliste des pratiques à laquelle il s’agit d’abord de résister correspond peut-être l’ axiomatique capitaliste dont Deleuze et Guattari montrent, dans L’Anti-Œdipe, la différence de nature avec les anciens codes et les territoires qui leur correspondent. L’axiomatique capitaliste en elle-même n’est pas identifiable à un ensemble d’axiomes, elle n’existe que dans l’invention d’axiomes, leurs mutations, leurs réarticulations et dans l’ invention de re-territorialisations factices qui seront faites, défaites ou refaites selon les conjonctures. “C’est avec la chose, le capitalisme, que l’inavouable commence : il n’y a pas une opération économique ou financière qui, supposée traduite en termes de code, ne ferait éclater son caractère inavouable, c’est-à-dire sa perversion intrinsèque ou son cynisme essentiel […]. Mais précisément, il est impossible de coder de telles opérations [G. DELEUZE et F. GUATTARI, L’Anti-Œdipe, Minuit, Paris, 1972, p . 294 .].” L’invention d’axiomes est “hors calcul”, cela va sans dire, puisque c’est précisément la fonction des axiomes que de substituer à la négociation du problème les énoncés non négociables dont découlera sa solution. Il n’y a pas de “nous” qui tienne dans l’axiomatique capitaliste, et surtout pas le “nous” d’“individus capitalistes” qui les opposerait ensemble à tous les autres qu’il s’agirait d’exploiter. En ce sens, le capitalisme est bien “la limite de toute société [Ibid. , p. 292. Limite relative, est-il précisé, alors que la “schizophrénie” serait la limite absolue, limite extérieure au capitalisme mais produite par le capitalisme lui-même, terme de sa plus profonde tendance, et qu’il doit, par re-territorialisations factices, inhiber pour pouvoir fonctionner.]”, et Deleuze et Guattari semblent nous encourager à accompagner cette limite : “Mais quelle voie révolutionnaire, y en a-t-il une ? […] Aller encore plus loin dans le mouvement du marché, du décodage et de la déterritorialisation ? Car peut-être les flux ne sont pas encore assez déterritorialisés, pas assez décodés, du point de vue d’une théorie et d’une pratique des flux à haute teneur schizophrénique. Non pas se retirer du procès mais aller plus loin, ‘accélérer le procès’, comme le disait Nietzsche : en vérité, dans cette matière, nous n’avons encore rien vu [Ibid., p. 285.].”

CASS2004 Hilbert

Pierre CASSOU-NOGUÈS, Hilbert, Paris, Les Belles Lettres, 2004.

CASS2004.1 Cf. Cassou-Noguès, Hilbert, op. cit., p. 11 : […] le fonctionnement de la pensée, tel qu’il est décrit par le formalisme, est analogue à celui d’une machine, comme un ordinateur. L’esprit est un automate ou, plus précisément, une série d’automates agissant à différents niveaux. En outre, l’esprit, par son fonctionnement mécanique, est supposé capable d’une connaissance adéquate de l’univers des objets. Toute proposition vraie dans l’univers des objets peut être démontrée par l’un des automates qui constituent l’esprit. En faisant de la pensée une mécanique et une mécanique universelle, Hilbert donne une conception rationaliste de l’univers mathématique.

CASS2004.2 Cf. Cassou-Noguès, Hilbert, op. cit., p. 33 : Maintenant, les démonstrations peuvent, en toute rigueur, faire abstraction du sens des termes ou du contenu des notions. Elles sont purement formelles. Elles ne consistent qu’en des manipulations de signes, selon des règles convenues. Ces règles indiquent comment transformer une formule pour en déduire une autre formule. Une démonstration est un dessin, une suite de signes, dont les premières lignes sont des axiomes et dans lequel le passage d’une ligne à une autre est déterminé par des règles explicites. Chacun peut contrôler une démonstration et vérifier qu’elle est correcte. Une théorie mathématique est transformée en un stock de formules enchaînées selon des règles explicites. En deuxième lieu, il s’agit de démontrer la non-contradiction, ou la consistance, des théories formalisées. Or une démonstration, dans une théorie formalisée, est un dessin conforme à des règles explicites. Le problème est de vérifier qu’un tel dessin ne peut pas s’achever sur une contradiction, comme 0 ≠ 0. Dans ce but, Hilbert met en place une théorie de la démonstration, dont les objets sont les dessins de démonstration à l’intérieur des théories formalisées, et dont les raisonnements n’utilisent qu’un infini potentiel, ce qui leur donne une évidence immédiate. En somme, le programme formaliste est de fonder les mathématiques en remplaçant les raisonnements qui supposent un infini actuel par des manipulations de symboles dont on s’assure, au moyen de raisonnements finitistes, qu’elles ne produisent aucune contradiction. La méthode abstraite, qui émerge de l’algèbre et se radicalise dans l’axiomatisation, est poussée jusqu’à ses limites dans le programme formaliste. En effet, il s’agit, au moyen de la méthode abstraite, de formaliser les théories mathématiques et de les remplacer par des enchaînements de formules, vides de sens mais conformes à des règles convenues. La méthode abstraite semble permettre de recréer l’édifice entier des mathématiques. Pourtant, il faut reconnaître aux raisonnements qui n’utilisent que l’infini potentiel une évidence immédiate. Ceux-ci ne consistent pas en procédures formelles. Leur domaine marque les limites de la méthode abstraite.

CASS2004.3 Cf. Cassou-Noguès, Hilbert, op. cit., p. 38 : L’axiomatisation consiste à poser entre des objets, dont on ne précise pas la nature, des relations possédant certaines propriétés. Ces propriétés sont explicitées dans les axiomes. Les axiomes ont le même rôle que les énoncés qui, en algèbre, fixent les lois que vérifient les opérations arithmétiques. Ils définissent une structure entre des objets, quelconques. L’axiomatisation exprime, comme l’algèbre, un primat de la structure. Mais, de l’algèbre à l’axiomatisation, le primat de la structure est renforcé. En effet, en algèbre, on donne une structure à des objets, nombres ou invariants, supposés connus ou définis au préalable. Ainsi, on peut tirer un théorème d’un raisonnement à partir de la structure ou d’un raisonnement sur les objets. En revanche, le but, dans une axiomatisation, est de réduire le raisonnement à la seule déduction à partir des axiomes et de définir les objets par la seule position des axiomes. Idéalement, les axiomes donnent un appareil suffisant pour la définition des objets et pour les démonstrations que l’on peut entreprendre concernant ces objets.

CASS2004.4 Cf. Cassou-Noguès, Hilbert, op. cit., p. 39 : Néanmoins, le système d’axiomes, dans son rôle de définition déguisée, ne fixe pas les objets de façon univoque. En effet, l’axiomatisation, telle que la conçoit Hilbert, dissocie la géométrie de l’expérience sensible de l’espace. On fait abstraction du contenu des notions. La nature des objets, points, droites, plans, reste indéterminée. On se donne un système quelconque d’objets et de relations et on exige qu’il satisfasse aux axiomes. Tout système d’objets entre lesquels existent des relations vérifiant les axiomes est une géométrie. Par conséquent, on peut penser comme points, droites, plans des objets introduits dans d’autres domaines des mathématiques. Ce sont les différents modèles de la géométrie. Les mêmes théorèmes, déduits des axiomes, valent dans les différents modèles. Et, idéalement, ces modèles sont identiques à un isomorphisme près : on peut mettre en correspondance les objets et leurs relations. Pour le mathématicien installé dans son axiomatique, les modèles ne se distinguent pas. Pourtant, les axiomes admettent différentes interprétations et nous verrons que le jeu entre celles-ci est une méthode pour l’investigation des propriétés logiques des axiomes.

CASS2004.5 Cf. Cassou-Noguès, Hilbert, op. cit., p. 42 : Fonder un système d’axiomes, ce n’est pas mettre en relation les notions du système avec des objets de l’expérience, ce n’est pas justifier l’évidence des axiomes, c’est d’abord démontrer que les axiomes sont consistants. Or cela transforme les notions de vérité et d’existence mathématiques. Un axiome est vrai non pas en tant qu’il traduit un fait d’expérience mais en tant qu’il s’insère dans un système consistant. Un objet, ou une notion, existe non pas en tant que donné dans une intuition mais en tant que défini par des axiomes consistants.

CASS2004.6 Cf. Cassou-Noguès, Hilbert, op. cit., p. 51 : Les Principia Mathematica, que Russell et Whitehead publient en trois tomes entre 1910 et 1913, marquent une étape décisive dans le processus de formalisation des mathématiques. Les formalisations ou les axiomatisations que nous avons évoquées jusqu’à présent portaient sur des théories isolées, le calcul des prédicats pour Frege, l’arithmétique pour Peano, la géométrie pour Hilbert, la théorie des ensembles pour Zermelo. En revanche, Russell et Whitehead établissent un seul système formel pour représenter les mathématiques depuis l’arithmétique jusqu’à la théorie des ensembles. Les paradoxes connus, comme celui que Russell a découvert en 1902, sont éliminés. Le système comporte des axiomes et des règles d’inférences explicites et on ne peut pas reproduire, au moyen de ces axiomes et de ces règles, les paradoxes connus. Ceux-ci ne peuvent pas être formulés dans le système. Les Principia Mathematica semblent constituer un cadre sûr, puisque les paradoxes connus disparaissent, et suffisamment large pour les mathématiques. Hilbert verra dans les Principia Mathematica “le couronnement de l’œuvre même d’axiomatisation”. En donnant un système formel, d’axiomes et de règles d’inférence, Russell, qui adopte la même perspective que Frege, a pour but de réduire les mathématiques à la logique. Russell considère que les notions primitives, qui interviennent dans le système, sont des entités logiques, des idées, qui existent dans une sorte de monde superposé au monde spatio-temporel et que l’on connaît par une intuition, analogue à l’intuition sensible. Les notions primitives ont un contenu, qui précède les axiomes. Elles ne sont pas définies par les axiomes mais dans des explications préalables. Les axiomes sont des propositions vraies, en vertu des notions qu’ils contiennent. Une démonstration de consistance ne serait qu’une confirmation de leur vérité. Ainsi, Russell ne donne pas la même portée que Hilbert à la formalisation. En outre, Russell accorde un statut particulier à trois axiomes, dans les Principia Mathematica, l’axiome de réductibilité, l’axiome du choix et l’axiome de l’infini.

CASS2004.7 Cf. Cassou-Noguès, Hilbert, op. cit., p. 52-53 : L’intuitionisme est un mouvement engagé en 1907 par Brouwer, visant à une réforme des mathématiques. L’intuitionisme s’oppose au formalisme de Hilbert et au logicisme de Russell. Si Hilbert et Russell ont une conception différente du fondement, leur but est le même : isoler les procédés suspects, qui conduisent aux paradoxes, délimiter les procédés valides, les fixer dans un système formel et fonder celui-ci, par renvoi à une intuition logique ou par une preuve de consistance. Les paradoxes représentent une excroissance monstrueuse des mathématiques. Il est possible d’éliminer les paradoxes, sans amputer les mathématiques, et de fonder celles-ci, de façon à écarter le risque de nouveaux paradoxes. Pour Brouwer, en revanche, les paradoxes mettent en question les mathématiques classiques. Les paradoxes mettent en évidence un usage abusif des règles logiques. Les règles logiques, lorsqu’elles sont explicitées dans un système formel, permettent de tirer mécaniquement un énoncé d’un autre en ne considérant que la forme des énoncés et en faisant abstraction de leur sens. Or, appliquée de façon aveugle, la logique produit des énoncés dépourvus de sens et, finalement, des paradoxes. Il ne faut donc pas se fier à la logique. Il ne faut pas se fier au langage, dans lequel les mathématiques sont transcrites sous forme d’énoncés. Il faut revenir aux actes de pensée, sous-jacents aux énoncés. Pour Brouwer, les mathématiques sont une activité intérieure, en deçà du langage et de la logique, et une analyse réflexive de cette activité intérieure conduit à une révision des règles logiques et des mathématiques classiques, qui en dépendent. L’activité mathématique prend source dans le passage ou le coup du temps. La conscience est d’abord remplie par une unique sensation. Puis celle-ci donne naissance à une nouvelle sensation. Elle est conservée mais demeure distincte de la sensation présente. La conscience a alors l’intuition de la dyade. Par un nouveau passage du temps, la dyade devient elle-même l’un des membres d’une dyade, ce qui forme une triade. La triade, prise à son tour dans le passage du temps, est suivie d’une multiplicité plus complexe. Et ainsi de suite. Lorsque la conscience fait abstraction du contenu propre des sensations, les multiplicités produites dans le passage du temps deviennent des nombres entiers. Le passage du temps donne l’intuition de la suite indéfinie des entiers. L’activité mathématique consiste ensuite en constructions, comportant un nombre fini mais arbitrairement grand d’opérations élémentaires à partir des nombres entiers. Les objets mathématiques sont engendrés par des constructions effectives à partir des entiers et, en dernier ressort, de la dyade. Or l’exigence d’une construction effective impose des restrictions par rapport aux raisonnements classiques.

CASS2004.8 Cf. Cassou-Noguès, Hilbert, op. cit., p. 53 : En particulier, l’intuitionisme rejette le principe du tiers exclu. Le tiers exclu, qui est un axiome de la logique classique, permet de poser, comme une alternative, la vérité d’une proposition A ou celle de sa négation. De deux choses l’une, ou bien la proposition A est vraie ou bien c’est sa négation non A qui est vraie : il n’y a pas de tierce possibilité. Par exemple, on admet que tous les entiers vérifient une propriété P ou bien, si ce n’est pas le cas, qu’il existe un entier qui ne vérifie pas la propriété P. Le tiers exclu est utilisé dans les démonstrations par l’absurde : on suppose que tous les entiers vérifient la propriété P ; on démontre que cette hypothèse conduit à une contradiction ; on conclut, en vertu du tiers exclu, qu’il existe un entier qui ne vérifie pas la propriété P. Pourtant, on ne sait pas calculer cet entier. Pour Brouwer, c’est une application mécanique d’une règle logique, qui n’est pas sous-tendue par une construction effective. Brouwer refuse donc le principe du tiers exclu. En réalité, pour appliquer le tiers exclu et affirmer a priori la vérité d’une proposition ou celle de sa négation, il faudrait, du point de vue intuitioniste, être sûr de pouvoir en effet ou démontrer ou réfuter toute proposition. Autrement dit, il faudrait pouvoir résoudre tout problème mathématique. Ainsi, “la question de la validité du principe du tiers exclu équivaut à celle de la possibilité de problèmes mathématiques non résolubles.” Brouwer rejette du même coup le principe du tiers exclu et la thèse hilbertienne de la résolubilité de tout problème mathématique.

CASS2004.9 Cf. Cassou-Noguès, Hilbert, op. cit., p. 57 : On dresse un inventaire des signes utilisés, analogue à un alphabet, et on donne des règles, analogues à l’orthographe pour la langue usuelle, déterminant les formules correctes que l’on peut former à partir de cet alphabet. On fixe ensuite les axiomes, logiques et mathématiques, dont partent les démonstrations. Enfin, on explicite les règles d’inférence qui permettent de déduire une formule d’une autre. De cette façon, on définit des systèmes formels. Les théorèmes sont alors des formules comprenant des signes mathématiques et des signes logiques. Les démonstrations sont des suites de formules qui partent de prémisses fixées et s’enchaînent selon des règles explicites. Le raisonnement ne dépend pas du sens des énoncés. On ne considère que la forme des énoncés, que l’on manipule selon les règles convenues.

CASS2004.10 Cf. Cassou-Noguès, Hilbert, op. cit., p. 59 : Pour aller à l’essentiel, le programme formaliste comporte deux tâches : formaliser les théories mathématiques ; prouver la consistance des systèmes formels dans une métamathématique au moyen de raisonnements contentuels, finitistes portant sur les dessins de démonstration. La métamathématique utilise les mêmes raisonnements que la mathématique contentuelle. Ainsi, Hilbert semble transformer le problème des fondements en un exercice mathématique. Le problème des fondements semble se déplacer, de la sphère épistémologique à la sphère mathématique.

CASS2007 Les démons de Gödel

Pierre CASSOU-NOGUÈS, Les démons de Gödel. Logique et folie, Paris, Éditions du Seuil, 2007.

CASS2007.1 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 17 : Personne ne contestera que Gödel soit logicien. Il est l’une des figures les plus marquantes de l’histoire de la logique. Pour dire vite, il y a, dans l’histoire de la logique, une rupture au cours de la seconde moitié du XIXe siècle, qui transforme ce qui était un chapitre de la philosophie en une discipline mathématique. Gödel prend place en une époque où la logique est déjà mathématique et il y produit des résultats. Mais ceux-ci ont une portée exceptionnelle. Ils réorientent le travail logique, en modifiant les buts techniques que les logiciens peuvent se donner. Ils prennent surtout un sens qui dépasse le seul domaine de la logique mathématique. Le théorème le plus fameux de Gödel, le théorème d’incomplétude, est (disons-le sans trop d’emphase) un point d’inflexion dans l’histoire intellectuelle. Oui, il y a dans le théorème d’incomplétude tel qu’il peut être reformulé avec les machines de Turing un moment comparable au cogito cartésien. Cette inférence que semble inventer Descartes, ce Je pense donc je suis, est, à partir de Descartes et jusqu’à nous, un énoncé par rapport auquel toute philosophie doit prendre position ou qu’elle doit situer dans la perspective qu’elle se donne. Il en est de même des machines de Turing et du théorème d’incomplétude. C’est une nouvelle image de l’esprit, une nouvelle formulation de la question des limites de la pensée et de son rapport à une transcendance.

CASS2007.2 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 46 : On y lit à la fois l’ambition philosophique de Gödel et un constat d’échec. Le logicien entend d’abord bel et bien transformer la philosophie et, cela, de deux façons différentes. D’une part, la philosophie doit devenir une véritable théorie, analogue aux théories scientifiques, où figurent clairement les notions primitives, qui déterminent les “constituants” du monde, les monades par exemple, et les relations que les notions primitives entretiennent et qui seront fixées dans des axiomes. En ce sens : “La philosophie vise à être une théorie. Dans une théorie, il faut combiner concepts et axiomes, et les concepts doivent être précis.” [Conversation avec Wang, L. J. Wang, A Logical Journey: From Gödel to Philosophy, Cambridge (Mass.), MIT Press, 1996, p. 306.] […] Cette première transformation concerne la forme de la philosophie. La seconde concerne son domaine, que le logicien entend déplacer de la matière vers l’esprit. Contre l’esprit du temps, qui est embarrassé de préjugés matérialistes, Gödel entend “spiritualiser” la matière (les choses n’étant faites que de monades) et, par exemple, inclure dans le domaine de la philosophie la référence à d’autres esprits, Dieu, les anges, et à d’autres mondes.

CASS2007.3 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 51 : Admettons qu’il y ait, comme Gödel en est convaincu, une intuition mathématique, une expérience directe des objets abstraits. Il reste que nous nous aidons, pour faire des mathématiques, d’un papier et d’un crayon. Nous écrivons des formules, nous dessinons des figures (au moins dans notre tête). Or, demande Gödel, pourquoi, si nous avons une intuition mathématique, avons-nous besoin de nous donner une représentation sensible de ces objets qui sont d’un tout autre ordre ? C’est, continue Gödel, comme si, devant un paysage qui s’étend devant nous, nous avions besoin d’en faire d’abord un tableau, de le dessiner avant de pouvoir l’observer. Il n’y a qu’une solution : c’est que l’œil mathématique soit lié aux centres cérébraux de la perception sensible et du langage (en quelque sorte branché sur eux).

CASS2007.4 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 55-56 : On raisonne sur les nombres : les nombres entiers, ceux que l’on peut compter (cinq comme dans cinq pommes) ; les nombres rationnels, que l’on obtient par division des précédents ; les nombres réels, que l’on associe aux points de la droite mais que l’on ne peut certainement pas distinguer sur la droite et que, à la différence des nombres rationnels, on n’a en général aucun moyen de construire ; les nombres complexes, comme la racine carrée de -1. On raisonne aussi sur des ensembles arbitraires, constitués d’éléments indéterminés. On examine leurs propriétés. Bref, on s’occupe d’un domaine d’objets qui, à première vue, ne figurent pas dans le monde sensible, ce que l’on voit avec les yeux, touche avec les mains. Ces objets ont-ils une existence indépendante, formant donc comme un monde à part, un ciel d’idées, au-dessus du monde sensible, ou bien sont-ils seulement inventés, créés par l’esprit humain ?

CASS2007.5 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 95-96 : La difficulté, que Gödel rétrospectivement souligne à de nombreuses reprises, tient à ce que, en 1931, on ne sait pas de façon précise ce qu’est un système formel. On donne des axiomes, on fixe des règles d’inférence. On exige que les axiomes et les règles d’inférence soient suffisamment précis pour qu’il soit possible de déterminer sans ambiguïté si une formule est un axiome et si une formule est la conséquence d’une ou de plusieurs autres. Mais qu’est-ce que cela veut dire ? “Précis”, “sans ambiguïté”, ce sont des mots du langage naturel qui, justement, ne déterminent pas de façon suffisamment précise le concept de système formel. […] La solution est pourtant là, dans l’idée de machine. On peut considérer que la notion de système formel est fixée en 1937 dans l’article de Turing, qui définit un concept logique de machine. La notion de système formel étant alors bien déterminée, il devient possible d’énoncer les théorèmes d’incomplétude en toute généralité.

CASS2007.6 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 96-97 : Turing, avec ses machines, répond à un problème précis. Qu’est-ce que suivre des règles, des règles qui déterminent nos actions sans ambiguïté et aboutissent réellement à un résultat, réellement c’est-à-dire en un nombre fini d’étapes ? Et que peut calculer, démontrer l’esprit humain en suivant de telles règles ? Il s’agit donc de définir la pensée humaine en tant qu’elle est réglée, ou la pensée réglée et finie (puisque le raisonnement humain, s’il doit pouvoir aboutir, semble devoir rester dans le fini : ne mettre en œuvre qu’un nombre fini d’étapes). Des réponses ont déjà été proposées à cette question : par Alonzo Church, un logicien américain, dont on reparlera, et par Gödel lui-même, en 1934. Seulement, Church pose une thèse qui vise à définir le calcul, la pensée réglée et finie, alors que Gödel donne de fait une définition, qui est équivalente à celle de Church mais qu’il ne considère pas comme telle. Gödel n’est pas convaincu que ces définitions, celle de Church et la sienne, embrassent le calcul dans toute sa généralité. Il manque selon lui une véritable analyse qui justifie ces définitions. Et c’est cette analyse que donne Turing avec sa propre définition, laquelle, équivalente aux deux autres mais plus naturelle, semble les justifier. On parle donc, pour cette définition de la calculabilité (qu’est-ce qu’un calcul, un processus de pensée, réglé et fini ?), de la thèse de Church, de la thèse de Turing ou de la thèse de Church-Turing, suivant l’importance que l’on donne à la précédence temporelle ou à l’analyse philosophique.

CASS2007.8 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 98 : Une machine de Turing est un dispositif susceptible d’un nombre fini d’états internes, et dont les actions (se déplacer sur le ruban, imprimer un symbole, changer d’état) sont déterminées par une liste d’instructions : chaque instruction spécifie des actions en fonction de l’état de la machine et du symbole de la case devant laquelle est stationnée la machine. On suppose également que les symboles que la machine peut imprimer (et reconnaître sur le ruban) appartiennent à un alphabet fini.

CASS2007.9 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 98-99 : tout calcul que nous pouvons réaliser en suivant des règles définies est également susceptible d’être implémenté sur une machine. C’est la thèse de Turing. Il en est de même des démonstrations formelles. On exigeait d’un système formel que les axiomes et les règles d’inférence y soient suffisamment précis pour qu’il soit possible de conduire une démonstration, de déduire de nouvelles formules, en ne considérant les symboles que comme des dessins, en procédant comme dans un jeu de cartes, ces “réussites” où les cartes sont disposées les unes à côté des autres selon leur couleur ou leur figure. C’est dire au fond qu’une machine de Turing doit pouvoir être programmée pour conduire ces démonstrations. Du reste, pour chacun des systèmes imaginés par les mathématiciens (et qu’ils reconnaissent comme “formels”), il est possible de définir une machine de Turing qui écrit les uns à la suite des autres toutes les formules prouvables, tous les théorèmes du système. On peut alors purement et simplement identifier les deux notions : systèmes formels et machines de Turing, ou poser qu’un système formel n’est qu’une liste d’instructions pour une machine de Turing, ou une certaine machine qui déduit les formules que l’on considère comme des théorèmes. C’est, pour Gödel, le sens de la notion de système formel : “Un système formel peut simplement être défini comme une procédure mécanique pour produire des formules que l’on appelle formules prouvables. Cela est requis par le concept de système formel dont l’essence est que le raisonnement y est complètement remplacé par des opérations mécaniques sur les formules.” [Gödel, Collected Works, éd. S. Feferman, J. Dawson et al., Oxford, Clarendon Press, 1986-2003, 5 vol, 1934 (Postscript 1964), t. I, p. 370.] Turing, avec ses machines, donne la véritable définition du concept de formalisme.

CASS2007.10 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 99 : Le théorème de Gödel établit que cette machine est impossible. On peut construire une machine qui résout certains problèmes diophantiens, mais il n’en existe pas qui puisse résoudre tous les problèmes diophantiens. C’est un exemple d’une classe de problèmes qui ne peut pas se résoudre de façon mécanique et qui, si l’esprit humain peut y réussir, exige de celui-ci autre chose que des raisonnements formels : de l’intuition, dira Gödel. Le second théorème de 1931 établit ensuite que la consistance d’un système formel, capable de formuler la totalité des problèmes diophantiens, ne peut pas se démontrer par des raisonnements qui s’expriment dans le système. C’est dire que, si l’on conçoit une machine déduisant les uns à la suite des autres les théorèmes du système, elle n’écrira jamais une formule qui exprimera la consistance de celui-ci (si celui-ci est bien consistant). C’est dire encore qu’une machine de Turing ne peut pas prouver la consistance du système dans lequel elle travaille ou ne peut pas écrire une formule qui exprime la consistance des règles qui déterminent son fonctionnement (si celles-ci sont bien consistantes).

CASS2007.11 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 100 : En réalité, le théorème de Gödel conduit à une alternative, un dilemme : ou bien l’esprit humain est irréductible à une machine de Turing, ou bien il existe des propositions arithmétiques (des problèmes diophantiens, par exemple) indécidables pour l’esprit humain, des problèmes donc qui ne seront jamais résolus par nos mathématiciens

CASS2007.12 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 100-101 : D’un côté, en effet, s’il existe des problèmes indécidables pour l’esprit humain, alors les objets mathématiques gardent, et garderont toujours des propriétés qui nous échappent, ce qui signifie (c’est l’argument de Gödel pour la réalité des objets) que les objets mathématiques ont une existence autonome, et il faut donc admettre un plan de réalité (un troisième monde ou une raison inconsciente) irréductible au monde sensible. De l’autre côté, Gödel est convaincu […] que le cerveau humain est une machine de Turing. Ainsi, si l’esprit humain surpasse toute machine de Turing, son fonctionnement est irréductible au mécanisme du cerveau et révèle une autre réalité, une sorte d’âme, elle-même irréductible au monde sensible. C’est, finalement, dans ce résultat que se résume pour Gödel le théorème d’incomplétude, l’impossibilité de se passer d’un objet non matériel

CASS2007.13 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 112-113 : Plus exactement, Gödel distingue une connaissance de soi factuelle, qui détermine la définition des machines de Turing, et une connaissance de soi essentielle, qui nous amène au fondement des mathématiques et à la connaissance complète de leur édifice. Il est clair que le rôle donné aux machines de Turing suppose une réflexion sur la psychologie du mathématicien. Pour identifier la notion de système formel à celle de machine (poser qu’“un système formel est une procédure mécanique pour produire des formules dites ‘prouvables’”), il faut se convaincre que les opérations que réalise le calculateur humain en suivant des règles, en manipulant des symboles selon des règles qui prescrivent chaque action sans ambiguïté, peuvent également être réalisées par une machine de Turing. Il faut donc analyser les opérations possibles du calculateur humain dans la manipulation des symboles. En affirmant que cette analyse ne relève que d’une connaissance factuelle, et en l’opposant à une connaissance de l’essence de la raison, Gödel laisse entendre, il me semble, que si de fait nous utilisons des symboles, et pratiquons certaines opérations sur eux, ce n’est qu’un accident. Et que d’autres mathématiques sont possibles (les mathématiques de ces anges du ciel des idées), où il n’y a plus de symboles et où les axiomes ont une autre forme. Et que ces mathématiques, nous pouvons néanmoins les approcher en retrouvant en nous, en deçà du fait de notre incarnation, une raison plus profonde.

CASS2007.14 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 113-114 : Mais c’est exactement ce que pourraient dire de nous les anges, ou les hommes d’après la révolution mathématique, dans la cosmologie de Gödel : nous acceptons, d’un côté, des preuves inductives, fondées sur l’observation expérimentale ; nous acceptons de l’autre côté des systèmes formels, qui sont limités par la rigueur même de leurs enchaînements (qui doivent être mécanisables), et nous ignorons l’intuition qui nous ouvrirait le ciel mathématique.

CASS2007.15 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 116 : Il est clair que Gödel attend une révolution en mathématiques qui en transforme l’édifice et les rapproche de cette réalité qu’elles ne reflètent pas : que la réalité soit dans un monde en soi, ou dans une raison sous-jacente à l’ego et qu’il reste à amener à la conscience. Et il semble que cette révolution doive s’appuyer sur une propriété de l’esprit, sa réflexivité, que nos sciences, dans l’esprit du temps, avec leurs préjugés matérialistes, tendent à ignorer. La révolution mathématique serait alors la reconquête de l’esprit par lui-même, une réduction de cette altérité qui demeure dans l’esprit mathématicien, une connaissance de soi “essentielle” qui déborde la connaissance superficielle qui intervient dans la machine de Turing.

CASS2007.16 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 120 : Si un développement des mathématiques est possible, qui complète leur édifice, de sorte, par exemple, qu’il soit possible de résoudre la totalité des problèmes diophantiens, il faut que l’esprit qui mène à bien ce développement soit irréductible à une machine de Turing. Gödel évoque ainsi un esprit, qui “surpasse infiniment les puissances d’une machine finie”, un esprit qui “contient un élément / est quelque chose de / totalement différent d’un mécanisme combinatoire fini”, une raison qui “contient un élément qui dans son action / sous certains aspects / est totalement différent d’un mécanisme combinatoire fini”, une raison qui “contient une partie complètement en dehors du mécanisme (a part completely off mechanism)”. En même temps, Gödel est convaincu que le cerveau se laisse représenter comme une machine de Turing. Cette partie de la raison hors du mécanisme est donc également hors du cerveau, et ses processus ne se reflètent pas dans le fonctionnement cérébral. On décrit le cerveau comme un système de neurones en nombre fini, susceptibles de se connecter les uns aux autres. Admettons que ces connexions ne puissent pas passer par un continuum d’états intermédiaires. Elles sont ou ouvertes ou fermées. L’état du cerveau, à un instant donné, est alors déterminé par les connexions ouvertes entre les neurones. Il n’y a qu’un nombre fini d’états possibles. Le passage d’un état à un autre est déterministe (et ne dépend que de l’état initial et des données extérieures). Le cerveau est bien une machine de Turing.

CASS2007.17 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 122-123 : “Turing […] donne un argument qui est censé montrer que les procédures mentales ne peuvent pas aller plus loin que les procédures mécaniques. Cependant, cet argument n’est pas concluant, car il dépend de la supposition qu’un esprit fini n’est capable que d’un nombre fini d’états distinguables. Ce que Turing néglige complètement est le fait que l’esprit, en usage, n’est pas statique mais en constant développement. Par conséquent, bien qu’à chaque étape du développement de l’esprit le nombre de ses états possibles soit fini, il n’y a aucune raison pour que ce nombre ne puisse converger vers l’infini au cours de ce développement.” [Gödel, Collected Works, éd. S. Feferman, J. Dawson et al., Oxford, Clarendon Press, 1986-2003, 5 vol, t. V, p. 576.] Cette remarque éclaire le fonctionnement de l’esprit gödelien. Le logicien ne conteste pas que l’esprit puisse être représenté comme un dispositif avec des états distincts soumis à des règles déterministes. Il conteste seulement que le nombre des états possibles de l’esprit humain, dans l’ensemble de son développement, soit fini. C’est-à-dire, l’esprit reste fini : à chaque étape de son développement, il n’est passé que par un nombre fini d’états différents. Mais il n’y a pas de borne au nombre des états que ces différentes étapes sont susceptibles d’impliquer. Le développement de l’esprit, dans son cours entier, peut donc mettre en jeu une infinité d’états. L’esprit, si l’on prend en compte l’ensemble de son développement, est une machine déterministe mais infinie. Cet esprit gödelien est proche de l’automate spirituel de Leibniz (qui est également déterministe et infini).

CASS2007.18 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 123 : En réalité, dans l’exemple qui suit, l’un des rares exemples concrets que donne Gödel pour illustrer ce développement indéfini, l’esprit est détaché du cerveau : “Pour décrire la situation rapidement : il est parfaitement possible que nous soyons capables d’une infinité d’états mentaux nettement distingués bien que, à chaque moment, seulement un nombre fini de ces états aient été actualisés. En fait, cela contredit la ‘finitude’ de l’esprit humain aussi peu que la vie éternelle. Cette dernière présuppose également la possibilité d’une infinité d’expériences bien distinguées dans un être fini. C’est seulement un préjugé matérialiste qui exclut cela à cause de la finitude de notre ‘tête’.” [Papiers Gödel, 8c, 106, item 040332.]

CASS2007.19 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 124-125 : Résumons. Gödel est convaincu que l’esprit humain peut résoudre tous les problèmes qu’il peut se poser (et, par exemple, tous les problèmes diophantiens). Cela suppose de développer nos mathématiques pour les transformer en un édifice complet. Cette révolution, que Gödel attend, changera les concepts à la base des mathématiques, apparemment en faisant intervenir une analyse de la réflexivité de l’esprit, c’est-à-dire une analyse de la conscience, que les sciences de notre époque ignorent. Mais, d’un autre côté, pour que les mathématiques puissent être développées en un édifice complet, il faut que l’esprit humain soit autre chose qu’une machine de Turing. Or, si l’esprit humain se distingue de la machine de Turing, c’est dans la mesure où il est susceptible d’un développement indéfini, qui semble ne pouvoir s’accomplir que dans une autre vie. Est-ce à dire qu’il faut attendre la mort pour assister à la révolution mathématique ? Il me semble vraisemblable qu’à côté de ce développement progressif Gödel ait aussi envisagé la possibilité d’une intuition absolue qui révélerait dès maintenant la réalité mathématique, ses concepts fondamentaux et la structure de son édifice : une expérience analogue à celle des philosophes (Platon, Husserl, Descartes ou Leibniz), une connaissance absolue et qui vient d’un seul coup. Cependant, cette intuition suppose, à nouveau, une disjonction entre le cerveau, qui n’est susceptible que d’un nombre fini d’états, et l’esprit, qui, pour dépasser la machine de Turing, doit passer par une infinité d’états. Il faut que, dans l’intuition, l’esprit pense indépendamment du cerveau. Or, penser sans le cerveau, c’est vraisemblablement penser hors du temps et penser sans mots, parce que les mots, le langage, exigent des images sensibles et cet appareil pour les traiter qu’est le cerveau. Ce serait une intuition, comme cet “entendement” que Gödel mentionne au détour d’une phrase, “si parfait qu’il n’a pas besoin de marques sur le papier (ou d’images mémorisées dans le cerveau) (qui en tant que processus matériels ne sont possibles que dans le temps et l’espace) comme béquilles mais saisit toutes les relations conceptuelles d’un seul regard”. Une telle intuition est-elle possible ? Comment se lie-t-elle à nos vécus habituels, dans le temps ?

CASS2007.20 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 160-161 : Je ne dirais pas que la logique est neutre, ce qui supposerait qu’elle puisse ne rien dire. Nous la prenons, semble-t-il, toujours dans une superstructure qui la rend signifiante. La logique est plutôt ambiguë : elle autorise une multiplicité de « folies” et cette multiplicité même fait surgir le spectre d’une autre folie, une folie absolue. Chacun peut prendre les énoncés logiques dans un réseau d’images et de peurs pour les développer, les transformer dans une certaine direction, comme Post veut le faire, ou, comme Gödel se le propose, y appuyer une superscience que l’esprit du temps, avec son propre réseau d’images et de peurs, dira “folle”. La logique est complice de ces “folies”. Elle est susceptible de les justifier. Il n’y a de logique que sous la figure d’une “folie”, dans un réseau d’images et de peurs parmi d’autres possibles. Seulement, la contingence de ces figures fait signe vers un véritable extérieur qui les transgresserait, qui serait comme caché derrière cet éventail de possibilités et n’aurait alors rien de relatif : une folie en soi.

CASS2007.21 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 164-165 : On l’a vu, nos théories mathématiques sont incomplètes. Gödel attend une révolution qui transforme et le langage de nos théories et les concepts qui en forment la base. Néanmoins, certaines notes laissent entendre que cette révolution mathématique exige un développement de l’esprit incompatible avec son incarnation ou, disons, son union avec un cerveau de taille finie. C’est donc seulement à la mort, quand l’esprit se détache du cerveau, qu’il découvre la réalité mathématique et une réalité qui est différente des mathématiques humaines. Dans ce cas, il faut croire que les mathématiques d’après la mort, ou d’après la fin du monde, ne sont pas les mêmes que celles que nous connaissons.

CASS2007.22 Cf. Cassou-Noguès, Les démons de Gödel, op. cit., p. 169 : Gödel rapporte d’abord son intérêt pour Leibniz au thème de la caractéristique universelle. Sous ce titre, Leibniz entendait fonder une méthode de raisonnement permettant “par un simple calcul” de donner une réponse à toute question se laissant concevoir. Gödel interprète tour à tour la caractéristique universelle de deux façons différentes. Tantôt le logicien prend le mot “calcul” au sens moderne, et strict, de procédure algorithmique. La caractéristique universelle aurait alors représenté un système formel, tel qu’il aurait répondu à toute question qu’il aurait permis de formuler. Or, après le théorème d’incomplétude, on sait qu’un tel système, supposé consistant et exprimant suffisamment d’arithmétique, est impossible : “[La caractéristique universelle] n’existe pas : toute procédure pour résoudre des problèmes de toutes les sortes (of all kinds) doit être non mécanique.” Ou encore, en 1939 : “On peut prouver que le programme leibnizien du ‘calculemus’ ne peut pas être réalisé, c’est-à-dire que l’on sait que l’esprit humain ne pourra jamais être remplacé par une machine.” Tantôt, pourtant, Gödel prend, dans les énoncés de Leibniz, le mot “calcul” en un sens large, et voit dans la caractéristique universelle une méthode pour résoudre tout problème mathématique, dont Leibniz saurait qu’elle n’est pas mécanique. C’est une telle procédure que Gödel cherche depuis le résultat de Turing, et il n’exclut pas que Leibniz ait pu la trouver, sans la publier. “Dans ses écrits sur la Caractéristique universelle, Leibniz n’a pas parlé d’un projet utopique. Si l’on en croit ses énoncés, il avait dans une large mesure déjà développé ce calcul mais attendait pour sa publication que la graine puisse tomber dans une terre fertile.”

CASS2014 Les rêves cybernétiques de Norbert Wiener

Pierre CASSOU-NOGUÈS, Les rêves cybernétiques de Norbert Wiener, Paris, Éditions du Seuil, 2014.

CASS2014.1 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 23 : Kurt Gödel publie en 1931 (il a alors vingt-six ans) l’un des plus célèbres théorèmes de logique, le théorème d’incomplétude. Celui-ci implique (pourvu que l’arithmétique élémentaire soit non contradictoire) que si l’esprit est une machine, ou se comporte comme une machine à calculer, alors il existe des problèmes d’arithmétique élémentaire qui resteront absolument indécidables : des problèmes de théorie des nombres (des équations polynomiales dont il faut trouver les solutions sur l’ensemble des entiers) ne pourront jamais être résolus. Gödel donne différentes interprétations de son théorème. Il y voit la preuve de l’immortalité de l’âme, un signe de l’existence du diable, qui est toujours susceptible de nous tromper, de nous donner de fausses évidences et contre lequel nous ne pouvons pas absolument nous prémunir. Le sens que Gödel donne à ses théorèmes peut nous sembler aberrant. C’est pourtant dans cette perspective qu’il choisit de nouvelles directions de travail.

CASS2014.9 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 178-180 : J’utilise le mot d’abstraction en référence à l’abstraction mathématique. On raconte que le mathématicien D. Hilbert, au début du XXe siècle, a déclaré à ses étudiants, après son cours, dans un café, que l’on pourrait en géométrie parler de bières, de tabourets et de tables plutôt que de points, de droites et de plans. Il voulait vraisemblablement dire que seule importe en mathématiques la structure du domaine, et non ses termes. Sans doute, la géométrie, telle que nous la connaissons, traite de points, de droites et de plans. Nous posons entre ces objets différentes relations, qui sont explicitées dans les axiomes. Ceux-ci définissent une certaine structure, qui détermine les opérations susceptibles d’être accomplies. La nature des objets n’est pas prise en compte. Ce pourrait donc aussi bien être des bières, des tabourets et des tables du moment qu’ils entretiennent les mêmes relations et obéissent à la même structure que les points, les droites et les plans. L’effort de l’axiomatisation, dont le travail de Hilbert marque une étape décisive, a été de définir ces structures pour elles-mêmes, les isolant ainsi de leur domaine d’origine. Or c’est dans le même sens que l’homme télégraphié est abstrait de son incarnation singulière. Il est identifié à une configuration (pattern), une forme (form), c’est-à-dire certaines relations qu’entretiennent des objets (molécules constituant le corps, messages entrants et messages sortants) dont la nature même, la matière propre n’importent pas. “Pour récapituler : l’individualité du corps est celle de la flamme plutôt que de la pierre, celle de la forme plutôt que d’un morceau de substance. Cette forme peut être transmise ou modifiée et dupliquée”. Wiener identifie ici le “corps” à une forme. Ailleurs, dans le même chapitre, il évoque (et rapporte à une forme ou une configuration) “l’organisme”, “l’identité personnelle”, “l’individualité humaine”, “l’identité physique de l’individu”. Mais la première formule est d’autant plus remarquable. Le corps même, dans son identité permanente, et non seulement l’individu, peut être considéré comme une structure abstraite. Cependant, c’est d’abord avec Turing que cette abstraction de la structure est appliquée à l’être humain et à l’esprit. Définir une machine de Turing 307, c’est poser certaines règles déterminant la façon dont la machine agit, et modifie le cas échéant son état interne, en fonction de son état antérieur et des données extérieures. Mais, à nouveau, la nature des états internes de la machine n’importe pas. Les états internes peuvent être constitués par la position de roues crantées, celle d’une série d’interrupteurs ou de tubes à vide mais également consister en des états mentaux, des états d’esprit. Bien que ses états internes appartiennent au domaine mental, l’esprit qui calcule en suivant un certain algorithme est la même machine de Turing que l’ordinateur qui calcule selon le même algorithme. Et il est essentiel dans la thèse de Turing, pour la définition de ce qu’est un calcul, que l’esprit qui calcule puisse être décrit comme une machine au même titre qu’un dispositif matériel. Bref, la machine de Turing est une structure abstraite susceptible d’être réalisée sur des supports différents. Au cours des années soixante, dans le cadre du “fonctionnalisme” qui entend montrer que le problème du corps et de l’esprit peut être posé dans les mêmes termes pour l’humain et pour la machine de sorte que rien finalement ne nous permet de nous distinguer d’une machine, H. Putnam a fait un large usage de la notion de machine de Turing. Or, lorsqu’il revient rétrospectivement sur l’importance de cette notion pour la philosophie de l’esprit, c’est sur l’idée de structure abstraite qu’il met l’accent : “Les machines nous ont obligés à distinguer entre une structure abstraite et sa réalisation concrète. Non pas que cette distinction ait été mise au jour pour la première fois avec les machines. Mais, dans le cas des machines computationnelles, nous ne pouvions pas éviter de nous confronter au fait que ce que nous devions considérer comme la même structure pouvait être réalisé d’une étonnante diversité de façons” Ainsi, cette abstraction qui intervient dans l’épisode de l’homme télégraphié prend son origine dans l’axiomatisation de Hilbert et dans les machines de Turing, c’est-à-dire en dehors et en amont de la cybernétique. La configuration, le pattern auquel Wiener renvoie l’identité individuelle est abstrait dans le même sens que le programme, “la table d’instruction” de la machine de Turing. Ce n’est pas cependant que Wiener se situe immédiatement dans le sillage de Turing. Ces deux structures abstraites, le pattern et le programme, auxquelles l’être humain peut être identifié, ne sont pas les mêmes. Wiener abstrait une structure, comme Turing, mais ce n’est pas la même structure : la configuration qu’évoque Wiener n’est pas le programme d’une machine de Turing. En fait, l’identification de l’être, ou de l’esprit, humain à un programme, dans le droit fil de la perspective de Turing, conduit à l’intelligence artificielle et à un projet différent de la cybernétique.

CASS2014.11 Cf. Cassou-Noguès, Les rêves cybernétiques de Norbert Wiener, op. cit., p. 185-186 : Sans doute, la machine de Turing représente d’abord la rigueur mathématique. Une théorie formelle, une théorie mathématique au sens le plus fort, c’est une machine de Turing qui enchaîne des théorèmes. L’esprit mathématicien, l’esprit qui démontre, se décrit comme une machine de Turing. La machine de Turing est le modèle que donne de lui-même l’esprit mathématicien. Mais, dans le monde cybernétique, cette identification à la machine, à l’intérieur des mathématiques, ne peut qu’être solidaire de la mécanisation de l’humain que sous-tend l’usine automatique. La machine de Turing constitue une autre façon de mécaniser l’humain, l’autre versant d’un processus qui ne se contente pas de jouer dans la pratique mais s’exprime aussi dans le domaine conceptuel, dans la superstructure si l’on veut. Descartes décrit le corps humain comme une machine. Il en isole l’esprit qui est une chose pensante et en lui-même étranger à la spatialité des machines. Turing propose, trois siècles environ après Descartes, une façon de concevoir également l’esprit comme une machine. Ainsi, plus rien de l’humain n’échappe à la mécanisation. Pourquoi voulons-nous nous voir comme des machines ? Une réponse serait que, dans le régime capitaliste, nous travaillons en général pour le compte d’un autre, qui possède les moyens de production que nous utilisons. Nous travaillons en cela avec une machine et comme une machine. Ce serait pourquoi alors nous nous identifions à des machines, de toutes formes, décrivons notre esprit comme une machine aussi bien que nous nous imaginons remplacés par des machines dans l’usine. Nous tendons vers l’état de robot, nous nous voyons comme des robots, au sens de Čapek, et de façon toujours plus adéquate. Sous différentes formes, la mécanisation imaginaire de l’humain progresse, nous y travaillons depuis Descartes, la rendant toujours plus complète jusqu’au moment où, avec le posthumain peut-être, elle aboutit : notre humanité n’est qu’un souvenir. Le posthumain est un robot qui s’ignore.

ARSA1987 Les machines à penser

Jacques ARSAC, Les machines à penser. Des ordinateurs et des hommes, Paris, Éditions du Seuil, 1987.

ARSA1987.8 Cf. Arsac, Les machines à penser, op. cit., p. 186 : La logique formelle est devenue une branche importante des mathématiques, et l’un des piliers de l’informatique théorique, pour la raison que les manipulations de systèmes formels sont évidemment faisables sur ordinateur : selon notre thèse, l’informatique ne traite que la forme, tout ce qu’elle fait se situe dans des systèmes formels. La notion d’interprétation pose des problèmes intéressants. Si je fabrique un système formel, je dispose d’un beau jouet avec lequel je peux me distraire en cherchant si telle formule est ou n’est pas un théorème. Mais c’est un jeu gratuit en l’absence d’interprétation. Associer une interprétation à un système formel, c’est créer un monde, ou trouver une portion de notre monde, dont le système est un modèle mathématique. Pour que ce soit cohérent, il faut que toute formule démontrée vraie dans le système corresponde à une vérité dans le monde de l’interprétation associé, et, réciproquement, il faut que toute vérité dans ce monde soit représentée par un théorème du système formel. Si le système est cohérent, je peux remplacer l’établissement d’une vérité par la dérivation d’un théorème dans le système formel. C’est la source principale de motivation des recherches sur les systèmes formels. Déjà Leibniz pensait que l’on allait pouvoir fabriquer un langage formel dans lequel il serait facile d’établir toutes les vérités… Nous avons dit que l’on pouvait attacher un sens à un système formel en interprétant les formules qu’il produit […].

ARSA1987.9 Cf. Arsac, Les machines à penser, op. cit., p. 219-221 : Pour Hobbes, tout raisonnement est un calcul, mais la notion de calcul doit être étendue au traitement des mots à partir de leur seule forme […] Ainsi le domaine de la raison pour Hobbes est exactement le domaine de ce que l’on peut faire avec un ordinateur. Hobbes est le véritable père de l’informatique, et aussi de l’intelligence artificielle. À la même époque, Pascal soutient la thèse adverse. Il oppose dans ses Pensées l’“esprit de géométrie” et l’“esprit de finesse”. Les “principes” (nous dirions aujourd’hui les axiomes) de l’esprit de géométrie sont “palpables, mais éloignés de l’usage commun […]. Mais dans l’esprit de finesse, les principes sont dans l’usage commun et devant les yeux de tout le monde […]. Il n’est question que d’avoir bonne vue, mais il faut l’avoir bonne ; car les principes sont si déliés et en si grand nombre, qu’il est presque impossible qu’il n’en échappe. Or l’omission d’un principe mène à l’erreur […].” Ainsi l’esprit de géométrie raisonne par déduction à partir d’un petit nombre de principes. Pascal explique leur genèse dans un autre texte : De l’esprit géométrique et de l’art de persuader. On est amené à définir un objet au moyen d’une suite de mots, par exemple “les nombres qui se divisent également en deux parties”. On choisit alors un nom que l’on dépouille de toute autre signification qu’il aurait pu avoir, par exemple “pair”, et on l’attache à cette définition. L’esprit de finesse doit au contraire faire face à un très grand nombre de petits principes qui ne sont pas à notre discrétion, mais existent autour de nous dans le sens commun. Leur nombre même est la principale source de différence entre la géométrie et la finesse : “Ce sont choses tellement délicates et si nombreuses, qu’il faut un sens bien délicat et bien net pour les sentir, et juger droit et juste selon ce sentiment, sans pouvoir le plus souvent les démontrer par ordre comme en géométrie, parce qu’on ne possède pas ainsi les principes, et que ce serait une chose infinie de l’entreprendre. Il faut tout d’un coup voir la chose d’un seul regard, et non pas par progrès du raisonnement, au moins jusqu’à un certain degré.” […] Pour Pascal, donc, il y a des jugements qui échappent à la méthode discursive du calcul. Ainsi les deux thèses en présence se trouvent-elles bien caractérisées. Leibniz adopta l’idée de réduire tout raisonnement à un calcul. Il pensait qu’un jour tous les philosophes pourraient résoudre leurs différends par le calcul, un calcul bien sûr très différent de l’algèbre. En 1677 (Vers une caractéristique universelle) il parla de ce qu’il appelait sa découverte stupéfiante, à savoir comment toutes les pensées humaines pourraient être réduites à un alphabet dont les lettres, convenablement combinées, conduiraient à la découverte de toutes les vérités. Il pensa d’abord que ce serait chose aisée : un petit nombre de personnes convenablement choisies mèneraient l’affaire à bien en cinq ans. En 1679, il révisa son projet : les efforts de beaucoup de grands talents seraient nécessaires, et pour une période indéfinie. Mais il pensait que, une fois cet alphabet créé, il serait si simple et si naturel que tout le monde l’apprendrait en quelques semaines… En d’autres termes, Leibniz croyait à la possibilité d’un système formel modélisant la totalité de notre univers conceptuel, et dans lequel tout serait démontrable (rêve que le théorème de Gödel est venu casser). Encore une étonnante préfiguration de l’informatique Au XIXe siècle, le mathématicien Boole entreprit de fournir les règles du calcul des propositions. Il ne faisait ainsi que faire apparaître le calcul sous-jacent aux raisonnements par syllogismes, ainsi que nous l’avons suggéré plus haut. À la fin du XIXe siècle, le mathématicien Gottlob Frege, professeur à l’université d’Iéna, entreprit la création d’un langage idéographique se situant dans la perspective ouverte par Leibniz afin de représenter tous les raisonnements de l’arithmétique. Son alphabet était trop complexe pour que le travail eût un grand retentissement. Mais il servit de base à Bertrand Russell et Whitehead dans leur développement de la logique formelle. Nous avons vu ce qu’est un système formel, jeu sur des caractères pris en dehors de toute signification qu’on peut leur attacher. L’informatique théorique prend ses fondements dans la théorie de ces systèmes, dans la droite ligne des travaux de Russell, prolongés par ceux de Turing, puis des logiciens contemporains. Qu’un ordinateur puisse supporter les calculs de la logique formelle va de soi : ces systèmes opèrent à partir de la forme seule. Seule la complexité des calculs pourrait faire temporairement difficulté. Mais le logicien Gödel montra vers 1930 que pour tout système formel, quelque complexe qu’il soit, il y a des théorèmes qui ne peuvent pas être démontrés avec les seuls moyens offerts par ce système […].

ARSA1987.12 Cf. Arsac, Les machines à penser, op. cit., p. 228 : De fait, la séparation du sens et de la forme, la prise en compte de la forme par l’informatique sont une évidence à l’intérieur de cette discipline. Les chercheurs ont exploré des voies pour prendre en compte la sémantique, en la formalisant. Elle devient alors formelle, c’est-à-dire syntaxe. Reste-t-il alors quelque chose de non formel, ce que nous appelons sens ? La longue quête de la logique formelle, de Frege à Russell, Gödel, Turing et l’informatique contemporaine, peut être vue comme une tentative pour l’élimination du sens.

DEMO2013 Generating, Solving and the Mathematics of Homo Sapiens

Liesbeth DE MO, Generating, Solving and the Mathematics of Homo Sapiens. Emil Post’s Views on Computation, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

DEMO2013.1 Cf. De Mo, Generating, Solving and the Mathematics of Homo Sapiens, op. cit., p. 46 : Since 1936, the year Church and Turing each proposed their theses, these questions have only gained in significance, perhaps not so much because of advancements in mathematical logic, but rather due to the development of what is often understood as the physical realization of computability – the digital, electronic stored-program and general-purpose computer. It was and is this machine that has effectively widened the scope of the computable and brought computations to people who are and were not really interested in the problems of mathematical logic. It is this machine which has made it possible to physically implement a wide range of computational processes, problems and objects and it was hence the computer that made it relevant to non-logicians to broaden and study the field of the computable and the non-computable, making it necessary to pose questions like: what could be a high-quality weather prediction software? It is exactly this extension of the scope of the computable that explains why it is no longer considered “heretical” to say that all processes in “nature” – going from the human mind to the growth of plants – can be understood as computations, or, much stronger, that everything in “nature” can be computed by a Turing machine. Despite or perhaps due to the fact that the scope of the computable has effectively been extended beyond the field of mathematical logic, the Church-Turing thesis, as a philosophical thesis but also as a mathematical definition, is still the uncontested delimiter of the computable. It is here that lies part of its beauty, viz., its two-facedness of opening up the field of computation and, at the same time, imposing a fundamental limitation on it and hence also setting the stage for the non-computable. It is this ‘Janus face’ of the Church-Turing thesis, going to the core of the thesis, that is sometimes too much underestimated in current debates on the Church-Turing thesis.

DEMO2013.2 Cf. De Mo, Generating, Solving and the Mathematics of Homo Sapiens, op. cit., p. 47 : In 1936 both Church and Turing published their celebrated theses. They proposed their respective theses as formal definitions of an otherwise vague and intuitive notion. It were these definitions that allowed Church and Turing to tackle the famous Entscheidungsproblem for first-order logic. Indeed, in order to prove the incomputability of this problem, it was necessary to have a formal definition of computability. In his definition , Church identified the vague notion of an effectively calculable function of positive integers with the formal notions of general recursive functions (or, equivalently, λ-definable function). Turing identified the vague notion of computable numbers, i.e., “the real numbers whose expressions as a decimal are calculable by finite means”, with those numbers computable by a Turing machine. Even though in the literature Church’s thesis and Turing’s thesis are mostly not differentiated but put together under the header “Church-Turing thesis” because of their logical equivalence, it is Turing’s that is usually considered as being superior to Church’s thesis. To put it in Church’s words: “[Turing’s thesis makes] the identification with effectiveness in the ordinary (not explicitly defined) sense evident immediately” Gödel also shared this view and judged that with Turing’s work one has “for the first time succeeded in giving an absolute definition of an interesting epistemological notion”. Soare recently even went a step further by stating that “[i]t was Turing alone who […] gave the first convincing formal definition of a computable function”.

COOP2013 The Mathematician’s Bias

Barry COOPER, The Mathematician’s Bias – and the Return to Embodied Computation, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

COOP2013.1 Cf. De Mo, The Mathematician’s Bias, op. cit., p. 126 : What was clearly new about the Turing model of computation was its successful disembodiment of the machine. For practical purposes, this was not as complete as some post-Turing theoreticians like to pretend: the re-embodied computer which is now a familiar feature of the modern world was hard won by pioneering engineers. But, for the purposes of the stored program computer, and for the proof of incomputability of the Halting Problem, the essential disembodiment was that delivering program-data convergence. It was this universality that John von Neumann recognised as a theoretical anticipation of the stored program computer. The apparent omnipotence even led Turing to talk of his post-war ACE project as aimed at building ‘a brain’. This paradigm has achieved a strong grip on subsequent thinking. Within the philosophy of mind there is a strong tendency towards physicalism and functionalism, both of which open the door to some version of the Turing model. The functionalist (see Hilary Putnam) stresses what a computer does as something realisable in different hardware. An important expression of the functionalist view in computer science is provided by the notion of a virtual machine, whereby one expects to achieve software implementation of a given programmable machine. Aaron Sloman and others have usefully applied the concept to AI.

BAUE2013 Intuitionistic Mathematics and Realizability in the Physical World

Andrej BAUER, Intuitionistic Mathematics and Realizability in the Physical World, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

BAUE2013.1 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 143 : Constructive mathematics, whose main proponent was Erret Bishop[Bishop’s constructivism is compatible with respect to classical mathematics, and should not be confused with the intuitionism of L.E.J. Brouwer, which assumes principles that are classically false.], lives at the fringe of mainstream mathematics. It is largely misunderstood by mathematicians, and consequently by physicists as well. Contrary to the popular opinion, constructive mathematics is not poorer but richer in possibilities of mathematical expression than its classical counterpart. It differentiates meaning where classical mathematics asserts equivalence and thrives on geometric and computational intuitions that are banned by the classical doctrine.

BAUE2013.2 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 143-144 : If classical and constructive mathematicians just disagreed about what was true, the matter would be resolved easily. Unfortunately they use the same words to mean two different things, which is always an excellent source of confusion. The origin of the schism lies in the criteria for truth, i.e., in what makes a statement true. Speaking vaguely, intuitionistic logic demands positive evidence of truth, while classical logic is happy with lack of negative evidence. The constructive view is closer to the criterion of truth in science, where a statement is accepted only after it has been positively confirmed by an experiment.

BAUE2013.3 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 144 : The BHK interpretation leaves the meaning of “evidence” and “method” unexplained. Its formalization leads to the realizability interpretationflux […]. Let us apply the BHK interpretation to the archetypical example, the Law of excluded middle: “Every proposition is either true or false.” The criterion by which a classical mathematician judges the law is “Is it the case that each proposition is either true or false?” whereas an intuitionistic mathematician is more demanding: “Is there a method for determining, given any proposition, which of the two possibilities holds?”

BAUE2013.4 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 145 : The intuitionistic mathematician does not accept the Law of excluded middle. When asked to produce counterexamples, he states that there are none, and makes things worse by claiming that there is in fact no proposition which is neither true nor false.

BAUE2013.5 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 146 : The intuitionistic and classical understanding of ¬¬-stable statements coincide. This is fortunate because we can all agree on what the universal laws of physics say. However, a disagreement is reached when we discuss which things exist in our universe, for intuitionistic existence requires explicit evidence where classical existence is satisfied with lack of negative evidence. Again we see the similarity between intuitionistic and scientific thinking.

BAUE2013.6 Cf. Bauer, Intuitionistic Mathematics and Realizability in the Physical World, op. cit., p. 152 : Theorem: Decidability of reals is real-world realized if, and only if, we can build the Halting oracle for Turing machines.

VEZA2013 Computability and Algorithmic Complexity in Economics

K. Vela VELUPILLAI and Stefano ZAMBELLI, Computability and Algorithmic Complexity in Economics, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

VEZA2013.2 Cf. Velupillai & Zambelli, Computability and Algorithmic Complexity in Economics, op. cit., p. 314 : The three most important classes of decision problems that almost characterise the subject of computational complexity theory, underpinned by a model of computation – in general, the model of computation in this context is the Nondeterministic Turing Machine – are the P, NP and NP-Complete classes. Concisely, but not quite precisely, they can be described as follows: (1) P defines the class of computable problems that are solvable in time bounded by a polynomial function of the size of the input; (2) NPretenue is the class of computable problems for which a solution can be verified in polynomial time; (3) A computable problem lies in the class called NP-Complete if every problem that is in NP can be fluxreduced to it in polynomial time

SUTN2013 Universality, Turing Incompleteness and Observers

Klaus SUTNER, Universality, Turing Incompleteness and Observers, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

SUTN2013.1 Cf. Sutner, Universality, Turing Incompleteness and Observers op. cit.'', p. 435-439 : The development of the mathematical theory of computability was motivated in large part by the foundational crisis in mathematics. D. Hilbert suggested an antidote to all the foundational problems that were discovered in the late 19th century: his proposal, in essence, was to formalize mathematics and construct a finite set of axioms that are strong enough to prove all proper theorems, but no more. Thus a proof of consistency and a proof of completeness were required. These proofs should be carried only by strictly finitary means so as to be beyond any reasonable criticism. As Hilbert pointed out, to carry out this project one needs to develop a better understanding of proofs as objects of mathematical discourse […] Furthermore, Hilbert hoped to find a single, mechanical procedure that would, at least in principle, provide correct answers to all well-defined questions in mathematics […]. Initially encouraging progress was made towards the realization of Hilbert’s dream: first propositional logic was shown to be complete by Hilbert’s student Ackermann […], then predicate logic by Gödel. Predicate logic appeared to be the right framework for Hilbert’s project since it conformed nicely to his ideas about mathematical existence: unless the assumption of existence produces an inconsistency, the alleged object indeed exists. Alas, in his seminal 1931 paper, Gödel showed that logical completeness does not translate into mathematical completeness. Specifically, any attempt to formalize even just elementary arithmetic is already doomed to fail in the sense that, no matter how carefully the system is constructed, there will always be unprovable yet true statements (assuming, of course, the system is indeed consistent). This result is central to proof theory, but we can also interpret it computationally. In a formal system of the type Gödel considered, proofs are perfectly finitary objects and can be generated in a purely mechanical fashion without any particular insight into their meaning. In a certain sense, producing proofs is just a problem of word processing. As a consequence, the collection of provable theorems is semidecidable: there is a semi-algorithm that halts and reports “yes” if that is indeed the correct answer; otherwise it fails to halt. On the other hand, the collection of true statements of arithmetic is not even located within the arithmetic hierarchy […]. The Entscheidungsproblem is unsolvable for arithmetic, and, as we now know, for many other areas of mathematics such as group theory, lattice theory or the theory of the rationals. Gödel was very clear about the importance of computability in this context […] The question as to how precisely the notion of computability itself should be formalized was finally solved to Gödel’s satisfaction by Turing’s ground-breaking paper. It is noteworthy that Gödel initially resisted attempts to declare either the Gödel-Herbrand or the Church approach as the canonically correct solution. Just a few years after Gödel’s discovery, Alan Turing and John von Neumann both made critical contributions to an entirely new development: the construction of powerful and practical computers, machines that could actually carry out computations that had thus far been limited to purely theoretical discourse. In particular Turing’s abstract idea of a universal computer, a device that can perform all possible computations whatsoever, turned out to be technologically realizable. The reason for this, in the most abstract sense, is the fact that physics supports computation: we can build concrete devices whose behavior is described by the laws of physics that implement Turing machines in a very obvious fashion. For reasons of efficiency, one usually employs a model referred to as a random access machine, but it is easy to see that these devices are very closely related to Turing machines in computational power (at least if one is willing to accept a polynomial slow-down). Thus, for any area of mathematics for which the Entscheidungsproblem does have a solution, we can build a physical device that will answer all questions put to it. For example, if we limit arithmetic to just addition, there is a decision algorithm for all sentences in this weak system as shown by Presburger. Indeed, the algorithm has found practical use in model checking and helps to verify the correctness of certain computer programs. On the other hand, any realization of the decision algorithm is also plagued by a lower bound result due to Fischer and Rabin that shows that it is necessarily doubly exponential in the worst case. This connection between computation and physics may seem merely a matter of pragmatism; having the ability to perform large and complicated computations on actual and concrete physical devices is obviously a great advantage for mathematics. […] Naturally the question arises whether any type of physically realizable process could correspond to a computation outside of this framework. In other words, could a physical process break through the Turing barrier or is there a physical version of the Church-Turing thesis that rules out the existence of any such process. In order to give a truly satisfactory answer to this question, one would first have to resolve Hilbert’s 6th problem in a strong form and axiomatize physics, in its totality. At present there seems little hope for any such formalization of physics, all one can manage is a discussion of the computational implications of some particular physical theory such as Newtonian mechanics, general relativity, quantum mechanics, quantum field theory and so on. It is of course of interest to study the strength of physical theories such as Newtonian mechanics, even if they are known not to be in total agreement with actual physical reality. However, the ultimate question of physical realizability will require a stronger approach. […] is it possible, in the context of physical computation, to break through the Turing barrier in the downward direction? The background for this question is a celebrated result in the theory of computation: there are semidecidable sets that are neither decidable nor as complicated as the Halting problem, the most complicated semidecidable set. These sets are said to be intermediate or of intermediate degree, a degree being a collection of all sets of the same level of complexity. The question of whether such sets exist is commonly referred to as Post’s problem and its solution required the invention of a new proof technique, the so-called priority method, which has since become one of the hallmarks of computability theory […] In particular with respect to the construction of sets of intermediate degrees, the corresponding priority argument undoubtedly produces the required set, but is disappointing in the sense that the set so constructed is entirely ad hoc, it has no qualities other than to provide a solution to Post’s problem. By contrast, many sets of full degree such as the Halting problem or the set of solvable Diophantine equations are entirely natural; likewise, at the other end of the complexity spectrum, there are lots of examples of complicated yet decidable sets.

LLOY2013 The Universe as Quantum Computer

Seth LLoyd, The Universe as Quantum Computer, in A Computable Universe: Understanding and Exploring Nature as Computation, ed. Hector ZENIL, Singapore, World Scientific Publishing Co. Pte. Ltd., 2013.

LLOY2013.1 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 569-570 : The primary inventor of the modern digital computer, however, was Charles Babbage. In 1812, Babbage had the insight that the calculations carried out by mathematicians could be broken down into sequences of less complicated steps, each of which could be carried out by a machine – note the strong similarity to Turing’s insight into the origins of the Turing machine more than a century later. The British government fully appreciated the potential impact of possessing a mechanical digital computer, and funded Babbage’s work at a high level. During the 1820s he designed and attempted to build a series of prototype digital computers that he called ‘difference engines.’ Nineteenth century manufacturing tolerances turned out to be insufficiently precise to construct the the all-mechanical difference engines, however. The first large-scale computing project consumed over seventeen thousand pounds sterling of the British taxpayers’ money, a princely expenditure for pure research at the time. Like many computing projects since, it failed. Had they been constructed, difference engines would have been able to compute general polynomial functions, but they would not have been capable of what Turing termed universal digital computation. After the termination of funding for the difference engine project, Babbage turned his efforts to the design of an ‘analytic engine.’ Programmed by punched cards like a Jacquard loom, the analytic engine would have been a universal digital computer. The mathematician Ada Lovelace devised a program for the analytic engine to compute Bernoulli numbers, thereby earning the title of the world’s first computer programmer. The insights of Babbage and Lovelace occurred more than a century before the start of the information processing revolution. Turing was born in the centenary of the year in which Babbage had his original insight. The collection in which this paper appears could equally be dedicated to the two-hundredth anniversary of Babbage’s vision. But scientific history is written to celebrate winners (see Pythagoras, above). Turing ‘won’ the title of the inventor of the digital computer because his insights played a direct role in the vision of the creators of the first actual physical computers in the mid-twentieth century. The science fiction genre known as ‘steam-punk’ speculates how the world might have evolved if nineteenth century technology had been up to the task of constructing the difference and analytical engines. (Perhaps the best-known example of the steampunk genre is William Gibson and Bruce Sterling’s novel ‘The Difference Engine’.) The mathematical development of digital logic did not occur until after Babbage’s mechanical development. It was not until the 1830s and 1840s that the British logician Augustus de Morgan and the mathematician George Boole developed the bit-based logic on which current digital computation is based. Indeed, had Babbage been aware of this development at the time, the physical construction of the difference and analytic engines might have been easier to accomplish, as Boolean, bit-based operations are more straightforward to implement mechanically than base-ten operations. As will be seen, the relative technological simplicity of bit-based operations would play a key role in the development of electronic computers. By the time that Turing began working on the theory of computation, Babbage’s efforts to construct actual digital computers were a distant memory. Turing’s work had its direct intellectual antecedents in the contentious arguments on the logical and mathematical basis of set theory that were stirred up at the beginning of the twentieth century. At the end of the nine-teenth century, the German mathematician David Hilbert had proposed an ambitious programme to axiomatize the whole of mathematics. In 1900, he famously formulated this programme at the International Congress of Mathematicians in Paris as a challenge to all mathematicians – a collection of twenty three problems whose solution he felt would lead to a complete, axiomatic theory not just of mathematics, but of physical reality. Despite or because of its grand ambition to establish the logical foundations of mathematical thought, cracks began to appear in Hilbert’s programme almost immediately. The difficulties arose at the most fundamental level, that of logic itself. Logicians and set theorists such as Gottfried Frege and Bertrand Russell worked for decades to make set theory consistent, but the net result of their work was call into question the logical foundations of set theory itself. In 1931, just when the efforts of mathematicians such as John von Neumann had appeared to patch up those cracks, Kurt Gödel published his beautiful but disturbing incompleteness theorems, showing that any system of logic that is powerful enough to describe the natural numbers is fundamentally incomplete in the sense that there exist well-formulated proposition within the system that cannot be resolved using the system’s axioms. By effectively destroying Hilbert’s programme, Gödel’s startling result jolted the mathematical community into novel ways of approaching the very notion of what logic was.

LLOY2013.2 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 571-573 : Turing’s great contribution to logic can be thought of as the rejection of logic as a Platonic ideal, and the redefinition logic as a process. Turing’s famous paper of 1936, ‘On Computable Numbers with an application to the Entscheidungsproblem,’ showed that the process of performing Boolean logic could be implemented by an abstract machine, subsequently called a Turing machine. Turing’s machine was an abstraction of a mathematician performing a calculation by thinking and writing on pieces of paper. The machine has a ‘head’ to do the thinking, and a ‘tape’ divided up in squares to form the machine’s memory. The head has a finite number of possible states, as does each square. At each step, in analogy to the mathematician looking at the piece of paper in front of her, the head reads the state of the square on which it sits. Then, in analogy to thinking and writing on the paper, the head changes its state and the state of the square. The updating occurs as a function of the head’s current state and the state of the square. Finally, in analogy to the mathematician either taking up a new sheet of paper or referring back to one on which she has previously written, the head moves one square to the left of right, and the process begins again. Turing was able to show that such machines were very powerful computing devices in principle. In particular, he proved the existence of ‘universal’ Turing machines, which were capable of simulating the action of any other Turing machine, no matter how complex the actions of its head and squares. Unbenownst to Turing, the American mathematician Alonzo Church had previously arrived at a purely formal logical description of the idea of computability, the so-called Lambda calculus. At the same time as Turing, Emil Post devised a mechanistic treatment of logical problems. The three methods were all formally equivalent, but it was Turing’s that proved the most accessible. Perhaps the most fascinating aspect of Turing’s mechanistic formulation of logic was how it dealt with the self-contradictory and incomplete aspects of logic raised by Gödel’s incompleteness theorems. Gödel’s theorems arise from the ability of logical systems to have self-referential statements – they are a formalization of the ancient ‘Cretan liar paradox,’ in which a statement declares itself to be false. If the statement is true, then it is false; if it is false, then it is true. Regarding proof as a logical process, Gödel restated the paradox as a statement that declares that it can’t be proved to be true. There are two possibilities. If the statement is false, then it can be proved to be true – but if a false statement can be proved to be true, then the entire system of logic is inconsistent. If the statement is true, then it can’t be proved to be true, and the logical system is incomplete. In Turing’s formulation, logical statements about proofs are translated into actions of machines. The self-referential statements of Gödel’s incompleteness theorems then translate into statements about a universal Turing machine that is programmed to answer questions about its own behavior. In particular, Turing showed that no Turing machine could answer the question of when a Turing machine ‘halts’ – i.e., gives the answer to some question. If such a machine existed, then it would be straightforward to construct a related machine that halts only when it fails to halt. In other words, the simplest possible question one can ask of a digital computer – whether it gives any output at all – cannot be computed! The existence of universal Turing machines, together with their intrinsic limitation due to self-contradictory behavior as in the halting problem, has profound consequences for the behavior of existing computers. In particular, current electronic computers are effectively universal Turing machines. Their universal nature expresses itself in the fact that it is possible to write software that can be compiled to run on any digital computer, no matter whether it is made by HP, Lenovo, or Apple. The power of universal Turing machines manifests itself in the remarkable power and flexibility of digital computation. This power is expressed in the so-called Church-Turing hypothesis, which states that any effectively calculable function can be computed using a universal Turing machine. The intrinsically self-contradictory nature of Turing machines and the halting problem manifest themselves in the intrinsically annoying and frustrating behavior of digital computers – the halting problem implies that there is no systematic way of debugging a digital computer. No matter what one does, there will always be situations where the computer exhibits surprising and unexpected behavior (e.g., the ‘blue screen of death’). Concurrent with the logical, abstract development of the notion of computation, including Turing’s abstract machine, engineers and scientists were pursuing the construction of actual digital computers. In Germany in 1936, Konrad Zuse designed the Z-1, a mechanical calculator whose program was written on perforated 35mm film. In 1937, Zuse expanded the design to allow universal digital computation a la Turing. When completed in 1938, the Z-1 functioned poorly due to mechanical imprecision, the same issue that plagued Babbage’s difference engine more than a century earlier. By 1941, Zuse had constructed the Z-3, an electronic computer capable of universal digital computation. Because of its essentially applied nature, and because it was kept secret during the second world war, Zuse’s work received less credit for its seminal nature than was its due (see the remark above on winner’s history). Meanwhile, in 1937, Claude Shannon’s MIT master’s thesis, ‘A Symbolic Analysis of Relay and Switching Circuits,’ showed how any desired Boolean function – including those on which universal digital computation could be based – could be implemented using electronic switching circuits. 8 This work had a profound influence on the construction of electronic computers in the United States and Great Britain over the next decades.

LLOY2013.3 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 573 : Turing’s ideas on computation had immediate impact on the construction of actual digital computers. While doing his Ph.D. at Princeton in 1937, Turing himself constructed simple electronic models of Turing machines. The real impetus for the development of actual digital computers came with the onset of the second world war. Calculations for gunnery and bombing could be speeded up electronically. Most relevant to Turing’s work, however, was the use of electronic calculators for the purpose of cryptanalysis During the war, Turing became the premier code-breaker for the British cryptography effort. The first large-scale electronic computer, the Colossus, was constructed to aid this effort. In the United States, IBM constructed the Mark I at Harvard, the second programmable computer after Zuse’s Z-3, and used it to perform ballistic calculations. Zuse himself had not remained idle: he created the world’s first computer start-up, designed the follow-up to the Z-3, the Z-4, and wrote the first programming language. The end of the war saw the construction of the Electronic Numerical Integrator and Computer, or ENIAC. To build a computer requires and architecture. Two of the most influential proposals for computer architectures at the end of the war were the Electronic Discrete Variable Automatic Computer, or EDVAC, authored by von Neumann, and Turing’s Automatic Computing Engine, or ACE. Both of these proposals implemented what is called a ‘von Neumann’ computer architecture, in which program and data are stored in the same memory bank. Stored program architectures were anticipated by Babbage, implicit in Turing’s original paper, and had been developed previously by J. Presper Eckert and John Mauchly in their design for the ENIAC. The Pythagoras syndrome, however, assigns their development to von Neumann, who himself would have been unlikely to claim authorship.

LLOY2013.4 Cf. Lloyd, The Universe as Quantum Computer, op. cit., p. 574-576 : The physical universe bears little resemblance to the collection of wires, transistors, and electrical circuitry that make up a conventional digital computer. How then, can one claim that the universe is a computer? The answer lies in the definition of computation, of which Turing was the primary developer. According to Turing, a universal digital computer is a system that can be programmed to perform any desired sequence of logical operations. Turing’s invention of the universal Turing machine makes this notion precise. The question of whether the universe is itself a universal digital computer can be broken down into two parts: (I) Does the universe compute? and (II) Does the universe do nothing more than compute? More precisely, (I) Is the universe capable of performing universal digital computation in the sense of Turing? That is, can the universe or some part of it be programmed to simulate a universal Turing machine? (II) Can a universal Turing machine efficiently simulate the dynamics of the universe itself? At first the answers to these questions might appear, straightforwardly, to be Yes. When we construct electronic digital computers, we are effectively programming some piece of the universe to behave like a universal digital computer, capable of simulating a universal Turing machine. Similarly, the Church-Turing hypothesis implies, that any effectively calculable physical dynamics – including the known laws of physics, and any laws that may be discovered in the – can be computed using a digital computer. But the straightforward answers are not correct. First, to simulate a universal Turing machine requires a potentially infinite supply of memory space. In Turing’s original formulation, when a Turing machine reaches the end of its tape, new blank squares can always be added: the tape is ‘indefinitely extendable.’ Whether the universe that we inhabit provides us with indefinitely extendable memory is an open question of quantum cosmology, and will be discussed further below. So a more accurate answer to the first question is ‘Maybe.’ The question of whether or not infinite memory space is available is not so serious, as one can formulate notions of universal computation with limited memory. After all, we treat our existing electronic computers as universal machines even though they have finite memory (until, of course, we run out of disc space!). The fact that we possess computers is strong empirical evidence that laws of physics support universal digital computation. The straightforward answer to question (II) is more doubtful. Although the outcomes of any calculable laws of physics can almost certainly be simulated on a universal Turing machine, it is an open question whether this simulation can be performed efficiently in the sense that a relatively small amount of computational resources are devoted to simulating what happens in a small volume of space and time. The current theory of computational complexity suggests that the answer to the second question is ‘Probably not.’ An even more ambitious programme for the computational theory of the universe is the question of architecture. The observed universe possesses the feature that the laws of physics are local – they involve only interactions between neighboring regions of space and time. Moreover, these laws are homogeneous and isotropic, in that they appear to take the same form in all observed regions of space and time. The computational version of a homogeneous system with local laws is a cellular automaton, a digital system consisting of cells in regular array. Each cell possesses a finite number of possible states, and is updated as a function of its own state and those of its neighbors. Cellular automata were proposed by von Neumann and by the mathematician Stanislaw Ulam in the 1940s, and used by them to investigate mechanisms of self-reproduction. Von Neumann and Ulam showed that cellular automata were capable of universal computation in the sense of Turing. In the 1960s, Zuse and computer scientist Edward Fredkin proposed that cellular automata could be used as the basis for the laws of physics – i.e., the universe is nothing more or less than a giant cellular automaton. More recently, this idea was promulgated by Stephen Wolfram. The idea that the universe is a giant cellular automaton is the strong version of the statement that the universe is a computer. That is, not only does the universe compute, and only compute, but also if one looks at the ‘guts’ of the universe – the structure of matter at its smallest scale – then those guts consist of nothing more than bits undergoing local, digital operations. The strong version of the statement that the universe is a computer can be phrased as the question, (III) ‘Is the universe a cellular automaton?’ As will now be seen, the answer to this question is No. In particular, basic facts about quantum mechanics prevent the local dynamics of the universe from being reproduced by a finite, local, classical, digital dynamics.

SEGA2020 Le zéro et le un

Jérôme SÉGAL, Le zéro et le un. Histoire de la notion scientifique d’information au XXe siècle, Paris, Éditions Matériologiques, 2020 [2003].

SEGA2020.2 Cf. Ségal, Le zéro et le un, op. cit., p. 102-103 : Avec la parution en 1847, de Mathematical Analysis of Logic, la logique devient à la fois symbolique et mathématique puisque le calcul des propositions peut dès lors s’effectuer à partir d’une structure algébrique. En somme, pour rendre compte brièvement de ce développement on pourrait considérer, dans une interprétation positiviste, que la logique quitte l’herméneutique philosophique pour se ranger sous une discipline mathématique, la théorie des anneaux et des algèbres. Le raisonnement devient ”calcul” indépendamment de l’interprétation qu’on peut donner aux symboles. Si nous décrivons ici (à très grands traits) le cadre historique dans lequel se situent les travaux de Boole, c’est bien parce que Shannon s’intéresse directement aux écrits du logicien britannique tout le long de son mémoire intitulé “De l’analyse symbolique des circuits de relais et de commutateurs”.

SEGA2020.16 Cf. Ségal, Le zéro et le un, op. cit., p. 696 : Une fonction portant sur une suite de chiffres binaires est dite calculable s’il existe une machine de Turing qui, partant de la même suite, donne le même résultat. La thèse de Church-Turing stipule que toute fonction calculable dans un sens intuitif (par un homme par exemple) l’est dans me sens formel ici exposé. La machine universelle de Turing est alors une machine sur laquelle on peut exécuter toutes les tâches qu’on accomplirait avec des machines de Turing particulières.

GITU1999 La machine de Turing

Jean-Yves GIRARD et Alan TURING, La machine de Turing, Paris, Seuil, 1999.

GITU1999.1 Cf. Girard & Turing, La machine de Turing, op. cit., p. 14 : On peut résoudre tous les problèmes : voilà un résumé sommaire du scientisme fin de siècle incarné par Hilbert. Parmi ces problèmes, il en est de fondamentaux, comme d’étayer une fois pour toutes les bases du raisonnement par des démonstrations de cohérence, ce qui mène au programme de Hilbert, réfuté par le théorème de Gödel. Il en est de plus traditionnels, comme de trouver une solution générale à une classe de problèmes : ainsi, le problème de la décision des équation diophantiennes (dit dixième problème de Hilbert) n’est rien d’autre que le problème de trouver un algorithme résolvant un certain type d’équations [Par “équation diophantienne”, on entend une équation P(ni, … nk) = 0, où P est un polynôme à coefficient entiers (positifs ou négatifs) et dont on cherche des solutions, entières elles aussi. Le dixième problème de Hilbert dans la fameuse liste de 1900 est précisément de résoudre en général ce type d’équations : la partie la plus difficile de cette résolution est bien sûr l’existence ou non de solutions.]. En général, on cherche à décider les solutions à réponse oui/non (décider un problème, une propriété, un prédicat) et plus généralement à calculer toutes sortes de fonctions : dans les deux cas on est amené à préciser ce qu’on entend derrière les expressions synonymes algorithme, calcul, procédé mécanique.

GITU1999.2 Cf. Girard & Turing, La machine de Turing, op. cit., p. 107 : Le premier texte de Turing, profondément ancré dans l’univers délimité par Gödel, ne présageait l’informatique que malgré lui ; il en va tout autrement de ce second texte, écrit quinze ans plus tard : à la “machine de papier” est venu se substituer le calculateur électronique, brontosaure inefficace, mais qui saura s’adapter…

GITU1999.3 Cf. Girard & Turing, La machine de Turing, op. cit., p. 110 : La logique formelle ne s’adresse qu’à la forme, c’est-à-dire aux relations externes qu’entretiennent les éléments d’un raisonnement. Cela apparaît déjà dans le syllogisme classique “Tout homme est mortel, tout Athénien est un homme, donc tous les Athéniens sont mortels” : ni la signification concrète des mots “Athénien”, “homme”, “mortel”, ni la façon dont les prémisses du syllogisme ont été justifiées (l’expérience ou un autre syllogisme) n’importent pour juger de la validité de ce morceau de raisonnement. C’est ce qui donne, dans les bons cas, un caractère prédictif au raisonnement : on n’a pas besoin d’ouvrir un dictionnaire pour savoir que Socrate est mort (le “comment”, c’est-à-dire la ciguë, reste caché).

GITU1999.4 Cf. Girard & Turing, La machine de Turing, op. cit., p. 115 : Rappelons enfin que, quel que soit le futur vers lequel on se projette, l’ordinateur reste limité d’abord par l’incomplétude et l’indécidabilité, et, même quand ces facteurs ne jouent pas, par le fait que beaucoup de questions décidables ne sont pas faisables en termes de complexité algorithmique.

LAAXIOMA Axiomatique

Axiomatique, Encyclopédie Larousse en ligne, https://www.larousse.fr/encyclopedie/divers/axiomatique/187310.

LAAXIOMA.1 Cf. Axiomatique, Larousse, op. cit. : Méthode de construction des sciences qui n’utilise qu’un ensemble d’axiomes, certains de ces derniers exposant la logique de la marche à suivre. (C’est en comparant les résultats prédits et l’expérience que l’on garde ou modifie les axiomes de départ.)

LAAXIOMA.2 Cf. Axiomatique, Larousse, op. cit. : Le terme “axiomatique” s’entend en deux sens. C’est d’abord une axiomatique : système formel constitué d’un ensemble d’énoncés admis sans démonstration (axiomes ou postulats), suivi d’un nombre fini de règles de déduction. C’est ensuite la méthode axiomatique : le mode d’écriture et la forme de pensée sous lesquels les sciences exactes veulent parfois se présenter. Dans les deux cas, une exigence sous-jacente est à l’œuvre : l’implicite, le non-dit, l’allusif, voire le bon sens doivent être proscrits de toute théorie. Celle-ci doit exhiber clairement ses propositions premières non démontrées (axiomes) ainsi que les règles de déduction qu’elle emploie, et cela de façon exhaustive. L’exhaustivité est une obligation générale des systèmes formels : ils contiennent tous une règle dite règle de fermeture, qui énonce simplement qu’aucune proposition, aucun énoncé ne peut apparaître valablement s’il n’est déduit des axiomes grâce aux règles de déduction présentes dans la théorie. Historiquement, les axiomatiques apparaissent toujours après des périodes appelées tératologiques, où une science a, correctement mais malgré elle, produit des “monstres” : objets rigoureusement issus de théorèmes communément admis, mais heurtant le bon sens. Lorsque l’irrationalité de la diagonale du carré fut découverte par des mathématiciens grecs qui tenaient pour acquis que tout objet du monde devait se décrire par un nombre entier ou rationnel (les pythagoriciens), apparut dans la mathématique naissante un conflit entre le savoir et le bon sens : racine de 2 était un monstre. Les Éléments d’Euclide (IIIe siècle avant J.-C..), longtemps considérés comme un modèle d’axiomatique, vinrent “mettre à plat” le savoir de l’époque et redéfinir pour près de vingt-deux siècles les fondements de la science mathématique. Beaucoup de ce que nous considérons comme fondamental dans une théorie axiomatisée y figure : les axiomes, les notions communes (axiomes de la logique), les formes de la déduction héritées d’Aristote, jusqu’à cette sorte d’hésitation qui lui fit nommer postulats des axiomes dont l’avenir montrera tout l’aspect problématique. Archimède, dans son étude des lois de l’équilibre des leviers, fit sienne cette méthode.

LAAXIOMA.3 Cf. Axiomatique, Larousse, op. cit. : La seconde période tératologique survint au XIXe siècle : on vit apparaître des objets inadmissibles comme la courbe discontinue dérivable en tout point ou la courbe passant par tous les points d’un plan (Hilbert). Si certains résultats de la géométrie projective posèrent problème, c’est surtout l’invention des géométries non euclidiennes, heurtant fortement le bon sens tel que le concevait Descartes, qui imposa l’exigence d’une méthode axiomatique. À l’idée d’explicite proposée par Euclide se surajouta celle d’abstraction de l’objet formel. Les axiomes et règles de déduction doivent être dépouillés de tout contenu réel et de toute signification particulière. La géométrie peut se faire “avec des tables, des chaises et des verres à bière”, disait Hilbert. Seules comptent les relations que les objets entretiennent entre eux : c’est sur ces relations que portent les axiomes. Explicite et abstraction formelle ont amené les mathématiques à repenser leurs fondements : sur quoi fallait-il faire reposer l’édifice pour en chasser définitivement les monstres ? La présence nécessaire à l’intérieur de toute théorie de lois de déduction issues de la logique est à l’origine du logicisme (Boole, Frege, Russell) : le fondement des théories serait “externe”, et la logique serait la racine des mathématiques ; elle seule ne possède aucun contenu intuitif, manipule des objets vides et des énoncés non interprétés qui ne peuvent donc pas entrer en conflit avec le sens commun. Le logicisme, considéré comme réductionnisme, eut le mérite de permettre de définir très exactement ce qu’était un système formel liant ainsi définitivement entre eux les termes d’axiomatisation et de formalisation d’une théorie. Celle-ci devient alors théorie formelle ou système formel.

LAAXIOMA.4 Cf. Axiomatique, Larousse, op. cit. : Un système formel se constitue en quatre étapes. – Dresser la liste exhaustive (finie ou dénombrable) de tous les symboles qui peuvent apparaître dans une théorie : une suite finie de symboles sera appelée une expression ou mot du langage. – Définir des règles de bonne formation des mots qui constitueront le vocabulaire de cette théorie. Les mots bien formés seront nommés formules : ce sont les propositions (vraies ou fausses) de la théorie. Ces règles de bonne formation sont d’ordinaire récursives et il existe généralement un algorithme permettant de décider si une expression est ou non une formule. Il faut leur adjoindre la règle générale de tout système formel, la règle de fermeture, qui affirme qu’aucune formule ne peut exister si elle n’est pas issue des règles précédentes. Ces deux premières étapes définissent la phase de formalisation, qui est suivie par la phase d’axiomatisation. – Sélectionner parmi l’ensemble des expressions bien formées un sous-ensemble de formules appelées axiomes du système, énoncés “réputés vrais” pour la théorie et admis sans démonstration. Le choix de ces formules est de la seule liberté de l’inventeur de la théorie, qui ne reconnaît aucune instance supérieure à lui pour limiter son choix. – Définir une liste finie de relations nommées règles d’inférence ou règles de déduction, qui sont normalement celles de la logique mathématique. Là encore, il ne faut pas oublier la règle de fermeture. Après ces quatre étapes, la théorie possède pour énoncés admissibles les seuls axiomes. On appelle démonstration une suite finie de formules telle que chacune est soit un axiome, soit la conséquence d’une formule précédente par application d’une règle de déduction. La dernière formule (qui n’est pas un axiome) d’une démonstration est un théorème : autrement dit, un théorème est une formule pour laquelle il existe une démonstration. Un des problèmes fondamentaux des théories axiomatisées consiste à se demander s’il existe un algorithme permettant de décider, pour toute formule du système, si elle est ou non un théorème. Si cet algorithme existe, la formule est dite décidable ; sinon, elle est indécidable. Les mêmes mots s’appliquent à la théorie qui contient la formule.

LAAXIOMA.5 Cf. Axiomatique, Larousse, op. cit. : Les axiomatiques les plus connues sont celle de Giuseppe Peano sur la théorie des nombres entiers, celle de David Hilbert sur la géométrie élémentaire (Grundlagen der Geometrie, 1899) et celle de Andreï N. Kolmogorov (1933) sur la théorie des probabilités. Les axiomatiques de Peano et Hilbert sont encore des “théories-de” (la géométrie, l’arithmétique…) ; elles prennent racine dans des savoirs existants qu’elles formalisent. Mais le mouvement axiomatique s’accentue jusqu’à proposer des systèmes formels sans référent théorique préalable. C’est ainsi qu’une notion classique de la pensée mathématique s’étiole jusqu’à disparaître : la vérité. Le divorce entre le savoir et l’intuition rend les axiomes “libres” : ils ne sont donc pas vrais au sens cartésien du terme, mais ils s’apparentent plus à des hypothèses générales. Issue de ces axiomes, la théorie elle-même n’est plus vraie mais seulement valide, et l’on exige d’elle deux propriétés nécessaires et suffisantes : la consistance (non-contradiction) et l’indépendance de ses axiomes. La non-contradiction est alors la seule garantie de validité de la théorie, qui ne peut produire deux énoncés dont l’un est la négation de l’autre, sous peine de produire alors n’importe quel théorème (y compris celui qui affirme que la théorie est fausse). Les axiomes doivent être indépendants : si un axiome se déduit d’un autre axiome, alors il perd son statut et devient un théorème. La décidabilité est également une propriété des théories formelles, mais elle n’est sûrement pas nécessaire. De 1931 à 1936, Kurt Gödel pour l’arithmétique ordinaire, Alonzo Church pour la logique des prédicats et Alan M. Turing pour les fonctions non récursives montrèrent le caractère non décidable de ces théories réputées simples et fondamentales. L’énoncé qui affirme la non-contradiction de la théorie ne peut être ni démontré ni infirmé. Alfred Tarski généralisa ces résultats (1936), en montrant que ce type d’énoncé ne peut être un théorème à l’intérieur d’une théorie, mais que sa démonstration réclame une théorie plus forte (c’est-à-dire possédant au moins un axiome de plus).

LAAXIOMA.6 Cf. Axiomatique, Larousse, op. cit. : La notion de “théorie-de” fait alors place à celle de modèle. L’axiomatique et son système formel existent en soi et sont créés pour leur logique interne sans rapport aucun avec des objets. Une théorie qui s’abriterait à l’intérieur de ce formalisme en deviendrait un modèle. S’il s’agit d’une théorie physique, un résultat négatif issu d’expérimentations n’infirmera aucunement l’axiomatique ; simplement, d’autres axiomes devront être choisis pour que la théorie physique en devienne un bon modèle. La théorie des modèles est le dernier développement des axiomatiques modernes. Mais, parce que les formalismes axiomatiques ont détruit le concept de vérité, ils ont entraîné les mathématiques vers d’autres débats. À vouloir raisonner sur les objets quelconques, à ne prendre en compte que des propriétés dénuées d’intuition, les formalismes se sont totalement détachés de la réalité et sont devenus un jeu sans rapport avec les sciences appliquées. Quelle est l’existence d’un objet mathématique ? Suffit-il de démontrer son existence pour qu’il ait droit de cité ou bien faut-il réellement le construire ? Les formalistes diront que les mathématiques n’ont jamais eu de rapport avec le réel : “Trois arbres, cela existe, mais le nombre trois ?” Inversement, les constructivistes (Brouwer) exigeront une méthode algorithmique pour admettre l’existence de nombres transcendants. Suffit-il que la non-contradiction d’un objet soit démontrée pour que son existence soit établie et peut-on tenir des raisonnements corrects sur des objets non existants ? Puis-je raisonner sur “la calvitie de l’actuel roi de France” ? se demandait Bertrand Russell. L’objection à la méthode axiomatique réside essentiellement dans son caractère appauvrissant : le “ciel” où Cantor situe les mathématiques les éloigne de nos préoccupations quotidiennes et l’incompréhension qui accompagna les mathématiques ensemblistes dans le système éducatif en France en est un des multiples symptômes. Mais les constructivistes n’apportent rien de plus. La véritable question est finalement épistémologique : une science fortement impliquée dans le développement social peut-elle demeurer longtemps détachée de ce qu’une société considère comme étant “le réel” ? Mais, aussi et inversement, une science peut-elle demeurer libre ?

WPBROHIL Brouwer-Hilbert controversy

Brouwer-Hilbert controversy, Wikipédia, https://en.wikipedia.org/wiki/Brouwer%E2%80%93Hilbert_controversy.

WPBROHIL.1 Cf. Brouwer-Hilbert controversy, Wikipédia, op. cit. : In a foundational controversy in twentieth-century mathematics, L. E. J. Brouwer, a supporter of intuitionism, opposed David Hilbert, the founder of formalism.

WPBROHIL.2 Cf. Brouwer-Hilbert controversy, Wikipédia, op. cit. : At issue in the sometimes bitter disputes was the relation of mathematics to logic, as well as fundamental questions of methodology, such as how quantifiers were to be construed, to what extent, if at all, nonconstructive methods were justified, and whether there were important connections to be made between syntactic and semantic notions. […] partisans of three principal philosophical positions took part in the debate – the logicists (Gottlob Frege and Bertrand Russell), the formalists (David Hilbert and his “school” of collaborators), and the constructivists (Henri Poincaré and Hermann Weyl); within this constructivist school was the radical self-named “intuitionist” L.E.J. Brouwer.

WPBROHIL.3 Cf. Brouwer-Hilbert controversy, Wikipédia, op. cit. : Brouwer in effect founded the mathematical philosophy of intuitionism as a challenge to the then-prevailing formalism of David Hilbert and his collaborators Paul Bernays, Wilhelm Ackermann, John von Neumann and others.

WPBROHIL.4 Cf. Brouwer-Hilbert controversy, Wikipédia, op. cit. : The fundamental issue is just how does one choose “the axioms”?

WPBROHIL.5 Cf. Brouwer-Hilbert controversy, Wikipédia, op. cit. : If successful the quest would result in a remarkable outcome: Given such a generalized proof, all mathematics could be replaced by an automaton consisting of two parts: (i) a formula-generator to create formulas one after the other, followed by (ii) the generalized consistency proof, which would yield “Yes – valid (i.e. provable)” or “No – not valid (not provable)” for each formula submitted to it (and every possible assignment of numbers to its variables). In other words: mathematics would cease as a creative enterprise and become a machine.

WPCALCUL Calculabilité

Calculabilité, Wikipédia, https://fr.wikipedia.org/wiki/Calculabilit%C3%A9.

WPCALCUL.1 Cf. Calculabilité, Wikipédia, op. cit. : La calculabilité cherche d’une part à identifier la classe des fonctions qui peuvent être calculées à l’aide d’un algorithme et d’autre part à appliquer ces concepts à des questions fondamentales des mathématiques. Une bonne appréhension de ce qui est calculable et de ce qui ne l’est pas permet de voir les limites des problèmes que peuvent résoudre les ordinateurs.

WPCALCUL.2 Cf. Calculabilité, Wikipédia, op. cit. : Intuitivement, une fonction f est une fonction calculable s’il existe une méthode précise qui, étant donné un argument x, permet d’obtenir l’image f(x) en un nombre fini d’étapes. Plusieurs formalisations mathématiques de ce que peut être une méthode de calcul existent et on peut montrer qu’un grand nombre d’entre elles (fonctions récursives, machine de Turing, lambda-calcul, machine à compteurs, automate cellulaire, etc.) sont équivalentes, c’est-à-dire qu’elles définissent exactement les mêmes fonctions calculables. Formellement, une fonction calculable est donc une fonction calculable selon l’une de ces définitions, par exemple le lambda-calcul.

WPCALCUL.3 Cf. Calculabilité, Wikipédia, op. cit. : Turing définit un nombre réel calculable comme étant un nombre dont l’expression décimale est calculable avec des moyens finis. Autrement dit, il existe une machine de Turing qui permet d’énumérer la suite de tous les chiffres de ce nombre (en un temps infini).

WPCALCUL.4 Cf. Calculabilité, Wikipédia, op. cit. : Gregory Chaitin a introduit un nombre Ω qui a, entre autres, la particularité d’être parfaitement défini, mais dont la suite des décimales ne peut pas être donnée par une fonction calculable.

WPCALCUL.5 Cf. Calculabilité, Wikipédia, op. cit. : Ada Lovelace, en plus d’être la première programmeuse au monde, suggère que la machine est un calculateur universel, préfigurant la notion de calculabilité.

WPCALCUL.6 Cf. Calculabilité, Wikipédia, op. cit. : De plus, à l’époque de la crise des fondements des mathématiques, David Hilbert s’oppose fermement à l’idée que certaines questions scientifiques restent sans réponse. Il croit au tiers exclu ; un principe logique qui affirme qu’une proposition est soit démontrable, soit sa négation est démontrable. Pour régler le problème de ces fondements, il rédige un programme (qu’on appelle aujourd’hui programme de Hilbert) dont il établit les prémices en 1900 dans l’introduction à sa liste de problèmes. Il développe ensuite ce programme dans les années 1920 avec l’aide de Paul Bernays et Wilhelm Ackermann. Son idée est que tant que ce que l’on manipule est fini, les mathématiques sont sûres. Pour justifier l’utilisation d’objets abstraits ou idéaux, en particulier infinis, il suffit de montrer que la théorie qui les utilise est cohérente, mais bien sûr cette cohérence doit elle-même être démontrée par des moyens finis. On appelle cette approche le “formalisme”.

WPCALCUL.7 Cf. Calculabilité, Wikipédia, op. cit. : Kurt Gödel assiste à une conférence de David Hilbert sur la complétude et la cohérence des systèmes mathématiques lorsqu’il est encore étudiant. Il obtient son doctorat en 1929 grâce à sa thèse où il établit la complétude du calcul des prédicats du premier ordre (en termes intuitifs, ce théorème nous apporte que tout énoncé vrai est démontrable), résultat connu sous le nom de théorème de complétude de Gödel. Ce théorème va dans le sens de Hilbert. Cependant, en 1931, il publie ses célèbres théorèmes d’incomplétude. Il y montre que pour toute théorie axiomatique non contradictoire de l’arithmétique, il existe des énoncés arithmétiques vrais qui ne sont pas démontrables dans cette théorie. Autrement dit, Gödel marque un tournant dans l’histoire de la logique puisqu’il anéantit la possibilité d’une démonstration de la cohérence des mathématiques énoncée vingt ans auparavant dans le programme de Hilbert.

WPCALCUL.8 Cf. Calculabilité, Wikipédia, op. cit. : Turing, quant à lui, caractérise un peu plus tard en 1936, dans son article “On Computable Numbers, with an Application to the Entscheidungsproblem”, ce qu’est un procédé calculable. Pour cela, il imagine non pas une machine matérielle, mais un “être calculant” qui peut être un appareil logique très simple ou un humain bien discipliné appliquant des règles. On appellera cette machine, la machine de Turing. Dans le cours de son raisonnement, il démontre que le problème de l’arrêt d’une machine de Turing ne peut être résolu par algorithme : il n’est pas possible de décider avec un algorithme (c’est-à-dire avec une machine de Turing) si une machine de Turing donnée s’arrêtera. Son article présente également la notion de nombre réel calculable puisqu’il déduit de l’indécidabilité du problème de l’arrêt que l’on peut définir des nombres réels qui ne sont pas calculables. Turing introduit ainsi les concepts de programme et de programmation. Kleene et Turing démontrent en 1938 que le lambda-calcul de Church, les fonctions générales récursives (modèle dit de Herbrand-Gödel) et les machines de Turing ont des capacités équivalentes. Cette équivalence démontre ensuite qu’un certain nombre de formalisations mathématiques de la notion de traitement par des processus mécaniques ont des aptitudes en tous points semblables à l’intuition de Church. Cette constatation aboutit à la thèse de Church (appelée aussi thèse de Church-Turing).

WPCOMPUT Computationnalisme

Computationnalisme, Wikipédia, https://fr.wikipedia.org/wiki/Computationnalisme.

WPCOMPUT.1 Cf. Computationnalisme, Wikipédia, op. cit. : Le computationnalisme est une théorie fonctionnaliste en philosophie de l’esprit qui, pour des raisons méthodologiques, conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul (en anglais, computation) et, plus précisément, à l’application d’un système de règles. Par computationnalisme, on entend la théorie développée en particulier par Hilary Putnam et Jerry Fodor, et non le cognitivisme en général.

WPCOMPUT.2 Cf. Computationnalisme, Wikipédia, op. cit. : En anglais, la computation se réfère à la calculabilité, c’est-à-dire au fait de passer d’une entrée à une sortie par le biais d’un algorithme déterminé. Le computationnalisme n’est pas une thèse ontologique sur la nature de l’esprit : il ne prétend pas que toute pensée se réduit à un calcul de ce style, mais qu’il est possible d’appréhender certaines fonctions de la pensée selon ce modèle, qu’elles soient conscientes ou infraconscientes (par exemple les processus de vision, selon l’approche des neurosciences computationnelles développé par David Marr au début des années 1980).

WPCOMPUT.3 Cf. Computationnalisme, Wikipédia, op. cit. : Deux noyaux théoriques ont aussi été essentiels à la formation de la théorie computationnaliste : d’une part, le formalisme mathématique développé au début du XXe siècle, qui permet en gros de concevoir les mathématiques comme la manipulation de symboles à partir de règles formelles (axiomatique de Hilbert) ; d’autre part, la calculabilité (et la machine de Turing). À l’aide de ces deux ensembles théoriques, on peut passer du noyau sémantique à la simple syntaxe mathématique, et de celle-ci à l’automatisation, sans jamais nier l’existence de la sémantique (c’est-à-dire du sens).

WPCOMPUT.4 Cf. Computationnalisme, Wikipédia, op. cit. : C’est par le biais, d’une part, du formalisme mathématique, développé à la fin du XIXe siècle par Gauss, Peano, Frege et Hilbert, et d’autre part de la calculabilité, que le computationnalisme traite ce problème. En effet, le formalisme réussit, en élaborant une axiomatique, à exclure ou à codifier les intuitions sémantiques du mathématicien (par exemple l’intuition à la source du postulat sur la parallèle d’Euclide). Le formalisme considère ainsi, en grossissant le trait, que les mathématiques existent en dehors de toute intention et de toute pensée. Ils fonctionnent à l’aide de symboles qui demandent à être manipulés selon des règles formelles. Le deuxième aspect mathématique décisif dans la théorie computationnaliste, c’est la définition des fonctions calculables par Alan Turing, en 1936. En élaborant le modèle abstrait de la machine de Turing, celui-ci montrait que toute opération n’impliquant que des schémas syntaxiques pouvait être dupliqué mécaniquement. On parle aussi de la thèse de Church-Turing. Ainsi, la formalisation mathématique montre comment les propriétés sémantiques des symboles peuvent parfois être codés selon des règles syntaxiques, tandis que la machine de Turing montre comment la syntaxe peut être relié à un processus causal, qui permet de concevoir un mécanisme capable d’évaluer toute fonction formalisable. La formalisation relie la sémantique à la syntaxe, et la machine de Turing la syntaxe au mécanisme.

WPCOMPUT.5 Cf. Computationnalisme, Wikipédia, op. cit. : L’hypothèse du “mécanisme numérique” (“digital mecanism”) a été développée par Bruno Marchal, en y adjoignant 2 hypothèses d’une autre nature : d’une part, la thèse de Church, pierre d’angle de l’informatique théorique ; d’autre part, ce qu’il appelle le réalisme arithmétique, c’est-à-dire le fait que la vérité arithmétique est intrinsèque, “d’une ontologie non substantielle”, dixit Marchal.

WICOMPUT.6 Cf. Computationnalisme, Wikipédia, op. cit. : le computationnalisme postule qu’on peut assimiler la pensée à un système d’application de règles, ce qui permet en retour d’identifier des fonctions informatiques complexes comme étant un équivalent de pensée.

WPCOMPUT.7 Cf. Computationnalisme, Wikipédia, op. cit. : Un autre argument a été formulé par Hubert Dreyfus dans What Computers Can’t Do (1972). Fin connaisseur de Heidegger et de la phénoménologie, Dreyfus souligne ainsi la différence centrale qui distingue le processus cognitif utilisé lorsqu’un novice apprend une compétence et lorsqu’un expert agit. Ainsi, un joueur d’échec débutant applique un système de règles (par exemple, avancer le pion de deux cases ou occuper le centre). Mais un champion d’échecs n’applique pas de règles : il “voit” le “coup juste”. L’application de règles, au cœur du computationnalisme, serait ainsi le propre des processus cognitifs limités. Il est difficile, en particulier, de transformer une compétence experte en algorithme, lorsque cette compétence tire ses ressources d’une connaissance générale étrangère au domaine du problème visé.

WPCOMPUT.8 Cf. Computationnalisme, Wikipédia, op. cit. : Donald Knuth suggère que le conscient est de nature séquentielle (nous ne pouvons analyser clairement qu’une chose à la fois) et l’inconscient de nature parallèle. Il y voit une raison du grand succès de la programmation chez les nerds, qui sont mal à l’aise face aux phénomènes ne relevant pas de la pure logique.

WPCURHOW Correspondance de Curry-Howard

Correspondance de Curry-Howard, Wikipédia, https://fr.wikipedia.org/wiki/Correspondance_de_Curry-Howard.

WPCURHOW.1 Cf. Correspondance de Curry-Howard, Wikipédia, op. cit. : La correspondance de Curry-Howard, appelée également isomorphisme de Curry-de Bruijn-Howard, correspondance preuve/programme ou correspondance formule/type, est une série de résultats à la frontière entre la logique mathématique, l’informatique théorique et la théorie de la calculabilité. Ils établissent des relations entre les démonstrations formelles d’un système logique et les programmes d’un modèle de calcul.

WPCURHOW.2 Cf. Correspondance de Curry-Howard, Wikipédia, op. cit. : La correspondance de Curry-Howard a joué un rôle important en logique, car elle a établi un pont entre théorie de la démonstration et informatique théorique.

WPCRIFON Crise des fondements

Crise des fondements, Wikipédia, https://fr.wikipedia.org/wiki/Crise_des_fondements.

WPCRIFON.1 Cf. Crise des fondements, Wikipédia, op. cit. : En mathématiques, la crise des fondements, aiguë au tournant du XXe siècle, est la situation où des solutions concurrentes sont proposées pour asseoir la méthodologie des mathématiques sur une base rigoureuse.

WPCRIFON.2 Cf. Crise des fondements, Wikipédia, op. cit. : En 1879, Frege clarifie le raisonnement logique. Cette formalisation permet de dégager les trois caractéristiques qu’une théorie mathématique devrait avoir : cohérence : impossibilité de démontrer une proposition et son contraire ; complétude : pour tout énoncé, ou bien il est démontrable, ou bien son opposé est démontrable à l’intérieur de la théorie ; décidabilité : il existe une procédure de décision permettant de tester tout énoncé de la théorie. Avec Georg Cantor, la théorie des ensembles met à l’avant-plan les ensembles infinis, objets aux propriétés particulières qui demandent une nouvelle approche.

WPCRIFON.3 Cf. Crise des fondements, Wikipédia, op. cit. : Vers la fin du XIXe siècle et au début du XXe siècle, plusieurs mathématiciens ont tenté de construire les mathématiques sur des bases solides : Frege, Ernst Zermelo, David Hilbert et Bertrand Russell, entre autres. Cette construction était rendue nécessaire après la découverte de problèmes dans la théorie des ensembles permettant des paradoxes comme le paradoxe de Russell, qui compromettaient la cohérence même des mathématiques et la laissant sous la menace du principe d’explosion. La capacité des mathématiques à représenter le monde par exemple au travers des Sciences physiques était alors sérieusement en danger: de tels paradoxes ne permettaient plus aucune prédiction par le calcul de l’évolution d’un système physique, puisque n’importe quel calcul contradictoire et incompatible devenait possible. David Hilbert (1899) rafraîchit la géométrie euclidienne, alors que les géométries non-euclidiennes sont explorées. Surtout, il propose en 1898 de réduire l’arithmétique à la logique. Son but est de montrer que les nombres sont des objets qui se déduisent d’un système d’axiomes non-contradictoires. Il précise son projet en 1922 en posant l’Entscheidungsproblem (problème de la décision). Il demande s’il existe une procédure (un algorithme) permettant de vérifier si une expression formelle peut se déduire d’un système d’axiomes donnés. Cela aboutit en 1928 à un programme de recherche qui s’articule autour de trois questions : les mathématiques sont-elles complètes, cohérentes, et décidables ? Trois écoles se forment au début du XXe siècle pour tenter de formaliser la logique et la métamathématique : logiciste : menée par Russell et Whitehead (à partir de 1903) ; formaliste : menée par David Hilbert (1904-) ; intuitionniste : menée par Brouwer (1907-). Russell et Whitehead, s’appuyant sur la logique et plusieurs axiomes, tentent de construire de façon cohérente les mathématiques. Leur travail, complexe et incomplet, culmine avec Principia Mathematica (1910-1913). L’école formaliste voit les mathématiques comme le résultat de définitions et d’axiomes qui permettent de les construire de façon quasi-mécanique. Finalement, l’école intuitionniste remet en cause certaines méthodes de la logique classique. Parmi les systèmes proposés, la théorie ZFC, chronologiquement une des premières, reste la plus prisée au XXIe siècle. Kurt Gödel avec ses théorèmes d’incomplétude (1931) a démontré que dès qu’une théorie est assez riche pour rendre compte de l’arithmétique, elle ne peut à la fois être complète, décidable et démontrablement cohérente.

WPDECIDA Décidabilité

Décidabilité, Wikipédia, https://fr.wikipedia.org/wiki/D%C3%A9cidabilit%C3%A9.

WPDECIDA.1 Cf. Décidabilité, Wikipédia, op. cit. : En logique mathématique, le terme décidabilité recouvre deux concepts liés : la décidabilité logique et la décidabilité algorithmique. L’indécidabilité est la négation de la décidabilité. Dans les deux cas, il s’agit de formaliser l’idée qu’on ne peut pas toujours conclure lorsque l’on se pose une question, même si celle-ci est sous forme logique.

WPDECIDA.2 Cf. Décidabilité, Wikipédia, op. cit. : Une proposition (on dit aussi énoncé) est dite décidable dans une théorie axiomatique si on peut la démontrer ou démontrer sa négation dans le cadre de cette théorie. Un énoncé mathématique est donc indécidable dans une théorie s’il est impossible de le déduire, ou de déduire sa négation, à partir des axiomes de cette théorie. Pour distinguer cette notion d’indécidabilité de la notion d’indécidabilité algorithmique (voir ci-dessous), on dit aussi que l’énoncé est indépendant du système d’axiomes.

WPDECIDA.3 Cf. Décidabilité, Wikipédia, op. cit. : En logique classique, d’après le théorème de complétude, une proposition est indécidable dans une théorie s’il existe des modèles de la théorie où la proposition est fausse et des modèles où elle est vraie. On utilise souvent des modèles pour montrer qu’un énoncé est indépendant d’un système d’axiomes (dans ce cadre, on préfère employer indépendant plutôt qu’indécidable). La propriété utilisée dans ce cas n’est pas le théorème de complétude mais sa réciproque, très immédiate, appelée théorème de correction.

WPDECIDA.4 Cf. Décidabilité, Wikipédia, op. cit. : Une théorie mathématique pour laquelle tout énoncé est décidable est dite complète, sinon elle est dite incomplète.

WPDECIDA.5 Cf. Décidabilité, Wikipédia, op. cit. : Le théorème d’incomplétude de Gödel nous garantit que toute théorie axiomatique cohérente, et suffisamment puissante pour représenter l’arithmétique de Peano (l’arithmétique usuelle), est incomplète, pourvu qu’elle soit axiomatisée de façon que l’on puisse décider, au sens algorithmique (voir ci-dessous), si un énoncé est ou non un axiome.

WPDECIDA.6 Cf. Décidabilité, Wikipédia, op. cit. : Un problème de décision est dit décidable s’il existe un algorithme, une procédure mécanique qui se termine en un nombre fini d’étapes, qui le décide, c’est-à-dire qui réponde par oui ou par non à la question posée par le problème. S’il n’existe pas de tels algorithmes, le problème est dit indécidable. Par exemple, le problème de l’arrêt est indécidable. On peut formaliser la notion de fonction calculable par algorithme, ou par procédure mécanique, de diverses façons, par exemple en utilisant les machines de Turing.

WPFONMAT Fondements des mathématiques

Fondements des mathématiques, Wikipédia, https://fr.wikipedia.org/wiki/Fondements_des_math%C3%A9matiques.

WPFONMAT.1 Cf. Fondements des mathématiques, Wikipédia, op. cit. : Les fondements des mathématiques sont les principes sur lesquels est établie cette science.

WPFONMAT.2 Cf. Fondements des mathématiques, Wikipédia, op. cit. : Le logicisme a été prôné notamment par Gottlob Frege et Bertrand Russell. La mathématique pure présente deux caractéristiques : la généralité de son discours – la considération des particuliers existants est exclue – et la déductibilité du discours mathématique – les inférences qui structurent le discours mathématique sont des implications formelles (elles affirment non pas les propositions elles-mêmes, mais la nécessité de leur connexion). En ce que le discours mathématique ne prétend qu’à une vérité formelle, il est possible de réduire les mathématiques à la logique, les lois logiques étant les lois du “vrai”. […] Le logicisme a rencontré néanmoins, à ses débuts, de réelles difficultés en tant qu’il s’engage ontologiquement par rapport aux classes. La théorie des classes avait conduit à des paradoxes logiques maintenant résolus mais qui avaient mis au jour la nécessité de clarifier les axiomes.

WPFONMAT.3 Cf. Fondements des mathématiques, Wikipédia, op. cit. : Le formalisme soutenu par David Hilbert : les mathématiques se présentent comme une pure construction de l’esprit. La tâche des mathématiciens est de déduire des théorèmes à partir d’axiomes qui ne sont ni vrais ni faux. La validité ne repose plus que sur la structure des énoncés, et non sur la nature de ce dont ils parlent. La vérité des mathématiques est réduite à leur cohérence interne, la non-contradiction des propositions. Le débat sur cette conception formaliste a été relancé par le théorème d’incomplétude de Gödel qui affirme que tout système formel cohérent et récursif contenant l’arithmétique, possède une proposition qui n’est ni démontrable, ni réfutable ; de plus, cette proposition est cependant “vraie” au sens intuitif du terme : elle formalise en effet l’affirmation selon laquelle la théorie est cohérente, ce qu’on a supposé dès le départ.

WPFONMAT.4 Cf. Fondements des mathématiques, Wikipédia, op. cit. : L’intuitionnisme défendu de manière paradigmatique par Brouwer : les mathématiques ont un fondement intuitif, c’est-à-dire que tous les objets des mathématiques sont des constructions de l’esprit humain. Selon la conception intuitionniste un nombre réel peut être représenté comme une suite infinie de décimales à condition de disposer d’un algorithme qui peut calculer chacune de ces décimales. Cette position a des conséquences importantes notamment sur le plan logique : en logique intuitionniste, on ne peut pas éliminer la double négation (ce que fait la logique classique) : “non non p” ne se réduit pas à “p” ; sinon on pourrait démontrer l’existence d’objets sans pour autant construire ceux-ci. Il s’en suit que “non p ou p” n’est pas un théorème. Brouwer concevait l’intuitionnisme comme un positionnement philosophique sur les mathématiques et a accueilli avec scepticisme sa formalisation donnée ultérieurement par Arend Heyting.

WPFONMAT.5 Cf. Fondements des mathématiques, Wikipédia, op. cit. : L’œuvre de Hilbert est très représentative de la crise des fondements qui s’est produite en mathématiques pendant le XIXe et au début du XXe siècle. Hilbert, comme d’autres logiciens et mathématiciens de son temps, s’est rendu compte que la géométrie euclidienne était incomplète, pas au sens où l’axiome des parallèles n’y est pas déductible, mais parce que tous les géomètres depuis Euclide se servent dans leurs preuves d’axiomes qui n’avaient jamais été explicités. À la suite des travaux de Pasch, Hilbert a donné une formulation presque complète de la géométrie euclidienne, dans son livre Les Fondements de la géométrie, pour laquelle aucun axiome géométrique n’était laissé dans l’ombre. Ce programme de fondation de la géométrie n’était cependant pas achevé pour deux raisons. D’une part, les règles de raisonnement admises étaient encore laissées dans l’ombre. D’autre part, un des axiomes de la géométrie, relatif à la continuité de l’espace, posait des problèmes d’interprétation associés à ceux de la définition des nombres réels et de la théorie des ensembles de Cantor.

WPFONMAT.6 Cf. Fondements des mathématiques, Wikipédia, op. cit. : L’analyse, que l’on peut aussi appeler calcul infinitésimal, ou calcul différentiel et intégral, repose maintenant sur la définition de l’ensemble des nombres réels. Depuis les découvertes de Newton et Leibniz, il avait fallu sortir du cadre des Éléments d’Euclide. Les mathématiciens du XIXe siècle, notamment Cauchy et Weierstrass, pour l’analyse proprement dite, puis Dedekind et Cantor ont donné une formulation précise de principes qui permettent de raisonner avec rigueur et exactitude sur les nombres réels. Ceux-ci sont définis par Dedekind comme des couples d’ensembles de nombres rationnels, les coupures de Dedekind. Peano a donné des axiomes et des méthodes formelles pour développer d’une façon logiquement rigoureuse l’arithmétique et celle-ci suffit pour fonder la théorie des nombres rationnels. La théorie des ensembles de Cantor, qui n’était pas vraiment formalisée, semblait cependant le cadre idéal, paradisiaque selon l’expression de Hilbert, pour fonder l’analyse et plus généralement les mathématiques. Frege, de son côté avait donné des règles formelles précises et explicites pour une théorie logique qui devait permettre de fonder les mathématiques. On pouvait espérer une base solide. Mais cette base n’a pas tardé à montrer ses faiblesses. La découverte du paradoxe de Burali-Forti (l’ensemble de tous les ordinaux est bien ordonné, ce bon ordre est supérieur à tous les ordinaux, donc à son propre ordinal), puis celle du paradoxe de Russell, proche sur le principe mais nettement plus simple (l’ensemble des ensembles qui n’appartiennent pas à eux-mêmes est un ensemble, il ne peut ni s’appartenir, ni ne pas s’appartenir à lui-même), montrent l’incohérence de ces deux théories. (Russell a donné son paradoxe initialement pour la théorie de Frege). Des solutions pour éviter ces paradoxes furent rapidement trouvées. L’une, initiée par Russell, et développée dans les Principia Mathematica, stratifie les prédicats grâce à la notion de type : on ne peut plus écrire qu’un ensemble n’appartient pas à lui-même. L’autre, initiée par Zermelo, restreint la définition des ensembles par compréhension, c’est-à-dire par une propriété de ses éléments : la propriété de ne pas appartenir à soi-même ne définit plus un ensemble. Mais pouvait-on s’assurer que l’on ne puisse pas dériver de nouveaux paradoxes dans ces théories ?

WPFONMAT.7 Cf. Fondements des mathématiques, Wikipédia, op. cit. : Pour répondre à la crise des fondements des mathématiques, David Hilbert avait conçu un programme dont il établit les prémisses en 1900 dans l’introduction à sa célèbre liste de problèmes, le second problème étant justement celui de la cohérence de l’arithmétique. Il développe ce programme avec ses collaborateurs, parmi lesquels Paul Bernays et Wilhelm Ackermann, essentiellement dans les années 1920. L’idée est grossièrement la suivante. Tant que l’on manipule le fini, les mathématiques sont sûres. L’arithmétique élémentaire (en un sens qui doit se préciser) est sûre. Pour justifier l’utilisation d’objets abstraits ou idéaux, en particulier infinis, il suffit de montrer que la théorie qui les utilise est cohérente, mais bien sûr cette cohérence doit elle-même être démontrée par des moyens finitaires. On peut alors affirmer l’existence de ces objets. C’est la position formaliste (à ne pas confondre avec le finitisme qui considère que seules les constructions directement finitaires ont un sens). Le système dans lequel on pourrait formaliser les mathématiques finitaires n’est pas clair. À l’époque, il semble que Hilbert pensait, sans l’avoir explicitement formalisé, à un système plus faible que l’arithmétique de Peano, l’arithmétique primitive récursive : toutes les définitions de fonctions récursives primitives sont dans le langage, la récurrence est restreinte aux formules sans quantificateurs (disons aux égalités pour faire simple), donc très immédiate. Peu importe en fait : le second théorème d’incomplétude de Gödel, montre que l’on ne pourra même pas prouver dans la théorie arithmétique en question sa propre cohérence, et donc certainement pas celle de théories plus fortes qui assureraient la fondation des mathématiques. Le programme de Hilbert n’est donc pas réalisable, en tout cas pas sans une révision drastique. Des logiciens comme Gentzen, et Gödel lui-même, ont pensé à rétablir ce programme en étendant la notion de méthodes finitaires, celles-ci ne pouvant cependant pas être définies une fois pour toutes par une théorie toujours à cause du second théorème d’incomplétude. Ainsi, Gentzen a donné en 1936 une preuve de cohérence de l’arithmétique de Peano dans un système forcément plus fort, où l’on raisonne par induction sur un ordre bien fondé (dénombrable mais plus grand que l’ordre des entiers), mais où l’induction est cependant restreinte à des formules sans quantificateurs, donc plus “immédiate”. Si l’intérêt mathématique des méthodes mises en œuvre par Gentzen ne fait aucun doute, l’interprétation de ses preuves de cohérence, en tant que preuves “absolues” (ce sont bien sûr indubitablement des preuves de cohérence relative) reste très discutable. Il reste que, malgré son échec, le programme de Hilbert a joué un rôle décisif dans le développement de la logique mathématique moderne.

WPFONMAT.8 Cf. Fondements des mathématiques, Wikipédia, op. cit. : mathématiques actuelles sont basées sur la notion d’ensemble. En fait, tout objet mathématique ou presque peut être défini comme un ensemble. […] Avec de telles définitions, ou d’autres semblables, toutes les connaissances mathématiques peuvent être prouvées à l’intérieur d’une théorie des ensembles. Leurs axiomes peuvent être considérés comme les principaux fondements des mathématiques (avec les règles de déduction du calcul des prédicats au premier ordre).

WPFONMAT.9 Cf. Fondements des mathématiques, Wikipédia, op. cit. : La théorie axiomatique des ensembles “standard” comporte neuf axiomes. Ces axiomes ont été énoncés par Zermelo (1908) et complétés dans les années 1920 par Fraenkel et Skolem. Ils sont dits de Zermelo-Fraenkel et comprennent l’axiome du choix, d’où le sigle ZFC souvent employé pour désigner cette théorie. L’œuvre de l’association Bourbaki a été développée dans ce cadre axiomatique.

WPFONMAT.10 Cf. Fondements des mathématiques, Wikipédia, op. cit. : La théorie des classes, de von Neumann, Gödel et Bernays (NGB). C’est une extension de ZFC qui lui est presque équivalente. Tous les théorèmes de ZFC sont des théorèmes de NGB. Inversement, tous les théorèmes de NGB qui ne mentionnent que les notions fondamentales de ZFC (c’est-à-dire les ensembles et non les classes) sont des théorèmes de ZFC. NGB convient mieux que ZFC pour formuler la théorie des catégories.

WPFONMAT.11 Cf. Fondements des mathématiques, Wikipédia, op. cit. : Parmi les mathématiciens, certains se contentent des axiomes ZF, et refusent l’axiome du choix (C), car ils considèrent que certaines de ses implications sont contre-intuitives. Certains mathématiciens refusent même ZF et la logique classique qui en est la base, car ils considèrent que tout doit être construit explicitement ; c’est la raison pour laquelle on les appelle constructivistes ou intuitionnistes.

WPFONMAT.12 Cf. Fondements des mathématiques, Wikipédia, op. cit. : La théorie des types de Whitehead et Russell, exposée principalement dans les Principia Mathematica. Son formalisme est lourd (des dizaines de pages pour prouver des propositions qui peuvent paraître évidentes) et ses principes imposent beaucoup d’interdits entre les divers types dans le souci de ne pas reproduire l’équivalent du paradoxe de Russell. Outre sa grande importance historique parce qu’elle est la première formulation axiomatique, rigoureuse et cohérente des principes généraux des mathématiques, elle a, grâce à l’informatique, repris de la vigueur à la fin du siècle précédent et au début de celui-ci et devient une discipline phare de la logique mathématique contemporaine.

WPINFTHE Informatique théorique

Informatique théorique, Wikipédia, https://fr.wikipedia.org/wiki/Informatique_th%C3%A9orique.

WPINFTHE.1 Cf. Informatique théorique, Wikipédia, op. cit. : L’informatique théorique est l’étude des fondements logiques et mathématiques de l’informatique. C’est une branche de la science informatique. Plus généralement, le terme est utilisé pour désigner des domaines ou sous-domaines de recherche centrés sur des vérités universelles (axiomes) en rapport avec l’informatique. L’informatique théorique se caractérise par une approche par nature plus mathématique et moins empirique de l’informatique et ses objectifs ne sont pas toujours directement reliés à des enjeux technologiques. De nombreuses disciplines peuvent être regroupées sous cette dénomination diffuse dont la théorie de la calculabilité, l’algorithmique et la théorie de la complexité, la théorie de l’information, l’étude de la sémantique des langages de programmation, la logique mathématique, la théorie des automates et des langages formels.

WPINFTHE.2 Cf. Informatique théorique, Wikipédia, op. cit. : Les logiciens Bertrand Russel, David Hilbert et George Boole furent des précurseurs de l’informatique théorique. Mais cette branche de l’informatique a surtout vu le jour à partir des travaux d’Alan Turing et Alonzo Church en 1936, qui ont introduit les modèles formels de calculs (les machines de Turing et le lambda calcul). Ils ont montré l’existence de machines universelles capables de simuler toutes les machines du même type, par exemple les machines de Turing universelles. En 1938, Claude Shannon montre que l’algèbre booléenne explique le comportement des circuits avec des relais électromécaniques. En 1948, Claude Shannon publie A Mathematical Theory of Communication, fondateur de la théorie de l’information. En 1949, il annonce les fondements de la théorie de la complexité des circuits.

WPINFTHE.3 Cf. Informatique théorique, Wikipédia, op. cit. : La théorie des langages et des automates est un sujet important dans les années 1950, car il permet de comprendre l’expressivité des langages. Les machines à états finis et les automates à pile ont été définis. Michael Oser Rabin et Dana Stewart Scott ont étudié le pouvoir expressif et les limites de ces modèles.

WPINFTHE.4 Cf. Informatique théorique, Wikipédia, op. cit. : En 1964, Noam Chomsky définit la hiérarchie de Chomsky. Plusieurs classes de langages (langages rationnels, langages algébriques, langages avec contextes, langages récursivement énumérables) correspondent à des types de machines théoriques différentes (automates finis, automates à pile, machine de Turing à mémoire linéaire, machine de Turing). Pleins de variantes de ces classes de langages et machines sont étudiés. Hartmanis, Lewis et Stearns et d’autres classifient les langages selon le temps et/ou la mémoire qu’il faut pour les calculer. Ce sont les balbutiements de la théorie de la complexité.

WPINFTHE.5 Cf. Informatique théorique, Wikipédia, op. cit. : Durant les années 1970, la théorie de la complexité se développe. Les classes de complexité P et NP sont définis ; la NP-complétude est définie indépendamment par Stephen Cook et Leonid Levin. Richard Karp a démontré l’importance des langages NP-complets. La question P = NP est posée et les chercheurs conjecturaient que l’on pourrait la résoudre via la correspondance entre machines de Turing et circuits. Se développent aussi les méthodes formelles pour vérifier les programmes. On définit des sémantiques formelles aux langages de programmation. Se développement aussi des connections entre le modèle de base de données relationnelles et le calcul des relations, afin de réaliser des requêtes dans des bases de données de manière efficace. Ces années ont été florissantes également en algorithmique. Donald Knuth a beaucoup influencé le développement de l’algorithmique ainsi que Aho, Hopcroft et Ullman.

WPINFTHE.6 Cf. Informatique théorique, Wikipédia, op. cit. : Les années 1980 et 1990 sont propices au développement du calcul parallèle et des systèmes distribués.

WPINFTHE.7 Cf. Informatique théorique, Wikipédia, op. cit. : Il n’est pas facile de cerner précisément ce que l’on entend par “informatique théorique”. Le terme renvoie plutôt à une façon d’aborder les questions informatiques sous un angle plus mathématique et formel, en faisant souvent abstraction des aspects plus pratiques de l’informatique. En ce sens, l’informatique théorique est parfois considérée comme une branche des mathématiques discrètes. Ses objectifs se caractérisent généralement par une volonté d’identifier en principe les possibilités et les limites des ordinateurs. Le Special Interest Group on Algorithms and Computation Theory (SIGACT), regroupement affilié à l’Association for Computing Machinery (ACM) et voué au soutien à la recherche en informatique théorique en donne une définition assez large qui comprend des domaines aussi divers que l’algorithmique et les structures de données, la théorie de la complexité, le parallélisme, le VLSI, l’apprentissage automatique, la bio-informatique, la géométrie algorithmique, la théorie de l’information, la cryptographie, l’informatique quantique, la théorie algorithmique des nombres et de l’algèbre, la sémantique des langages de programmation, les méthodes formelles, la théorie des automates et l’étude de l’aléatoire en informatique.

WPINFTHE.8 Cf. Informatique théorique, Wikipédia, op. cit. : Cette discipline [l’algorithmique] tente de découvrir, d’améliorer et d’étudier de nouveaux algorithmes permettant de résoudre des problèmes avec une plus grande efficacité.

WPINFTHE.9 Cf. Informatique théorique, Wikipédia, op. cit. : Certains programmes sensibles nécessitent une parfaite fiabilité et de ce fait des outils mathématiques à mi-chemin entre l’algorithmique, la modélisation et l’algèbre sont développés afin de permettre de vérifier formellement les programmes et algorithmes.

WPINFTHE.10 Cf. Informatique théorique, Wikipédia, op. cit. : La théorie de l’information résulte initialement des travaux de Ronald A. Fisher. Ce statisticien théorise l’information dans sa théorie des probabilités et des échantillons. Techniquement, “l’information” est égale à la valeur moyenne du carré de la dérivée du logarithme de la loi de probabilité étudiée. À partir de l’inégalité de Cramer, la valeur d’une telle “information” est proportionnelle à la faible variabilité des conclusions résultantes. En d’autres termes, Fisher met l’information en relation avec le degré de certitude. D’autres modèles mathématiques ont complété et étendu de façon formelle la définition de l’information. Claude Shannon et Warren Weaver renforcent le paradigme. Ingénieurs en télécommunication, leurs préoccupations techniques les ont conduits à vouloir mesurer l’information pour en déduire les fondamentaux de la Communication (et non une théorie de l’information). Dans Théorie Mathématique de la Communication en 1948, ils modélisent l’information pour étudier les lois correspondantes : bruit, entropie et chaos, par analogie générale aux lois d’énergétique et de thermodynamique. Leurs travaux complétant ceux d’Alan Turing, de Norbert Wiener et de Von Neuman (pour ne citer que les principaux) constituent le socle initial des “Sciences de l’information”. La théorie de l’information s’appuie principalement sur deux notions caractéristiques que sont la variation d’incertitude et l’entropie (“désordre” au sens d’absence d’ordre et donc d’information dans l’ensemble considéré, d’où indétermination). Déclinant ces principes et ceux d’autres sciences dures, les technologies s’occupent de la façon d’implémenter, agencer et réaliser des solutions pour répondre aux besoins des sociétés humaines. Certains chercheurs tentent de tirer des parallèles entre les concepts d’entropie en physique et d’entropie en informatique afin d’obtenir une formulation informatique de la cosmologie et de la réalité physique de notre monde qui, selon certains, pourraient trouver des clés dans des outils mathématiques que sont les automates cellulaires.

WPINFTHE.11 Cf. Informatique théorique, Wikipédia, op. cit. : La théorie des graphes permet de modéliser de nombreux problèmes discrets : calculs de trajets, allocations de ressource, problèmes SAT… On peut citer le théorème des quatre couleurs comme résultat classique de cette branche de l’informatique.

WPINFTHE.12 Cf. Informatique théorique, Wikipédia, op. cit. : La théorie de la calculabilité a pour objet la caractérisation des fonctions qu’un algorithme peut calculer. En effet, il est possible de montrer qu’il existe des fonctions qui ne sont pas calculables par un ordinateur, et il est dès lors intéressant de savoir lesquelles le sont. Le problème du castor affairé ou la fonction d’Ackermann sont des exemples classiques d’objets étudiés dans ce domaine.

WPINFTHE.13 Cf. Informatique théorique, Wikipédia, op. cit. : La théorie des langages, souvent liée à la théorie des automates, s’intéresse à la reconnaissance d’ensemble de mots sur un vocabulaire donné. Elle est utilisée dans les algorithmes de traitement de la langue naturelle par exemple : traduction automatique, indexation automatique de documents, etc. ainsi que dans ceux des langues artificielles comme les langages de programmation : compilation, interprétation.

WPINFTHE.14 Cf. Informatique théorique, Wikipédia, op. cit. : La logique formelle est un outil fondamental de l’informatique, on y trouve notamment la théorie des types, le lambda calcul et la réécriture comme outils de base de la programmation fonctionnelle et des assistants de preuve.

WPLOGINT Logique intuitionniste

Logique intuitionniste, Wikipédia, https://fr.wikipedia.org/wiki/Logique_intuitionniste.

WPLOGINT.1 Cf. Logique intuitionniste, Wikipédia, op. cit. : La logique intuitionniste est une logique qui diffère de la logique classique par le fait que la notion de vérité est remplacée par la notion de preuve constructive. […] La logique intuitionniste établit, entre autres, un distinguo entre “être vrai” et “ne pas être faux” (formulation plus faible) car ¬¬P → P n’est pas non plus démontrable en logique intuitionniste.

WPLOGINT.2 Cf. Logique intuitionniste, Wikipédia, op. cit. : Brouwer a prôné une mathématique qui rejetterait le tiers exclu et n’accepterait que l’existentiel constructif. […] Elle a été ensuite formalisée, sous le nom de logique intuitionniste, par ses élèves V. Glivenko et Arend Heyting, ainsi que par Kurt Gödel et Andreï Kolmogorov. L’interprétation de Brouwer-Heyting-Kolmogorov ou simplement interprétation BHK est essentiellement la mise en évidence du caractère constructif de l’implication intuitionniste : Quand un mathématicien intuitionniste affirme a ⇒ b, il veut dire qu’il fournit un procédé de “construction” d’une démonstration de b à partir d’une démonstration de a. Autrement dit, une preuve de a ⇒ b est une fonction qui transforme une preuve de a en une preuve de b. Cette interprétation calculatoire trouvera son aboutissement dans un des plus importants résultats de l’informatique théorique : la correspondance de Curry-Howard dont le leitmotiv est “prouver, c’est programmer”. Il y a isomorphisme entre les règles de déduction de la logique intuitionniste et les règles de typage du lambda-calcul. En conséquence, une preuve d’une proposition P est assimilable à un (lambda-)terme de type P. Dès lors, la logique intuitionniste (couplée à la théorie des types) acquiert un statut prépondérant en logique et en informatique théorique, en faisant d’elle historiquement la première des logiques constructives. Ce résultat fondateur engendrera de multiples travaux dérivés ; notamment son extension à la logique d’ordre supérieur qui nécessite l’emploi de types dépendants (le calcul des constructions, par exemple, est la base théorique du logiciel Coq qui est donc, à la fois, un assistant de preuves (constructives), et un outil de création de programmes certifiés).

WPLOGMAT Logique mathématique

Logique mathématique, Wikipédia, https://fr.wikipedia.org/wiki/Logique_math%C3%A9matique.

WPLOGMAT.1 Cf. Logique mathématique, Wikipédia, op. cit. : La logique mathématique est née à la fin du XIXe siècle de la logique au sens philosophique du terme ; elle est l’une des pistes explorées par les mathématiciens de cette époque afin de résoudre la crise des fondements provoquée par la complexification des mathématiques et l’apparition des paradoxes. Ses débuts sont marqués par la rencontre entre deux idées nouvelles : la volonté chez Frege, Russell, Peano et Hilbert de donner une fondation axiomatique aux mathématiques ; la découverte par George Boole de l’existence de structures algébriques permettant de définir un “calcul de vérité”. La logique mathématique se fonde sur les premières tentatives de traitement formel des mathématiques, dues à Leibniz et Lambert (fin XVIIe siècle - début XVIIIe siècle). Leibniz a en particulier introduit une grande partie de la notation mathématique moderne (usage des quantificateurs, symbole d’intégration, etc.). Toutefois on ne peut parler de logique mathématique qu’à partir du milieu du XIXe siècle, avec les travaux de George Boole (et dans une moindre mesure ceux d’Auguste De Morgan) qui introduit un calcul de vérité où les combinaisons logiques comme la conjonction, la disjonction et l’implication, sont des opérations analogues à l’addition ou la multiplication des entiers, mais portant sur les valeurs de vérité faux et vrai (ou 0 et 1) ; ces opérations booléennes se définissent au moyen de tables de vérité. Le calcul de Boole véhiculait l’idée apparemment paradoxale, mais qui devait s’avérer spectaculairement fructueuse, que le langage mathématique pouvait se définir mathématiquement et devenir un objet d’étude pour les mathématiciens. Toutefois il ne permettait pas encore de résoudre les problèmes de fondements. Dès lors, nombre de mathématiciens ont cherché à l’étendre au cadre général du raisonnement mathématique et on a vu apparaître les systèmes logiques formalisés ; l’un des premiers est dû à Frege au tournant du XXe siècle.

WPLOGMAT.2 Cf. Logique mathématique, Wikipédia, op. cit. : Le programme de Hilbert a suscité de nombreux travaux en logique dans le premier quart du siècle, notamment le développement de systèmes d’axiomes pour les mathématiques : les axiomes de Peano pour l’arithmétique, ceux de Zermelo complétés par Skolem et Fraenkel pour la théorie des ensembles et le développement par Whitehead et Russell d’un programme de formalisation des mathématiques, les Principia Mathematica. C’est également la période où apparaissent les principes fondateurs de la théorie des modèles : notion de modèle d’une théorie, théorème de Löwenheim-Skolem.

WPLOGMAT.3 Cf. Logique mathématique, Wikipédia, op. cit. : En 1929 Kurt Gödel montre dans sa thèse de doctorat son théorème de complétude qui énonce le succès de l’entreprise de formalisation des mathématiques : tout raisonnement mathématique peut en principe être formalisé dans le calcul des prédicats. Ce théorème a été accueilli comme une avancée notable vers la résolution du programme de Hilbert, mais un an plus tard, Gödel démontrait le théorème d’incomplétude (publié en 1931) qui montrait irréfutablement l’impossibilité de réaliser ce programme. Ce résultat négatif n’a toutefois pas arrêté l’essor de la logique mathématique. Les années 1930 ont vu arriver une nouvelle génération de logiciens anglais et américains, notamment Alonzo Church, Alan Turing, Stephen Kleene, Haskell Curry et Emil Post, qui ont grandement contribué à la définition de la notion d’algorithme et au développement de la théorie de la complexité algorithmique (théorie de la calculabilité, théorie de la complexité des algorithmes). La théorie de la démonstration de Hilbert a également continué à se développer avec les travaux de Gerhard Gentzen qui a produit la première démonstration de cohérence relative et initié ainsi un programme de classification des théories axiomatiques. Le résultat le plus spectaculaire de l’après-guerre est dû à Paul Cohen qui démontre en utilisant la méthode du forcing l’indépendance de l’hypothèse du continu en théorie des ensembles, résolvant ainsi le 1er problème de Hilbert. Mais la logique mathématique subit également une révolution due à l’apparition de l’informatique ; la découverte de la correspondance de Curry-Howard, qui relie les preuves formelles au lambda-calcul de Church et donne un contenu calculatoire aux démonstrations, va déclencher un vaste programme de recherche.

WPLOGMAT.4 Cf. Logique mathématique, Wikipédia, op. cit. : En logiques classique et intuitionniste, on distingue deux types d’axiomes : les axiomes logiques qui expriment des propriétés purement logiques comme A ∨ ¬ A (principe du tiers exclu, valide en logique classique mais pas en logique intuitionniste) et les axiomes extra-logiques qui définissent des objets mathématiques ; par exemple les axiomes de Peano définissent les entiers de l’arithmétique tandis que les axiomes de Zermelo-Fraenkel définissent les ensembles. Quand le système possède des axiomes extra-logiques, on parle de théorie axiomatique. L’étude des différents modèles d’une même théorie axiomatique est l’objet de la théorie des modèles.

WPMETFOR Méthode formelle

Méthode formelle (informatique), Wikipédia, https://fr.wikipedia.org/wiki/M%C3%A9thode_formelle_(informatique).

WPMETFOR.1 Cf. Méthode formelle, Wikipédia, op. cit. : En informatique, les méthodes formelles sont des techniques permettant de raisonner rigoureusement, à l’aide de logique mathématique, sur des programmes informatiques ou du matériel électronique, afin de démontrer leur validité par rapport à une certaine spécification. Elles sont basées sur les sémantiques des programmes, c’est-à-dire sur des descriptions mathématiques formelles du sens d’un programme donné par son code source (ou parfois, son code objet).

WPOMECHA Oméga de Chaitin

Oméga de Chaitin, Wikipédia, https://fr.wikipedia.org/wiki/Om%C3%A9ga_de_Chaitin.

WIOMECHA.1 Cf. Oméga de Chaitin, Wikipédia, op. cit. : En théorie algorithmique de l’information, une constante Oméga de Chaitin (nombres définis et étudiés par Gregory Chaitin) caractérise de manière univoque et mathématiquement précise un nombre réel, qui possède la particularité d’être aléatoire et de ne pas être calculable au sens de Turing : un algorithme donné ne permet de calculer qu’un nombre fini de ses décimales. Jusqu’à la définition de ce nombre, il n’existait pas d’exemple mathématiquement précis et “concret” de suite aléatoire. Techniquement, il est défini comme étant la probabilité qu’un programme auto-délimité, généré aléatoirement, finisse par s’arrêter. Les programmes en question sont associés à une machine de Turing universelle ou à un modèle de calcul donné. Il existe donc une infinité de constantes de Chaitin, chacune associée soit à une machine de Turing universelle donnée, soit à un modèle de calcul. Cette définition permet également de coder, sous la forme la plus compacte possible, la solution du problème de l’arrêt pour tous les programmes d’un modèle de calcul donné. Comme il est possible de traduire la plupart des problèmes mathématiques en termes de programme informatique qui s’arrête ou non, la connaissance d’un nombre Oméga permet – en principe – de démontrer un grand nombre de théorèmes ou de conjectures mathématiques, dont certains encore non résolus à ce jour comme l’hypothèse de Riemann. Ces nombres apportent un éclairage sur l’incomplétude des mathématiques, mise au jour par le célèbre théorème de Gödel, ainsi que des éléments d’appréciation en ce qui concerne sa signification et sa portée.

WPPHIANA Philosophie analytique

Philosophie analytique, Wikipédia, https://fr.wikipedia.org/wiki/Philosophie_analytique.

WPPHIANA.1 Cf. Philosophie analytique, Wikipédia, op. cit. : L’expression “philosophie analytique” désigne un mouvement philosophique qui se fonda dans un premier temps sur la nouvelle logique contemporaine, issue des travaux de Gottlob Frege et Bertrand Russell à la fin du XIXe siècle et au début du XXe siècle, pour éclairer les grandes questions philosophiques. Sa démarche s’appuie sur une analyse logique du langage cherchant à mettre en évidence les erreurs de raisonnement que celui-ci peut induire et faisant ainsi de la “clarification logique de la pensée” le but de la philosophie selon le mot de Carnap.

WPPHIANA.2 Cf. Philosophie analytique, Wikipédia, op. cit. : À l’origine, la philosophie analytique s’oppose à l’hégélianisme, et plus largement aux courants issus de l’idéalisme allemand. En effet, après Emmanuel Kant, l’idéalisme allemand domine la philosophie occidentale à travers les réflexions et les œuvres de Fichte, de Schelling et de Hegel. La philosophie britannique devint elle-même de plus en plus hégélienne (F. H. Bradley, Thomas Hill Green…). Parallèlement, l’allemand Gottlob Frege pense en dehors de l’idéalisme de ses compatriotes et souhaite reprendre le projet de caractéristique universelle de Leibniz sous le nom de logicisme.

WPPHIANA.3 Cf. Philosophie analytique, Wikipédia, op. cit. : Le positivisme logique distinguait entre les énoncés analytiques, vrais de par leur signification intrinsèque (par exemple, “les célibataires sont non mariés”) ; les énoncés synthétiques a posteriori, dont une vérification empirique est possible ; enfin, les énoncés qui ne sont ni analytiques, ni synthétiques a posteriori, et qui seraient donc vides de sens, parce que ni tautologiques comme les énoncés analytiques, ni “vérifiables” comme les énoncés synthétiques a posteriori (ils niaient ainsi explicitement l’existence des jugements synthétiques a priori, au cœur du projet kantien de refondation de la métaphysique sur des bases scientifiques).

WPPHIANA.4 Cf. Philosophie analytique, Wikipédia, op. cit. : Le but de l’approche analytique est d’éclaircir les problèmes philosophiques en examinant et clarifiant le langage dont on se sert pour les formuler. Cette méthode compte parmi ses apports majeurs la logique moderne, la mise au jour du problème du sens et de la dénotation dans la construction de la signification, le théorème d’incomplétude de Kurt Gödel, la théorie des descriptions définies de Russell, la théorie de la réfutabilité de Karl Popper, la théorie sémantique de la vérité de Alfred Tarski.

WPPHIANA.5 Cf. Philosophie analytique, Wikipédia, op. cit. : L’origine de la philosophie analytique se trouve dans le développement, par Frege, du calcul des prédicats qui a permis d’étendre la formalisation logique à un plus grand nombre d’énoncés. De même, Russell et Whitehead se donnaient pour buts, dans leur Principia Mathematica : de montrer que les mathématiques et la logique peuvent être réduites à la logique mathématique ; de montrer que le résultat logique est un langage idéal.

WPPHIANA.6 Cf. Philosophie analytique, Wikipédia, op. cit. : Les défenseurs de la philosophie analytique font valoir que celle-ci possède un objectif de clarté et de précision au niveau de la description des problèmes philosophiques, qui rapproche ainsi la philosophie de la méthodologie des disciplines scientifiques. Cette clarté dans la description des problèmes et la formulation des solutions permet d’éviter l’ambiguïté et les difficultés d’interprétation souvent reprochées à la philosophie “littéraire”. La philosophie analytique se caractérise également par une approche concrète, “par problèmes”. Il en résulte ainsi la description précise de problèmes philosophiques, clairement identifiés, et pour lesquels il convient de rechercher une solution. Parmi ces problèmes, on peut citer notamment : le paradoxe du menteur, le paradoxe de Hempel, etc. Les critiques de la philosophie analytique pensent que ce n’est là qu’une simple injonction normative à la clarté et la rigueur et que cela décrit plus une tradition, des périodiques, des lectures et références communes, des exemples et problèmes récurrents, qu’une véritable “méthode” scientifique. De plus, la réduction logique est jugée trop superficielle, alors que la philosophie continentale estime remonter aux conditions mêmes du métaphysique, i.e., selon Heidegger, à une ouverture à l’être qui précéderait toute catégorisation logico-métaphysique et qui serait donc plus fondamentale, plus profonde.

WPPRTIEX Principe du tiers exclu

Principe du tiers exclu, Wikipédia, https://fr.wikipedia.org/wiki/Principe_du_tiers_exclu.

WPPRTIEX.1 Cf. Principe du tiers exclu, Wikipédia, op. cit. : En logique formelle, le principe du tiers exclu (ou “principe du milieu exclu” ou “tertium non datur” ou “principium medii exclusï”, ou simplement le “tiers exclu”) énonce que soit une proposition est vraie, soit sa négation est vraie. […] Au début de la formalisation des mathématiques, ce principe a été tenu comme un dogme intangible.

WPPRTIEX.2 Cf. Principe du tiers exclu, Wikipédia, op. cit. : Le principe du tiers exclu a été introduit par Aristote comme complément du principe de non-contradiction. En philosophie, le principe du tiers exclu, comme le principe d’identité, a une double version, ontologique ou logique. La version ontologique rejette la notion de gradation dans l’être : il y a être, ou non-être, pas de demi-être.

WPPRTIEX.3 Cf. Principe du tiers exclu, Wikipédia, op. cit. : La “loi de l’alternative” (Robert Blanché) résulte de la conjonction du principe de non-contradiction et du principe du tiers exclu. À eux deux, ces principes participent à fonder la logique mathématique formelle dite classique. La logique intuitionniste, quant à elle, n’inclut pas le principe du tiers-exclu.

WPPRTIEX.4 Cf. Principe du tiers exclu, Wikipédia, op. cit. : Les “logiques polyvalentes” mettent en question le principe dès Lukasiewicz en 1910, qui revient à l’antique question des “futurs contingents” : si une proposition qui concerne le futur pouvait être caractérisée au présent déjà comme vraie ou fausse, on devrait admettre que le cours des événements est déterminé à l’avance. Les logiques polyvalentes contestent le principe du tiers exclu. Elles reconnaissent d’autres valeurs que le vrai et le faux, elles admettent, entre les deux, l’indéterminé, ou le possible, ou, en deçà, l’impossible (qui est un faux renforcé), et au-delà le nécessaire (degré supérieur du vrai). Heyting ne dit pas que le tiers exclu est faux, il en limite la portée. Une proposition peut être absurde ou probable, et non seulement vraie ou fausse. Brouwer puis Arend Heyting en 1930, en tant qu’intuitionnistes, critiquent les raisonnements fondés sur le tiers exclu. Ils estiment qu’on n’a pas le droit d’inférer une proposition de l’absence de démonstration de sa négation. Leur position est adoptée par les logiciens spécialistes de la théorie des types, assez nombreux, avec le développement de l’informatique.

WPPRTIEX.5 Cf. Principe du tiers exclu, Wikipédia, op. cit. : Comme la double négation, le raisonnement par l’absurde est équivalent au principe du tiers exclu.

WPPRTIEX.6 Cf. Principe du tiers exclu, Wikipédia, op. cit. : La logique intuitionniste ne stipule pas le “principe” du tiers exclu. Autrement, dit, le tiers exclu n’est pas un dogme en logique intuitionniste. En revanche, on peut montrer en logique intuitionniste que le tiers exclu est irréfutable, c’est-à-dire qu’admettre sa négation aboutirait à une contradiction, dit autrement, la négation du tiers-exclu n’est pas démontrable en logique intuitionniste.

WPPROARR Problème de l’arrêt

Problème de l’arrêt, Wikipédia, https://fr.wikipedia.org/wiki/Probl%C3%A8me_de_l%27arr%C3%AAt.

WPPROARR.1 Cf. Problème de l’arrêt, Wikipédia, op. cit. : En théorie de la calculabilité, le problème de l’arrêt est le problème de décision qui détermine, à partir d’une description d’un programme informatique, et d’une entrée, si le programme s’arrête avec cette entrée ou non. Alan Turing a montré en 1936 que le problème de l’arrêt est indécidable, c’est-à-dire qu’il n’existe pas de programme informatique qui prend comme entrée une description d’un programme informatique et un paramètre et qui, grâce à la seule analyse de ce code, répond VRAI si le programme s’arrête sur son paramètre et FAUX sinon. Une partie importante de la démonstration a été la formalisation du concept de programmes informatiques : les machines de Turing.

WPPROARR.2 Cf. Problème de l’arrêt, Wikipédia, op. cit. : De très nombreux problèmes en informatique, notamment concernant l’analyse statique de programmes, sont équivalents au problème de l’arrêt. On le montre là encore en réduisant la résolution du problème de l’arrêt à celle du problème étudié.

WPPROARR.3 Cf. Problème de l’arrêt, Wikipédia, op. cit. : Le problème de l’arrêt est en théorie décidable dans le cas d’une mémoire de taille finie, car l’ensemble des états de la mémoire, bien que très grand, est fini lui-même. […] Le nombre exponentiellement élevé de combinaisons des états d’une mémoire limite dans la pratique cette méthode à de petits programmes comportant moins d’un millier de données scalaires (les instructions n’ont pas à être examinées si elles sont dans des segments protégés contre l’écriture, et donc ne varient jamais).

WPSEMAXI Sémantique axiomatique

Sémantique axiomatique, Wikipédia, https://fr.wikipedia.org/wiki/S%C3%A9mantique_axiomatique.

WPSEMAXI.1 Cf. Sémantique axiomatique, Wikipédia, op. cit. : La sémantique axiomatique est une approche basée sur la logique mathématique qui sert à prouver qu’un programme informatique est correct. Cette sémantique tend à considérer un programme comme un transformateur de propriétés logiques, c’est-à-dire que la signification donnée au programme est un ensemble de prédicats qui sont vérifiés par l’état de la machine (caractérisé par sa mémoire) qui a exécuté le programme, à condition qu’un autre ensemble de prédicats ait été vérifié avant exécution. L’enjeu est en général de trouver la sémantique axiomatique la plus fine possible : étant donné une spécification de sortie que l’on veut en général la plus forte (restrictive) possible, on cherche les préconditions les plus faibles (larges) qui aboutissent à ce résultat.

WPSEMAXI.2 Cf. Sémantique axiomatique, Wikipédia, op. cit. : La sémantique axiomatique est l’une des sémantiques les plus grossières (anglais : coarse-grained) que l’on rencontre pour les langages de programmation. Elle est en effet une approximation, ou abstraction de la sémantique dénotationnelle, qui voit le programme comme une fonction qui transforme la mémoire et elle-même approxime la sémantique opérationnelle qui voit le programme comme une succession d’états de la machine.

WPSELAPR Sémantique des langages de programmation

Sémantique des langages de programmation, Wikipédia, https://fr.wikipedia.org/wiki/S%C3%A9mantique_des_langages_de_programmation.

WPSELAPR.1 Cf. Sémantique des langages de programmation, Wikipédia, op. cit. : En informatique théorique, la sémantique formelle (des langages de programmation) est l’étude de la signification des programmes informatiques vus en tant qu’objets mathématiques.

WPSELAPR.2 Cf. Sémantique des langages de programmation, Wikipédia, op. cit. : Les sémantiques les plus couramment utilisées pour donner du sens à un langage de programmation sont la sémantique opérationnelle, la sémantique dénotationnelle et la sémantique axiomatique.

WPSELAPR.3 Cf. Sémantique des langages de programmation, Wikipédia, op. cit. : En sémantique opérationnelle, la signification d’un programme est la suite des états de la machine qui exécute le programme. Autrement dit un programme est considéré comme la description d’un système de transition d’états.

WPSELAPR.4 Cf. Sémantique des langages de programmation, Wikipédia, op. cit. : Initiée par Christopher Strachey et Dana Scott, la sémantique dénotationnelle est une approche dans laquelle une fonction mathématique appelée dénotation est associée à chaque programme, et représente en quelque sorte son effet, sa signification. Cette fonction prend par exemple pour argument l’état de la mémoire avant exécution, et a pour résultat l’état après exécution.

WPSELAPR.5 Cf. Sémantique des langages de programmation, Wikipédia, op. cit. : En sémantique axiomatique, le programme n’est plus qu’un transformateur de propriétés logiques sur l’état de la mémoire : si on a p vrai avant exécution, alors on a q vrai après. On ne s’intéresse plus à l’état précis de la mémoire tant que l’on sait dire si la propriété tient.

WPSUIALE Suite aléatoire

Suite aléatoire, Wikipédia, https://fr.wikipedia.org/wiki/Suite_al%C3%A9atoire.

WPSUIALE.1 Cf. Suite aléatoire, Wikipédia, op. cit. : En mathématiques, une suite aléatoire, ou suite infinie aléatoire, est une suite de symboles d’un alphabet ne possédant aucune structure, régularité, ou règle de prédiction identifiable. Une telle suite correspond à la notion intuitive de nombres tirés au hasard. La caractérisation mathématique de cette notion est extrêmement difficile, et a fait l’objet d’études et de débats tout au long du XXe siècle. Une première tentative de définition mathématique (insatisfaisante) a été réalisée en 1919 par Richard von Mises. Ce fut l’avènement de la théorie de la calculabilité, dans les années 1930, et de la théorie algorithmique de l’information qui permit d’aboutir dans les années 1970 – au terme d’une succession de travaux menés notamment par Andreï Kolmogorov, Gregory Chaitin, et Per Martin-Löf – à des définitions faisant aujourd’hui consensus (bien que toujours non tout à fait unanime). Les définitions actuellement acceptées (démontrées équivalentes) du caractère aléatoire d’une suite sont les suivantes : une suite aléatoire ne doit posséder aucune régularité “exceptionnelle et effectivement testable” (Martin-Löf 1966) ; une suite aléatoire doit posséder un “contenu informationnel incompressible” (Levin 1974, Chaitin 1975) ; une suite aléatoire doit être imprévisible, c’est-à-dire qu’aucune “stratégie effective” ne peut mener à un “gain infini” si l’on “parie” sur les termes de la suite (Schnorr (en) 1971). Chacun des termes employés dans les définitions ci-dessus possède une définition mathématique rigoureuse. L’ensemble des suites aléatoires, sur un alphabet quelconque peut être représenté par celles n’utilisant que les chiffres “0” ou “1” qui peuvent elles-mêmes être mises en relation bijective avec l’ensemble des nombres réels dont le développement numérique écrit en notation binaire est constitué de chiffres “aléatoires”. De fait, la quasi-totalité des études et définitions mathématiques concernant les suites aléatoires sont effectuées en utilisant la traduction de la suite en un nombre réel, compris entre 0 et 1, écrit en binaire, donnant ainsi une simple suite de 0 et de 1. Bien que très fructueuses sur le plan théorique, et menant à d’intéressants corollaires et propriétés, ces définitions sont en fait peu applicables en pratique pour tester le caractère aléatoire d’une véritable suite. Malgré tout, ces définitions commencent à trouver des applications théoriques dans les domaines de la physique, de la biologie ou de la philosophie.

WPSUIALE.2 Cf. Suite aléatoire, Wikipédia, op. cit. : La théorie algorithmique de l’information, développée par Ray Solomonoff et Andreï Kolmogorov dans les années 1960, a rendu possible de définir, de manière absolue, la notion de contenu en information d’une suite : il s’agit de la complexité de Kolmogorov. Cette mesure est définie comme étant la longueur du plus petit programme nécessaire pour engendrer la suite. Il est démontré que cette mesure ne dépend pas fondamentalement de la machine utilisée pour coder et exécuter le programme, à une constante additive près, ce qui justifie son caractère absolu. “Sur la base de ces considérations, il peut apparaître naturel de définir une suite sans régularité, ou suite finie aléatoire, comme une suite qui pour être calculée demande en gros un programme aussi long qu’elle même.”

WPSUIALE.3 Cf. Suite aléatoire, Wikipédia, op. cit. : Le caractère peu ou très aléatoire d’une suite de symboles dépend du contexte (cryptographie, compression de données, tests et autres) et explique la multiplicité des approches pour définir un hasard parfait.

WPSYSAXI Système axiomatique

Système axiomatique, Wikipédia, https://fr.wikipedia.org/wiki/Syst%C3%A8me_axiomatique.

WPSYSAXI.1 Cf. Système axiomatique, Wikipédia, op. cit. : En mathématiques, un système axiomatique est un ensemble d’axiomes dont certains ou tous les axiomes peuvent être utilisés logiquement pour dériver des théorèmes. Une théorie consiste en un système axiomatique et tous ses théorèmes dérivés. Un système axiomatique complet est un type particulier de système formel. Une théorie formelle signifie généralement un système axiomatique, par exemple formulé dans la théorie des modèles. Une démonstration formelle est une interprétation complète d’une démonstration mathématique dans un système formel.

WPSYSAXI.2 Cf. Système axiomatique, Wikipédia, op. cit. : Un système axiomatique est dit être cohérent s’il ne contient aucune contradiction, à savoir la capacité à dériver à la fois une affirmation et son refus des axiomes du système. Dans un système axiomatique, un axiome est appelé indépendant s’il n’est pas un théorème qui peut être dérivé d’autres axiomes du système. Un système est dit indépendant si tous ses axiomes sous-jacents sont indépendants. Bien que l’indépendance n’est pas une condition nécessaire pour un système, la cohérence l’est. Un système axiomatique est dit complet si toute proposition, ou sa négation, est dérivable.

WPSYSAXI.2 Cf. Système axiomatique, Wikipédia, op. cit. : Un modèle pour un système axiomatique est un ensemble bien défini, qui attribue une signification aux termes non définis présentés dans le système, d’une manière qui est correcte avec les relations définies dans le système. L’existence d’un modèle concret prouve la cohérence d’un système. Un modèle est dit concret si les significations assignées sont des objets et des relations du monde réel, par opposition à un modèle abstrait, qui repose sur d’autres systèmes axiomatiques.

WPSYSAXI.3 Cf. Système axiomatique, Wikipédia, op. cit. : La méthode axiomatique consiste à déclarer les définitions et propositions de manière que chaque nouveau terme puisse être formellement éliminé par les termes qui nécessitent des notions primitives (axiomes) précédemment introduites pour éviter une régression à l’infini. Une position commune à l’égard de la méthode axiomatique est le logicisme. Dans leur livre Principia Mathematica, Alfred North Whitehead et Bertrand Russell ont tenté de démontrer que toute théorie mathématique pouvait être réduite à une certaine collection d’axiomes. Plus généralement, la réduction d’un ensemble de propositions à une collection particulière d’axiomes sous-tend le programme de recherche du mathématicien.

WPSYSAXI.4 Cf. Système axiomatique, Wikipédia, op. cit. : Les axiomes Zermelo-Fraenkel, le résultat de la méthode axiomatique appliqués à la théorie des ensembles, ont permis la formulation “propre” des problèmes de la théorie des ensembles et ont aidé à éviter les paradoxes de la théorie naïve des ensembles. Un tel problème était l’hypothèse du continu. La théorie des ensembles de Zermelo-Fraenkel avec l’axiome du choix inclus historiquement controversée, est généralement abrégée ZFC, où C représente le Choix. De nombreux auteurs utilisent la théorie des ensembles ZF sans l’axiome du choix. Aujourd’hui ZFC est la forme standard de la théorie des ensembles axiomatique et en tant que telle, elle est la fondation la plus commune des mathématiques.

WPSYSAXI.5 Cf. Système axiomatique, Wikipédia, op. cit. : En mathématiques, l’axiomatisation est la formulation d’un système d’affirmations (à savoir, des axiomes) qui se rapportent à un certain nombre de termes primitifs afin qu’un ensemble cohérent de propositions puisse être dérivé déductivement de ces affirmations. Par la suite, la démonstration de toute proposition devrait être, en principe, retracée à ces axiomes.

WPTHINGO Théorèmes d’incomplétude de Gödel

Théorèmes d’incomplétude de Gödel, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8mes_d%27incompl%C3%A9tude_de_G%C3%B6del.

WPTHINGO.1 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Le premier théorème d’incomplétude établit qu’une théorie suffisante pour y démontrer les théorèmes de base de l’arithmétique est nécessairement incomplète, au sens où il existe des énoncés qui n’y sont ni démontrables, ni réfutables (un énoncé est démontrable si on peut le déduire des axiomes de la théorie, il est réfutable si on peut déduire sa négation). On parle alors d’énoncés indécidables dans la théorie. Le second théorème d’incomplétude est à la fois un corollaire et une formalisation d’une partie de la preuve du premier. Il traite le problème des preuves de cohérence d’une théorie : une théorie est cohérente s’il existe des énoncés qui n’y sont pas démontrables (ou, ce qui revient au même, si on ne peut y démontrer A et non A) […]. Le second théorème affirme alors que si la théorie est cohérente cet énoncé ne peut pas en être conséquence, ce que l’on peut résumer par : “une théorie cohérente ne démontre pas sa propre cohérence”.

WPTHINGO.2 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de “formaliser l’arithmétique”, on peut construire un énoncé arithmétique qui ne peut être ni démontré ni réfuté dans cette théorie.

WPTHINGO.3 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Ainsi les théorèmes de Gödel ont pour corollaire, au sens mathématique du terme, l’impossibilité de réaliser le programme de Hilbert.

WPTHINGO.4 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Le second problème de la célèbre liste que Hilbert présenta en 1900 à Paris était celui de la démonstration de la cohérence de l’arithmétique. L’arithmétique joue un rôle particulier dans le programme car, même si Hilbert n’a jamais défini précisément ce qu’il entendait par théorie finitaire, il semble clair qu’à ses yeux l’arithmétique en était une. Il était donc important à ses yeux de démontrer la cohérence de l’arithmétique par des moyens internes, c’est-à-dire sans employer de principe mathématique plus fort que la récurrence sur les entiers ; comme on l’a déjà vu, le second théorème d’incomplétude montre que c’est impossible. Curieusement cela n’a pas empêché les logiciens de continuer à chercher ; ainsi Gerhard Gentzen donna en 1936 une preuve de cohérence de l’arithmétique qui utilisait un principe d’induction plus fort que la récurrence sur les entiers, et Gödel lui-même produisit plusieurs constructions, notamment l’interprétation Dialectica, conduisant à des preuves de cohérence de l’arithmétique. Mentionnons également Alonzo Church dont le lambda-calcul fut initialement conçu pour développer des preuves élémentaires de cohérence. Ainsi, cette recherche de démonstrations de cohérence, apparemment rendue vaine par les théorèmes d’incomplétude, fut au contraire extrêmement fructueuse en posant les bases de la théorie de la démonstration moderne.

WPTHINGO.5 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Les théorèmes d’incomplétude traitent du rapport fondamental en logique entre vérité et prouvabilité et surtout établissent de façon formelle que ces deux concepts sont profondément différents.

WPTHINGO.6 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Ainsi, d’après des travaux de Gödel, puis de Paul Cohen, l’axiome du choix et l’hypothèse du continu sont des énoncés indécidables dans ZF la théorie des ensembles de Zermelo et Fraenkel, le second étant d’ailleurs indécidable dans ZFC (ZF plus l’axiome du choix).

WPTHINGO.7 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : Il y a un lien étroit entre décidabilité algorithmique d’une théorie, l’existence d’une méthode mécanique pour tester si un énoncé est ou non un théorème, et complétude de cette théorie.

WPTHINGO.8 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : En 1931, Gödel connaît un modèle de calcul que l’on dirait maintenant Turing-complet, les fonctions récursives générales, décrit dans une lettre que Jacques Herbrand lui a adressée, et qu’il a lui-même précisé et exposé en 1934. Cependant il n’est pas convaincu à l’époque d’avoir décrit ainsi toutes les fonctions calculables. À la suite de travaux de Kleene, Church, et Turing, ces deux derniers ont énoncé indépendamment en 1936 la thèse de Church : les fonctions calculables sont les fonctions récursives générales.

WPTHINGO.9 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : La preuve par Gödel de son premier théorème d’incomplétude utilise essentiellement deux ingrédients : le codage par des nombres entiers du langage et des fonctions qui permettent de le manipuler, ce que l’on appelle l’arithmétisation de la syntaxe ; un argument diagonal qui, en utilisant l’arithmétisation de la syntaxe, fait apparaître un énoncé similaire au paradoxe du menteur : l’énoncé de Gödel est équivalent, via codage, à un énoncé affirmant sa propre non prouvabilité dans la théorie considérée.

WPTHINGO.10 Cf. Théorèmes d’incomplétude de Gödel, Wikipédia, op. cit. : À l’époque actuelle, quiconque connait un peu d’informatique n’a aucun mal à imaginer que l’on puisse représenter les énoncés d’une théorie par des nombres. Cependant il faut également manipuler ces codages dans la théorie. La difficulté réside dans les restrictions du langage : une théorie du premier ordre avec essentiellement l’addition et la multiplication comme symboles de fonction. C’est la difficulté que Gödel résout pour montrer que la prouvabilité peut être représentée par une formule dans la théorie.

WPTHALIN Théorie algorithmique de l’information

Théorie algorithmique de l’information, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_algorithmique_de_l%27information.

WPTHALIN.1 Cf. Théorie algorithmique de l’information, Wikipédia, op. cit. : La théorie algorithmique de l’information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d’un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d’un objet, dans la mesure où l’on considère qu’un objet (au sens large) est d’autant plus complexe qu’il faut beaucoup d’informations pour le décrire, ou – à l’inverse – qu’un objet contient d’autant plus d’informations que sa description est longue. La théorie algorithmique de l’information est fondée sur cette équivalence : la description d’un objet est formalisée par un algorithme (autrement dit une machine de Turing), et sa complexité (autrement dit son contenu en information) est formalisé par certaines caractéristiques de l’algorithme : sa longueur ou son temps de calcul. Ces fondements sont différents de ceux de la théorie de l’information de Shannon : cette dernière n’utilise pas la notion de calculabilité et n’a de sens que par rapport à un ensemble statistique de données. Cependant, les deux théories sont compatibles et des liens formels entre elles peuvent être établis. Tandis que la théorie de l’information de Shannon a eu de nombreuses applications en informatique, télécommunications, traitement de signal et neurosciences computationnelles, la théorie algorithmique de l’information a été utilisée avec succès dans les domaines de la biologie, de la physique et même de la philosophie.

WPTHALIN.2 Cf. Théorie algorithmique de l’information, Wikipédia, op. cit. : L’idée principale de la théorie algorithmique de l’information est qu’une chose est d’autant plus complexe, ou contient d’autant plus d’information, qu’elle est difficile à expliquer, c’est-à-dire fondamentalement longue à expliquer.

WPTHALIN.3 Cf. Théorie algorithmique de l’information, Wikipédia, op. cit. : Ainsi, un objet sera d’autant plus compliqué qu’on ne peut le décrire plus brièvement qu’une liste exhaustive de ses propriétés… Ce dernier cas constitue le cas limite d’une complexité maximale.

WPTHEAXI Théorie axiomatique

Théorie axiomatique, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_axiomatique.

WPTHEAXI.1 Cf. Théorie axiomatique, Wikipédia, op. cit. : Les Éléments d’Euclide sont considérés comme le premier exemple de théorie axiomatique, même si quelques axiomes étaient restés implicites. La notion moderne de théorie axiomatique s’est développée au cours du XIXe siècle et du début du XXe siècle, d’une part à cause de la découverte au XVIIe siècle du calcul infinitésimal, qui nécessitait d’autres fondements aux mathématiques que ceux des Éléments d’Euclide, d’autre part à cause du développement de la géométrie et de l’algèbre moderne (voir aussi le programme d’Erlangen).

WPTHEAXI.2 Cf. Théorie axiomatique, Wikipédia, op. cit. : Une théorie récursivement axiomatisable est une théorie qui peut être axiomatisée de façon qu’il soit possible de reconnaître de façon purement mécanique les axiomes parmi les énoncés du langage de la théorie. C’est le cas des théories utilisées pour formaliser tout ou partie des mathématiques usuelles, comme l’arithmétique de Peano ou la théorie des ensembles de Zermelo-Fraenkel. Intuitivement on demanderait même aux systèmes d’axiomes plus que cela : on doit pouvoir vérifier “sans avoir à réfléchir” qu’un certain énoncé est un axiome. C’est ce que l’on capture de façon imparfaite, en disant que cette vérification est mécanique, c’est-à-dire que l’on pourrait la confier à une machine, un ordinateur. Un ordinateur est capable de vérifications qui n’ont rien d’immédiat pour un être humain, à plus forte raison si l’ordinateur est purement théorique, telle la machine de Turing, que l’on utilise pour formaliser ces notions. […] Une condition est que les énoncés du langage de la théorie elle-même puissent être reconnus de façon mécanique, on dit que le langage est récursif. […] Un cas particulier évident de théorie récursivement axiomatisable est celui des théories finiment axiomatisables, c’est-à-dire des théories pour lesquelles on peut donner un nombre fini d’axiomes. Ainsi la théorie des groupes, la théorie des corps sont finiment axiomatisables.

WPTHEAXI.3 Cf. Théorie axiomatique, Wikipédia, op. cit. : Une théorie récursivement axiomatisable et complète est récursive (c’est-à-dire décidable au sens algorithmique).

WPTHEENS Théorie des ensembles de von Neumann-Bernays-Gödel

Théorie des ensembles de von Neumann-Bernays-Gödel, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_ensembles_de_von_Neumann-Bernays-G%C3%B6del.

WPTHEENS.1 Cf. Théorie des ensembles de von Neumann-Bernays-Gödel, Wikipédia, op. cit. : La théorie des ensembles de von Neumann-Bernays-Gödel, abrégée en NBG ou théorie des classes, est une théorie axiomatique essentiellement équivalente à la théorie ZFC de Zermelo-Fraenkel avec axiome du choix (et avec les mêmes variantes possibles), mais dont le pouvoir expressif est plus riche. Elle peut s’énoncer en un nombre fini d’axiomes, et donc sans schéma, au contraire de ZFC (voir schéma d’axiomes de compréhension et schéma d’axiomes de remplacement). Ceci n’est possible que grâce à une modification du langage de la théorie, qui permet de parler directement de classe, une notion par ailleurs utile en théorie des ensembles et qui apparaissait déjà, de façon assez informelle, dans les écrits de Georg Cantor dès avant 1900. La théorie des classes a été introduite en 1925 par John von Neumann, mais celui-ci avait pris des fonctions pour objets primitifs. Elle est reformulée en termes de théorie des ensembles et simplifiée par Paul Bernays vers 1929. Kurt Gödel en donne une version inspirée de celle de Bernays, pour sa preuve de cohérence relative de l’axiome du choix et de l’hypothèse du continu par les constructibles, lors de conférences à Princeton en 1937-1938 (publiées en 1940).

WPTHEENS.2 Cf. Théorie des ensembles de von Neumann-Bernays-Gödel, Wikipédia, op. cit. : Cependant, bien que Gödel l’ait adoptée pour la première démonstration significative de cohérence relative, celle de l’axiome du choix et de l’hypothèse du continu, les théoriciens des ensembles préfèrent utiliser le langage de la théorie ZF : en permettant de parler d’une nouvelle notion, celle de classe, on ne peut que compliquer ce genre de preuves, où l’on raisonne sur la théorie. La théorie NBG est encore invoquée, en tant que théorie pour formaliser les mathématiques, quand on a besoin de classes propres par exemple en théorie des catégories.

WPTHEMOD Théorie des modèles

Théorie des modèles, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_mod%C3%A8les.

WPTHEMOD.1 Cf. Théorie des modèles, Wikipédia, op. cit. : La théorie des modèles est une branche de la logique mathématique qui traite de la construction et de la classification des structures. Elle définit en particulier les modèles des théories axiomatiques, l’objectif étant d’interpréter les structures syntaxiques (termes, formules, démonstrations…) dans des structures mathématiques (ensemble des entiers naturels, groupes, univers…) de façon à leur associer des concepts de nature sémantique (comme le sens ou la vérité).

WPTHEMOD.2 Cf. Théorie des modèles, Wikipédia, op. cit. : Plus tard, Hilbert fera une conférence à Paris où il donnera une signification numérique à tous les termes de la géométrie euclidienne dans le but de démontrer l’indépendance des axiomes de la géométrie euclidienne vis-à-vis des autres axiomes. Deux des pionniers de la théorie des modèles sont Leopold Löwenheim et Thoralf Skolem qui démontrent un puissant théorème d’existence de modèles de toutes sortes de “tailles” (cardinaux). Mais une étape importante de l’histoire de cette théorie est la définition de la vérité par Alfred Tarski, dans un article intitulé Le concept de vérité dans les langages formalisés, publié en 1933. Le but de Tarski est de donner une définition de la vérité en accord avec le langage courant et de préciser la théorie de la correspondance. Pour que les antinomies logiques soient évitées, il propose de définir le “vrai” et le “faux” dans un méta-langage. Par exemple, il distingue la proposition "il neige" de l’observation du fait qu’il neige effectivement dans le monde réel. Pour cela, Tarski introduit le concept de satisfaisabilité, au sens que la proposition "il neige" est satisfaite par la réalité (en tant que “modèle” de la formule) seulement dans le cas où il neige. L’objectif de cet exemple est de montrer la différence entre l’objet linguistique et son interprétation qui permet de juger la proposition. Pour ce faire, il introduit l’étude formelle de la sémantique du calcul des prédicats. Il a cependant fallu attendre les années 1950 et 60 pour que la théorie des modèles devienne une discipline à part entière. Parmi ses pionniers figurent Tarski, R. L. Vaught et M. Morley. Aujourd’hui la théorie des modèles est l’une des branches les plus importantes de la logique.

WPTHEMOD.3 Cf. Théorie des modèles, Wikipédia, op. cit. : Le théorème de complétude de Gödel assure qu’en logique classique du premier ordre, la réciproque est vraie : toute théorie non contradictoire possède au moins un modèle. Il clôt des recherches qui remontent au théorème de Löwenheim-Skolem que toute théorie (dans un langage dénombrable du premier ordre), qui a un modèle infini, a aussi un modèle de n’importe quelle cardinalité infinie.

WPTHEMOD.4 Cf. Théorie des modèles, Wikipédia, op. cit. : Une formule vraie dans tout modèle est dite universellement valide (en particulier, une tautologie en est une). Si la formule possède n variables propositionnelles atomiques, il suffit en fait de vérifier la vérité de la formule dans les 2n modèles possibles donnant les diverses valeurs de vérité aux n propositions atomiques pour prouver que cette formule est une tautologie. Le nombre de modèles étant fini, il en résulte que le calcul des propositions est décidable : il existe un algorithme permettant de décider si une formule est une tautologie ou non. Par ailleurs, le théorème de complétude du calcul des propositions établit l’équivalence entre être une tautologie et être prouvable dans un système de déduction adéquat.

WPTHEMOD.5 Cf. Théorie des modèles, Wikipédia, op. cit. : On dit d’une théorie qu’elle est catégorique si tous ses modèles sont isomorphes (rappel : deux modèles M et M’ sont isomorphes s’il existe un homomorphisme bijectif de M dans M’). L’intérêt de manipuler des théories catégoriques réside dans leur univocité : on peut dire d’elles qu’elles caractérisent véritablement les objets dont elles énoncent les lois. Tous les énoncés valides (resp. non valides) dans un modèle donné le sont également dans tout autre modèle. À l’inverse, une théorie non-catégorique a ceci de gênant qu’elle contient des énoncés vrais (resp. faux) de ses objets qui ne le sont pas nécessairement dans un autre modèle.

WPTHEMOD.6 Cf. Théorie des modèles, Wikipédia, op. cit. : Les modèles présentés jusqu’ici sont des modèles de la logique classique. Mais il existe d’autres logiques, par exemple la logique intuitionniste qui est une logique qui construit les démonstrations à partir des prémisses. Il existe pour cette logique une théorie des modèles, les modèles de Kripke avec un théorème de complétude : une formule est démontrable en logique intuitionniste si et seulement si elle est vraie dans tout modèle de Kripke.

WPTHETYP Théorie des types

Théorie des types, Wikipédia, https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_types.

WPTHETYP.1 Cf. Théorie des types, Wikipédia, op. cit. : En mathématiques, logique et informatique, une théorie des types est une classe de systèmes formels, dont certains peuvent servir d’alternatives à la théorie des ensembles comme fondation des mathématiques. Grosso modo, un type est une “caractérisation” des éléments qu’un terme qualifie. En théorie des types, chaque terme possède un type et les opérations décrites par le système imposent des restrictions sur le type des termes qu’elles combinent. La théorie des types est très liée à (et recoupe parfois) l’étude des systèmes de types qui sont utilisés dans certains langages de programmation afin d’éviter certains bugs. Cependant, historiquement les théories des types ont été introduites pour empêcher des paradoxes de la logique formelle et l’expression “théorie des types” renvoie souvent à ce contexte plus large. Deux théories des types qui émergent peuvent servir de fondations pour les mathématiques ; ce sont le λ-calcul typé d’Alonzo Church et la théorie des types intuitionniste de Per Martin-Löf. Quoi qu’il en soit, les théories des types créées par les logiciens trouvent une application majeure comme systèmes axiomatiques de la majorité des assistants de preuve du fait de la correspondance de Curry-Howard liant démonstrations et programmes.

WPTHETYP.2 Cf. Théorie des types, Wikipédia, op. cit. : D’un point de vue de la théorie mathématique : les types ont été pour la première fois théorisés par Bertrand Russell comme réponse à sa découverte du paradoxe ébranlant la théorie naïve des ensembles de Gottlob Frege. Cette théorie des types est développée dans l’ouvrage Principia Mathematica de Russell et Whitehead. Elle permet de contourner le paradoxe de Russell en introduisant tout d’abord une hiérarchie de types, puis en assignant un type à chaque entité mathématique. Les objets d’un certain type ne peuvent être construits qu’à partir d’objets leur pré-existant (situés plus bas dans la hiérarchie), empêchant ainsi les boucles infinies et les paradoxes de surgir et de casser la théorie. Pour ce qui concerne le sous-domaine des mathématiques nommé la logique mathématique – mais c’est aussi très utile dans le domaine de l’informatique, dans des sous-domaines nommés théorie des grammaires, théorie de la compilation, et système de réécriture, voire plus récemment dans le domaine de la transcompilation – on utilise les types dans le cadre de la théorie des types. Dans le langage courant, “théorie des types” est à comprendre dans le contexte des systèmes de réécriture. L’exemple le plus connu est le lambda calcul d’Alonzo Church. Sa Theory of Types a permis de passer du calcul non-typé originel, incohérent du fait du paradoxe de Kleene-Rosser, à un calcul correct. Church a démontré que ce système pouvait servir de fondement des mathématiques ; on le décrit comme une logique d’ordre supérieur. D’autres théories des types marquantes sont la théorie des types intuitionniste de Per Martin-Löf qui est utilisée comme fondement dans certaines branches des mathématiques constructivistes et pour des assistants de preuve tels que Agda ou Idris. Le calcul des constructions de Thierry Coquand et ses extensions sont utilisés notamment par Coq et Matita. Il s’agit d’une recherche active, comme le démontrent les récents développements en théorie des types homotopiques.

WPTHETYP.3 Cf. Théorie des types, Wikipédia, op. cit. : Le concept de type a plusieurs domaines d’applications : les théories des ensembles qui, suivant l’intuition de Russell, classent les ensembles en différents types ; la logique pour laquelle on cherche à donner un contenu calculatoire aux propositions et aux démonstrations par la correspondance de Curry-Howard ; la théorie des modèles, où un type est un ensemble de formules particulier ; les langages de programmation, surtout les langages fonctionnels typés ; les systèmes de démonstration sur ordinateur ; la linguistique, à travers le concept de catégorie syntaxique.

WPTURCOM Turing-complet

Turing-complet, Wikipédia, https://fr.wikipedia.org/wiki/Turing-complet.

WPTURCOM.1 Cf. Turing-complet, Wikipédia, op. cit. : En informatique et en logique, un système formel est dit complet au sens de Turing ou Turing-complet (par calque de l’anglais Turing complete) s’il possède un pouvoir expressif au moins équivalent à celui des machines de Turing. Dans un tel système, il est donc possible de programmer n’importe quelle machine de Turing. Cette notion est rendue pertinente par la thèse de Church, qui postule l’existence d’une notion naturelle de calculabilité. Ainsi, le pouvoir expressif des machines de Turing coïncide avec celui des fonctions récursives, du lambda calcul, ou encore des machines à compteurs.

WPTURCOM.2 Cf. Turing-complet, Wikipédia, op. cit. : De même qu’un modèle de calcul, un langage informatique est dit Turing-complet s’il permet de représenter toutes les fonctions calculables au sens de Turing et Church (nonobstant la finitude de la mémoire des ordinateurs).

WPTURCOM.3 Cf. Turing-complet, Wikipédia, op. cit. : Certains langages dédiés au traitement de problèmes spécifiques ne sont pas Turing-complets. […] Cependant, ces derniers sont en pratique capables de calculer tout ce qui est intéressant, en d’autres termes ils peuvent mettre en œuvre toutes les fonctions dont nous pourrions avoir besoin dans la vie pratique ; les calculs qui leur échappent, soit ont une complexité au-delà de l’imaginable et du réalisable, soit ne se terminent pas. La compilation doit alors démontrer la terminaison des programmes, ou nécessiter une interaction avec le programmeur pour certaines démonstrations, mais c’est le prix à payer pour une qualité de code qui est correct par construction.