Citations en ligne ubique
::TOC::
MASU2014
Le design des programmes
Anthony Masure, Le design des programmes : Des façons de faire du numérique, Thèse dirigée par M. Pierre-Damien Huyghe. Université Paris 1 Panthéon-Sorbonne, ufr 04, École doctorale d’arts plastiques et sciences de l’art. Discipline : Esthétique et Sciences de l’Art, spécialité Design, Thèse soutenue le 10 novembre 2014 en Sorbonne avec mention très honorable et félicitations du jury à l’unanimité, http://www.softphd.com/.
MASU2014.1
Cf. Masure, Le design des programmes, op. cit. : Dans cette mise en doute de la faculté des mathématiques à parvenir à une valeur de vérité universelle, Gödel nous intéresse parce qu’il désespère d’avance tout “programmeur” de parvenir à réaliser un système formel parfaitement automatisé (un programme) : il y aura toujours une thèse (un bug) qui ne pourra pas être démontrable (envisagée) au sein de ce système.
MASU2014.2
Cf. Masure, Le design des programmes, op. cit. : Un système formel est donc constitué d’axiomes (les points de départ) et de programmes (les thèses démontrables au sein du système), c’est un mélange de règles et d’expressions de cette règle (les expressions “en actes”). Ce que nous apprennent Gödel et Turing, c’est qu’en tant que langage informatique, tout programme est voué à l’incomplétude : il finira par “planter”. S’il n’est pas possible de concevoir un langage complet, il est malgré tout possible de gérer et d’anticiper les bugs (erreurs) par l’ajout d’autres programmes. C’est là que le concept de machine prend son sens : elle est ce qui marche et se complète seule. Cette façon de faire des programmes se donne ainsi comme impossible horizon de résoudre l’incomplétude par l’automatisation. La “machine universelle” de Turing joue comme modèle de programme informatique, un modèle de papier ramené à l’infini déroulé d’un ruban inscriptible.
MASU2014.3
Cf. Masure, Le design des programmes, op. cit. : Calculer, c’est symboliser, c’est effectuer des opérations sur des entités “discrètes” (au sens mathématiques du terme) pouvant se ranger dans des cases. Se pose alors la question du choix : “Pour certains besoins, nous devons utiliser des machines à choix dont le comportement ne dépend que partiellement de la configuration (d’où la notion de comportements possibles) : lorsqu’une telle machine atteint une configuration ambiguë, un opérateur extérieur doit intervenir et faire un choix arbitraire pour que la machine puisse continuer son travail” [A. Turing, On Computable Numbers, with an Application to the Entscheidungsproblem, 1936, trad. de l’anglais par J.-Y. Girard, dans : La Machine de Turing, Paris, Seuil, coll. Points Science, 1999, p. 52].
VELO2018
Thèses sur l’informatique
Thèses sur l’informatique, in Véloce, 01, janvier 2018, http://www.lisez-veloce.fr/veloce-01/theses-sur-linformatique/.
VELO2018.1
Cf. Véloce, Thèses sur l’informatique, op. cit. : L’industrie a permis de déléguer aux machines les travaux manuels de l’humanité. Avec l’ordinateur, l’humanité délègue aux machines son activité intellectuelle, limitée au pur calcul. L’informatique est l’incarnation technique de la raison marchande.
VELO2018.2
Cf. Véloce, Thèses sur l’informatique, op. cit. : L’information est la nouvelle forme de l’argent. Son caractère abstrait, sa valeur d’intermédiaire et de pure quantité se réalise visiblement. L’argent perd toute qualité pour devenir un indicateur symbolique. De métal, il est devenu papier, et enfin signal électronique. Elle est la forme historique la plus abstraite de la monnaie. De même, l’information est la réalisation de la fonction de l’argent comme équivalent universel. Désormais, toute activité, tout mouvement quel qu’il soit peut se mesurer, se calculer, s’échanger comme information. L’information est le moyen grâce auquel l’argent étend infiniment sur le monde et en chacun son pouvoir d’égalisation. C’est une monnaie totale.
VELO2018.3
Cf. Véloce, Thèses sur l’informatique, op. cit. : Le fétichisme de l’information est la généralisation du fétichisme de la marchandise. C’est seulement par sa transcription en information que toute activité humaine apparaît comme sociale, et le devient effectivement, comme le travail ne devient social dans le capitalisme que lorsqu’il devient marchandise, et s’incarne dans une marchandise. Comme pour la marchandise, la possibilité d’échanger l’information apparaît comme une qualité innée de celle-ci, une propriété de l’objet, non des sujets. À la manière de l’argent, l’information apparaît spontanément comme un échantillon valable et échangeable de travail humain. Le caractère social de l’activité humaine est dissimulé à nouveau dans cette chose.
VELO2018.4
Cf. Véloce, Thèses sur l’informatique, op. cit. : L’information permet une objectivation abstraite du travail, qui n’a plus à se réaliser dans un produit matériel. Sans cette chose concrète qui leur sert d’intermédiaire, les individus ont l’illusion d’un rapport social immédiat, quand ce n’est que leur activité informatisée qui entre en rapport l’une avec l’autre. L’avènement de cet intermédiaire universel qu’est l’information donne, du fait de sa relative immatérialité, l’illusion d’une immédiateté retrouvée. Alors même que l’immédiat, le rapport direct d’une personne à une autre, disparaît complètement avec elle au profit de la planification et du contrôle.
VELO2018.5
Cf. Véloce, Thèses sur l’informatique, op. cit. : L’information permet la réalisation technique de la valeur marchande, enfin libérée de tout aspect qualitatif. Lorsqu’elle est produite par un élément humain, l’information n’est qu’un temps de travail accumulé dans un objet – cette fois symbolique, autonome, de pure quantité. C’est une certaine quantité de travail abstrait, dont le produit même est abstrait ; un effort quantitatif figé dans des nombres.
CAPI2006
Jalons théoriques sur les systèmes d’information
Jérôme CAPIROSSI, Jalons théoriques sur les systèmes d’information, 30 janvier 2006, http://capirossi.org/2006/01/jalons-theoriques-sur-les-systemes-dinformation/.
CAPI2006.1
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : La théorie de l’informatique ne s’attache pas seulement aux techniques de calculs. Au moyen de l’Algorithmique, de la Logique et de la Sémantique, elle tente de fournir une représentation du monde, qui soit calculable dans le sens moderne, c’est-à-dire vraie et totalement définie.
CAPI2006.2
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : Pour Shannon, cette mesure représente l’incertitude attachée au canal. Pour l’anecdote, c’est cette formule utilisée avec une fonction log2 qui a entraîné l’utilisation du bit comme unité d’information.
CAPI2006.3
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : L’information n’est pas un concept clos. C’est un processus. Il transforme les représentations qu’un système organisé se fait de son environnement. Pour l’anthropologue britannique G. Bateson, l’information est le moteur de l’évolution, elle “est une différence qui engendre une différence”.
CAPI2006.4
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : Les systèmes d’information effectuent, au sein des entreprises, le traitement de l’information et facilitent l’usage de cette information dans les processus de décision.
CAPI2006.5
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : Les échanges. C’est le domaine de la cybernétique inventée par le mathématicien Norbert Wiener, mais également de l’informatique (H A Simon).
CAPI2006.6
Cf. Capirossi, Jalons théoriques sur les systèmes d’information, op. cit. : La complexité peut émerger d’un réseau formé d’une multitude d’organismes ayant chacun un fonctionnement simple : la fourmilière, le jeu de la vie de J Conway. Certains voient dans Internet un réseau permettant de faire émerger une intelligence collective sur le modèle de la Noosphère de T de Chardin.
CAVA2019
La culture numérique selon Dominique Cardon
Peppe CAVALLARI, La culture numérique selon Dominique Cardon : Une lecture de Culture numérique (SciencesPo, 2019), in Sens Public, 16 juin 2019, http://www.sens-public.org/article1417.html.
CAVA2019.1
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : Une compréhension strictement technique des innovations apportées par la diffusion de l’informatique dans les usages communicationnels et informationnels les plus communs se révèle en effet insuffisante, car les mutations engagées par le numérique ont acquis une dimension que l’on définit, justement, de culturelle.
CAVA2019.2
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : Si ce système, dont la dimension constitutive est sociale, est articulé, agencé et régi par une technologie aussi diffusée et omniprésente que la technologie numérique, alors la culture numérique peut être conçue comme la culture à l’époque du numérique.
CAVA2019.3
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : culture numérique est “la somme des conséquences qu’exerce sur nos sociétés la généralisation des techniques de l’informatique”, car derrière “le numérique” il y a l’informatique [Cardon, Dominique. 2019. Culture numérique. Les Petites humanités. Presses de Science Po, p. 18.]
CAVA2019.4
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : L’utopie de cette époque est l’indifférenciation égalitaire entre les individus : “s’il faut séparer le réel et le virtuel, soutiennent les pionniers des mondes numériques, c’est justement pour abolir les différences entre les individus…ils rêvent d’une communauté atopique, déterritorialisée et ouverte”. Ce n’était que de la “cécité idéologique”, remarque Cardon, celle qui caractérisait la toute jeune société de l’information et de la communication en temps réel : “en réalité, il apparaitra très vite que la frontière entre monde réel et virtuel n’est pas si étanche et que les inégalités de ressources sociales et culturelles entre internautes s’exercent aussi dans les espaces en ligne” [Cardon, Dominique. 2019. Culture numérique. Les Petites humanités. Presses de Science Po, p. 62.].
CAVA2019.5
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : “Les algorithmes ne sont pas neutres. Ils renferment une vision de la société qui leur a été donnée par ceux qui les programment dans les grandes entreprises du numérique. Les artefacts techniques contiennent les principes, les intérêts et les valeurs de leurs concepteurs : la mise en œuvre opérationnelle de ces valeurs passe par des choix techniques, des variables statistiques, de seuils que l’on fixe et des méthodes de calcul. […] Il serait déraisonnable de ne pas s’y intéresser sous le prétexte que ce sont des objets techniques complexes que seuls les informaticiens peuvent comprendre. Sans rentrer dans les détails sophistiqués du calcul, nous devons être attentifs à la manière dont nous fabriquons ces calculateurs car, en retour, ils nous construisent.” [Cardon, Dominique. 2019. Culture numérique. Les Petites humanités. Presses de Science Po, p. 357.]
CAVA2019.6
Cf. Cavallari, La culture numérique selon Dominique Cardon, op. cit. : “Comment et par qui voulons-nous être calculés ? Quel degré de maîtrise et de contrôle voulons-nous avoir sur les décisions que prennent les algorithmes ? Qu’est-ce que nous ne voulons pas laisser calculer ?” […] Les algorithmes, remarque Cardon, peuvent produire des effets désagréables et trompeurs que leurs concepteurs n’ont pas anticipés et qui ne sont pas toujours manifestes (par exemple, des discriminations dans les prédictions criminelles, dans l’autocomplete de Google et dans les offres des vendeurs sur Airbnb), mais il n’y a pas lieu de les démoniser car “puisque les algorithmes forment leurs modèles à partir des données fournies par nos sociétés, leurs prédictions tendent à reconduire automatiquement les distributions, les inégalités et les discrimination du monde social” [Cardon, Dominique. 2019. Culture numérique. Les Petites humanités. Presses de Science Po, p. 407.].
CANO2014
Une petite histoire pas très sérieuse de deux très sérieuses logiques
Guillaume CANO, Une petite histoire pas très sérieuse de deux très sérieuses logiques, in Image des mathématiques, CNRS, 8 mai 2014, http://images.math.cnrs.fr/Une-petite-histoire-pas-tres.html.
CANO2014.1
Cf. Cano, Une petite histoire pas très sérieuse de deux très sérieuses logiques, op. cit. : En mathématiques, il faut dire ce qui est Vrai, l’axiome du tiers exclu n’est pas contradictoire et n’est pas aberrant non plus, il permet au mathématicien d’accéder à certains résultats et d’avancer dans la théorie. Mais en informatique il faut construire les preuves de manière algorithmique. Pour l’informaticien un objet existe seulement si il y a un algorithme qui permet de le calculer, donc l’utilisation de la logique intuitionniste lui assure que les objets sur lesquels il faits des preuves peuvent bien être obtenus par un algorithme.
CANO2014.2
Cf. Cano, Une petite histoire pas très sérieuse de deux très sérieuses logiques, op. cit. : Une preuve consiste à construire petit à petit ce qu’on appelle un arbre de preuve. Un arbre de preuve est une trace de toutes les règles que l’on a utilisées pour faire une preuve. Vérifier qu’un arbre de preuve est correct est quelque chose de très facile à faire. On n’a même pas besoin de connaître le sens des symboles ∧, ∨ ou → pour faire cela. Il suffit simplement de vérifier que les règles sont appliquées correctement, autrement dit il suffit de vérifier si toutes les règles utilisées ont la bonne forme. Ce que l’on vient de voir ici est une formalisation de la logique que l’on a présentée avant. Le fait que l’on n’ait pas besoin de connaître le sens des symboles pour vérifier ou même pour faire des preuves facilite l’automatisation de ces procédures. La formalisation est le premier pas vers l’automatisation de l’acte de démonstration et de vérification de preuve.
PROS2006
En toute logique
Frédéric PROST, En toute logique : une origine de l’ordinateur, in Interstices, 10/02/2006, https://interstices.info/en-toute-logique-une-origine-de-lordinateur/.
PROS2006.1
Cf. Prost, En toute logique, op. cit. : Babbage disait de sa machine analytique qu’elle “pourrait tout faire mis à part composer des chansons populaires”.
PROS2006.2
Cf. Prost, En toute logique, op. cit. : il imaginait que nos pensées pouvaient se décrire au moyen d’un alphabet des pensées humaines, qu’on pourrait combiner entre elles par des combinaisons semblables aux opérations de l’algèbre usuelle. C’est en particulier par cette notion de calculus ratiocinator que Leibniz s’inscrit dans la lignée des précurseurs de l’informatique.
PROS2006.3
Cf. Prost, En toute logique, op. cit. : c’est par une réponse négative à un problème sur le fondement des mathématiques que l’ordinateur a été défini – ce problème des fondements provenant lui-même de toute une réflexion sur les statuts relatifs de la vérité et de la démonstration (pendant longtemps les deux notions ont été considérées comme équivalentes).
DELE1979
Appareils d’États et machines de guerre
Gilles DELEUZE, Appareils d’États et machines de guerre : Cours de 1979-1980, https://soundcloud.com/user-375923363/sets/appareil-detat-et-machine-de.
DELE1979.1
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 30:24 : Qu’est ce que signifie code primitif ? Ça signifie : entrelacement de deux données constitutives de ce qu’on appelle codes primitif, à savoir lignage/territoire. Lorsque des lignages épousent ou modèlent ou modulent des territoires, vous avez un code, dit sommairement, c’est quelque chose de très, très sommaire, je dirais que c’est un code primitif. C’est les noces du lignage et du territoire.
DELE1979.2
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 32:08 : il y a surcodage lorsque les codes subsistent mais sont, d’autre part et en même temps, rapportés à une unité formelle supérieure qui donc va, à la lettre, les surcoder.
DELE1979.3
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 58:57 : en logique, vous savez qu’à la formalisation s’est opposé, ou s’est distingué, du moins, quelque chose de très, très différent. Et ce quelque chose de différent, c’est justement ce qu’on a appelé axiomatique ou axiomatisation, et qu’il importe surtout de ne pas confondre l’axiomatisation et la formalisation.
DELE1979.4
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:00:05 : C’est complètement formel une axiomatique. Oui, c’est formel une axiomatique. Seulement, c’est une formalisation d’immanence, de pure immanence. C’est à dire, la formalisation se fait au même niveau que celui des ensembles formalisés. L’axiomatique est immanente à ses modèles. C’est par là que c’est pas une formalisation. Ou, si vous préférez, c’est une formalisation d’immanence, alors que la formalisation logique est une formalisation par transcendance.
DELE1979.5
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:27:15 : On est assujetti à la machine, on est asservi par la machine
DELE1979.6
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:28:43 : l’assujettissement social n’est certes pas l’invention du capitalisme, mais le capitalisme le portera à la perfection.
DELE1979.7
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:29:47 : Il s’est passé que, vous savez, ce qu’on appelle le troisième âge de la machine, c’est l’ensemble des machines dites cybernétiques et informatiques. Or, c’est pas faux, moi je crois, ce que tout le monde dit, c’est vrai ça, c’est un saut qualitatif de la machine, mais en quel sens ? Et bah justement, c’est que ces machines ne sont plus des machines d’usage ni de production, de consommation-production, ce sont des machines de communication et d’information.
DELE1979.8
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 2 du 13/11/79, 1:40:27 : le travailleur, avec l’automation, n’est plus que adjacent au procès du travail.
DELE1979.9
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 9:54 : Quelle serait la définition nominale du capital, quelle serait la définition réelle du capital ? […] Je commence par : recherche d’une définition nominale, et je lis lentement un texte de Marx […] “ce fut un immense progrès lorsque Adam Smith rejeta tout détermination de l’activité créatrice de richesse, et ne considéra que le travail tout court. Autrement dit, ni le travail manufacturier, ni le travail commercial, ni l’agriculture, mais toutes les activités sans distinctions. Avec l’universalité abstraite […] de l’activité créatrice de richesse, on a en même temps l’universalité de l’objet en tant que richesse, à savoir le produit tout court, ou le travail tout court mais en tant que travail passé, matérialisé”.
DELE1979.10
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 13:33 : il y a capital lorsque la richesse n’est plus déterminée comme telle ou telle, elle n’est plus déterminée comme foncière, comme industrielle, comme commerciale, comme artisanale, comme ceci ou cela […] Elle est déterminée comme activité créatrice de richesse. Le capital c’est la subjectivité de la richesse. C’est la richesse en tant que subjectivité universelle, c’est-à-dire c’est la richesse qui n’est plus qualifiée ou déterminée comme telle objectivement, richesse foncière, richesse monétaire, richesse ceci, richesse cela, mais qui est richesse tout court, rapportée à l’activité créatrice de la richesse, à savoir, le capital. Le capital, c’est le sujet de l’activité créatrice de la richesse.
DELE1979.11
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 17:10 : la propriété elle est capitaliste justement […] lorsqu’elle n’est plus qualifiée comme telle ou telle, c’est-à-dire lorsque la propriété est devenue propriété de droits abstraits.
DELE1979.12
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 32:35 : Et par là même, il avait en même temps, c’est ça qui devient essentiel, et par là même il avait en temps l’universalité de l’objet en tant que richesse, à savoir le travail, qui de son coté n’était plus déterminé comme ceci ou cela, mais comme travail quelconque. En d’autres termes, la subjectivité abstraite de la richesse était immédiatement réfléchie dans le travail abstrait.
DELE1979.13
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 39:11 : Ça n’est plus, nous sommes sortis du domaine des conjonctions topiques, on est entré dans quoi ? Je cherche un mot pour bien opposer, je dirais, ben, c’est un autre domaine. C’est comme si c’était une sorte de grande, là, d’immense conjugaison, une conjugaison généralisée des flux décodés. On a dépassé les conjonctions topiques et qualifiées pour entrer dans une espèce de conjugaison, heu, des flux décodés comme tels. […] Une axiomatique définie comme conjugaison généralisée des flux décodés. […] Lorsque vous vous trouvez devant un traitement d’éléments présentés comme non qualifiés, c’est-à-dire comme n’étant ni ceci ni cela, comme n’étant pas déterminés sous telle ou telle forme, un tel traitement, quel qu’il soit, on aura à se poser la question : qu’est-ce que ça peut être un tel traitement, mais un tel traitement s’appelle précisément et constitue une axiomatique. Chaque fois que un élément est déterminé ou qualifié, vous savez d’avance que ce n’est pas de l’axiomatique.
DELE1979.14
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 57:18 : Donc, la définition réelle du capital ce sera : la rencontre entre les deux séries hétérogènes, dont l’une a pour aboutissement la production du travailleur nu, et l’autre a pour aboutissement la formation du capitaliste indépendant. Voyez donc que c’est à la lettre un niveau de flux décodés qui va beaucoup plus loin, qui a débordé même, même les conjonctions topiques. Et à la limite, encore une fois, il n’y a plus qu’un seul sujet : le capital, un seul objet : le travail. C’est donc que l’on appelle la conjugaison généralisée des flux décodés. Le sujet universel se réfléchit dans l’objet quelconque, à savoir le travail abstrait, c’est le capitalisme en tant qu’axiomatique.
DELE1979.15
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:24:38 : Une axiomatique est inséparable de ce qu’on appelle des modèles de réalisation.
DELE1979.16
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:34:17 : Il y a une axiomatique chaque fois que vous vous trouvez devant, ou chaque fois que vous construisez des relations, chaque fois que vous déterminez des relations entre éléments non spécifiés.
DELE1979.17
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:47:02 : c’est complètement différent d’une démarche de formalisation logique. Pourquoi ? Parce que dans une axiomatique vous avez un ensemble de relations fonctionnelles entre éléments non spécifiés qui baignent de manière immanente les modèles de réalisation en même temps que les modèles de réalisation effectuent directement chacun pour son compte, effectuent directement, chacun dans son hétérogénéité, chacun pour son compte, les relations de l’axiomatique. […] Les modèles de réalisation d’une même axiomatique sont hétérogènes les uns par rapport aux autres, pourtant ils réalisent la même axiomatique. D’où la notion proprement axiomatique d’isomorphie.
DELE1979.18
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:51:15 : la limite d’une axiomatique c’est le point où l’on ne peut pas ajouter de nouvel axiome sans que le système ne devienne contradictoire. On dit à ce moment-là que l’axiomatique considérée, que cette axiomatique, est saturée. C’est le problème de la saturation, ou des limites, des limites d’une axiomatique. Système saturé, lorsqu’on ne peut plus ajouter d’axiome sans rendre le système contradictoire.
DELE1979.19
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:53:21 : dans toute axiomatique un peu complexe, comportant un grand nombre d’axiomes, cette axiomatique comporte nécessairement un modèle de réalisation dans les nombres dits naturels. […] l’axiomatique ne pouvait dépasser la puissance du dénombrable.
DELE1979.20
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 8 du 05/02/80, 1:57:47 : toute axiomatique, y compris l’axiomatique mondiale supposée, comporte un certain type et un certain nombre de propositions qu’on serait en droit d’appeler des propositions indécidables
DELE1979.21
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 19:53 : ne confondez pas la formalisation logique et l’axiomatisation. […] une formalisation, voilà ce que c’est : c’est le dégagement et la détermination de relations formelles entre éléments spécifiés d’après tel ou tel type. […] la formalisation logique ou logistique est la détermination de relations formelles entre éléments spécifiés d’après le type de proposition qui leur correspond. En ce sens, la formalisation érige un modèle à réaliser.
DELE1979.22
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 37:07 : Tandis que dans la formalisation, vous deviez passer toujours par une homogénéisation au niveau du type supérieur. Les ensembles de type 1 ne pouvaient comparés, du point de vue de la formalisation, ne pouvaient être comparés que dans la mesure où ils étaient homogénéisés par un ensemble du type 2. Les ensembles de type 2 ne pouvaient être comparés que dans la mesure où ils étaient homogénéisés par un ensemble de type 3. […] l’axiomatique, c’est précisément les relations fonctionnelles qui renvoient à des modèles de réalisation, la formalisation c’est les relations formelles qui constituent des modèles à réaliser […] contrairement à l’État archaïque, l’État moderne a cessé d’être un modèle à réaliser, et il est devenu modèle de réalisation par rapport à une axiomatique.
DELE1979.23
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 47:22 : le vrai et le faux ça suppose que ce qu’on dit a déjà un sens.
DELE1979.24
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 57:16 : l’axiomatique c’est encore une manière d’arrêter les flux, dans ce cas les flux de science.
DELE1979.25
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:02:15 : l’axiomatique c’est une espèce de structuration, de restructuration, de reterritorialisation symbolique. Voyez en quel sens je ferais la distinction, donc, entre trois concepts : les conjonctions topiques ou qualifiées entre flux. Les conjugaisons généralisées de flux. Et quelque chose de plus : les connexions, c’est-à-dire ce qui pousse les flux encore plus loin, ce qui les fait échapper à l’axiomatique même, et ce qui les met en rapport avec des vecteurs de fuite.
DELE1979.26
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:40:25 : nous aurions des raisons d’assimiler le capitalisme à une axiomatique, et aussi que nous aurions des raisons – je veux dire, premier point, assimiler le capitalisme à une axiomatique, je n’ai plus à le faire, parce que j’estime que ce qu’on a fait précédemment, toutes nos définitions du capitalisme, consistaient à dire oui, le capitalisme il surgit lorsque les conjonctions topiques sont débordées au profit d’une conjugaison généralisée, au profit d’une conjugaison généralisée de deux flux : le flux de richesses devenu indépendant, le flux de travail devenu “libre”.
DELE1979.27
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:45:13 : Est-ce qu’il y a bien une addition et un retrait des axiomes, des axiomes du capital ?
DELE1979.28
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:47:12 : C’est cette thèse des limites en tant qu’immanentes et non pas obstacle extérieur, qui en ferait des limites absolues, en d’autres termes, c’est lui qui engendre ses propres limites, et qui dès lors s’y heurte, et qui les déplace. Cette thèse fondamentale, je crois, pose le problème de la saturation, de ce qu’on pourrait appeler la saturation du système à tel ou tel moment.
DELE1979.29
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 9 du 26/02/80, 1:47:48 : Les États et les pays, les États-nation, peuvent d’une certaine manière être considérés comme des modèles de réalisation de cette axiomatique du capital. En ce sens, quel est le statut des modèles de réalisation ? Quelle est la mesure de leur indépendance par rapport à la situation mondiale, par rapport à l’axiomatique elle-même, quelle est la mesure de leur dépendance, etc. ?
DELE1979.30
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 11 du 11/03/80, 1:48 : quels critères axiomatiques peuvent-ils nous permettre, nous permettent-ils, de nous orienter dans les situations politiques actuelles ?
DELE1979.31
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 11 du 11/03/80, 37:05 : le développement technologique dans le développement des machines dites informatiques ou dites cybernétiques implique un renversement du rapport capital constant/capital variable.
DELE1979.32
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 12 du 18/03/80, 12:57 : Une production décodée, c’est du produire pour produire.
DELE1979.33
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 12 du 18/03/80, 19:16 : quel est l’objectif du capital, et quel est le but du capital ? Le but du capital c’est produire pour le capital, c’est ça son but. Quel est l’objectif du capital ? L’objectif, lui, est illimité. L’objectif du capital c’est produire pour produire. Il est forcé que d’une certaine manière, le but limité, produire pour le capital, et l’objectif illimité, produire pour produire, entrent dans une contradiction au moins apparente.
DELE1979.34
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:03:17 : tous les points de l’espace, si distants qu’ils soient, sont mis en contact. Sont mis en contact, c’est-à-dire tous les points de l’espace existent en voisinage topologique.
DELE1979.35
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:09:45 : être vrai ou faux ça semble être une exigence de tout savoir ou de toute compréhension bien connue sous le nom de tiers-exclu.
DELE1979.36
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:11:25 : Mais voilà que pour des raisons ou pour d’autres, les deux procédés par lesquels l’axiomatique pourrait récupérer ces propositions indécidables ou du tiers-inclus, ne marche pas. Pourquoi ça marche pas ? Parce que on a beau ajouter des axiomes, il y a un certain type de proposition, les axiomes mordent pas dessus.
DELE1979.37
Cf. Deleuze, Appareils d’États et machines de guerre, op. cit., séance 13 du 25/03/80, 1:21:25 : ces propositions indécidables, je dirais, c’est les lignes de fuite du système.
BELH2016
Entre le certain et l’incertain
Badreddine BELHAMISSI, Entre le certain et l’incertain, un siècle de controverses sur la fondation des Mathématiques (et de la physique) ou une petite histoire (un peu ) philosophique de l’ordinateur, 2016 https://www.researchgate.net/publication/316560750_Entre_le_certain_et_l%27incertain_un_siecle_de_controverses_sur_la_fondation_des_Mathematiques_et_de_la_physique_ou_une_petite_histoire_un_peu_philosophique_de_l%27ordinateur_Par_B_Belhamissi.
BELH2016.1
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : On sait que le projet de Hilbert était de formaliser complètement la Mathématique et le raisonnement Mathématique. Gödel et après lui Turing ont montré que cela n’était pas possible. Mais cet échec de la formalisation du raisonnement a néanmoins été une réussite dans la formalisation des algorithmes, c’est la vraie mèche responsable de l’explosion Babelienne du foisonnement de la technologie actuelle des langages de programmation informatique. Ce n’est peut-être pas complètement vrai, mais on peut dire que Turing a inventé l’ordinateur pour répondre à la question plutôt philosophique posée par Hilbert.
BELH2016.2
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Ce que Gödel et Turing ont montré : c’est que le raisonnement axiomatique formel possède des limitations. On ne peut formaliser le raisonnement axiomatique dans son entier.
BELH2016.3
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Cantor montre que le nombre de points sur une droite est plus infini (transfini, disait-il) que l’infini des nombres entiers. C’est la puissance du continu, dit-il.
BELH2016.4
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Avec Hilbert, un axiome n’est plus vrai car il traduit l’expérience mais car il s’inscrit dans un système consistant. Cela marque le début des mathématiques modernes et marque aussi un point de rupture avec les autres sciences dont on a souvent eu l’occasion de discuter ici. Ce changement a aussi une autre implication, en tuant le lien avec l’expérience, le problème de l’axiomatisation deviens un problème mathématique et, au même titre que les autres problèmes mathématiques, il pourra être étudié et mener à des démonstrations tel que le théorème de Gödel.
BELH2016.5
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Puisque ce qui jette le trouble et la contradiction en mathématique avec la théorie des ensembles est l’utilisation de mots et que les mots peuvent être très vagues, Hilbert propose un ensemble fini d’axiomes et un langage artificiel pour faire des mathématiques.
BELH2016.6
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : ces règles doivent être si précises que l’on pourrait avoir un vérificateur mécanique de ces preuves. Donc il est complètement certain, objectif et mécanique que la preuve obéit ou non uniquement aux règles. Il ne doit pas y avoir d’élément humain, d’élément subjectif et il n’est pas question d’interpréter.
BELH2016.7
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Le travail de Gödel a consisté à démontrer que dans les systèmes formels suffisamment complexes pour contenir l’arithmétique : on ne peut pas simplement démontrer la consistance ; si le système formel est consistant, alors il est incomplet.
BELH2016.8
Cf. Belhamissi, Entre le certain et l’incertain, op. cit. : Von Neumann lui, l’avait vu : la machine universelle de Turing s’identifie à la machine programmable capable de prendre en charge par le calcul n’importe quel problème. Il existait, bien sûr, déjà bien avant Turing des machines à résoudre des problèmes par le calcul, mais ces machines ne prenaient en charge par le calcul qu’un type très spécifique de problèmes. Ce n’est pas pour rien que John Von Neumann eut l’idée du logiciel et fut le premier programmeur de l’histoire de l’informatique, il a su voir cette flexibilité, cette notion potentielle d’universalité du calcul de la machine de Turing.
GANA2004
Alan Turing : du calculable à l’indécidable
Jean-Gabriel GANASCIA, Alan Turing : du calculable à l’indécidable, 19/02/2004 https://interstices.info/alan-turing-du-calculable-a-lindecidable/
GANA2004.1
Cf. Ganascia, Alan Turing : du calculable à l’indécidable, op. cit. : Indépendamment, en 1937, Alan Turing a circonscrit, à l’aide du concept de machine de Turing, une autre classe de fonctions répondant elles aussi à l’intuition que l’on se fait des fonctions calculables. Simplification extrême des machines possibles, qu’elles soient réelles, futures, ou simplement concevables, ces machines ressemblent, à s’y méprendre, à des machines à écrire à ruban dont on aurait supprimé le clavier. Plus précisément, elles se composent toutes d’un ruban infiniment long divisé en petites cases, sur lesquelles sont imprimés des idéogrammes puisés dans une réserve finie donnée par avance. Une petite fenêtre découvre l’une des cases de ce ruban à une tête de lecture, de sorte que la machine soit en mesure d’identifier l’idéogramme qui y est inscrit, de le gommer ou d’en imprimer un autre qui efface le premier. Le ruban peut se mouvoir vers la gauche ou vers la droite, de façon à placer l’une quelconque des cases qu’il contient sous la fenêtre. Outre son ruban, les moteurs qui le déplacent, la petite fenêtre de lecture, d’effacement et d’impression, une machine de Turing possède ce que l’on désigne ici comme des “états internes” […] les machines de Turing admettent un nombre fini d’états internes. Chacun conditionne de façon totalement déterministe les réactions de la machine aux nouveaux événements lus sur le ruban. Enfin, une “table”, ou ce qu’en termes modernes nous appellerions aujourd’hui un “programme”, décrit, pour chaque état interne, l’action exacte que la machine doit exécuter. Les actions possibles : “déplacement” du ruban vers la gauche ou vers la droite, “lecture, effacement ou impression” d’un idéogramme sur la case du ruban qui se trouve juste sous la fenêtre, et enfin, “arrêt définitif”, ainsi que l’état interne qui s’en suivra.
GANA2004.2
Cf. Ganascia, Alan Turing : du calculable à l’indécidable, op. cit. : Selon Turing, résoudre le problème de la décision est équivalent à pronostiquer la terminaison de l’exécution d’un programme informatique sur une machine de Turing. Turing a démontré qu’il n’est pas possible de concevoir un algorithme qui, étant donné un programme quelconque, nous avertisse avec certitude et au bout d’un temps fini si ce programme doit éventuellement “tourner en rond” et s’exécuter indéfiniment, sans trouver jamais la sortie.
ABIT2015
Pas d’informatique… pas de numérique !
Serges ABITEBOUL, Pas d’informatique… pas de numérique ! Compétences informatiques, les enjeux pour la société numérique, in Entreprise 2020, Cigref, journée de réflexion sur le thème « Quels talents pour l’entreprise numérique », proposée par l’Université Paris 1 Panthéon Sorbonne, 8 juin 2015, http://www.entreprise2020.fr/pas-dinformatique-pas-de-numerique/.
ABIT2015.1
Cf. Abiteboul, Pas d’informatique… pas de numérique !, op. cit. : l’enseignement de l’informatique repose pour commencer sur une sorte de “conflit terminologique”. Le reste du monde enseigne “the computer sciences”, une appellation peu pertinente, parce que l’informatique n’est pas vraiment “une science de l’ordinateur”, mais plutôt une “science de l’information”. En France, on focalise sur le numérique. Numérique et informatique, ce n’est pas la même chose. L’informatique n’est pas tout le numérique. Le numérique est quelque chose de beaucoup plus englobant que l’informatique. Le monde d’aujourd’hui est numérique. On peut parler d’art numérique, on peut parler de culture numérique… Par exemple, Wikipédia est basé sur une philosophie de partage, du partage des connaissances. C’est donc extrêmement numérique. Mais est-ce de l’informatique ? Évidemment non. Mais cela ne marcherait pas sans informatique !
ABIT2015.2
Cf. Abiteboul, Pas d’informatique… pas de numérique !, op. cit. : Le Professeur Abiteboul propose de retenir la définition de l’informatique donnée par la Société Informatique de France : “l’informatique est une science qui est au cœur du numérique et qui, d’une certaine façon, rend le numérique possible”.
ABIT2015.3
Cf. Abiteboul, Pas d’informatique… pas de numérique !, op. cit. : Si les réseaux sociaux ne sont pas de l’informatique, Facebook, Twitter ou Linkedin ne fonctionnent que parce qu’il y a de l’informatique derrière. On peut multiplier les exemples. Qui aurait dit il y a quelques années que des services comme les taxis pourraient reposer sur l’informatique ? Aujourd’hui, il y a Blablacar, Uber…
CONT2017
Informatique ou digital ?
Philippe Contal, Informatique ou digital ?, 2017, https://www.territoiredigital.com/blog/Informatique-ou-digital.html
CONT2017.1
Cf. Contal, Informatique ou digital ?, op. cit. : Si l’on en croit le Larousse, l’informatique est la “science du traitement automatique et rationnel de l’information considérée comme le support des connaissances et des communications”. Plus communément, l’informatique est l’application de cette science, mettant en œuvre du matériel (ordinateurs) et des logiciels. Dans les technologies numériques – ou digitales – les informations (textes, images, sons…) sont représentées par des suites de nombres binaires. Ces variables discrètes permettent de créer, stocker, traiter et diffuser toutes formes de données et connaissances. De prime abord, nous serions donc tentés d’assimiler l’informatique et le digital puisque le second utilise les ressources du premier. Mais au-delà de la définition académique et de l’immanquable débat sur les termes “numérique” et “digital”, c’est l’approche, les usages et les conséquences organisationnelles qui diffèrent. Par nature, l’informatique structure et centralise. C’est un constat, non une impertinence. L’architecture informatique, même si elle évolue depuis quelques années, a besoin d’aborder le matériel et le logiciel avec des méthodes rationnelles et analytiques. La définition ci-dessus ne laisse d’ailleurs aucun doute à ce propos. Le monde digital est né d’une complexification de l’informatique. Cette complexité est le fruit du nombre et de l’interconnexion. C’est ce qui a donné naissance à une nouvelle approche, le digital. Il répartit et décloisonne. Le monde digital permet une collaboration non centralisée. Il permet également de répartir les compétences, de les associer pour produire des actions et des contenus partagés et collectifs ou communautaires. Dans le monde digital, nous consultons et utilisons quotidiennement des données dont la localisation nous est inconnue. Est-ce bien important d’ailleurs de savoir où sont hébergées les informations que nous consommons ? Et cela d’autant plus que nos écrans ont tendance à nous servir des données agrégées, composites.
CONT2017.2
Cf. Contal, Informatique ou digital ?, op. cit. : Le digital est un usage, non une technologie. Il utilise des moyens matériels et logiciels, mais c’est dans les applications que se trouve son intérêt, sa valeur ajoutée. Cette petite révolution a d’ailleurs des conséquences que nous n’imaginions pas il y a une vingtaine d’années. En informatisant les entreprises, les méthodes et données se sont trouvées formalisées, entrant dans des cases qui nous permettaient de nous rassurer. L’arrivée de l’information non structurée et des bases de données NoSQL a bouleversé le champ des possibles. L’information est sortie de son cocon rassurant de variables aux caractéristiques limitantes (champ texte, nombre…). Les données sont désormais abordées comme des objets mathématiques vivants, des vecteurs probabilistes. La dynamique des grands nombres a donné naissance à une autre forme d’apprentissage et de connaissance. En informatique, les informations sont vraies ou fausses. Dans le digital, elles sont appréhendées de manière dynamique et statistique. Elles peuvent être vraies à “96.3 %”. Ce changement de paradigme est le même que celui qui a permis le passage de la mécanique classique à la mécanique quantique. Il ne s’agit pas de remplacer la première par la deuxième, mais d’envisager d’autres formes cognitives que la rationalité analytique. La mécanique quantique ne remplace pas la mécanique classique, très utile pour notre quotidien. Elle la complète en apportant des nouvelles réponses là où la première manque d’efficacité. De la même manière, le digital s’appuie sur l’infrastructure informatique, mais apporte des nouveaux comportements, des nouvelles réponses, des nouvelles opportunités. Ce changement d’approche bouleverse beaucoup de choses, de notre conception du monde aux organisations que nous pensions efficaces et durables. L’organisation pyramidale n’a pas disparu, mais elle se heurte aux structures transversales et organiques. Pour plus d’efficacité, l’entreprise décentralise et donne plus de rôles aux opérateurs sur le terrain. La digitalisation des organisations donne plus de responsabilités – et de pouvoir ? – aux personnes opérationnelles. Là où il fallait traverser des couches de management où la déperdition était un véritable fléau, les décisions peuvent être prises et appliquées de manière plus efficace et réactive. Les silos laissent la place aux cellules à géométrie variable.
CONT2017.3
Cf. Contal, Informatique ou digital ?, op. cit. : L’informatique est nécessaire à la transformation digitale, mais il ne faut pas confondre les deux. Ce serait à peu près aussi idiot que de déléguer le pilotage d’une Formule 1 à l’équipe de mécaniciens. Ce n’est pas péjoratif. Il s’agit simplement de reconnaître le rôle de chacun. Le pilote n’aura rien à piloter si les ingénieurs, constructeurs et mécaniciens ne font pas leur travail. Mais sur circuit, son approche sera très différente. Il doit faire corps avec le véhicule et adapter son pilotage en fonction de l’environnement. Il n’aurait d’ailleurs pas le temps de demander une autorisation pour ajuster sa conduite. Vous l’aurez compris, le digital n’est pas qu’une histoire d’informatique. Mais ce n’est pas non plus seulement une affaire de marketing. Le digital est partout. Il doit être appréhendé de manière holistique, non cloisonnée. Ce n’est pas non plus seulement une approche transversale. Le digital rend vivantes les données et les organisations. Il s’agit de passer de la structure solide à la phase liquide voire gazeuse. Car le fait d’établir des liens entre les informations et les multiplier par une collecte planétaire ne produit pas seulement une masse de données à traiter. Notre connaissance du monde en est considérablement modifiée.
CONT2017.4
Cf. Contal, Informatique ou digital ?, op. cit. : Converser avec une personne située à l’autre bout de la planète ne nous surprend plus. Voir une vidéo en temps réel ou différé sur des sujets abordés par des scientifiques du monde entier, suivre une conférence ou des cours de chinois en ligne ne nous surprend plus non plus. Et pourtant… cet accès quasiment illimité est très récent dans l’histoire de l’Humanité. D’autres conséquences sont encore en cours ou à venir. Quel rôle attend-on des états quand ils sont purement et simplement court-circuités dans un de leur rôle principal : la collecte, l’utilisation et la redistribution des ressources collectives. C’est une question à part entière… qui n’est aujourd’hui malheureusement même imaginée par ceux qui s’en octroient la représentation. Le monde politique, majoritairement, résonne encore avec des neurones du Siècle des Lumières. Bien entendu, tout n’est pas merveilleux dans le monde du digital, car il ouvre de nombreuses possibilités, y compris un côté sombre. Mais des opportunités extraordinaires se présentent également. Parmi celles-ci, se trouve l’apprentissage automatique, fruit de la collecte et du traitement de données en grand nombre, le big data. Il y a également notre capacité à créer et participer à des projets collectifs, de durée variable, en associant des compétences et des ressources hétérogènes et complémentaires.
CONT2017.5
Cf. Contal, Informatique ou digital ?, op. cit. : Le digital décloisonne et répartit. En connectant, il brise des frontières et en créé des nouvelles. Elles sont vivantes, souples et mobiles. Elles ne sont plus durables, mais elles restent valables tant qu’elles répondent à l’attente qui les a fait naître. En reliant, le digital répartit différemment les rôles. Le contrôle indispensable à l’organisation hiérarchique prend une autre forme dans une structure organique. En plaçant le digital au cœur des organisations, nous autorisons l’apprentissage et donc l’essai et l’ajustement. Ce ne sont plus les moyens qui sont imposés par l’organisation, mais les résultats qui deviennent l’indicateur de performance. La transformation digitale n’est donc pas une affaire technologique mais essentiellement humaine, par nos organisations et nos méthodes. Elle vit, donc elle a besoin de souplesse et d’adaptation plutôt que de procédures sclérosantes.
DOWE2015
Sur la définition du mot « numérique »
Gilles DOWEK, Sur la définition du mot « numérique », in Pixees, ressources pour les sciences du numérique, janvier 2015, https://pixees.fr/sur-la-definition-du-mot-numerique/.
DOWE2015.1
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : L’adjectif, et parfois le nom, “numérique” a de multiples significations. On tente ci-dessous d’essayer d’en distinguer cinq. Ces significations sont reliées les unes aux autres par des glissements sémantiques relativement simples.
DOWE2015.2
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : Qui a rapport aux nombres. L’adjectif “numérique” qualifie, en premier lieu, une chose qui a rapport aux nombres. Par exemple, en physique, une “application numérique” consiste à substituer des nombres aux variables d’une expression : par exemple substituer m par 2 kg et a par 9.81 m s-2 dans l’expression m a donne la valeur 19.62 kg m s-2. En particulier, l’adjectif “numérique” désigne une manière de représenter partiellement une fonction sous la forme d’un tableau de nombres, souvent arrondis. Par exemple, la solution de l’équation différentielle y’ = 2x, y(0) = 0, peut s’exprimer symboliquement par l’expression : y = x², elle peut aussi s’exprimer numériquement par le tableau : t0 = 0, t1 = 1, t2 = 4, t3 = 9,… On retrouve cet usage du mot “numérique” dans l’expression “analyse numérique” qui est la partie de l’informatique et des mathématiques appliquées consacrée à la résolution d’équations différentielles, en donnant leurs solutions sous forme numérique.
DOWE2015.3
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : Qui contient une quantité finie d’information. L’adjectif “numérique” qualifie ensuite un objet qui, comme un nombre entier, contient une quantité finie d’information. Si une photo argentique permet en théorie une variété infinie de couleurs, une photo numérique n’en permet qu’un nombre fini et prédéterminé. Cette propriété, ajoutée au fait que la photo contient un nombre fini de pixels, fait que l’information contenue dans la photo numérique est finie : c’est le produit du nombre de pixels par le logarithme du nombre de couleurs. Par métonymie, on peut qualifier d’ “appareil photo numérique”, un appareil qui prend des photos numériques.
DOWE2015.4
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : Un synonyme de l’adjectif “informatique”. En informatique, les algorithmes, exprimés dans des langages et exécutés par des machines, transforment des données. Ces données, objets de la transformation, sont la “cause matérielle” de la transformation, alors que les machines en sont la “cause efficiente”. Ces données contiennent une quantité finie d’information, ce sont donc des objets numériques. Comme les algorithmes et les ordinateurs transforment des objets numériques, on utilise parfois l’adjectif “numérique”, comme synonyme de l’adjectif “informatique”. Par exemple, un espace de travail peut-être qualifié de “numérique”, alors que, pour dire la même chose, un “courrier” est qualifié d’“électronique” et un virus d’“informatique”. Mais l’usage aurait pu aussi figer les expressions “espace électronique de travail”, “courrier informatique” et “virus numérique”. La multiplication des synonymes de l’adjectif et du nom “informatique” peut s’expliquer par une usure rapide des mots, dans un domaine où l’innovation est sacralisée, qu’elle soit réelle ou factice. Il y a un certain nombre de situations où la substitution, à l’adjectif “informatique”, de l’adjectif “numérique” qui en qualifie la cause matérielle est naturelle. Par exemple, on définit souvent les révolutions industrielles par leur cause matérielle (la vapeur, le pétrole, les objets numériques) ou par leur cause efficiente (la machine à vapeur, le moteur à explosion, l’ordinateur et le réseau), plutôt que par le nom des sciences et des techniques qui étudient et produisent ces objets (la thermodynamique, la pétrochimie, l’informatique). Ainsi, même si les deux expressions sont employées, on parle plus volontiers de “révolution numérique” que de “révolution informatique”. De même on parle plus souvent de “société industrielle” ou de “société numérique” que de “société physico-chimique” ou de “société informatique”.
DOWE2015.5
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : Hybride avec une part d’informatique. Comme beaucoup de sciences et de techniques, l’informatique est utilisée dans de multiples domaines de la connaissance et de l’action qu’elle transforme en profondeur. Par exemple la révolution qu’apporte l’informatique en archéologie a mené à l’émergence d’un nouveau champ de la connaissance : “l’archéologie numérique”. Ici aussi, d’autres qualificatifs sont parfois employés pour exprimer la même chose : “conception assistée par ordinateur”, “bio-informatique”,… L’émergence de la conception numérique (conception assistée par ordinateur), d’usines numériques (robotisées) et de la distribution numérique (vente en ligne), permet de parler d’une “économie numérique”, une économie dont tous les secteurs (conception, production, diffusion) sont devenus numériques. Le fait de ne pas employer le mot “application”, qui est trompeur, est plutôt une bonne chose. L’expression “archéologie numérique” est préférable à “informatique appliquée à l’archéologie”, car la première expression insiste sur la transformation de l’archéologie elle-même et non uniquement sur le fait que certaines méthodes issues de l’informatique s’appliquent en archéologie. On peut, de même, qualifier le monde de “numérique” pour exprimer le fait qu’il contient de nombreux champs de la connaissance et de l’action qui sont devenus numériques.
DOWE2015.6
Cf. Dowek, Sur la définition du mot « numérique », op. cit. : Ensemble des domaines de la connaissance et de l’action qui peuvent être qualifiés de “numériques”. Comme beaucoup d’adjectifs, l’adjectif numérique peut se substantiver, et on emploie alors l’expression “le numérique” pour désigner l’ensemble des domaines de la connaissance et de l’action qui peuvent être qualifiés de “numériques”. Ainsi, “le numérique” contient à la fois l’archéologie numérique, la conception assistée par ordinateur, la vente en ligne,… Un effet paradoxal du succès de l’informatique est que beaucoup de choses peuvent être qualifiées par l’adjectif “numérique” et que le nom commun “le numérique” a de ce fait une extension très vaste. Ainsi, la phrase “Le numérique fait une entrée fracassante à l’École” est-elle susceptible de multiples interprétations. Ce flou créé par l’ampleur de l’extension du nom commun “le numérique” est exploité par certains locuteurs qui désignent ainsi un vaste ensemble de manière syncrétique, ce syncrétisme les dispensant d’une analyse précise de l’objet qu’ils cherchent à désigner.
VITA2019
Le « numérique », une notion qui ne veut rien dire
Marcello VITALI-ROSATI, Le « numérique », une notion qui ne veut rien dire, in The Conversation, 15 juillet 2019, https://theconversation.com/le-numerique-une-notion-qui-ne-veut-rien-dire-116333
VITA2019.1
Cf. Vitali-Rosati, Le « numérique », une notion qui ne veut rien dire, op. cit. : Nous parlons de plus en plus de “numérique” en substantivant un adjectif qui – initialement – comporte une signification technique précise et qui devient désormais davantage un phénomène culturel qu’une notion liée à des outils technologiques particuliers. Cette universalisation du numérique nous permet de comprendre des changements qui affectent l’ensemble de notre société et notre façon de penser, comme l’a bien expliqué notamment Milad Doueihi par son concept de “culture numérique”. Cet usage pose pourtant un problème majeur : nous avons de plus en plus tendance à penser “le numérique” comme un phénomène uniforme et homogène (sur ce sujet, il est intéressant de lire le débat entre Morozov et Johnson) alors que, de toute évidence, il ne l’est pas. “Le” numérique n’existe pas en tant que tel. Il existe de nombreuses pratiques, usages, outils et environnements différents, chacun fondé sur des principes particuliers, chacun promouvant des valeurs spécifiques et entraînant des conséquences caractéristiques. Le fait de penser “le numérique” comme un tout nous amène souvent à exprimer des jugements de valeur qui font abstraction des caractéristiques propres à des outils ou pratiques distincts : inévitablement donc, le jugement se radicalise, s’uniformise, se généralise en perdant tout son sens et sa cohérence vis-à-vis du particulier. “Le numérique” devient ainsi tantôt synonyme d’émancipation et de liberté, tantôt synonyme de contrôle et d’assujettissement : en somme, le numérique est bien ou le numérique est mal. D’un côté les technoptimistes, de l’autre les technophobes.
VITA2019.2
Cf. Vitali-Rosati, Le « numérique », une notion qui ne veut rien dire, op. cit. : Il me semble, en d’autres termes, que, le fait de penser “le numérique” comme quelque chose d’uniforme nous empêche de cerner le véritable problème et de chercher des solutions. Être génériquement technophobes est une posture qui n’amène à rien : cela revient à un nostalgique “o tempora o mores” qui plonge dans une inactivité abrupte. Des positions du type : “le numérique doit/ne doit pas être utilisé par les enfants” me semblent juste stupides. Elles réunissent des réalités hétérogènes qui n’ont aucun rapport entre elles : “le numérique” ? Quels outils ? Quelles plates-formes ? Quels environnements ? Quels dispositifs ? Identifier des problèmes spécifiques est sans doute plus complexes : cela demande une étude et une compréhension du fait numérique dans sa diversité, une analyse des enjeux liés à un logiciel, à un format, à un protocole qui demandent du temps et de l’expertise. Mais cela permet de trouver des alternatives et des solutions concrètes.
DELM2014
Les machines de Turing
Yannis DELMAS-RIGOUTSOS, Les machines de Turing, in Histoire de l’informatique, d’Internet et du Web, Université de Poitiers, 28 août 2014, https://delmas-rigoutsos.nom.fr/documents/YDelmas-histoire_informatique/logique.html.
DELM2014.1
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Les calculateurs auraient certainement pu progresser encore longtemps sans devenir des ordinateurs. Entre les deux, il n’est pas qu’une simple différence de degré. Nous verrons que l’ordinateur introduit plusieurs différences majeures par rapport aux calculateurs. Pour le comprendre, nous devons revenir en arrière dans le temps. L’histoire de l’ordinateur proprement dit commence bien avant ses mises en œuvre matérielles, avec des recherches fondamentales de logique et d’algorithmique qui mettent en jeu des objets mathématiques très abstraits. Leur réalisation attendra la “faveur” de la seconde Guerre mondiale et de la guerre froide qui s’ensuivra. Plus encore, l’informatique s’appuie sur de nombreuses évolutions (voire révolutions) conceptuelles très antérieures, de l’ordre du siècle parfois. Toutes sont liées à la communication en général ou aux télécommunications en particulier.
DELM2014.2
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : L’élément le plus central de toute théorie de l’information, le changement conceptuel le plus fondamental, est la séparation fond-forme, l’articulation arbitraire qui peut s’établir entre un signifié et un signifiant, pour formuler cela en termes modernes (Ferdinand de Saussure, 1857-1913). Cette séparation, fondamentalement en germe dans le principe de l’écriture alphabétique, avait déjà intéressé les théoriciens du langage antiques et médiévaux, avant la linguistique moderne. Elle existait également dans un autre champ très pratique, là aussi depuis l’Antiquité, celui du cryptage de la correspondance pour des raisons de confidentialité, quel que soit son transport : à pied, à cheval ou électrique. Une des méthodes, simple, consistait à remplacer des lettres, des mots ou des expressions par des écritures spécifiques connues des seuls émetteurs et destinataires.
DELM2014.3
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Issue de ces réflexions sur le langage et de la nouvelle algèbre, qui se met en place au 19e siècle, la logique moderne reprend systématiquement et à nouveaux frais la question de l’articulation entre le sens, en particulier les valeurs de vérité (vrai/faux), et les notations, particulièrement dans le domaine mathématique. Dans un premier temps, suivant des principes remontant à l’arithmétique binaire de Leibniz (17e s : 1646-1716) et au diagrammes d’Euler (18e s : 1707-1783), les travaux de George Boole (19e s : 1815-1864) définissent une algèbre, un calcul, des valeurs de vérité. Ces travaux eurent un impact considérable sur la logique naissante du début du 20e siècle. On montra, dès la fin du 19e siècle, que cette logique pouvait être mise en œuvre par des relais “téléphoniques”.
DELM2014.4
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Parmi toutes les questions théoriques qui intéressaient la logique à cette époque, une en particulier fut déterminante pour l’informatique. Beaucoup de mathématiciens pensaient à l’époque que le travail de démonstration mathématique était “mécanique” et qu’il était en principe possible de concevoir un procédé systématique permettant (potentiellement au bout d’un temps très long) de résoudre toute question bien formulée. Cette idée conduisit dans un premier temps à axiomatiser les mathématiques, puis, dans un second temps à formaliser la notion-même de procédé de calcul.
DELM2014.5
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Aujourd’hui on appelle “algorithme” un procédé de calcul décrit de façon systématique. Il permet, certaines données étant fournies, de produire un certain résultat (généralement la solution d’un problème donné). On connaît depuis l’Antiquité (au moins) de tels procédés, par exemple l’algorithme d’Euclide qui permet de poser une division de nombres entiers. Le nom “algorithme” a été donné en l’honneur du mathématicien perse Al-Khwârizmî (850) qui est à l’origine de la notation symbolique et de l’introduction du zéro indien dans l’aire culturelle arabe et qui rédigea une encyclopédie des procédés de calcul connus à son époque. Dans le domaine de l’automatique, le mot sera conceptuellement renforcé au 19e siècle par Ada Lovelace (1815-1852). Les logiciens du début du 20e siècle, en particulier Kurt Gödel (1906-1978), Alan Turing (1912-1954) et Alonzo Church (1903-1995), firent de ces algorithmes des objets mathématiques, à propos desquels il devenait donc possible de démontrer des théorèmes.
DELM2014.6
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Jusqu’aux années 1930, les mathématiciens pensaient généralement qu’il existait des algorithmes pour résoudre chaque problème et même un algorithme universel susceptible de trancher tout problème. Émise par Leibniz, cette hypothèse sera formulée en termes rigoureux par le mathématicien David Hilbert (1862-1943) : existe-t-il un procédé mécanique permettant de trancher tout problème mathématique formulé de manière précise ? Hilbert était un immense mathématicien, très influent, et ce programme suscita de nombreuses recherches, dont émergea la logique mathématique. Les travaux de Gödel, Turing et Church montrèrent par trois approches différentes qu’un tel procédé ne peut pas exister.
DELM2014.7
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : L’objet mathématique inventé à cette fin par Turing, qu’il décrit en 1936, donc bien avant les premiers ordinateurs, est sa fameuse “machine de Turing”. Ses principaux éléments sont : une bande infinie constituée de cases mémoire, un module de lecture/écriture de la bande et une unité de contrôle automatique permettant à chaque étape d’écrite une donnée puis de se déplacer à gauche ou à droite, le tout en fonction de son état antérieur. Il s’agit bien d’un dispositif universel : il permet de mettre en œuvre n’importe quel algorithme. Précisément (c’est ce qu’on appelle la “thèse de Church”) : tout traitement d’information réalisable mécaniquement peut être mis en œuvre par une machine de Turing appropriée. Si la machine de Turing avait eu une contrepartie matérielle, ç’aurait été la première machine à programme enregistré capable de traiter de façon universelle de l’information, autrement dit le premier ordinateur. La thèse de Church peut s’interpréter, aujourd’hui, en disant que tout traitement systématique d’information peut être réalisé par un ordinateur correctement programmé et suffisamment puissant. Attention : ceci ne signifie pas que tout problème est résoluble mécaniquement, seulement que ce qui est résoluble mécaniquement l’est informatiquement.
DELM2014.8
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Dans son article de 1936, On Computable Numbers with an Application to the Entscheidungsproblem, Turing fonde ainsi l’informatique, à la fois la science informatique et ce qui sera plus tard la technique informatique. Il donne aussi la première définition systématique des programmes informatiques.
DELM2014.9
Cf. Delmas-Rigoutsos, Les machines de Turing, op. cit. : Conceptuellement, ce précurseur théorique des ordinateurs est fondamentalement immatériel puisque les machines de Turing ne sont rien moins que des objets mathématiques. Un autre fait aura une incidence historique considérable : la notion-même de machine universelle porte en elle le fait que programmes et données, tous les programmes et toutes les données, sont fondamentalement de même nature.
PATR2017a
Les perspectives philosophiques sur le numérique
Isabelle PATRIARCHE, Les perspectives philosophiques sur le numérique, in Les usages philosophiques du numérique, TraAM Aix-Marseille, Nice, Paris, Poitiers, Versailles, 2017-2018, https://www.pedagogie.ac-aix-marseille.fr/upload/docs/application/pdf/2018-06/2.1._traam_2018_perspectives_philosophiques.pdf.
PATR2017a.1
Cf. Patriarche, Les perspectives philosophiques sur le numérique, op. cit. : Philosophie de l’opérativité individuante : attention aux modalités empiriques de l’action ; approche historique ou généalogique des rapports entre action, finalités de l’action et moyens de l’action ; attention aux effets de rupture technologique et aux conditions-limites de l’action. Anthropologie de l’action et ethnologie des techniques (André Leroi-Gourhan) : méthode d’analyse des chaînes opératoires ; méthode d’analyse du fait technique ; classification générale de l’action technique ; apport conceptuel : tendance technique, fait technique, milieu technique, milieu favorable à l’invention technique, milieu favorable à l’emprunt technique. Philosophie de l’objet technique (Gilbert Simondon) : individuation des objets techniques ; lignées d’objets techniques ; apport conceptuel : individuation, transduction, automate/machine, adaptation/invention, créativité/inventivité. Empirisme transcendantal (Gilles Deleuze) : l’expérience poussée aux limites comme condition de possibilité de connaissance et comme emploi limite de faculté(s) ; attention aux conditions de possibilité d’une individuation des concepts et dans ce cadre, réflexion sur la réticularité et l’existence en réseau ; création empirique de concepts (par dégagement numérique de régularités statistiques (principe du big data)) ; apport conceptuel : société de contrôle, rhizome.
PATR2017a.2
Cf. Patriarche, Les perspectives philosophiques sur le numérique, op. cit. : Ontologies : proposent des thèses sur la substance ou la consistance du réel ; proposent des thèses sur la nature des relations existant entre les substances ; proposent des thèses sur la morphologie, la topologie et la dynamique du réel. Métaphysique classique (Gottfried Wilhelm Leibniz) : infinité et dynamisme des substances ; calcul divin rationnel et mathématique des relations valant sur les substances ; décomposition en base binaire de ce calcul à partir de la recherche d’une plus petite caractéristique individuant les substances ; concepts : monade, caractéristique universelle, calculus ratiocinator (algorithme). Phénoménologie : le réel n’a pour substance que les phénomènes ; méthode descriptive suspensive ; critique des dispositifs de calcul et des dispositifs techniques comme dispositifs de provocation ; concepts : dispositif, arraisonnement. Ontologie de l’informatique (Mark Alizart) : l’ordinateur n’est pas un mécanisme, c’est une machine organique qui a son principe en elle, toute réalité n’est pour elle qu’une donnée, réciproquement, toute donnée a vocation à devenir une réalité dans son système ; le processus ontologique de réalisation du réel est de part en part un processus informatique d’autoproduction de l’unité de la pensée et de l’Être ; l’informatique est une propriété du vivant ; concepts : machine à calculer/ordinateur, mécanisme/informatique. Ontologie opérationnelle (Alexandre Monnin) : analyse des processus d’engendrement d’entités numériques ; le web fait émerger des entités dont la définition requiert de repenser les catégories philosophiques classiques de la catégorisation, de l’identification et de la nomination ; concepts : design ontologique, ressource, ontologie d’opérations/ontologie d’entités, théorie opérationnelle.
PATR2017a.3
Cf. Patriarche, Les perspectives philosophiques sur le numérique, op. cit. : Philosophie de l’information : pense la nature de l’information ; pense les conséquences scientifiques, technologiques, anthropologiques, éthiques, sociales et juridiques de l’explosion du numérique. Cybernétique (Norbert Wiener) : étude phénoménologique des échanges d’information ; concepts : boîte noire, émetteur, récepteur, flux, rétroaction. Systémique (Ludwig von Bertalanffy, Marvin Minsky) : étude des échanges d’énergie et de matière dans un système ; concepts : système, théorie générale des systèmes, autorégulation, émergence, complexité, intelligence artificielle. Mathématiques de l’information (Claude Shannon, Andrei Kolmogorov) : approches quantitatives et mathématisées de la notion d’information ; concepts : théorie mathématique de l’information, information au sens de Shannon (probabilité de voir apparaître une chaîne de caractères dont la composition non redondante laisse présumer qu’elle véhicule un sens, même si on ignore lequel – la redondance, i.e. la répétition d’une chaîne de caractères, étant supposée n’apporter qu’une quantité nulle d’information), valeur de l’information, valeur de l’information au sens de Kolmogorov (une information a de la valeur quand elle est réductible à un programme ou à un algorithme qui permet de l’engendrer – i.e. quand elle est compressible), valeur de l’information au sens de Bennett (une information a une valeur qui dépend du temps nécessaire pour la produire). Logique et linguistique informatiques (Alan Turing, John von Neumann, Noam Chomsky) : théorie universelle de la machine (machine de Turing, jeu de l’imitation) ; architecture des ordinateurs (architecture de von Neumann) ; classification des langages formels (hiérarchie de Chomsky). Philosophie de l’Internet (Lawrence Lessig, Dominique Cardon, Dominique Boullier) : juridique et éthique de l’internet (Principe de Lessig : “Le code fait loi”) ; sociologie de l’Internet ; politique de l’Internet.
PATR2017b
Philosophie et numérique, florilège
Isabelle PATRIARCHE, Philosophie et numérique, florilège, in Les usages philosophiques du numérique, TraAM Aix-Marseille, Nice, Paris, Poitiers, Versailles, 2017-2018, https://www.pedagogie.ac-aix-marseille.fr/upload/docs/application/pdf/2018-06/5._traam_2018_florilege.pdf.
PATR2017b.1
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Cette annexe consiste en une anthologie de textes intéressant la réflexion philosophie sur le numérique, sa nature et ses enjeux. Elle voudrait établir qu’il existe un rapport qui n’a rien de contingent entre la philosophie et le numérique et que ce dernier n’apparaît pas fortuitement dans l’histoire mais est bien le résultat d’une préméditation à laquelle la philosophie a pris largement part.
PATR2017b.2
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : ARISTOTE : Métaphysique, A, 5 : “À la même époque que ces divers philosophes et même auparavant, ceux qu’on appelle les Pythagoriciens s’appliquèrent tout d’abord aux mathématiques et leur firent faire de grands progrès ; mais, nourris dans cette étude exclusive, ils s’imaginèrent que les principes des mathématiques sont aussi les principes de tous les êtres. Comme les nombres sont naturellement les premiers entre les principes de cet ordre, ils crurent y découvrir une foule de ressemblances avec les êtres et avec les phénomènes, bien plutôt qu’on ne peut en trouver dans le feu, la terre et l’eau. Par exemple, suivant les Pythagoriciens, telle modification des nombres est la justice ; telle autre est l’âme et la raison ; telle autre représente l’occasion favorable pour agir ; et de même pour chaque objet en particulier. En second lieu, ces philosophes remarquèrent que tous les modes de l’harmonie musicale et les rapports qui la composent, se résolvent dans des nombres proportionnels. Ainsi, trouvant que le reste des choses modèlent essentiellement leur nature sur tous les nombres, et que les nombres sont les premiers principes de la nature entière, les Pythagoriciens en conclurent que les éléments des nombres sont aussi les éléments de tout ce qui existe, et ils firent du monde, considéré dans son ensemble, une harmonie et un nombre. Puis, prenant les axiomes qu’ils avaient évidemment démontrés pour les nombres et pour les harmonies, ils les accommodèrent à tous les phénomènes et à toutes les parties du ciel, aussi bien qu’à l’ordonnance totale de l’univers, qu’ils essayaient de renfermer dans leur système. Bien plus, quand ce système présentait de trop fortes lacunes, ils les comblaient arbitrairement, afin que l’échafaudage fût aussi harmonieux et aussi concordant que possible. J’en cite un exemple. À en croire les Pythagoriciens, le nombre dix est le nombre parfait, et la Décade contient toute la série naturelle des nombres. Ils partent de là pour prétendre qu’il doit y avoir dix corps qui se meuvent dans les cieux ; mais, comme il n’y en a que neuf de visibles, ils en supposent un dixième, qui est l’opposé de la terre, l’Antichthôn. Du reste, nous avons développé ces questions avec plus d’étendue dans d’autres ouvrages ; et le seul motif qui nous y fasse revenir ici, c’est le désir de savoir aussi de ces philosophes quels sont définitivement les principes qu’ils admettent, et dans quelle mesure ces principes se rapportent aux causes que nous avons énumérées nous-mêmes. Il paraît donc que les Pythagoriciens, tout aussi bien que les autres, en adoptant le nombre pour principe, l’ont regardé comme la matière des choses, et la cause de leurs modifications et de leurs qualités. Or, les éléments du nombre sont le pair et l’impair ; et tel nombre est fini, tandis que tel autre est infini. L’unité est les deux tout ensemble ; car elle est composée de ces deux éléments, du pair et de l’impair, de même que c’est elle qui donne naissance à la série entière des nombres ; et les nombres, je le répète, forment le monde entier selon les Pythagoriciens. Parmi ces mêmes philosophes, il en est encore d’autres qui reconnaissent dix principes, ainsi rangés et combinés en séries parallèles : Fini, infini ; Pair, impair ; Unité, pluralité ; Droite, gauche ; Mâle, femelle ; Repos, mouvement ; Droit, courbe ; Lumière, ténèbres ; Bon, mauvais ; Carré, quadrilatère irrégulier. C’est là, ce semble, une classification qu’admet également Alcméon de Crotone, soit qu’il l’ait prise aux Pythagoriciens, soit que les Pythagoriciens la lui aient empruntée. Alcméon était jeune lorsque Pythagore était déjà vieux ; mais, quoi qu’il en soit, ses idées se rapprochaient beaucoup des leurs. Pour lui aussi, la plupart des choses humaines sont doubles ; mais il ne détermine pas les oppositions avec l’exactitude qu’y mettent les Pythagoriciens ; il les prend au hasard : le blanc et le noir, le doux et l’amer, le bon et le mauvais, le petit et le grand. Il jette en quelque sorte toutes ces oppositions confusément les unes avec les autres, tandis que les Pythagoriciens en ont précisé le nombre et la nature. Ce qu’on peut affirmer pour les deux systèmes à la fois, c’est que l’un et l’autre font des contraires les principes des choses ; mais c’est à d’autres écoles que celles-là qu’on peut apprendre combien il y a de principes et ce qu’ils sont. Cependant nous avons beau consulter ces théories, nous n’apercevons pas clairement comment on peut rapporter les principes admis par ces philosophes aux causes énumérées par nous. Tout ce qu’on voit, c’est qu’ils ont rangé les éléments dans le seul genre de la matière ; car, à les entendre, la substance des choses se compose et se forme de ces éléments qui sont primitivement en elle.”
PATR2017b.3
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : GALILÉE : L’Essayeur (1623) : “Je dis que je me sens nécessairement amené, sitôt que je conçois une matière ou substance corporelle, à la concevoir tout à la fois comme limitée et douée de telle ou telle figure, grande ou petite par rapport à d’autres, occupant tel ou tel lieu à tel moment, en mouvement ou immobile, en contact ou non avec un autre corps, simple ou composée et, par aucun effort d’imagination, je ne puis la séparer de ces conditions ; mais qu’elle doive être blanche ou rouge, amère ou douce, sonore ou sourde, d’odeur agréable ou désagréable, je ne vois rien qui contraigne mon esprit de l’appréhender nécessairement accompagnée de ces conditions ; et, peut-être, n’était le secours des sens, le raisonnement ni l’imagination ne les découvriraient jamais. Je pense donc que ces saveurs, odeurs, couleurs, etc. […], ne sont que de purs noms et n’ont leur siège que dans le corps sensitif, de sorte qu’une fois le vivant supprimé, toutes ces qualités sont détruites et annihilées ; mais comme nous leur avons donné des noms particuliers et différents de ceux des qualités (accidenti) réelles et premières, nous voudrions croire qu’elles en sont vraiment et réellement distinctes.”
PATR2017b.4
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : René DESCARTES, Discours de la méthode, II (1637) : “J’avais un peu étudié, étant plus jeune, entre les parties de la philosophie, à la logique, et, entre les mathématiques, à l’analyse des géomètres et à l’algèbre, trois arts ou sciences qui semblaient devoir contribuer quelque chose à mon dessein. Mais, en les examinant, je pris garde que, pour la logique, ses syllogismes et la plupart de ses autres instructions servent plutôt à expliquer à autrui les choses qu’on sait, ou même, comme l’art de Lulle, à parler sans jugement de celles qu’on ignore, qu’à les apprendre ; et bien qu’elle contienne en effet beaucoup de préceptes très vrais et très bons, il y en a toutefois tant d’autres mêlés parmi, qui sont ou nuisibles ou superflus, qu’il est presque aussi malaisé de les en séparer, que de tirer une Diane ou une Minerve hors d’un bloc de marbre qui n’est point encore ébauché. Puis, pour l’analyse des anciens et l’algèbre des modernes, outre qu’elles ne s’étendent qu’à des matières fort abstraites, et qui ne semblent d’aucun usage, la première est toujours si astreinte à la considération des figures, qu’elle ne peut exercer l’entendement sans fatiguer beaucoup l’imagination ; et on s’est tellement assujetti en la dernière à certaines règles et à certains chiffres, qu’on en a fait un art confus et obscur qui embarrasse l’esprit, au lieu d’une science qui le cultive. Ce qui fut cause que je pensai qu’il fallait chercher quelque autre méthode, qui, comprenant les avantages de ces trois, fût exempte de leurs défauts.”
PATR2017b.4
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : René DESCARTES, La Géométrie, Livre I (1637) : “Et comme toute l’Arithmétique n’est composée, que de quatre ou cinq opérations, qui sont l’Addition, la Soustraction, la Multiplication, la Division, et l’Extraction des racines, qu’on peut prendre pour une espèce de Division : Ainsi n’a-t-on autre chose à faire en Géométrie touchant les lignes qu’on cherche, pour les préparer à être connues, que leur en ajouter d’autres, ou en ôter, ou bien en ayant une, que je nommerai l’unité pour la rapporter d’autant mieux aux nombres, et qui peut ordinairement être prise à discrétion, puis en ayant encore deux autres, en trouver une quatrième, qui soit à l’une de ces deux, comme l’autre est à l’unité, ce qui est le même que la Multiplication ; ou bien en trouver une quatrième qui soit à l’une de ces deux, comme l’unité est à l’autre, ce qui est le même que la Division ; ou enfin trouver une, ou deux, ou plusieurs moyennes proportionnelles entre l’unité, et quelque autre ligne ; ce qui est le même que tirer la racine carrée, ou cubique, etc. Et je ne craindrai pas d’introduire ces termes d’Arithmétique en la Géométrie, afin de me rendre plus intelligible.”
PATR2017b.5
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Gottfried Wilhelm LEIBNIZ : Explication de l’arithmétique binaire (1703) : “Le calcul ordinaire d’Arithmétique se fait suivant la progression de dix en dix. On se sert de dix caractères, qui sont 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, qui signifient zéro, un et les nombres suivants jusqu’à neuf inclusivement. Et puis allant à dix, on recommence, et on écrit dix par 10, et dix fois dix ou cent par 100, et dix fois cent ou mille par 1000, et dix fois mille par 10000, et ainsi de suite. Mais au lieu de la progression de dix en dix, j’ai employé depuis plusieurs années la progression la plus simple de toutes, qui va de deux en deux, ayant trouvé qu’elle sert à la perfection de la science des Nombres. Ainsi je n’y emploie point d’autres caractères que 0 et 1, et puis allant à deux, je recommence. C’est pourquoi deux s’écrit ici par 10, et deux fois deux ou quatre par 100, et deux fois quatre ou huit par 1000, et deux fois huit ou seize par 10000, et ainsi de suite. […] On voit ici d’un coup d’œil la raison d’une propriété célèbre de la progression géométrique double en Nombres entiers, qui porte que si on n’a qu’un de ces nombres de chaque degré, on en peut composer tous les autres nombres entiers au-dessous du double du plus haut degré. Car ici, c’est comme si on disait par exemple, que 111 ou 7 est la somme de quatre, de deux et de un, et que 1101 ou 13 est la somme de huit, quatre et un. Cette propriété sert aux Essayeurs pour peser toutes sortes de masses avec peu de poids et pourrait servir dans les monnaies pour donner plusieurs valeurs avec peu de pièces. Cette expression des Nombres étant établie, sert à faire très facilement toutes sortes d’opérations. […] Et toutes ces opérations sont si aisées, qu’on n’a jamais besoin de rien essayer ni deviner, comme il faut faire dans la division ordinaire. On n’a point besoin non plus de rien apprendre par cœur ici, comme il faut faire dans le calcul ordinaire, où il faut savoir, par exemple, que 6 et 7 pris ensemble font 13, et que 5 multiplié par 3 donne 15, suivant la Table d’une fois un est un, qu’on appelle Pythagorique. Mais ici tout cela se trouve et se prouve de source […]. Cependant je ne recommande point cette manière de compter, pour la faire introduire à la place de la pratique ordinaire par dix. Car outre qu’on est accoutumé à celle-ci, on n’y a point besoin d’y apprendre ce qu’on a déjà appris par cœur : ainsi la pratique par dix est plus abrégée, et les nombres y sont moins longs. Et si l’on était accoutumé à aller par douze ou par seize, il y aurait encore plus d’avantage. Mais le calcul par deux, c’est-à-dire par 0 et par 1, en récompense de sa longueur, est le plus fondamental pour la science, et donne de nouvelles découvertes, qui se trouvent utiles ensuite, même pour la pratique des nombres, et surtout pour la Géométrie, dont la raison est que les nombres étant réduits aux plus simples principes, comme 0 et 1, il paraît partout un ordre merveilleux. Pour exemple, dans la Table même des Nombres, on voit en chaque colonne régner des périodes qui recommencent toujours. Dans la première colonne c’est 01, dans la seconde 0011, dans la troisième 00001111, dans la quatrième 0000000011111111, et ainsi de suite. Et on a mis de petits zéros dans la Table pour remplir le vide au commencement de la colonne, et pour mieux marquer ces périodes. On a mené aussi des lignes dans la Table, qui marquent que ce que ces lignes renferment revient toujours sous elles. Et il se trouve encore que les Nombres Carrés, Cubiques et d’autres puissances, idem les Nombres Triangulaires, Pyramidaux et d’autres nombres figurés, ont aussi de semblables périodes, de sorte que l’on peut écrire les Tables tout de suite, sans calculer. Et une prolixité dans le commencement, qui donne ensuite le moyen d’épargner le calcul et d’aller à l’infini par règle, est infiniment avantageuse. Ce qu’il y a de surprenant dans ce calcul, c’est que cette Arithmétique par 0 et 1 se trouve contenir le mystère d’un ancien Roi et Philosophe nommé Fohy, qu’on croit avoir vécu il y a plus de quatre mille ans et que les Chinois regardent comme le Fondateur de leur Empire et de leurs sciences. Il y a plusieurs figures linéaires qu’on lui attribue, elles reviennent toutes à cette Arithmétique ; mais il suffit de mettre ici la Figure de huit Cova comme on l’appelle, qui passe pour fondamentale, et d’y joindre l’explication qui est manifeste, pourvu qu’on remarque premièrement qu’une ligne entière – signifie l’unité ou 1, et secondement qu’une ligne brisée – signifie le zéro ou 0. Les Chinois ont perdu la signification des Cova ou Linéations de Fohy, peut-être depuis plus d’un millénaire d’années, et ils ont fait des Commentaires là-dessus, où ils ont cherché je ne sais quels sens éloignés, de sorte qu’il a fallu que la vraie explication leur vint maintenant des Européens. Voici comment : il n’y a guère plus de deux ans que j’envoyai au R.P. Bouvet, Jésuite français célèbre, qui demeure à Pékin, ma manière de compter par 0 et 1, et il n’en fallut pas davantage pour lui faire reconnaître que c’est la clef des figures de Fohy. Ainsi m’écrivant le 14 novembre 1701, il m’a envoyé la grande figure de ce Prince philosophe qui va à 64, et ne laisse plus lieu de douter que la vérité de notre interprétation, de sorte que l’on peut dire que ce père a déchiffré l’énigme de Fohy, à l’aide de ce que je lui avais communiqué. Et comme ces figures sont peut-être le plus ancien monument de science qui soit au monde, cette restitution de leur sens, après un si grand intervalle de temps, paraîtra d’autant plus curieuse. Le consentement des figures de Fohy et ma Table des Nombres se fait mieux voir, lorsque dans la Table on supplée les zéros initiaux, qui paraissent superflus, mais qui servent à mieux marquer la période de la colonne, comme je les y ai suppléés en effet avec des petits ronds pour les distinguer des zéros nécessaires, et cet accord me donne une grande opinion de la profondeur des méditations de Fohy. Car ce qui nous paraît aisé maintenant, ne l’était pas du tout dans ces temps éloignés. L’Arithmétique Binaire ou Dyadique est en effet fort aisée aujourd’hui, pour peu qu’on y pense, parce que notre manière de compter y aide beaucoup, dont il semble qu’on retranche seulement le trop. Mais cette Arithmétique ordinaire pour dix ne paraît pas fort ancienne, au moins les Grecs et les Romains l’ont ignorée et ont été privés de ses avantages. Il semble que l’Europe en doit l’introduction à Gerbert, depuis Pape sous le nom de Sylvestre II, qui l’a eue des Maures d’Espagne. Or comme l’on croit à la Chine que Fohy est encore auteur des caractères chinois, quoique fort altérés par la suite des temps ; son essai d’Arithmétique fait juger qu’il pourrait bien s’y trouver encore quelque chose de considérable par rapport aux nombres et aux idées, si l’on pouvait déterrer le fondement de l’écriture chinoise, d’autant plus qu’on croit à la Chine, qu’il a eu égard aux nombres en l’établissant. Le R.P. Bouvet est fort porté à pousser cette pointe, et très capable d’y réussir en bien des manières. Cependant je ne sais s’il y a jamais eu dans l’écriture chinoise un avantage approchant de celui qui doit être nécessairement dans une Caractéristique que je projette. C’est que tout raisonnement qu’on peut tirer des notions, pourrait être tiré de leurs caractères par une manière de calcul, qui serait un des plus importants moyens d’aider l’esprit humain.”
PATR2017b.6
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Claude SHANNON : Théorie mathématique de la communication (1948). C’est dans cet article que pour la première fois l’information se trouve définie sans référence au sens intensif et qualitatif qu’elle véhicule mais comme une quantité extensive, observable et mesurable (par une probabilité de voir apparaître une chaîne de caractères dont la composition non redondante laisse présumer qu’elle véhicule un sens, même si on ignore lequel – la redondance, i.e. la répétition d’une chaîne de caractères, étant supposée n’apporter qu’une quantité nulle d’information). La conséquence immédiate de cette nouvelle approche de l’information est que l’on peut quantifier l’information, manipuler des quantités d’information, alors même qu’on en ignore totalement les contenus de signification et donc en quoi ces quantités d’information font sens. Bref, on peut étudier et décrire de l’extérieur l’information, sans avoir accès de l’intérieur, intensivement (i.e. par une compréhension) à ses contenus de signification. On peut savoir s’il y a ou non de la signification, et même s’il y a plus ou moins de signification, mais on peut très bien ne pas savoir quelle signification il y a. L’information est définie quantitativement (extensivement) mais n’a pas besoin de l’être qualitativement (en compréhension, intensivement) pour être manipulable et descriptible. Après la parution de l’important article de Shannon, l’idée d’appliquer les toutes nouvelles mathématiques de l’information à la modélisation et à l’analyse des comportements et des échanges de toute nature ne tarde pas à se répandre dans la communauté scientifique. Le développement de l’informatique et de ce que l’on appelle aujourd’hui le numérique est par exemple directement redevable à cette idée et en constitue une conséquence bien connue. En sciences humaines, et notamment en linguistique, la conséquence de l’application des idées de Shannon est que le langage est réinterprété comme communication et les situations d’échanges langagiers comme des situations de communication, c’est-à-dire de simple transmission d’information (Cf. par exemple, le ‘schéma de Jakobson’, supposé décrire universellement toute situation d’échange langagier humain). En éthologie, en biologie, en neurobiologie, la connaissance est, elle, réinterprétée comme cognition, c’est-à-dire comme transmission et traitement d’information (acquisition, encodage, décodage, stockage) par des systèmes biologiques (individus ou organes – notamment le cerveau de certains de ces individus). Cependant, que l’on puisse étudier la transmission et le traitement d’informations sans connaître le contenu de sens transmis par ces informations constitue bien entendu la limite paradoxale des sciences de la cognition et l’indication du caractère réducteur des descriptions et modélisations qu’elles permettent, notamment lorsqu’il s’agit de décrire les processus humains d’apprentissage, de mémorisation, de réflexion, de raisonnement, d’imagination, d’interprétation, de perception et d’émotion. En effet, ce n’est pas seulement l’étude descriptive quantitative et extensive de signaux transmis et traités qui nous intéresse quand nous voulons connaître ce qu’est connaître. Car ce que nous voulons apprendre aussi, c’est ce qu’apprendre et connaître nous font à l’intérieur et de l’intérieur, quel sens et quelle valeur connaître, apprendre, imaginer, mémoriser, raisonner, ressentir, nous émouvoir, percevoir, etc. ont pour nous, ce que cela peut bien nous faire de connaître ou de méconnaître, et en quoi connaître, apprendre, savoir ou ignorer, ressentir, nous émouvoir ou percevoir sont ou non édifiants et intéressants pour nous. Par ailleurs, il est certainement réducteur de considérer que les humains n’échangent que des signaux (induisant la transmission d’une quantité donnée et univoque d’information en vue d’une réponse non moins univoque que le signal lui-même, ce qui rend comparable un signal à un simple et mécanique ordre d’exécution). Or, les humains échangent le plus souvent des signes plutôt que des signaux. Et les signes sont plurivoques (polysémiques), et appellent une réflexion qui implique tout le sujet dans une production interprétative et intensive de sens et de significations qui ont de la valeur pour lui, cette valeur n’ayant rien d’a priori complètement prédictible car elle dépend de nombreux facteurs complexes où le hasard intervient : l’histoire du sujet, le contexte, etc. Ainsi, aussi innovantes et raffinées que soient les études quantitatives décrivant les échanges d’information que proposent les sciences cognitives, on peut juger encore plus intéressantes les interprétations que nous donnons de ces volumes d’information échangée. Le modèle cognitiviste de la connaissance est certes indispensable pour nous permettre de décrire d’une manière plus précisément détaillée car quantifiée et mathématisée les échanges complexes qui se jouent au sein des interactions entre les divers systèmes biologiques susceptibles d’apprentissage (par exemple, au sein des systèmes biologiques que sont le cortex et le sous-cortex cérébral ou aussi au sein des relations entre individus). Toutefois, la compréhension de ces échanges et la réflexion pour leur donner du sens nécessite l’existence et la prise en compte d’une dimension intensive (compréhensive) et qualitative de l’information que les mathématiques et en particulier les mathématiques de l’information définies au sens de Shannon peuvent difficilement décrire tant elles sont indifférentes au contenu de signification des quantités d’information qu’elles décrivent et manipulent. Reste à savoir si les sciences cognitives pourraient s’appuyer sur une mathématique de l’information qui parvienne à prendre en compte la dimension intensive et qualitative de l’information, l’information en tant qu’elle fait sens et valeur par celui et pour celui qui en est le sujet, producteur, acteur et auteur. Les mathématiciens Kolmogorov (en 1965) et Bennett (en 1988) ont inventé d’autres théories mathématiques de l’information que celle de Shannon, essayant de quantifier la valeur de l’information. Toutefois, ces théories apprécient la valeur de l’information à partir de certains seulement de ses aspects (pour Kolmogorov, une information a de la valeur quand elle est réductible à un programme ou à un algorithme qui permet de l’engendrer – i.e. quand elle est compressible ; pour Bennett, une information a une valeur qui dépend du temps nécessaire pour la produire). De nombreux aspects de l’information ne sont pas encore mathématisés ni peut être mathématisables (par exemple la valeur d’originalité de l’information paraît difficile à quantifier). Et ce qui ressort des nombreux travaux des mathématiciens en ce domaine est surtout que les mathématiques reposent elles-mêmes sur une réflexion interprétative, valorisant tel ou tel aspect de l’information pour le mathématiser, cela même lorsqu’elles cherchent à appréhender quantitativement leur objet (ici, l’information).
PATR2017b.7
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : John von Neumann : Théorie générale et logique des automates(1948) : “la ‘complexité’, à son niveau le plus bas, est probablement dégénérative, à savoir que tout automate capable d’en produire d’autres ne pourra produire que des automates moins complexes. Cependant, il y a un niveau minimum où cette dégénérescence cesse d’être universelle. C’est à ce point que des automates qui peuvent se reproduire, ou même construire des entités de niveau supérieur, deviennent possibles. Le fait que la complexité, comme l’organisation, soit dégénérative en dessous d’un certain seuil, mais devienne autosuffisante et même proliférante au-dessus de ce seuil, jouera certainement un rôle important dans toute future théorie relative à ce sujet.”
PATR2017b.8
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Gilbert SIMONDON : Du mode d’existence des objets techniques (1958) : “L’opposition dressée entre la culture et la technique, entre l’homme et la machine, est fausse et sans fondement ; elle ne recouvre qu’ignorance ou ressentiment. Elle masque derrière un facile humanisme une réalité riche en efforts humains et en forces naturelles, et qui constitue le monde des objets techniques, médiateurs entre la nature et l’homme. La culture se conduit envers l’objet technique comme l’homme envers l’étranger quand il se laisse emporter par la xénophobie primitive. Le misonéisme orienté contre les machines n’est pas tant haine du nouveau que refus de la réalité étrangère. Or, cet être étranger est encore humain, et la culture complète est ce qui permet de découvrir l’étranger comme humain. De même, la machine est l’étrangère ; c’est l’étrangère en laquelle est enfermé de l’humain, méconnu, matérialisé, asservi, mais restant pourtant de l’humain. La plus forte cause d’aliénation dans le monde contemporain réside dans cette méconnaissance de la machine, qui n’est pas une aliénation causée par la machine, mais par la non connaissance de sa nature et de son essence, par son absence du monde des significations, et par son omission dans la table des valeurs et des concepts faisant partie de la culture. […] En fait, cette contradiction inhérente à la culture provient de l’ambiguïté des idées relatives à l’automatisme, en lesquelles se cache une véritable faute logique. Les idolâtres de la machine présentent en général le degré de perfection d’une machine comme proportionnel au degré d’automatisme. Dépassant ce que l’expérience montre, ils supposent que, par un accroissement et un perfectionnement de l’automatisme, on arriverait à réunir et à interconnecter toutes les machines entre elles, de manière à constituer une machine de toutes les machines. Or, en fait, l’automatisme est un assez bas degré de perfection technique. Pour rendre une machine automatique, il faut sacrifier bien des possibilités de fonctionnement, bien des usages possibles. L’automatisme, et son utilisation sous forme d’organisation industrielle que l’on nomme automation, possèdent une signification économique ou sociale plus qu’une signification technique. Le véritable perfectionnement des machines, celui dont on peut dire qu’il élève le degré de technicité, correspond non pas à un accroissement de l’automatisme, mais au contraire au fait que le fonctionnement d’une machine recèle une certaine marge d’indétermination. C’est cette marge qui permet à la machine d’être sensible à une information extérieure. C’est par cette sensibilité des machines à de l’information qu’un ensemble technique peut se réaliser, bien plus que par une augmentation de l’automatisme. Une machine purement automatique, complètement fermée sur elle-même, dans un fonctionnement prédéterminé, ne pourrait donner que des résultats sommaires. La machine qui est douée d’une haute technicité est une machine ouverte, et l’ensemble des machines ouvertes suppose l’homme comme organisateur permanent, comme interprète vivant des machines les unes par rapport aux autres. Loin d’être le surveillant d’une troupe d’esclaves, l’homme est l’organisateur permanent d’une société des objets techniques qui ont besoin de lui comme les musiciens ont besoin du chef d’orchestre.”
PATR2017b.9
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : André LEROI-GOURHAN : Le geste et la parole, Tome II : La mémoire et les rythmes (1965) : “Il est certain que la fabrication de cerveaux artificiels n’est encore qu’à ses débuts et qu’il ne s’agit pas d’une curiosité ou d’un procédé à débouchés restreints et à court avenir. Imaginer qu’il n’y aura pas bientôt des machines dépassant le cerveau humain dans les opérations remises à la mémoire et au jugement rationnel, c’est reproduire la situation du pithécanthrope qui aurait nié la possibilité du biface, de l’archer qui aurait ri des arquebuses… Il faut donc que l’homme s’accoutume à être moins fort que son cerveau artificiel, comme ses dents sont moins fortes qu’une meule de moulin… Une très vieille tradition rapporte au cerveau les causes du succès de l’espèce humaine et l’humanité s’est vue sans surprises dépasser les performances de son bras, de sa jambe ou de son œil… Depuis quelques années, le surpassement a gagné la boîte crânienne et lorsqu’on s’arrête sur les faits, on peut se demander ce qui restera de l’homme après que l’homme aura tout imité en mieux. Ce qui est certain aujourd’hui, c’est que nous savons ou saurons construire bientôt des machines à se souvenir de tout et à juger des situations les plus complexes sans se tromper… l’homme est conduit progressivement à extérioriser des facultés de plus en plus élevées.”
PATR2017b.10
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Ludwig von BERTALANFFY : Théorie générale des systèmes (1968) : “Des entités d’une espèce essentiellement nouvelle pénètrent la sphère de la pensée scientifique. La science classique par ses diverses disciplines, que ce soit la chimie, la biologie, la psychologie ou les sciences sociales, essayait d’isoler les éléments de l’univers observé : composés chimiques et enzymes, cellules, sensations élémentaires, individus en libre compétition, que sais-je encore : elle espérait en outre qu’en les réunissant à nouveau, théoriquement ou expérimentalement, on retrouverait l’ensemble ou le système, cellule, esprit ou société, et qu’il serait intelligible. Nous savons maintenant que pour comprendre ces ensembles, il faut connaître non seulement leurs éléments mais aussi leurs relations : par exemple, le jeu des enzymes dans une cellule, celui des processus mentaux conscients ou non, la structure et la dynamique des systèmes sociaux, etc. Ceci nécessite l’étude des nombreux systèmes de l’univers observé dans leur ordre et leurs spécificités propres. Il apparaît en outre que des aspects généraux, des correspondances et des isomorphismes sont communs aux ‘systèmes’. C’est ce qui constitue le domaine de la théorie générale des systèmes ; bien sûr, ces parallélismes et ces isomorphismes apparaissent, et c’est quelquefois surprenant, dans des ‘systèmes’ par ailleurs totalement différents. La théorie générale des systèmes est ainsi une étude scientifique des ‘tout’ et des ‘totalité’ qui, il n’y a pas si longtemps, étaient considérés comme des notions métaphysiques dépassant les limites de la science.”
PATR2017b.11
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Marvin Lee MINSKY : La société de l’esprit (1986) : “Nous donnons le nom de ‘signaux’ aux actes dont les conséquences ne tiennent pas à leur propre caractère, mais leur sont simplement attribuées. Lorsque vous donnez de la vitesse à votre voiture en appuyant sur la pédale d’accélérateur, ce n’est pas à ce niveau que se situe l’action ; vous ne faites qu’envoyer un signal qui commande au moteur de propulser la voiture. De même, l’action de tourner le volant n’est qu’un signal qui fait que le mécanisme de direction provoque la rotation de la voiture. Le créateur de la voiture aurait très bien pu la concevoir de telle sorte qu’il faille enfoncer ou relâcher la pédale pour la diriger ou tourner le volant pour accélérer. Les concepteurs ayant un certain sens pratique essaient néanmoins d’exploiter des signaux ayant déjà acquis une certaine signification. Nos pensées conscientes utilisent des signaux-signes pour diriger le moteur de notre esprit et commander d’innombrables processus dont nous ignorons à peu près totalement l’existence. Quoique nous ne comprenions pas comment se font les choses, nous apprenons à atteindre nos objectifs en envoyant des signaux à ces fantastiques machines, tout comme les sorciers des temps anciens recouraient à des rites pour jeter leurs sorts.”
PATR2017b.12
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Michel HENRY : La barbarie (1987) : “Au tout début du 17ème siècle, […] Galilée déclare que la connaissance à laquelle l’homme se confie depuis toujours est fausse et illusoire. Cette connaissance est la connaissance sensible qui nous fait croire que les choses ont des couleurs, des odeurs, des saveurs, qu’elles sont sonores, agréables ou désagréables, bref que le monde est un monde sensible. Alors que l’univers réel est composé de corps matériels insensibles – étendus, doués de formes et de figure -, en sorte que son mode de connaissance n’est pas la sensibilité variable selon les individus et qui ne propose que des apparences, mais la connaissance rationnelle de ces figures et de ces formes : la géométrie. La connaissance géométrique de la nature matérielle – connaissance qu’il est possible (Descartes le démontre sans tarder) de formuler mathématiquement –, tel est le nouveau savoir qui prend la place de tous les autres et les rejette dans l’insignifiance. […] Or la science galiléenne ne produit pas seulement un bouleversement sur le plan théorique, elle va façonner notre monde, délimitant une nouvelle époque de l’histoire, la modernité […] La modernité résulte d’une décision intellectuelle clairement formulée et dont le contenu est parfaitement intelligible. C’est la décision de comprendre, à la lumière de la connaissance géométrico-mathématique, un univers réduit désormais à un ensemble objectif de phénomènes matériels, et, bien plus, de construire et d’organiser le monde en se fondant de manière exclusive sur ce nouveau savoir et sur les processus inertes qu’il permet de maîtriser.”
PATR2017b.13
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Antoinette ROUVROY et Thomas BERNS : Gouvernementalité algorithmique et perspectives d’émancipation, Revue Réseaux n°177 (2013) : “La gouvernementalité algorithmique se caractérise notamment par le double mouvement suivant : a) l’abandon de toute forme d’‘échelle’, d’‘étalon’, de hiérarchie, au profit d’une normativité immanente et évolutive en temps réel, dont émerge un ‘double statistique’ du monde et qui semble faire table rase des anciennes hiérarchies dessinée par l’homme normal ou l’homme moyen ; b) l’évitement de toute confrontation avec les individus dont les occasions de subjectivation se trouvent raréfiées. Ce double mouvement nous paraît le fruit de la focalisation de la statistique contemporaine sur les relations. Nous tentons d’évaluer dans quelle mesure ces deux aspects de la ‘gouvernementalité algorithmique’ ainsi dessinée, avec l’appui qu’elle se donne sur les seules relations, pourraient être favorables, d’une part, à des processus d’individuation par la relation (Simondon) et, d’autre part, à l’émergence de formes de vie nouvelles sous la forme du dépassement du plan d’organisation par le plan d’immanence (Deleuze-Guattari). Par cette confrontation aux principales philosophies contemporaines de la relation, il apparaît alors qu’une pensée du devenir et des processus d’individuation par la relation réclame nécessairement du ‘disparate’ – une hétérogénéité des ordres de grandeur, une multiplicité des régimes d’existence – que la gouvernementalité algorithmique ne cesse précisément d’étouffer en clôturant le réel (numérisé) sur lui-même. La gouvernementalité algorithmique tend plutôt à forclore de telles perspectives d’émancipation en repliant les processus d’individuation sur la monade subjective.”
PATR2017b.14
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Noam CHOMSKY : Quelle sorte de créatures sommes-nous ? (2016) : “Au cours des 2500 dernières années, les études sur le langage ont été intensives et fructueuses, mais on ne sait toujours pas vraiment ce qu’est le langage (je ferai état des principales hypothèses à ce sujet). On pourrait se demander à quel point il importe de combler ce vide, mais, selon moi, quel que soit l’angle sous lequel on aborde le langage, il importe d’apporter une réponse sans équivoque à cette question. C’est seulement dans la mesure où l’on sait ce qu’est le langage – ne serait-ce qu’implicitement – qu’on peut mener des enquêtes sérieuses sur les questions qui le concernent, dont celles qui portent sur son acquisition et son usage, sur son rôle dans la société, sur l’origine, l’évolution, la diversité et les propriétés communes des langues, et sur les mécanismes internes qui constituent la langue en système (tant le système cognitif lui-même que ses diverses fonctions, distinctes mais liées entre elles). Nul biologiste n’oserait décrire l’évolution de l’œil sans donner au préalable une définition le moindrement rigoureuse de ce qu’est cet organe ; la même évidence s’applique – ou devrait s’appliquer – à l’étude du langage et de la langue. Chose intéressante, ce n’est généralement pas l’angle sous lequel ces questions ont été abordées jusqu’ici ; je reviendrai sur cet enjeu plus loin. Il existe cependant des raisons beaucoup plus fondamentales de tenter de définir avec clarté ce qu’est le langage, lesquelles ont un lien direct avec la question de savoir quelle sorte de créatures nous sommes. Darwin n’est pas le premier à être parvenu à la conclusion que les ‘animaux inférieurs diffèrent de l’homme uniquement dans la capacité infiniment plus vaste qu’a ce dernier d’associer les uns aux autres les sons et les idées les plus diversifiés’. Mais personne avant lui n’avait exprimé cette thèse dans le cadre d’un exposé sur l’évolution humaine. Ian Tattersall, spécialiste de l’évolution humaine parmi les plus éminents, en a récemment proposé une variante. En colligeant les données scientifiques aujourd’hui disponibles, il a constaté que, si on a longtemps cru que l’étude du processus évolutif mènerait à la découverte de ‘précurseurs de ce que l’être humain deviendrait par la suite, la réalité est tout autre. Il est de plus en plus manifeste que l’acquisitionpar l’humain de sa sensibilité proprement moderne s’est plutôt produite récemment, de façon subite. […] Et l’expression de cette nouvelle sensibilité a presque assurément été encouragée par l’invention de ce qui constitue sans doute la caractéristique la plus remarquable de notre espèce sous sa forme moderne : le langage’. Si tel est le cas, une réponse à la question ‘Qu’est-ce que le langage ?’ intéressera au plus haut point quiconque cherche à comprendre ce que nous sommes. Selon Tattersall, cet événement soudain a probablement eu lieu voilà 50000 à 100000 ans, ce qui représente un créneau très étroit. Le moment exact de l’émergence du langage reste imprécis, mais ne présente aucun intérêt pour la question qui nous occupe ; en revanche, son caractère subit est riche d’enseignements. Je reviendrai sur les innombrables écrits spéculatifs publiés sur le sujet, qui défendent un point de vue différent. Si, dans ses grandes lignes, l’hypothèse de Tattersall est juste – c’est ce qu’indiquent les données fragmentaires dont on dispose – , on peut qualifier ce qui a émergé dans cet étroit créneau de ‘capacité [infinie] d’associer les uns aux autres les sons et les idées les plus diversifiés’, pour reprendre les mots de Darwin. Cette capacité infinie réside évidemment dans un cerveau fini. Au milieu du XXe siècle, on a bien compris le concept de système fini doté d’une puissance infinie. On a donc pu formuler clairement ce qui selon moi devrait être reconnu comme la propriété la plus fondamentale du langage, que je désignerai simplement sous le nom de ‘propriété fondamentale’ : chaque langue offre un ensemble illimité d’expressions structurées de façon hiérarchique dont les interprétations se produisent à deux interfaces : sensorimotrice pour l’expression et conceptuelle-intentionnelle pour les processus mentaux. Gagnent ainsi en substance la notion darwinienne de capacité infinie et, si l’on remonte encore plus loin dans le temps, le dicton classique d’Aristote selon lequel le langage est ‘son doué de sens’ (bien que des recherches récentes aient conclu que la notion de son est trop restreinte, et qu’on a de bonnes raisons de penser que la formule classique est trompeuse, raisons sur lesquelles je reviendrai plus loin). À la base, chaque langue comporte une procédure computationnelle qui respecte cette propriété fondamentale. Une théorie de la langue est par définition une grammaire générative, et chaque langue constitue ce que j’appelle en termes techniques une langue interne (individuelle et intentionnelle) : l’objectif de la recherche consiste à découvrir la réalité de la procédure computationnelle (et non quelque ensemble d’objets qu’elle énumère), ce qu’elle ‘engendre au sens fort’, pour employer un terme technique plus ou moins analogue aux preuves générées par un système d’axiomes. À cela s’ajoutent la notion de ‘génération au sens faible’, qui désigne l’ensemble des expressions engendrées, analogue à l’ensemble des théorèmes engendrés, puis celle de ‘langue externe’, que de nombreux linguistes (mais pas moi) assimile à un corpus de données ou à quelque ensemble infini engendré au sens faible. Nombreux sont les philosophes, linguistes, spécialistes des sciences cognitives et informaticiens pour qui la langue est ce qui est engendré au sens faible, mais on ne sait trop si la notion de génération au sens faible peut s’appliquer au langage humain. Au mieux dérive-t-elle de la notion plus fondamentale de langue interne. On a débattu de ces questions en long et en large dans les années 1950, mais je crains qu’on les ait mal assimilées.”
PATR2017b.15
Cf. Patriarche, Philosophie et numérique, florilège, op. cit. : Dominique BOULLIER : Nos enveloppes numériques, Entretien, Revue Stream 04 (2017) : “J’ai introduit cette notion d’habitèle pour donner un cadre conceptuel aux enveloppes que nous créons dans l’univers numérique. Nous pensons aujourd’hui surtout en termes de réseaux, de connexions, ce qui nous fait perdre une dimension fondamentale : notre capacité à créer un intérieur. L’habit, l’habitacle ou l’habitat, façonnés par la technique, conditionnent pourtant notre vie en constituant des enveloppes et des intérieurs. C’est à travers eux que nous pouvons dire que nous habitons. La question est ainsi de savoir si nous habitons réellement le numérique, ou si nous ne sommes pour le moment qu’en simple condition d’y loger ? Car loger, à l’hôtel par exemple, ne veut pas dire habiter. Nous ne pouvons y transformer notre environnement et celui-ci ne nous affecte que modérément. Habiter signifie au contraire être capable de transformer techniquement l’environnement et de se faire transformer en retour, au fil du temps et des habitudes. Lorsque vous naviguez sur Google, vous avez l’impression que votre exploration est personnalisée. En réalité, Google la formate avec des algorithmes dont vous ignorez l’existence et qui limitent votre prise sur ce monde virtuel. Les plateformes réutilisent également les traces que nous générons, les contenus que nous publions et jusqu’aux commentaires que nous laissons, sans que nous sachions exactement à quelles fins. L’habitèle repose sur les habitudes, ce couplage qui s’opère entre un environnement technique – qui devient une autre expression de nous même – et un extérieur qu’on intériorise. L’idée profonde est de penser aux manières de reprendre prise sur le monde pour éviter les phénomènes d’emprise. Ce type de ‘rugosités’ qui vous invitent à constituer des ambiances et des climats qui vous sont propres sont appelées en ergonomie des affordances. Les architectes, architectes d’intérieur et designers sont les garants de ces supports de liberté donnant envie d’habiter un intérieur, un quartier ou une ville. Nous sommes actuellement enfermés dans une forme de fatalité numérique, pris dans les réseaux alors même que leur intérêt réside dans le fait de comprendre le monde simultanément. À la manière du tube ‘Hotel California’, ‘you can check out anytime you want, but you can never leave’. Vous avez l’impression qu’un service vous est offert alors qu’en réalité les plateformes vous maîtrisent plus qu’elles n’accompagnent votre capacité à habiter, à construire votre environnement. Cependant, l’habitèle ne recouvre pas non plus l’idée d’un contrôle individuel absolu. C’est plutôt une relation, un phénomène de porosité qui nous permet de communiquer et d’échanger tout en régulant un minimum les accès. L’important est d’apprendre à jouer sur la distance et le contrôle pour éviter les logiques de bunker qui, sous prétexte de préserver un espace ou des données personnelles, nous prive de tout échange avec le monde. L’idée d’habiter est difficile à concevoir lorsque nous parlons du numérique parce que nous avons l’impression qu’il ne s’agit que d’accumuler les applications, d’ajouter du débit, d’augmenter la connectivité ou d’avoir accès à de plus en plus d’outils et de dispositifs. L’habitèle est aujourd’hui centrée sur le téléphone portable, terminal qui tend à devenir de plus en plus hybride, à la fois carte de crédit, ordinateur, téléphone et pièce d’identité. Mais pour construire une maison il ne suffit pas d’entasser de manière désordonnée les différents éléments de construction, des briques aux meubles. C’est bien l’architecture, la conception et le design qui permettent de produire un intérieur. L’accumulation désordonnée désoriente davantage qu’elle ne génère de sens de l’intérieur, de l’habitat ou de l’appropriation. La clef de cette affaire est de comprendre comment en tant qu’‘êtres connectés’ nous arriverons à redéfinir notre environnement de façon à produire les limites, les conditions d’accès, et au final à concevoir un intérieur numérique. Nous logeons aujourd’hui dans des plateformes sans créer d’intérieurs, nous ne savons toujours pas y construire notre habitèle, et c’est tout l’enjeu.”
LUND2016
Pokémon Go : à l’assaut de la réalité
Pokémon Go : à l’assaut de la réalité [Quand j’entends le mot culture], in Lundi matin, #71, 5 septembre 2016, https://www.infolibertaire.net/pokemon-go-a-lassaut-de-la-realite-quand-jentends-le-mot-culture/.
LUND2016.1
Cf. Lundi matin, Pokémon Go : à l’assaut de la réalité, op. cit. : Il y a quelque chose de déroutant dans Pokémon Go : le contraste entre l’extraordinaire maîtrise technique du monde que le jeu présuppose et manifeste, et sa futilité adolescente, son adorable dimension kawaii. Comme inventer une machine à voyager dans le temps pour se contenter de revivre son dernier anniversaire. Est-ce une manière de rendre moins glaçantes les perspectives ouvertes par une telle prouesse technologique ? Car elle est évidente, la dévastation du monde qu’une telle maîtrise requiert et entretient. Pour que Pikachu puisse vivre dans notre monde, il a fallu le numériser. Le baliser. Le désenchanter. Le découper en zones de rentabilité différenciées. Le ramener à des variables manipulables et programmables. Lui appliquer, des statistiques aux algorithmes, les outils efficaces de la rationalité. De telles opérations, et à une telle échelle, ne sont évidemment possible que dans un monde équarri, infiniment colonisé par l’économie. Et la futilité du jeu, son contenu folklorique, ne peuvent séduire ou fasciner qu’en raison d’un dépeuplement massif du monde. C’est parce qu’il n’y a plus rien à explorer, plus de mystère, plus d’animaux, plus d’horizon ouvert ou illimité de l’existence, que l’on peut se prendre de passion pour la chasse au Pokémon, qu’il y a un même un réel besoin de se prendre de passion pour la chasse au Pokémon. Comme le dit un ami : “C’est quand même marrant de mettre des Pokémon partout au moment où on réalise que les papillons disparaissent”. Chasse de collectionneur, dont il est assez facile de constater la nature accumulatrice et répétitive, tout à fait homogène à cette réalité basique à laquelle ces sympathiques créatures sont pourtant censées échapper. Chasse où le monde ressemble à une carte, et la carte, à un écran de smartphone. C’est une drôle de transaction : Pokémon Go réenchante le monde ; par la sophistication des moyens même de son désenchantement.
LUND2016.2
Cf. Lundi matin, Pokémon Go : à l’assaut de la réalité, op. cit. : cette liberté implique d’écraser la multiplicité de lieux dont le monde est fait sur la grille du jeu, où chaque lieu ne vaut qu’en tant que terrain de jeu, que par rapport aux autres terrains de jeu, et à sa possible valorisation dans le monde de Pokémon Go. Elle implique donc de faire subir au monde un traitement au fond comparable à celui que l’économie lui fait subir, par la mise en équivalence de toutes choses avec toutes, par son indifférence à la différence.
LUND2016.3
Cf. Lundi matin, Pokémon Go : à l’assaut de la réalité, op. cit. : Selon Deleuze et Guattari, l’État comme forme générale et universelle du pouvoir, est la résultante de trois captures concomitantes : celle du territoire, celle de l’activité, et celle de l’échange. La capture des territoires (pensons aux enclosures) permet d’en extraire une rente, en les transformant en terres, en propriétés foncières. La capture de l’activité (pensons au salariat) permet d’en extraire une plus-value (un profit, un surtravail), en la transformant en travail, de créer des entreprises. La capture de l’échange (pensons à la marchandise) permet d’en extraire un impôt, en le transformant en échange monétaire. Ces trois appareils de capture, organisés et synchronisés, définissent le champ historique de l’État moderne. Mais qu’en est-il de la capture à proprement parler, indépendamment de ce sur quoi elle s’exerce ? Deleuze et Guattari la ramènent à deux opérations : “L’appareil de capture constitue un espace général de comparaison, et un centre mobile d’appropriation. […] Un point de résonance circule dans un espace de comparaison, et trace cet espace en circulant”. Dans le cas de l’activité, par exemple, l’espace général de comparaison est celui du marché du travail, de la mise en équivalence de toutes les activités en les ramenant à l’exercice formel d’une force de travail ; et le centre mobile d’appropriation est le capitaliste capable d’extraire la plus-value, c’est-à-dire d’y découper un “surtravail” qu’il convertit en capital. Voilà en substance la physionomie du monde capturé : le désert de l’universelle comparaison, arpenté par un triste chameau assoiffé de monopole.
LUND2016.4
Cf. Lundi matin, Pokémon Go : à l’assaut de la réalité, op. cit. : Armé de son smartphone (objet économique et quotidien par excellence, antérieur à l’expérience du jeu), le joueur extrait, accumule puis capitalise des possibilités de jeu à partir de sa réalité quotidienne. Il fabrique du sens à partir de ce qu’il fait déjà, recode son existence ou la traduit dans un autre langage dans lequel celle-ci peut devenir productive à chaque instant, productive d’imagination, de fantasme ou d’enthousiasme. Voilà en quoi Pokémon Go constitue lui aussi un appareil de capture, et des plus radicaux : l’espace de comparaison est le monde lui-même ; et le centre mobile d’appropriation, l’existence même du joueur, dans sa configuration singulière, ses habitudes, ses amis, son smartphone, etc. Il y a au fond le même rapport entre la réalité augmentée et la réalité (c’est-à-dire, la réalité de notre monde) qu’entre le surtravail et le travail. On extrait la plus-value (ici ludique, imaginaire ou symbolique) de ce qui existe par les mêmes moyens que l’on produit ce qui existe (l’infrastructure du monde). Les aires d’autoroutes deviennent des arènes, les MacDo des pokéstops, la banlieue quelconque devient l’ultime terrain de jeu. Pokémon Go institue une nouvelle manière de valoriser le monde : voilà, dans le fond, l’objectif de toute capture. Si le jeu est free-to-play, c’est justement parce qu’il ne s’agit pas fondamentalement d’extraire une plus-value économique de la vie imaginaire ou imaginative des joueurs, mais d’extraire une plus-value imaginaire ou imaginative de la vie économique des joueurs, de leurs trajets quotidiens pour aller bosser, des lieux qu’ils visitent quand ils font du tourisme, des magasins où ils vont faire leurs courses, etc.
LUND2016.5
Cf. Lundi matin, Pokémon Go : à l’assaut de la réalité, op. cit. : On voit dans ce dédoublement ludique de la capture que si Pokémon Go augmente la réalité, il ne la libère pas pour autant de l’économie et du calcul. C’est le deuxième enseignement de Deleuze et Guattari : “Le mécanisme de capture fait déjà partie de la constitution de l’ensemble sur lequel la capture s’effectue”. La capture contribue à créer ce sur quoi elle s’exerce. La réalité est entretenue, produite et reproduite par sa capture. Par analogie, l’exploitation capitaliste ne crée pas seulement de la plus-value en extrayant le surtravail du travail. Elle crée ensemble le travail et le surtravail, dans leur relation perverse, là où il n’y avait avant que des activités irréductibles les unes aux autres. Le surtravail n’existe pas sans le travail, c’est évident ; mais le travail n’existe pas non plus en dehors du surtravail qui le parasite. De même, Pokémon Go ne crée pas seulement la réalité augmentée, mais prospère sur le désenchantement du monde. Il fournit à chacun la possibilité d’un pantomime de capture, d’autant plus intéressante que la texture de ce monde n’est faite que de capture. Voilà donc pourquoi Pokémon Go fascine. Parce qu’il donne une forme émouvante aux opérations les plus puissantes et les plus banales de la civilisation économique. Parce qu’il fait fond sur les mêmes affects indifférents et monopolistiques, mais les convertit ou les retourne en quête véritable de sens et de puissance. Il est comme une glose planétaire de l’économie mondiale sur elle-même. Un commentaire du discours et des logiques profondes de l’économie. Une sorte de version jouable, domestique et individualisée du Capital de Karl Marx.
LUND2019
Réponse à Cléone depuis Doula
Réponse à Cléone depuis Doula, in Lundi matin, #216, 11 novembre 2019, https://lundi.am/Reponse-a-Cleone-depuis-Doula-Lionel-Manga
LUND2019.1
Cf. Lundi matin, Réponse à Cléone depuis Doula, op. cit. : Le capitalisme n’est nullement entré en phase terminale. Au contraire et tirant parti des critiques les plus virulentes, il met le grand braquet par ces jours sous algorithmes, big data et calcul quantique. Sa forme accomplie dans l’Histoire s’approche et elle ne tardera plus à se manifester, intelligence artificielle et blockchain aidant. Cette fascinante panoplie technologique ne vise en effet pas à un autre projet que permettre son apothéose, entre câbles sous-marins reliant les continents et essaims de satellites placés en orbite géostationnaire. La Nasse est en place, Cléone, pour ce New Big Game que va orchestrer le trading à haute fréquence depuis les black pools, ces places de marché qui font concurrence désormais au Nymex & Co et où s’échangent entre investisseurs des volumes insensés de titres à l‘échelle de la milliseconde. L’Hydre du profit à tout prix se porte comme un athlète préparant les jeux olympiques d’été et la Grande Altération suit son effroyable cours entropique dans l’écoumène. Qui se désistera et descendra du tapis roulant, céleste Refuseuse ?
LUND2020a
Quartiers vivants
Quartiers vivants, in Lundi matin, #234, 21 mars 2020, https://lundi.am/Quartiers-vivants-2827
LUND2020a.1
Cf. Lundi matin, Quartiers vivants, op. cit. : On peut faire remonter les prémisses de la conception métropolitaine française et belge aux débuts des années 1970 et à l’avènement d’un nouvel agencement entre le marché et l’État, une nouvelle manière de concevoir l’action de l’État, orientée par l’optimisation économique des infrastructures. En France et en Belgique, cette pensée de l’optimisation des infrastructures publiques a été impulsée par les ingénieurs des mines et des ponts et chaussées et appliquée d’abord à l’industrialisation du parc nucléaire civil. La planification ne répondant pas adéquatement aux problèmes techniques liés à la construction des infrastructures nucléaires, ou à l’acheminement et la tarification de l’électricité, il fallait un modèle d’action plus souple, plus fin et adaptable, nécessitant une pensée économique d’un genre nouveau. Inspirés par le succès de la pensée cybernétique, les ingénieurs des mines veulent eux aussi unifier les domaines de l’automatique, des mathématiques, de l’économie et du gouvernement des hommes. Il s’agit pour eux d’optimiser toute la chaîne de production, depuis le fonctionnement des grandes institutions jusqu’aux ramifications les plus ténues des réseaux de communication. Dès lors, l’optimum (soit l’état le plus favorable, le meilleur possible d’une chose en fonction de conditions données) deviendra l’un des axiomes centraux dans la production des nouvelles infrastructures et plus largement des politiques publiques menées dans l’Hexagone.
LUND2020a.2
Cf. Lundi matin, Quartiers vivants, op. cit. : La dynamique de métropolisation telle qu’on la connaît aujourd’hui s’est considérablement accélérée depuis le début des années 1980. Sous l’impulsion d’une première diffusion des nouvelles technologies de l’information et de la communication, et par la mise en œuvre de nouvelles modalités de gouvernance des projets urbains (axés sur une sémantique de gestion des risques et des incertitudes et une logique de pilotage et d’adaptation), les grandes métropoles européennes ont progressivement accru leur influence à l’échelle des territoires régionaux.
LUND2020a.3
Cf. Lundi matin, Quartiers vivants, op. cit. : En parfaite continuité avec la métropolisation, un nouveau syntagme désigne depuis quelques années la ville en train d’advenir, celui de smart city. Il n’est pas évident de comprendre en quoi cela consiste précisément, mais si l’on regarde ce qu’en disent ses promoteurs, on comprend que le smart est une augmentation des fonctionnalités urbaines par ajout d’une couche informationnelle à la configuration matérielle de la ville. Plus exactement, elle est conçue comme une hybridation entre réseau informationnel et réseau technique, grâce à l’ajout massif de capteurs de tous ordres couplés à des systèmes de visualisation et d’organisation de données. La ville, en tant que telle, ne devient pas vraiment plus intelligente, des dispositifs d’intelligence artificielle ne sont pas non plus spécialement diffusés partout dans l’espace urbain ; simplement, des objets auparavant “muets” se mettent à parler, ce qui permet dans un second temps d’utiliser ces données à des fins de gestion.[…] L’intelligence est invoquée sous le motif de l’optimisation des flux de données et des circulations de biens et de personnes, et comme un mode d’utilisation raisonné des ressources. Elle constitue alors l’un des piliers du caractère indissociablement durable et rentable des villes de demain. […] Enfin, la smart city serait une façon de concevoir à nouveau le système de fonctionnement urbain comme une totalité intégrée. Le smart ne constitue pas une nouveauté radicale dans la conception des villes mais plutôt une intensification de leur métropolisation, axée sur la double logique d’optimisation des flux et de gouvernement des conduites comme des circulations. Pour l’instant, la smart city est avant tout un signifiant flou distribué dans un assemblage d’images, de textes, de schémas, c’est une nouvelle manière de raconter l’urbain encore très largement fictionnelle. Sa réalité se limite à quelques portions de villes et à des artefacts dont la portée est logiquement exagérée par la publicité qui en est faite. Cela étant, elle se traduit par l’installation de dispositifs bien opératoires, des plus terrifiants, comme les programmes de reconnaissance faciale et les virtual fences (clôtures virtuelles) à ceux qui désormais tissent notre quotidien : les puces RFID (comme pour le pass Navigo), la géolocalisation des GPS, les smartphones, les tablettes numériques, les programmes de “réalité augmentée”, les SCADA (terminaux distants qui permettent de gérer un environnement technique), les compteurs Linky… On retrouve une myriade d’objets connectés, mais ils ne forment pas (encore) une totalité unifiée. La smart city ressemble toujours, à l’heure actuelle, à une déclinaison de la ville utopique du XIXe siècle, avec cette idée qu’il serait possible de saisir les principales caractéristiques d’un environnement urbain au premier coup d’œil, de faire se rejoindre la carte et le territoire, la vie et la police. Depuis un tableau de bord centralisé, les gouvernants pourraient alors gérer l’ensemble des fonctions urbaines pour rendre (enfin) la ville intégralement gouvernable.
LUND2020b
La guerre des masques
La guerre des masques, in Lundi matin, #238, 13 avril 2020, https://lundi.am/woofy
LUND2020b.1
Cf. Lundi matin, La guerre des masques, op. cit. : L’identité biométrique, en postulant que des caractéristiques physiques et biologiques sont des données mesurables, a délié la physicalité de l’homme et son visage. En somme, l’identité biométrique dévisagéifie, destitue la réception complexe des formes. Par là, l’identité, une fois posée comme définitive (un ensemble de données physiologiques immuables, ou supposées telles) – et non plus relationnelle (un ensemble de liens spécifiques) – devient une fiction qui force le réel à rester analysable par la machine, c’est-à-dire stable et inchangé, ou à tout le moins, compris dans un ensemble statistique et mesurable. Par conséquent, l’identité biométrique calibre la vie et l’espace relationnel. La question qui dès lors se pose à nous est de voir quelles attentes sociales seront créées avec la généralisation de la reconnaissance faciale ? Devra-t-on maîtriser ses expressions faciales de manière à ne jamais paraître déviants ? Quelles marginalisations découleront d’un calibrage des visages sur les critères de l’algorithme ? Et l’intériorisation des critères de la technologie nous poussera-t-elle à changer notre regard sur les comportements de celles et ceux qui nous entourent ? Quelles formes de sociabilités découleront du déploiement massif de la reconnaissance faciale dans nos lieux de vie ?
LUND2020c
Le solutionnisme technologique restreint complètement nos imaginaires politiques
Le solutionnisme technologique restreint complètement nos imaginaires politiques, Félix TRÉGUER in Lundi matin, #239, 20 avril 2020, https://lundi.am/Le-solutionnisme-technologique-restreint-completement-nos-imaginaires
LUND2020c.1
Cf. Lundi matin, Le solutionnisme technologique restreint complètement nos imaginaires politiques, op. cit. : Dans ces logiques qui coexistent encore et toujours avec les logiques disciplinaires et formes de coercitions plus archaïques encore, la nouveauté tient en effet au passage à l’échelle que permet l’informatisation de la société, au fait que la gestion en temps réel des flux et de leurs composantes est non seulement techniquement possible, mais que grâce à la baisse du coût du stockage et du traitement des données, il devient aussi économiquement soutenable de la pratiquer de manière plus systématique. Ce passage à l’échelle résulte de logiques endogènes à l’innovation technologique. Mais il est aussi évidemment très lié à des imaginaires sociaux et aux besoins qui en découlent. En l’occurrence, dans l’histoire moderne, tout un tas d’instruments dédiés au traitement de l’information – postes, télégraphe optique, fiches, … – se sont succédés pour outiller les bureaucraties et donner corps au vieux projet déjà présent chez Hobbes d’un gouvernement parfaitement huilé, organisé sur le modèle de la machine. Dès le XVIIe siècle, chez ces penseurs de l’État moderne, on retrouve cette idée à l’origine de la dégénérescence de la politique moderne, et que le philosophe Cornelius Castoriadis rattache à la volonté d’une maîtrise rationnelle du monde, où la rationalité apparaît comme parfaitement objectivable et donc, comme il l’écrit dès 1990, “algorithmisable”. La tendance à l’automatisation gouvernementale vient donc de loin. Ce qui passe aujourd’hui pour de l’“intelligence artificielle” – même si ces technologies sont encore inabouties et reposent énormément sur des opérateurs humains – continuent de nourrir ce fantasme de décisions bureaucratiques plus objectives, réduisant la marge d’interprétation dans la construction des métriques, dans l’analyse des données, dans la prise de décision. Bien souvent ça ne marche pas, parce que les technologies ne sont pas au point, parce qu’il y a aussi des erreurs fondamentales au plan méthodologique. Mais de fait, grâce à l’informatique, on peut envisager de construire des bureaucraties plus vastes et plus efficaces – plus rapides, plus massives – en réduisant à portion congrue le rôle joué par les opérateurs humains, en les faisant tourner avec des fonctionnaires moins nombreux et plus précaires.
LUND2020c.2
Cf. Lundi matin, Le solutionnisme technologique restreint complètement nos imaginaires politiques, op. cit. : La technologie n’est pas neutre : elle est conçue et déployée dans un système de relations de pouvoir vis-à-vis desquels elle n’est pas autonome ; elle retranscrit des pratiques et des rationalités qui en conditionne les effets. […] Depuis les années 1960, dans les discours dominants sur les dangers de l’informatique – et malheureusement cela concerne nombre des acteurs qui s’inscrivent dans la défense des libertés numériques –, cette réalité-là est trop souvent mise de côté. On se contente du débat sur les procédures ou les gardes-fous appropriés, qu’ils soient éthiques (avec par exemple des chartes à destination des informaticiens), juridiques (la “protection des données personnelles”) ou technologiques (la cryptographie et le “privacy-by-design”). Et ce sont ces gardes-fous qui sont censés distinguer les régimes libéraux de leurs cousins plus franchement autoritaires. Sauf qu’en pratique, tenter de contenir une ligne de code et ses usages par des procédures, aussi bien pensées soit-elles, cela ne tient jamais bien longtemps. Elles sont rapidement désarmées, contournées, oubliées, ou tout simplement tombent en désuétude. Même si le débat sur les garde-fous ne peut pas être totalement délaissé, il faut l’articuler à une critique de l’informatisation en tant que processus bureaucratique et battre en brèche l’imaginaire gestionnaire et anti-démocratique dont elle découle et qu’elle imprime dans la société.
LUND2020d
Monowheel
Monowheel : Quelques marches pour prolonger celles de la rue Becquerel, ACLIN in Lundi matin, #254, 14 septembre 2020, https://lundi.am/Monowheel-Quelques-marches-pour-prolonger-celles-de-la-rue-Becquerel
LUND2020d.1
Cf. Lundi matin, Monowheel, op. cit. : L’informatique offre le spectacle d’une technique où un peuple immense et assidu d’apprentis (une moyenne de quatre heures par jour à manipuler un appareil, dit une statistique française) voit ses usages évoluer dans le sens d’une régression. Pour ne donner que deux jalons évidents de cette régression : l’invention des “interfaces graphiques” dans les années 70, et la domination symbolique de Mac sur Windows. Mac, c’est le beau boîtier blanc immaculé qu’on ne peut quasiment ouvrir que par effraction. C’est la boîte noire où sont enfermées les médiations et qui nous condamne au point de vue le plus pauvre qu’on puisse avoir sur un objet technique : pas même celui d’un sujet spectateur, mais bien d’un agent extérieur. Notre inaptitude crasse à entrer dans un rapport apaisé avec les appareils qui calculent l’information, ne vient pas seulement du fait qu’ils courent toujours vers plus de nouveauté quand nous filons tous fatalement vers le troisième âge. Ce n’est pas qu’une question de vitesse et d’écart croissant dans la vitesse. Cette inaptitude chronique s’enracine d’abord dans la situation fondamentale qui est la nôtre avec les computers : celle de l’agent extérieur. Nous sommes bloqués en dehors du processus. Tout fait écran. Qui travaille avec un ordinateur est presque toujours coincé au sous-sol d’une usine dont il n’aperçoit pas même le premier piston. Ici comme ailleurs, l’injonction à s’adapter provient du fait qu’un vivant ne peut pas s’adapter au type d’environnement ainsi constitué. On ne peut qu’y réagir, avec un cran de retard. C’est peut-être pour ça qu’on entend toujours il faut s’adapter, et jamais belle adaptation !
LUND2020d.2
Cf. Lundi matin, Monowheel, op. cit. : 1/ La déréalisation des médiations, bien loin de reposer sur leur disparition réelle, va de pair avec leur réplication incalculable en un environnement de plus en plus difficile à appréhender. Autrement dit, la déréalisation subjective va de pair avec une prolifération objective. 2/ Un phénomène commence à proliférer quand on ne possède plus la catégorie adéquate pour le maîtriser et le réguler. Corollaire : la catégorie de médiation s’évapore de nos esprits d’un même mouvement qui resserre le réseau technologico-administratif tenant nos corps. Par exemple : les Institutions défaites prolifèrent en instituts, l’ancienne pesanteur administrative prend des allures d’enfer procédurier, et chaque fois qu’un bureau ferme une petite voix nous murmure simplifiez-vous la vie. Si on a peine à la croire, on a également peine à s’en défaire. 3/ La technologie est le nom de la technique quand elle se cache, efface ses médiations et les multiplie dans l’angle mort de nos consciences. 4/ De la cybernétique, vocable qui a flotté sur la seconde moitié du XXe siècle pour finalement se perdre, il faut dire : si le nom s’est perdu, c’est que la chose est partout.
LUND2020e
Un pays sans visage
Un pays sans visage, Giorgio AGAMBEN in Lundi matin, #263, 15 novembre 2020, https://lundi.am/Un-pays-sans-visage, traduction de Florence BALIQUE, à partir de l’article publié sur le site Quodlibet, le 8 octobre 2020 https://www.quodlibet.it/giorgio-agamben-un-paese-senza-volto.
LUND2020e.1
Cf. Lundi matin, Un pays sans visage, op. cit. : Tous les êtres vivants sont dans l’ouvert, ils se montrent et se communiquent les uns aux autres, mais seul l’homme a un visage, seul l’homme fait de sa manière d’apparaître et de se communiquer aux autres êtres humains sa propre expérience fondamentale, seul l’homme fait du visage le lieu de sa propre vérité. Ce que le visage expose et révèle n’est pas quelque chose qui peut être dit en mots, formulé dans telle ou ou telle autre proposition signifiante. Dans son propre visage l’homme se met inconsciemment en jeu lui-même, c’est dans le visage, avant que dans la parole, qu’il s’exprime et se révèle. Et ce que le visage exprime n’est pas seulement l’état d’âme d’un individu, c’est avant tout son ouverture, sa manière de s’exposer et de se communiquer aux autres hommes. C’est pourquoi le visage est le lieu de la politique. S’il n’y a pas une politique animale, c’est seulement parce que les animaux, qui sont déjà toujours dans l’ouvert, ne font pas de leur exposition un problème, ils y demeurent simplement sans s’en préoccuper. C’est pourquoi ils ne s’intéressent pas aux miroirs, à l’image en tant qu’image. L’homme, à l’inverse, veut se reconnaître et être reconnu, il veut s’approprier sa propre image, il cherche en elle sa propre vérité. De cette façon il transforme l’ouvert en un monde, dans le champ d’une incessante dialectique politique. Si les hommes avaient à se communiquer toujours et seulement des informations, toujours telle ou telle autre chose, il n’y aurait jamais, à proprement parler, de politique, mais uniquement échange de messages. Mais puisque les hommes ont avant tout à se communiquer leur ouverture, c’est-à-dire une pure communicabilité, le visage est la condition même de la politique, ce en quoi se fonde tout ce que les hommes se disent et échangent. Le visage est, en ce sens, la vraie cité des hommes, l’élément politique par excellence. C’est en se regardant en face que les hommes se reconnaissent et se passionnent les uns pour les autres, perçoivent ressemblance et diversité, distance et proximité.
LUND2021a
Avis aux chercheurs, aux professeurs, aux ingénieurs
Avis aux chercheurs, aux professeurs, aux ingénieurs. Dix thèses sur la technoscience, GROUPE GROTHENDIECK in Lundi matin, #269, 4 janvier 2021, https://lundi.am/Avis-aux-chercheurs-aux-professeurs-aux-ingenieurs.
LUND2021a.1
Cf. Lundi matin, Avis aux chercheurs, aux professeurs, aux ingénieurs, op. cit. : III. LA SCIENCE partant de l’énoncé de base que la nature (phusis) est constituée de briques élémentaires qui interagissent entre elles pour créer des “formes”, cherche désespérément à unifier ce qui est en quelque chose qui se trouverait très simple et élégant (kosmos). La technoscience utilisant ses propres axiomes pour interpréter et transformer la nature suivant les exigences du capital et du pouvoir, fabrique elle-même ces objets-abstraits-bien-que-réels, se rapprochant de son idéal-type et de “l’élégance” comptable (dite “élégance mathématique”). C’est ce que les experts nomment la convergence des technologies nano, bio, info, cognition (NBIC), la réification totale de la nature via sa réduction infinitésimale en des monades appelées bits, gènes, quarks, nombres, quanta. Vision mesquine et utilitariste de ce qu’est la nature et la vie humaine qu’elle contient. Ainsi par exemple, le réseau Internet, les bits, et l’information sont vu comme “la mémoire du monde” ou “un monde” en-soi, mais en réalité ils ne sont que des ersatz de monde, abstrait et sans con-sistance. Par contre la matérialité du système technique qui supporte ce réseau, est elle bien réelle, non élégante, colossalement énergivore et hors de portée dans son intégralité car d’une complexité inouïe. Le projet technoscientifique ne serait-il pas l’exfiltration de l’homme du monde pour l’incarcérer dans une bulle technique qui nous raconterait de “belles histoires” ?
LUND2021a.2
Cf. Lundi matin, Avis aux chercheurs, aux professeurs, aux ingénieurs, op. cit. : IV. LE PROJET technoscientifique prend forme au moment où les deux grands récits occidentaux sont défaits : Le premier récit est celui de l’émancipation politique par le progrès scientifique. Démarré chez les savants modernes (Galilée, Copernic, Newton…), idéologisé sous les Lumières (Diderot, d’Alembert), mise en pratique par les socialistes utopistes (Fourier, Owen), cette idée fut mise à mal par la Grande Guerre Industrielle (1914-1945) dont l’apothéose, si l’on ose dire, ce situe le 6 Août 1945 lorsque 70 000 japonnais furent pulvérisées instantanément par le déchaînement des forces du progrès (atomique).
LUND2021a.3
Cf. Lundi matin, Avis aux chercheurs, aux professeurs, aux ingénieurs, op. cit. : V. LA TECHNOSCIENCE n’est pas un surplus de science ou une partie de la science. Elle est la science de notre époque, cependant qu’elle n’a rien à voir avec ce que les Grecs anciens appelaient “épistémê” et les latins “scientia”, ni avec ce que les “savants” des XVIIIe-XIXe siècles appelaient “philosophie naturelle”. Elle appartient plutôt à un certain “art pratique” (tecknê) de gouvernement (kubernétikê) par domination totale. La technoscience est le discours idéologique matérialisée de la technique (tecknê+logos) à l’aune de l’hégémonie de la véracité scientifique. Il n’y a plus de visée humaine (morale, philosophique et éthique), la science cherche avant tout des moyens, c’est-à-dire des techniques en vue d’améliorer des problèmes techniques. Les buts finaux se sont perdus dans la chaîne des dépendances techniques. C’est pour cette raison qu’il y a de plus en plus d’artéfact technique et de marchandise, de routes, de câble et de machine. Le “pourquoi ?” a été balayé par le “comment ?”. Et les sacrifices humains qu’il a fallu consentir pour l’augmentation des moyens de production n’ont même pas pour but de suppléer aux tourments humains nécessaires à l’obtention d’une telle croissance, mais seulement d’accroître la masse de capitaux et de pouvoirs pour les capitalistes. L’humain est la variable ajustable.
LUND2021b
Mathématique et Apocalypse
Mathématique et Apocalypse. La révolution Grothendieck, Jacques FRADIN in Lundi matin, #272, 26 janvier 2021, https://lundi.am/Mathematique-et-Apocalypse.
LUND2021b.1
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Il est très difficile de faire “comprendre” la mathématique, surtout celle qui résulte de la révolution Grothendieck, à qui n’est pas mathématicien. Autant, qu’ici, le “comprendre” ne peut se distinguer de “l’apprendre”. Et autant que toutes les écoles philosophiques (antiques) ont mis l’apprentissage mathématique (géométrique) à la base de toute pensée, à la base de toute dynamique de pensée. Et non pas pour “mécaniser” cette pensée (comme le pensait Pascal ou, d’un autre point de vue, Lacan, “les mathèmes” – la mécanisation du mathématique ou la mathématique comme mécanique de la pensée, voilà ce contre quoi s’acte le soulèvement Bourbakiste, bientôt sous les couleurs de Grothendieck). Mais, au contraire, pour en manifester le caractère “mystique”. La mathématique, selon Grothendieck, doit donc “s’appréhender” (toujours “le prendre”) comme “mystique”.
LUND2021b.2
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Cette parole silencieuse, la mathématique n’est qu’écriture “mystérieuse”, “révèle” les grands mystères : mais “révélation” de quoi ? Et de quels mystères ? Du monde ou de l’au-delà ? – on connaît bien l’ambiguïté des “oracles”, voire leur caractère incompréhensible et soumis aux plus violents conflits d’interprétations – la mathématique oraculaire est plongée au cœur d’un tel conflit violent : langage structural “pur” ou engrenage d’emprise sur le monde (le mystère du monde “écrit” en caractères mathématiques) ? Cette parole silencieuse fait trépigner tous les empiristes, tous les positivistes, tous les pragmatistes, tous ceux pour qui “le langage est un outil”, politique, démagogique, et la mathématique une arme (de destruction massive). Que peut-elle, donc, “révéler” d’autre que “les grands mystères du monde” ? Et, alors, ne peut-elle pas être “enrégimentée”, rendue utile & agréable ? On connaît bien les relations difficiles entre les rois (militaires) et “les devins” (qui “devinent”, et formulent des pré-visions, à leurs risques et périls). On connaît bien le sinistre destin du Zen japonais : de la mystique, de l’apophatique, de la profération négative – le Koan zen – à la caserne, au déplacement sur les lieux de la positivité intégrale et apocalyptique, là où la révélation se confond avec la destruction, l’apocalypse. On connaît bien la généalogie militaire des sciences de l’ingénieur et des mathématiques appliquées à ces sciences (ou à l’informatique).
LUND2021b.3
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : La mathématique conçue comme outil, de formalisation, de calcul, la mathématique pour l’informatique, voilà l’ennemi qu’il fallait abattre ; et qui s’est révélé le plus fort ; car cet outil était l’âme de la force (armée, policière, économique – la calculabilité qu’il fallait désactiver).
LUND2021b.4
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : La mathématique structurale de Bourbaki répond à la formule de Derrida “il n’y a pas de hors texte” (formule structuraliste construite sous un chapeau bourbakiste) ; formule qui se prolonge en analyse “déconstructive” ou en déconstruction de l’illusion que le langage parle d’un extérieur à lui. Déconstruction de l’illusion empiriste qui dicte la formule thermidorienne des mathématiques appliquées : la doctrine pseudo-platonicienne (ou vendue comme platonisme du pauvre, Badiou) de la forme du monde “réellement” gravée en termes mathématiques, curieusement calculables ou analytiques.
LUND2021b.5
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Et, surtout pour Grothendieck, cette mathématique catégorique emporte une fonction politique : la fonction politique du mathématique (que nous ferons penser en traversant l’analyse de “la potentialité”, analyse introduite par Agamben). Fonction politique de la critique réflexive mathématique, révolutionnaire, conceptuelle, fonction politique de la critique de l’idéologie scientiste des mathématiques pour ingénieur ; et, par exemple, de la nature théologique du stupéfiant “calcul des variations”, “la nature cherche le mieux”. Fonction politique de la critique de la confusion entretenue, technocratiquement sectaire, entre mathématique et calcul ou calculabilité. Il n’y a pas de calcul en mathématique ; ou, ce qui est calculable n’est pas de l’ordre du mathématique mais du pouvoir politique autoritaire. La confusion épicière ou la réduction comptable du mathématique au nombre, au calcul, au compte n’a qu’une finalité de légitimation idéologique : faire passer l’épicier qui compte pour un savant et, inversement, bien montrer que les savants sont de bons épiciers (qui savent, au moins, bien gérer leur carrière) ; tous mis sur un même plan comptable, l’expert-comptable, l’agent comptable, le conseiller auditeur (building a better working world), le directeur de labo, le chercheur vacataire attendant son enveloppe. La maîtrise du calcul comptable (ou de l’audit – nous sommes bien loin des mathématiques pythagoriciennes ou platoniciennes) étant censée jouer un rôle essentiel dans la création d’un monde meilleur.
LUND2021b.6
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Tout réduire au calculable ; alors même que cela est impossible et ne peut arrêter la fuite (il n’y a pas de série convergente) – penser à l’imaginaire de “la grande libération” qu’aurait dû apporter l’informatique, alors même que cette informatique déploie une force politique autoritaire (performative, constructiviste) et ne vise plus rien d’autre que la seule accélération de son mouvement d’abstraction ou de “super-vision”. Penser au rôle autoritaire de la performation comptable et à l’emprisonnement généralisé dans la forme de la mesure valeur, dans l’économie comme mathématique réalisée. La révolution Grothendieck, en critiquant l’idéologie positiviste du langage, du bon langage qui parlerait des véritables choses, s’est affrontée à la coalition des “praticiens”. Le terrible conflit des mathématiques pures conceptuelles et des mathématiques appliquées (ou de la physique théorique et de la physique expérimentale), ce conflit est le conflit pour “la libération de la liberté”.
LUND2021b.7
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Le langage “n’ouvre” pas aux choses, au monde, choses et mondes qui seraient déjà là avant leur désignation ou nomination. Le langage constitue, performe un monde “virtuel”, imaginaire (et fou) – ce qu’il est commun de nommer “abstraction réalisée” – un monde “magique”, si magique désigne la sauvagerie politique de l’imposition, de la mesure, de l’extraction, si magique est pris en un autre sens que celui des hiéroglyphes égyptiens. Et c’est ce monde projeté, établi, constitué, réalisé, qui est pensé, par rétro-projection, “naturel” (ou même “réel”). En croyant “décrire” le monde, qui serait déjà là, on en projette un nouveau ; nouveau qui s’impose de force par exclusion, exploitation, extraction ; et qui devient le “nouveau naturel” imposé. Un mouvement permanent de déplacement (et notons que les déplacements sont au cœur de la mathématique conceptuelle) entraîne cette “fuite sans fin” nommée “progrès”. Et, spécifiquement, entraîne une montée dans l’abstraction (encore une fois, montée analysée par la théorie des catégories au titre des “généralisations”), c’est-à-dire dans le désastre, écologique, en particulier (l’artificialisation).
LUND2021b.8
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Et c’était cela, véritablement, la poussée Grothendieck, reconstruire la mathématique en termes dynamiques. Reconstruction conceptuelle ou “pure” puisque la finalité Bourbakiste était de couper la mathématique de toute application. Et ainsi de résoudre, de manière révolutionnaire, la question positiviste de l’accointance louche des mathématiques (appliquées) avec le militaire ou avec l’informatique ou avec l’économie. L’application est une performance “extractiviste” qui consiste à opérer un prélèvement, effectuer une “exploitation”, sur une infime partie du corpus mathématique, part généralement “la plus simpliste” (voir le Traité d’Analyse de Dieudonné et le fameux “calcul marginal”) et qui se prête depuis des siècles à cette exploitation (la comptabilité est-elle mathématique ? – toujours Hellman, le nombre est-il une entité mathématique ?). En rajoutant, thème essentiel de la révolution Grothendieck, que ces performances extractivistes sont des constitutions ou des conformations : la partie extraite du corpus mathématique est “projetée” et devient instituante (cadastres, comptabilités, tout un monde de potentialités écrasées pour permettre la calculabilité commune). Les géométries et les logiques, qui sont des géométries, et qui permettent, par exemple, la comptabilité, puis, de fil en aiguille, “la calculabilité” ou l’informatique, sont toujours des géométries ou des logiques “antiques”, mais qui sont incrustées et imposent au monde “calculable” des structures conservatrices
LUND2021b.9
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : La mathématique n’est ni un formulaire de calculs, ni un “langage artificiel” (la comptabilité aboutissant à l’informatique). Cette idée de langage informatique étant la plus pernicieuse ; puisqu’elle se déploie comme un cancer mortel sur le noyau même du mathématique, être effectivement une langue – mais pas une langue mécanisée (contra Pascal). Le langage informatique, comme le langage de l’économie (la comptabilité), est cancéreux et destructeur, puisqu’il passe à côté de la réflexivité, pour se déployer “platement” comme un calcul de la langue, pour rendre la langue auto-matique (et non pas auto-réflexive). Ce qui oblige l’informatique, ou les mathématiques pour l’informatique, à IGNORER l’infini, à “l’approximer” ; cet infini qui est un élément essentiel de la pensée mathématique (renvoyons ici à Badiou). Générer le monde “par approximation”, voilà le business du comptable ou du calculable. Le péché originel des mathématiques appliquées étant “la troncature” des séries infinies en “approximations finies”. La troncature, la réduction : tout le programme colonialiste des mathématiques appliquées ; dont l’économie est le splendide résultat (économie ayant pour centre “l’abstraction réalisée”, la numéricisation du monde). Au lieu d’amener à réfléchir (de porter à la réflexivité) sur la puissance et les limites du langage, au lieu de développer “des logiques” – il faut ici insister sur cette idée que ce n’est pas la mathématique qui est logique, mais la logique qui est mathématique – le Grand Œuvre de Grothendieck est aussi celui de la géométrisation de la logique, Goldblatt – les mathématiciens de ménage, obéissant aux pouvoirs temporels impérieux, se sont engouffrés dans la voie destructrice, militarisée, ouverte par la croyance positiviste que le langage “décrit” une “réalité”, SANS VOIR – et là réside le destructif – qu’ils projetaient des mondes, imaginaires mais réduits, calculables, opérationnels et qu’ils les projetaient à flux tendus (comme le montre bien le désastre informatique), SANS VOIR (ou ne voulant pas voir, dénégation) que la mathématique appliquée est résolument apocalyptique. En programmant des fins, des finalités, des utilités, le praticien des mathématiques coupées (de leur réflexivité) “annonce” la fin.
LUND2021b.10
Cf. Lundi matin, Mathématique et Apocalypse, op. cit. : Le rôle infernal de ces mathématichiens (ou des ingénieurs ou des “génies de la finance mathématique”) ne peut être minoré. Dès que l’on comprend que le langage est uniquement performatif – c’est cela qu’énonce la mathématique conceptuelle catégorique (développée en termes de la théorie des catégories) et la géométrisation des logiques (le rapatriement de la logique DANS la mathématique) – l’idée “d’application” devient satanique (mais Satan n’est-il pas “le roi du monde” ?). Car une, supposée, application, une modélisation, par exemple, ou la construction d’un programme informatique, une telle chose (non pensée réflexivement) est une poussée supplémentaire dans la course à l’artificialisation du monde, dans la fuite apocalyptique. En croyant décrire de mieux en mieux le monde, le mathématicien appliqué, ou l’ingénieur recherche, voue ce monde à l’écrasement, à l’enfermement ; comme en témoigne, le plus clairement, l’économie – la comptabilité, le compte, étant la perversion originelle qui décide du destin désastreux de toutes les autres mathématiques pour ingénieurs.
LUND2021c
Affaires privées
Affaires privées. Aux sources du capitalisme de surveillance, Franz HIMMELBAUER in Lundi matin, #274, 8 février 2021, https://lundi.am/Affaires-privees-Aux-sources-du-capitalisme-de-surveillance.
LUND2021c.1
Cf. Lundi matin, Affaires privées, op. cit. : Concernant les efforts déployés par l’État afin de mettre en ordre le chaos social de sorte à le rendre lisible, contrôlable et corvéable à merci, Scott explique qu’il ne s’agissait pas seulement de recenser tout ce qui existait, puis de le classer, de le ranger en catégories, mais bien de les simplifier, car la complexité du réel résistait à toute lisibilité. Il fallait donc éliminer tout ce qui ne rentrait pas dans des grilles de mesures standardisées. On pourrait dire, me semble-t-il, que les Gafam, comme il est désormais convenu de désigner les géants de l’économie numérique, ne font pas autre chose, employant cependant des outils autrement sophistiqués. En effet, il s’agit toujours de décomposer le réel en unités de mesures quantifiables et dès lors manipulables à merci. De leur point de vue, nous ne sommes plus rien d’autre que des amas de données qu’ils s’évertuent à extraire, accumuler, organiser, comparer, ré-agréger et au moyen desquelles ils finissent par produire des doubles numériques de nous-mêmes – non plus Big Brother, mais Big Other, comme l’a bien vu Shoshana Zuboff. “L’ennui, conclut Masutti, c’est que ces doubles deviennent des normes.” [Christophe MASUTTI, Affaires privées. Aux sources du capitalisme de surveillance., Caen, C&F éditions, 2020, p. 386.]
LUND2021d
Sur la pandémie actuelle
Sur la pandémie actuelle, d’après le point de vue d’Ivan Illich, David CAYLEY in Lundi matin, #283, 12 avril 2021, https://lundi.am/Sur-la-pandemie-actuelle-d-apres-le-point-de-vue-d-Ivan-Illich-3942
LUND2021d.1
Cf. Lundi matin, Sur la pandémie actuelle, op. cit. : Illich caractérise “la nouvelle manière de voir” comme l’avènement de ce qu’il appelle “l’âge des systèmes” ou “une ontologie des systèmes”. L’âge qu’il voit arriver à son terme est dominé par la notion d’instrumentalité : le fait d’utiliser des moyens instrumentaux, comme la médecine, pour atteindre un but ou un bien, comme la santé. Cet âge est caractérisé par une nette distinction entre sujets et objets, raisons et fins, outils et utilisateurs, etc. À l’ère des systèmes, avance-t-il, ces distinctions se sont effondrées. Un système conçu de façon cybernétique est global – il n’a pas de dehors. On utilise un outil pour parvenir à une fin. Celui qui utilise un système en fait lui-même partie, s’adaptant en permanence au système, comme le système s’adapte à lui. Un individu limité en quête de son bien-être personnel laisse place à un système immunitaire qui recalibre constamment ses frontières poreuses en fonction du système qui l’entoure.
LUND2021d.2
Cf. Lundi matin, Sur la pandémie actuelle, op. cit. : le risque est source de désincarnation car c’est un “concept purement mathématique”. Il ne concerne pas les individus mais les populations : nul ne sait ce qu’il arrivera à tel ou tel individu, mais ce qui arrivera à l’agrégat de ces individus peut être exprimé par des probabilités. S’identifier à ces marqueurs statistiques, disait Illich, c’est s’engager dans la voie d’une “auto-algorithmisation intensive”.
LUND2021d.3
Cf. Lundi matin, Sur la pandémie actuelle, op. cit. : Ce sentiment d’horreur est inspiré par le fait que les êtres humains se réinventent en fonction d’une construction statistique. C’est selon lui l’occultation des individus en faveur des populations, le refus d’un avenir qui soit imprévu et la substitution de modèles scientifiques à une expérience vécue. Illich se rend compte qu’il s’agit d’une réalité non seulement dans le champ du dépistage génétique prénatal, mais à tous les niveaux des services de santé. De plus en plus de personnes agissent de façon prospective, en fonction des risques qu’elles encourent. Elles deviennent ce qu’Allan Cassels, chercheur canadien dans le domaine de la santé, appelle ironiquement des “pré-malades”, attentifs et actifs face aux maladies qu’ils seraient susceptibles de contracter. On traite de plus en plus les cas particuliers comme des cas généraux, comme des modèles d’une catégorie ou d’une classe, plutôt que comme des malheurs uniques. Les médecins, eux, deviennent progressivement les servomécanismes [Dispositif qui assure automatiquement un certain programme d’action en comparant les commandes reçues avec le travail qu’il exécute (NdT)] de cette nuée de probabilités plutôt que des conseillers intimes, attentifs aux différences spécifiques et aux interprétations personnelles. Voilà ce que signifie Illich par “auto-algorithmisation” ou désincarnation.
LUND2021e
L’obsolescence du vivant sur terre
L’obsolescence du vivant sur terre. Carnets de réclusion #7, Jean-Marc ROYER in Lundi matin, #285, 26 avril 2021, https://lundi.am/L-obsolescence-du-vivant-sur-terre
LUND2021e.1
Cf. Lundi matin, L’obsolescence du vivant sur terre, op. cit. : Dans le mode de connaissance scientifique moderne, une logique formelle, réductionniste et objectivante est à l’œuvre, qui n’admet strictement aucune limite. Il peut également être caractérisé par son objet qui consiste à rendre compte du réel (ou d’un champ délimité du réel) par le biais d’une relation abstraite et commensurable, soit par exemple E = mc2.
LUND2021e.2
Cf. Lundi matin, L’obsolescence du vivant sur terre, op. cit. : Il existe donc ce que l’on peut appeler un isomorphisme structurel entre capitalisme et mode de connaissance scientifique, qui peut être repéré dans le fait qu’ils poursuivent tous deux une finalité fondamentalement identique, à savoir réduire le réel à une abstraction. Autrement dit, dans les deux cas, il s’agit d’opérations qui chosifient le vivant.
LUND2021f
Quel parti voulons-nous construire ?
Quel parti voulons-nous construire ? Destituer les Architectes, in Lundi matin, #288, 17 mai 2021, https://lundi.am/Quel-parti-voulons-nous-construire
LUND2021f.1
Cf. Lundi matin, Quel parti voulons-nous construire ?, op. cit. : C’est dans ce contexte de deuil de la souveraineté individuelle et étatique que des chercheurs de disciplines très différentes (neurologues, psychologues, économistes, mathématiciens, anthropologues…), en lien avec le complexe militaro-industriel vont élaborer une nouvelle “science du contrôle et de la communication chez l’animal et la machine” : la cybernétique. L’hypothèse de base est la suivante : tout les milieux – la famille, la société, jusqu’au Système-Terre “Gaïa” de James Lovelock - et tous les organismes qui les composent – les machines, les individus, les animaux - peuvent être compris comme des systèmes de communication auto-régulés, réductibles à un certain nombre de paramètres. Leur modèle est le cerveau-machine : l’ordinateur. Gouverner ne se fera donc plus selon les vieilles conceptions souverainistes du pouvoir, ce sera désormais inventer une coordination rationnelle des flux d’informations et de décisions qui circulent dans le corps social. Ce sera en optimiser le pilotage. La mutation cybernétique de l’économie vise à corriger la tendance du capitalisme à l’entropie, au désordre due à sa part destructrice. Il s’agit à présent de pouvoir reproduire et réparer le monde du Capital à mesure que celui-ci détruit tout les mondes vivants desquels il tire sa substance. Il s’agit d’en maintenir l’équilibre écologique, c’est à dire l’ordre. La cybernétique, bien avant Latour et Descola, se construit donc sur la ruines des dualismes occidentaux que furent le Sujet et l’Objet, l’Individu et la Société, la Nature et la Culture. Et les cybernéticiens, se dépouillant des anciens oripeaux de l’autorité, se constitueront dès lors en parti des intermédiaires. Cette hypothèse va construire une image des acteurs de l’économie comme étant pris dans une circulation d’informations qui les façonnent, dans une architecture de flux, dans un environnement. Des acteurs-réseaux, en somme. Et c’est désormais cet environnement (que ce soit celui d’un open-space, d’un écoquartier ou d’un parc naturel) qu’il s’agit de designer et de gérer, en maximisant la participation et la collecte d’informations, les feed-backs et les instances de coproduction. Organiser la mise en boucles de l’économie, sa circularité, son devenir environnemental.
LUND2021f.2
Cf. Lundi matin, Quel parti voulons-nous construire ?, op. cit. : En 1966 Steward Brand, biologiste formé à Standford, et sa compagne Lois Jennings, militent publiquement pour que la NASA publie la première photo de la terre vue de l’espace. Cela dans le but de provoquer une prise de conscience écologiste, celle d’être, selon eux, embarqués dans le même vaisseau. Deux ans plus tard c’est donc sans surprise que cette photo mythique fera la une du premier numéro du Whole Earth Catalog (WEC), revue qu’ils créeront et qui deviendra la bible de la contre-culture américaine et internationale. Le WEC va être le point de jonction entre l’architecture et la pensée cybernétique. Il est organisé en sept sections (Comprendre les systèmes d’ensemble/Abris et utilisation du terrain/Industrie et artisanat/Communications/Nomades/Apprentissage) et se présentent comme un grand catalogue de vente par correspondance à propos de tout ce qui à trait à la contre-culture. Dans le WEC, on trouve tout autant des plans pour fabriquer un poulailler ou des habitats légers, que des articles de Nobert Wiener ou de Gregory Bateson, des manuels d’autoconstruction que des éloges de l’ordinateur individuel. Fred Turner a montré tout ce que la cyberculture des GAFAM doit au WEC et à Stewart Brand, qui fut aussi le fondateur d’une des premières communautés en ligne, le WELL (Whole Earth ‘Lectronic Link). Steve Jobs ne l’a pas oublié, lui qui déclarera en 2005 à Stanford : “Quand j’étais jeune, il y avait une extraordinaire publication, le Whole Earth Catalog , qui était l’une des bibles de ma génération... C’était une sorte de Google en livre, 35 ans avant que Google n’existe”
LUND2021g
Le « bon sens » de la numérisation
Le « bon sens » de la numérisation. Ou le nassage des possibles, in Lundi matin, #288, 17 mai 2021, https://lundi.am/Le-bon-sens-de-la-numerisation
LUND2021g.1
Cf. Lundi matin, Le « bon sens » de la numérisation, op. cit. : La tendance dominante depuis le début de l’épidémie est d’avoir promu la numérisation de nos activités comme un geste solidaire de distanciation. Solidaire parce que réduisant les possibilités de contagions tout en permettant la continuité des activités. Dans cette intrication, ce qui m’intéresse ici c’est cette évidence de la continuité du travail comme valeur fondamentale, de la continuité de la production de valeur économique, de la continuité pédagogique, etc. par les biais des technologies numériques. On a vu presque sans états d’âmes ni résistances relayées des services monopolistiques comme Google ou Microsoft Teams s’inviter dans les universités et administrations publiques, mais aussi au niveau du tissu associatif qu’il soit explicitement militant ou non. Les moyens numériques assurant la continuité des activités se présentent comme “disponibles” de manière quasi salvatrice puisque, justement, ces dispositifs permettent l’absence de contacts physiques. Quant à leur implantation via des firmes dont le bien public et la santé d’autrui n’est certainement pas la priorité, on pourrait nous répondre que des tentatives plus “libres” ont eu lieu. Certes, minoritaires, mais soit. Néanmoins cette réponse ne nous désengage pas d’une acceptation sine qua non du solutionnisme technique. L’usage du “libre” a des effets matériels non négligeables comme capacité de contournement des grands groupes économico-numériques, mais il ne nous désengage pas de la forme même de la solution qui en vient à s’imposer à nous comme une évidence non interrogée. Je pense principalement ici au secteur de l’éducation populaire dont le maître-mot est celui de l’émancipation par transmissions des savoirs. Le caractère d’évidence du choix du numérique comme solution pour “tout continuer comme avant” (et c’est bien cela la catastrophe nous chuchote à l’oreille Benjamin) va selon moi à l’encontre de cet objectif. Il ne s’agit pas d’être sommairement contre un usage du numérique, mais de remettre en perspective l’évidence dépolitisante de son intégration.
LUND2021g.2
Cf. Lundi matin, Le « bon sens » de la numérisation, op. cit. : À l’aube du premier confinement, Tyler Reygeluth et Thomas Berns [https://plus.lesoir.be/291810/article/2020-04-02/lenseignement-distance-et-la-question-de-la-technique.] adressaient dans une carte blanche la question du lien entre technique et transmissions de savoirs. Ce problème se posait d’autant plus que la continuité pédagogique se présentait comme allant de soi car rendue possible/permise par l’introduction massive de moyens numériques via les écoles et de facto dans les foyers. Ces moyens (en fait la présupposition que chacun et chacune dispose d’un ordinateur et d’une connexion wifi qui permette en retour l’installation systématique de logiciels d’e-learning et de télécommunications groupées) en autorisant la continuité des activités permettaient de minimiser l’effet de la crise et bloquait toute perspective plus radicale ou du moins même ses problématisations. Le numérique se présente alors comme la réponse “déjà construite” à une question qui la présuppose. Ou pour le dire autrement, la réponse précède la question. Il n’y a pas eu ici de problème qui exige de nous des articulations et qui puisse nous rendre collectivement intelligents face à un événement. Alors que le problème nous rend collectivement intelligents, nous active, la question dont la solution est déjà donnée nous canalise, nous met des ornières et présuppose une réalité déjà là. La différence entre poser un problème et poser une question dont la réponse est déjà donnée rejoue la différence entre ce que Stengers pourrait appeler le probable contre le possible. Le probable présuppose une réalité construite sur des modèles préexistant un événement et nous enfonce dans un seul monde possible, un monde possible déjà là dont il suffirait d’actualiser, de rendre réel les caractéristiques. Les dispositifs numériques sont disponibles, un événement exige de nous une réponse, et plutôt que de mettre en tension cet événement dans toute l’opacité qu’il comprend, présupposer une solution nous dépossède. N’était possible que ce qui est déjà devenu réel. Le probable ressemble au réel qu’il anticipe : “C’est dire qu’on se donne un réel tout fait, préformé, préexistant à lui-même, et qui passera à l’existence suivant un ordre de limitations successives. On s’est déjà tout donné, tout le réel en image, dans la pseudo-actualité du possible” [Deleuze, Le Bergsonisme, PUF, p. 101]. En présupposant une réponse déjà disponible à un problème nous avons été agit comme un élève est agit par la question (bête) d’un maître d’école qui n’exige de nous aucune invention. Nous n’avons désormais prise uniquement sur ce qui est déjà établi. Alors que la pandémie dans ce qu’elle avait d’objectif faisait office d’événement, se posait à nous sous la forme d’une terrible épreuve à laquelle nous aurions eu à répondre collectivement dans toutes les transformations que cela implique, ce qui a été confirmé c’est la réponse déjà posée. “Technology is the answer, but what was the question?”. Comme si le problème avait déjà été posé, comme si il n’y avait pas ici et maintenant même la possibilité de quelque chose de nouveau qui pouvait avoir pour nous, en tant que collectivité, une importance nouvelle. Dans de telles circonstances, ce qui aurait pu faire bifurcation est confisqué. L’événement a été “préjugé” et c’est cet état, de préjugement, de confiscation de la nouveauté comme possibilité de poser un problème nouveau que Deleuze caractérise comme “un préjugé social, dans l’intérêt visible de nous maintenir enfants, qui nous convie toujours à résoudre des problèmes venus d’ailleurs […]” [Deleuze, Différence et Répétition, p.205.].
LUND2021h
La violence (de l’) informatique
La violence (de l’) informatique. Jonathan Beller, The Message is Murder, Substrates of Computational Capital [note de lecture], Jacques FRADIN in Lundi matin, #290, 31 mai 2021, https://lundi.am/La-violence-de-l-informatique
LUND2021h.1
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : Nous retiendrons ce terme de “culture digitale” pour englober la numéricisation, depuis la comptabilité jusqu’aux films numériques, l’informatique, et ses machines à calculer, tous les nouveaux médias avec les réseaux sociaux, le cinéma avec sa distribution “en ligne”, tout ce qui tourne autour de la calculabilité ou des fameux algorithmes. Le pouvoir des algorithmes qui n’est que l’expression actuelle du pouvoir capitaliste, par la comptabilité, la statistique, les calculs prévisionnels et donc “la finance”.
LUND2021h.2
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : La numéricisation est considérée, à tort, comme “une simple technique” (et un progrès technique) ; mais il n’y a jamais de “technique simplette” ou “neutre”. L’informatisation massive (les machines à calculer, les computers, et les calculs extensifs “sur tout”) est et n’est que l’extension et le renforcement de la colonisation économique la plus ancienne ; l’informatisation est donc le prolongement de la réduction économique au nombre, au compte et à la monnaie ; la culture digitale est ainsi une culture de la violence, du fait de son développement même, de “son origine” (“archéologique”) économique (avec les machines à statistiques et les computers qui sont des machines comptables – décrypter le sigle IBM).
LUND2021h.3
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : Dès que l’on est capable de comprendre que l’informatisation, ou la digitalisation, n’est que la continuation de la colonisation économique, avec les mêmes moyens, ceux du calcul, moyens “algorithmiques” (ou de programmation) que l’on trouve déjà derrière la mesure valeur, la valorisation, l’évaluation, les calculs financiers, les statistiques, la monnaie, etc., alors il est facile d’appliquer à l’informatique la critique développée pour montrer que l’économique est une formation disciplinaire. La critique de l’informatique est un prolongement de la critique de l’économie ; dès que cette critique de l’économie arrive à montrer que le capitalisme (considéré ordinairement comme “système économique”) n’est qu’un sous ensemble des “formations de souveraineté” (ou de domination) ; c’est-à-dire dès que l’on arrive à penser politiquement le capitalisme.
LUND2021h.4
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : L’informatique et la culture digitale n’ont rien à voir avec “la liberté” (qui n’est pas un problème technique !) ; mais ont tout à voir avec les méthodes policières du despotisme économique. L’informatique doit se penser en termes de despotisme et non pas de “libération”. Autant qu’il est possible d’analyser l’économie comme un système politique despotique, il est possible d’analyser l’informatique, ce prolongement renforcé de l’économie (et de tous ses calculs), comme une formation despotique, excluante et disciplinaire. La numéricisation est un processus meurtrier qui redouble la violence de l’économie. Ne pensons, d’abord, qu’aux publicités intrusives, qui seraient impossibles sans toutes les techniques informatiques. La numéricisation, en tant que processus meurtrier, est l’envers de violence extrême de toute rationalisation (ou de la rationalité que l’on attribue au calcul) ; tout progrès de la civilisation (attribué à la calculabilité automatique) est identiquement constitué par une série d’actes barbares.
LUND2021h.5
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : L’informatique (et ses réseaux communicationnels) n’est pas seulement “mobilisée” pour la cause consumériste ; c’est son origine économique de conscription comptable qui destine l’informatique à être au centre des mensonges commerciaux ; puisque sa finalité économique est le contrôle (une extension de la comptabilité, qui est déjà contrôle, compte rôle, rôle comptable). Toujours lier informatique et comptabilité ; et les dérivés, comme la statistique. Il existe peu d’ouvrages importants d’analyse critique de la dite “culture digitale” ; c’est-à-dire de la numéricisation intégrale et de la calculabilité extensive que cela permet (la réduction à des comptes). “Le numérique” déploie son emprise sur toute chose, “rendue numérique”, calculable et intégrable dans un système informatique de calcul automatique de cette information numérisée.
LUND2021h.6
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : Repartons d’un point technique essentiel, d’un point mathématique : Un nombre est une classe. Numériciser, dénombrer (dans N), mesurer (dans R ou autre), évaluer, etc., implique d’établir des classements ou de constituer des classes. D’imposer une organisation “topologique”. Mesurer ou classer est une opération mathématique qui se déploie en ordre politique, qui se projette en structure hiérarchique ou d’ordre. Mesurer, évaluer, estimer numériquement ou quantitativement, “rationaliser”, rendre à la raison, exige de constituer des différences, différences hiérarchisées ou ordonnées. Constituer des différences (“graduables”) implique des séparations, des exclusions, implique d’établir un ordre, d’imposer l’inégalité. Une machine à différences ou à différenciations, une machine politique inégalitaire, voilà ce qui constitue la matérialité politique de l’informatique. Numériciser est une opération politique (à l’origine même du despotisme) ; l’extension de la numéricisation, par l’informatique, correspond à un “approfondissement” du despotisme (comment faire “tenir” des milliards d’humains ? – l’informatique apporte la solution à la surveillance individualisée de ces milliards de personnes). La numéricisation est “la technique politique” la plus archaïque ; celle qui correspond à la constitution de “populations” gérables, quel que soit leur masse (alors qu’il souvent imaginé que “le grand nombre” libère ou rend anonyme, l’informatique permet de résoudre cette malheureuse difficulté, pour les pouvoirs). L’informatique est lié au contrôle total ; à la chinoise ou façon américaine. Il faut donc toujours penser l’informatisation comme une opération politique violente d’exclusion ou de classement.
LUND2021h.7
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : Le capitalisme de la calculabilité universelle entraîne et exige une modification de toutes les représentations et de toutes les identités et recompose l’ordre social (à son profit) autour de la culture numérique qui n’est que l’expression actuelle de la comptabilité désinhibée. Recomposition des représentations : donner un prix à un paysage ou à un lieu “sacré”, donner un prix à un club de dissidents désormais vu comme une marchandise touristique – allez voir les Zapatistes in situ ; et en autobus climatisé. Recomposition des identités : l’auto-entrepreneur ubérisé et contrôlé à distance, qui “gère” sa vie et ses amours sous “le regard” des caméras. La puissance des thèses de Jonathan Beller permet à notre auteur de relire Borges avec Turing (et vice versa), Shannon avec Hitchcock (la psychose, cet état endémique du monde de la culture numérique, “où tout devient possible”, puisque tout est calculable – au sens vulgaire de ce mot : visible, moyennant péage
LUND2021h.8
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : L’apparition puis le développement de l’information, de l’informatique, doit toujours être pensée comme une extension de la quantification comptable qui arme le capitalisme ; la culture numérique n’est qu’une maximisation du “mode de vie” imposé par le capitalisme, depuis “la découverte” de l’Amérique (la ruée vers l’or !) et depuis que la colonisation meurtrière est la véritable infrastructure de l’économie. Le glissement progressif, au 20e siècle, de la forme “travailleur soldat” à la forme “touriste consommateur” n’a été rendue possible que par la direction générale de l’information en termes d’hégémonie culturelle. L’abstraction (réalisée) a franchi une nouvelle étape (anticipée par Baudrillard) qui permet la mécanisation de la pensée (voir Stiegler) et la réduction des philosophes au chômage technique. Mais, encore une fois, cette abstraction, la généralisation du calcul et de “la puissance de calcul”, n’est pas une invention de l’économie numérique : il n’y a pas de nouvelle révolution industrielle, il n’y a qu’une extension “évolutive” de cette puissance de calcul. L’abstraction et sa progression (supposée progressiste) est consubstantielle au capitalisme (et au despotisme) dont une définition pourrait être justement “le calcul”, mesure valeur, comptabilité, monnaie, finance. Depuis longtemps le calcul dirige les usines. Il est maintenant l’usine elle-même. De même qu’il faut penser la société en termes “d’usine universelle”, il faut penser l’usine, “l’usine nouvelle”, en termes informatiques ou de programmation ou de planification. Dont le fameux capitalisme de plateforme donne un exemple (mais seulement un exemple). Si donc la société est une usine et l’usine un computer, la société “nouvelle” doit se penser en termes de programmation ou de réseaux, cependant automatiques.
LUND2021h.9
Cf. Lundi matin, La violence (de l’) informatique, op. cit. : La culture digitale est construite sur la base matérielle de la domination d’un capitalisme ancien, colonial ou impérialiste (le lien de l’informatique à la guerre est tellement évident que nous ne l’avons même pas mentionné – il faudrait un livre entier pour analyser l’aspect militaire de l’informatique, cet aspect “impulsif”). L’informatique est un produit impérialiste ; même, et surtout, lorsqu’il est capté par la Chine. La violence “archéologique” de la mesure (valeur) est inscrite dans l’architecture “logique” des machines à calcul ; cette violence est projetée, médiatiquement (“médiologiquement”) dans les corps, différenciés ou racialisés, et modèle les esprits pour la défense de l’inégalité.
LUND2021i
Penser ce qui nous arrive avec Vilém Flusser
L’immunité, l’exception, la mort, 4/4. Penser ce qui nous arrive avec Vilém Flusser, Olivier CHEVAL, in Lundi matin, #303, 6 septembre 2021, https://lundi.am/L-immunite-l-exception-la-mort-4-4
LUND2021i.1
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Le passe sanitaire n’est pas d’abord, contrairement à ce que son nom semble indiquer, un dispositif sanitaire : il prive les non-vaccinés d’accès à certains lieux parmi les plus spacieux et les plus ouverts, comme les terrasses et les musées, pour contraindre leurs moments de convivialité à l’étroitesse des espaces domestiques, alors qu’il a été depuis longtemps établi que le covid-19 était une maladie qui se contractait par concentration d’aérosols dans les intérieurs petits et clos. Le passe sanitaire est d’abord un dispositif sécuritaire, carcéral et stratégique : il est le nom de notre plus grande défaite politique de ce début de siècle. Sa mise en place intervient après l’instauration du bracelet électronique comme mesure judiciaire en 1997 et la délivrance de passeports biométriques depuis 2009. À la suite de ces deux objets nouveaux et pourtant désormais banalisés, au sens où personne dans le débat public ne propose plus leur abolition, il participe à identifier l’individu à un code numérique ; à lier sa liberté de mouvement à ce qui est inscrit sur ce code ; à délier cette contrainte d’une mesure judiciaire, pour que chacun soit traité comme un criminel ou un danger potentiel — une bombe bactériologique, désormais. La grande perversité néolibérale du passe sanitaire est qu’il incite chaque citoyen à réclamer son code, par un acte libre, une prise de rendez-vous sur internet le plus souvent, quand personne n’avait encore jamais réclamé la pose d’un bracelet à sa cheville. La grande violence autoritaire du passe, elle, est qu’il transforme un bon million d’individus, ouvreurs de cinéma, serveurs de restaurants, propriétaires de bars, surveillants de musée, caissiers de piscines, organisateurs de fêtes de village, en enregistreurs de codes-barres, en vérificateurs d’identité numérique — en un prodigieux contingent de police 2.0.
LUND2021i.2
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : on pourrait dire que Flusser est le phénoménologue d’un monde où l’expérience s’est en grande partie réduite à être une lecture d’interfaces, ou bien, c’est la même chose, qu’il est le commentateur obstiné, le continuateur et le critique d’un texte majeur de Martin Heidegger : “La question de la technique”. C’est dans cet essai que le philosophe allemand a proposé sa célèbre thèse de l’arraisonnement du monde par la technique moderne. Ce que postule Heidegger, c’est que de l’outil à la machine, de la technique artisanale à la technique motorisée, il y a une révolution ontologique : le champ dont prend soin un paysan qui l’entoure de haies n’est pas le même champ que la surface dont un exploitant agricole extraie les ressources naturelles ; le fleuve que traverse un pont n’est pas le même fleuve que le fleuve dont la centrale hydraulique tire de l’électricité. De l’un à l’autre, ce qui change, c’est que la technique moderne s’intéresse à la nature — air, eau, bois, terre, roche — en tant qu’elle est un stock d’énergie à extraire et à stocker — le vent s’efface comme phénomène, le champ disparaît comme lieu, le fleuve cesse d’être cet objet face à nous qui sillonne le paysage, pour chaque fois se révéler comme “fonds”, une masse intégralement disponible au calcul, à l’extraction et à l’accumulation. La technique n’est pas seulement l’indice de la raison instrumentale de l’homme : elle est un certain mode du dévoilement du monde, obtenu par ce que Heidegger appelle une interpellation ou une provocation faite à la nature de se révéler comme fonds. Ce dévoilement “a lieu lorsque l’énergie cachée dans la nature est libérée, que ce qui est ainsi obtenu est transformé, que le transformé est accumulé, l’accumulé à son tour réparti et le réparti à nouveau commué”.
LUND2021i.3
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Heidegger répond alors à une objection imaginaire : la centrale hydraulique qui se nourrit du Rhin empêche-t-elle qu’un fleuve demeure, celui-là même que chantait Hölderlin, et qu’on aille encore l’admirer ? “Soit, mais comment le demeure-t-il ? Pas autrement que comme un objet pour lequel on passe une commande, l’objet d’une visite organisée par une agence de voyages, laquelle a constitué là-bas une industrie de vacances”. Alors le texte est traversé par l’ombre d’une intuition aussitôt écartée : et si par la technique moderne, c’était l’homme qui était révélé comme fonds, c’est-à-dire comme énergie libérée, obtenue, transformée, accumulée et commuée ? “La façon dont on parle couramment de matériel humain [et plus encore aujourd’hui de ressources humaines], de l’effectif des malades, le laisserait penser”. S’ensuit un chemin retors et sinueux, l’un de ceux qui ne mènent nulle part : le garde-forestier qui croit suivre l’exemple de son grand-père est en fait, malgré lui, commis par l’industrie du bois désireuse de cellulose ; celle-ci est elle-même provoquée par la demande de papier de l’industrie de la presse, pour les journaux ou les magasines illustrés ; “ceux-ci, à leur tour, interpellent l’opinion publique, pour qu’elle absorbe les choses imprimées, afin qu’elle-même puisse être commise à une formation d’opinion dont on a reçu la commande”. Le “on” reste mystérieux, indéterminé, alors qu’il semblait porter une charge politique devant laquelle Heidegger recule, et le chemin bifurque immédiatement : parce que dans la technique le monde se révèle d’une certaine manière à l’homme, se dévoile comme fonds, l’homme demeure le sujet de ce retrait de l’objet, et par là n’est jamais “un pur fonds”.
LUND2021i.4
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Le livre de Flusser essaie de reprendre la pensée de Heidegger au temps de la cybernétique. Et de comprendre comment l’appareil, qui prend aujourd’hui le relai de la machine, est précisément la technique qui transforme l’humain en fonds. Heidegger l’avait pressenti, la santé est le premier endroit où ce risque se présentait. Flusser entérine l’intuition : “la médecine est le grand scandale du présent”. C’est qu’elle n’a jamais été une science dure : elle a affaire à un sujet, le malade, qui n’est pas de la matière inanimée offerte à tous les calculs. Mais comme toutes les sciences molles, comme l’économie statistique ou la politologie, elle est en proie à son durcissement par la quantification informatisée. C’est au moment où le malade devient un objet, et le contingent de malades un fonds, que la vie cesse d’être pensable, et qu’une bascule épochale a lieu.
LUND2021i.5
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Au temps des microfiches, du lancement du minitel et des formulaires à remplir en majuscules dans des cases carrées, Flusser est comme le premier spectateur du surgissement d’un monde qu’il semble mieux voir que nous, trop aveuglés que nous sommes par la lumière de nos écrans — il prophétise la numérisation du monde à venir comme si elle avait déjà eu lieu devant ses yeux. Le monde préindustriel avait inventé l’outil, le monde industriel a inventé la machine, le monde post-industriel aura inventé l’appareil ou le gadget, c’est-à-dire le programme. À chacune de ces techniques son ontologie, son éthique, sa politique. L’outil était au centre d’un monde paysan et artisan où la nature était un cosmos animé dont il fallait prendre soin, où le peuple était un troupeau qu’il fallait guider, où le temps était fait de cycles dont on attendait patiemment le retour, où la vie était tracée par le destin, où l’action valait par la finalité qu’on lui donnait. La machine avait signé l’entrée dans un monde inanimé et causal, le monde étendu de la matière et de la production, du travail à la chaîne, de la liberté politique et de la possibilité de la révolution. L’ontologie programmatique qu’invente l’appareil, telle qu’elle se laisse deviner dans les arts, dans la science, dans la politique, est l’entrée dans un monde formel, multiple et plat dont a suspendu cause et fin : il n’existe plus qu’une surface de virtualités trop nombreuses pour être calculables, et qui se réalisent donc selon une nécessité qui ne peut que prendre l’aspect du hasard, comme le donnent à voir le collage dadaïste, la théorie du big-bang ou la gouvernance par la statistique. “Une telle ontologie programmatique a suscité l’invention d’ordinateurs et d’instruments intelligents. Elle mène à la transformation de la société en système cybernétique composé d’appareils et de fonctionnaires. Les hommes sont programmés pour fonctionner comme pièces d’un jeu symbolique. Ils sont chiffrés et numérotés. Ils deviennent computables dans des statistiques et des cartons perforés. Ils sont programmés d’une manière telle qu’ils acceptent volontiers leur programmation. Le fonctionnaire est un homme programmé, non seulement pour fonctionner, mais aussi pour accepter son fonctionnement. Bien sûr, une telle société post-industrielle n’est pas encore arrivée à son stade de réalisation parfaite. Mais nous avons déjà ses modèles : Eichmann comme modèle du fonctionnaire, Kissinger comme modèle du programmeur”.
LUND2021i.6
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : En matière de pessimisme, Flusser n’a rien à envier à ses contemporains de la théorie critique post-marxiste, à Adorno, à Debord ou à Cesarano. Le pas supplémentaire de Flusser vient de ce qu’il ne croit même plus en l’utilité de la critique : il se contente de décrire et de jouer. En cela il est peut-être plus proche de Borges, de son invention de labyrinthes dont on a perdu la clef, de systèmes dont le mode d’emploi n’a pas encore été inventé, de copies qui ont remplacé leurs modèles. Flusser décrit la société cybernétique gouvernée par les appareils comme l’avancée du hasard dans le vide : un programmeur programme un appareil, puis un autre appareil pour l’aider à programmer cet appareil, et très vite les appareils se mettent automatiquement à en programmer d’autres, se servent de l’humain comme fonds qui nourrit le feedback dont ils ont besoin pour fonctionner, et voilà que plus personne n’a la main dessus. Une bureaucratie se met à fonctionner en vase clos, pour alimenter les appareils et nourrir les statistiques. À la même époque, Duras avait des intuitions très semblables : “La robotique, la télématique, l’informatique, ce sont des progrès qui, à chaque échelon, sont faits une fois pour toutes. Du fait de ce qu’aura fait un seul homme, tous les autres hommes seront privés d’inventer”.
LUND2021i.7
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : L’intellectuel critique n’est jamais qu’un fonctionnaire comme un autre, prévu par le programme : il est cette marge qui se croit rétive au système mais est incluse par lui à son corps défendant, car il produit un feedback plus qualitatif qui amène le système à s’affiner, les appareils à être moins grossiers, moins lisibles, plus subtils. “Si, par hérésie, on conteste le programme de l’appareil, aussitôt pousse, à l’intérieur de l’appareil, un ministère de la contestation. En fin de compte, c’est toujours l’appareil qui satisfait les caprices de toute hérésie à travers l’uniforme qu’il lui dispense. C’est partout que fonctionne automatiquement le totalitarisme de l’uniformisation multiforme. Démocratie libérale.” Pour Flusser, la société cybernétique est par essence apolitique : la fonction a remplacé l’action, une suite d’inputs et d’outputs individuels et appareillés a pris la place du peuple, la politique a été réduite à un programme qui manipule l’opinion en la sondant en permanence. Le seul acte politique qu’envisage encore Flusser — avec l’ironie du catastrophiste — est la désertion. À l’époque on ne parlait encore des bugs.
LUND2021i.8
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Face au mouvement de protestation contre le passe sanitaire, la presse libérale et plus généralement le camp progressiste feignent de ne pas comprendre l’objet de la contestation. Derrière les anti-passe ne se cacheraient que des anti-vax un peu toc toc. Le mouvement serait pourri par le complot, les fake news, par une haine de la science et un conservatisme proto-fasciste. C’est qu’il est très facile de ne pas voir que derrière le complot, il y a le programme. Que derrière les dérives et les excès, il y a une intuition juste. Quelle est-elle, cette intuition ? Qu’une technocratie gouvernementale au service exclusif de la techno-science-économie applique un programme numérique de contrôle comme le font toutes les démocraties libérales, décennie après décennie, sans répit ; que technologie, police et profit avancent continument main dans la main, sans qu’aucun pouvoir ne change la donne, ni même n’ambitionne de le faire ; que le passe sanitaire suit la même logique que la généralisation de la vidéosurveillance, que l’instauration du passeport biométrique et du bracelet électronique, celle d’une numérisation de l’espace public visant un accroissement de la surveillance du peuple et de l’administration de la vie ; qu’il signe l’inscription sur la longue durée de toutes les mesures d’exception prises depuis un an et demi, l’entrée de l’état d’urgence sanitaire dans la loi.
LUND2021i.9
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Le génie de Heidegger a été de montrer que technique et ontologie sont indiscernables : qu’il n’y a pas d’abord la science de la nature qui se met à transformer les objets en surface de calcul, ensuite la technique qui met à profit ces avancées scientifiques en les appliquant, enfin un monde qui s’en trouve changé. Non, il y a d’abord l’arraisonnement du monde comme nouvelle manière de se rapporter à l’être, et cet arraisonnement irrigue la science et la technique dans le même mouvement. Il faut d’abord commencer à avoir l’intuition de l’espace étendu, de la nature comme ressource illimitée, pour avoir l’idée de mesurer des quantités ou d’exploiter des surfaces. Le génie de Flusser a été de pousser cette intuition jusqu’à la nouvelle bascule ontologique du siècle dernier : jusqu’à l’arraisonnement de l’humain. Tous les deux disent combien les anti-tech se trompent tout autant que les technophiles les plus zélés : il n’y a pas de technique à récuser comme un domaine dont on pourrait se passer, qu’on pourrait récuser, et tout serait réglé. Toute critique de la technologie ne peut faire l’économie du régime de rationalité qui a fait naître ces technologies : c’est ici que la difficulté naît. L’arraisonnement de l’humain par la quantification informatisée est monstrueuse, mais elle n’est pas délirante : elle est même le seul régime de rationalité que nous connaissons, que nous n’ayons jamais connus, nous qui sommes nés lors du siècle dernier. Le procès en irrationalisme mené par les médias contre les manifestants est superficiel : il s’arrête à recueillir la parole de quelques zinzins pour nourrir la propagande libérale. C’est pourtant là où le sol se dérobe sous nos pieds : quand nous disons que l’instrumentalisation de la technologie à des visées politiques nous effraie, nous disons une vérité qui est aussi un impensable. On ne saurait pas dire ce qui existerait à la place de cette technologie, ou ce qu’on pourrait en penser si nous n’existions pas dans cette ontologie programmatique. Cet impensable est aussi vertigineux que cette pensée d’une existence de programmes autonomisés – autre impensable qui met en péril la pensée, et qui conduit immanquablement certains à chercher qui est derrière les programmes. Dans ce vertige, dans ce défaut de la raison, le mouvement sera toujours pris à défaut – c’est par là que le programme, qui est rationalité pure, va se défendre coûte que coûte. C’est par là que le système va contre-attaquer, par le biais de ses fonctionnaires les plus zélés, les vérificateurs de faits pour qui la vérité est une somme de véridicités vérifiables auprès des ministères émetteurs d’informations vraies.
LUND2021i.10
Cf. Lundi matin, Penser ce qui nous arrive avec Vilém Flusser, op. cit. : Il ne faut pas passer à côté de cette chance nouvelle, celle de giletjauniser le mouvement anti-passe, et de faire de l’opposition à la numérisation du contrôle de la vie la chance d’un bug, même minime, dans le programme en cours.
LUND2021j
De la cybernétique à l’informatique ubiquitaire
De la cybernétique à l’informatique ubiquitaire, in Lundi matin, #305, 20 septembre 2021, https://lundi.am/De-la-cybernetique-a-l-informatique-ubiquitaire
LUND2021j.1
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Pour remonter le cours de l’histoire de l’informatisation et des nouvelles technologies, on revient en guise de préambule aux premières machines à calculer de Pascal et Leibniz pour ensuite faire un tour par Babbage et Lady Lovelace avant d’arriver à Türing et à la Seconde Guerre mondiale. C’est cette dernière qui est considérée comme le vrai décollage de l’automatisation du traitement de l’information (informatique) puisque c’est au travers de l’effort de guerre que sont développés à la fois les premiers ordinateurs selon les principes de J. Von Neumann (qui donne toujours son nom à l’architecture des machines que nous utilisons aujourd’hui) mais également les concepts d’information (notamment chez Shannon en 1948) et de cybernétique (chez Wiener également en 1948). Après ces débuts militaires, on nous explique en général en quoi le développement de l’informatique s’est émancipé en étant réapproprié par toutes sortes de bricoleurs, artistes, libertaires, ingénieurs, de Steward Brand à Steve Jobs, prenant du LSD et s’essayant aux communautés dans le sillage du mouvement hippie. L’ordinateur devient alors un outil d’émancipation personnel. Puis, c’est la mise en réseau de tous les réseaux d’ordinateurs, le partage de l’information à l’échelle planétaire, qui va porter des utopies de connexion, d’horizontalité et de démocratie souvent associées à l’internet. Sans oublier les profits qui vont avec. Ce discours et cette histoire ont été faits, refaits et on vit aujourd’hui l’époque dans laquelle l’utopie s’effondre sur elle-même. Les années 2010 marquent à cet égard un retournement, au moins du point de vue de l’opinion au sens large : Snowden en 2013, Cambridge Analytica en 2016, l’émergence des GAFAM comme sujet historique et économique diabolisé autant que sacralisé, sans parler des conséquences écologiques désastreuses du numérique, etc. Cette tendance récente a aussi été largement documentée.
LUND2021j.2
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Notre ambition ici n’est pas de s’appesantir sur le présent numérique, ni de refaire l’histoire des nouvelles technologies de l’information en insistant sur la manière dont l’information et l’internet auraient pu nous libérer si on avait suivi tel chemin plutôt que tel autre. Il s’agit plutôt de tracer une autre ébauche de généalogie du monde numérique, en se focalisant sur des évolutions conceptuelles et techniques éclairées d’une lumière différente. On prendra pour point de départ la cybernétique et on suivra son évolution dans le programme de l’intelligence artificielle. On s’arrêtera ensuite sur les critiques philosophiques adressées à l’intelligence artificielle par un certain Hubert Dreyfus lecteur de Heidegger puis surtout à la manière dont elles ont été intégrées dans le champ même de l’informatique, notamment par Terry Winograd et Fernando Flores. On s’intéressera alors aux conséquences pratiques de cette critique de la tradition rationaliste, dont on verra qu’elle est à l’origine de certaines branches du design, puis de l’informatique ubiquitaire chez Mark Weiser mais aussi, indirectement, de Google. Nous devons à Alexandre Monnin et Harry Halpin d’avoir mis en lumière cette généalogie originale d’une des tendances importantes en informatique dans un article de 2016 sur Carnap et Heidegger duquel nous tirons la plupart des références exposées ici [Voir Harry Halpin et Alexandre Monnin, ‘The Decentralization of Knowledge’, First Monday, “Reclaiming the Internet” with distributed architectures, 21.12 (2016)]. L’article étant en anglais et destiné surtout à des spécialistes, il nous a semblé opportun de le reprendre (surtout la seconde partie) en insistant toutefois sur des points différents. L’idée principale qui guide cette généalogie est le passage d’une perspective centrée sur les machines (les ordinateurs) avec les fantasmes qui vont avec (notamment celui d’une intelligence artificielle) à la perspective de la relation entre humains et machines. Quoique plus éloignée des projecteurs médiatiques, les implications pratiques et politiques de cette perspective sont nombreuses et méritent d’être relevées.
LUND2021j.3
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : L’un des intérêts de ce parcours est de couper l’herbe sous le pied à une critique trop simpliste du rationalisme occidental, qui dirait “Voyez ce monde de machines et d’ordinateurs, entièrement gouverné par la froide raison calculatrice où l’esprit se sépare du corps, revenons plutôt à notre sensibilité animale, relions-nous aux autres espèces et au monde qui nous constitue et nous trouverons alors les clés de l’émancipation”. Malgré la caricature, on ne doute pas que de nombreux lecteurs se reconnaissent de près ou de loin dans ces mots. Nous essayons ici de montrer qu’à partir des années 70, plusieurs informaticiens ont déjà intégré cette critique du rationalisme et œuvrent justement à réinventer le rôle des machines et leur lien avec les humains. Nous faisons ainsi le pari qu’en percevant plus subtilement ce qui se joue derrière le déploiement technologique contemporain, on évite de tomber dans les critiques déjà largement incorporées par les ingénieurs qui le mettent en œuvre. Espérons que cela nous aide ensuite à faire d’autres usages de la technique et, pourquoi pas, faire dérailler les machines.
LUND2021j.4
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le mot “cybernétique” en lui-même aurait été pour la première fois utilisé par Ampère en 1834 pour désigner “la science du gouvernement des hommes” mais il semblerait que personne n’ait reconduit après lui cet usage. Néanmoins, en la définissant ainsi, il colle à la racine grecque du mot, qui désigne tantôt le gouvernail d’un navire, tantôt le fait de le piloter, ou de le gouverner. Mais c’est en général en 1948 qu’on fait remonter le début de la cybernétique telle qu’on la connaît aujourd’hui, dans un livre de Norbert Wiener intitulé Cybernetics, or Control and Communication in the Animal and the Machine (traduit par La cybernétique, information et régulation dans le vivant et la machine). Wiener précise d’emblée la racine technique (gouvernail) et gouvernementale du mot cybernétique, sans toutefois se référer à Ampère, qu’il n’avait pas lu. Au moins trois grandes notions sont importantes ici : le contrôle (ou régulation, commande ou rétroaction, feedback) ; la communication (ou l’information) ; le fait de prendre ensemble l’animal et la machine.
LUND2021j.5
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le contrôle d’abord. Il ne faut pas d’emblée y entendre le gouvernement des humains, mais plutôt le fait de pouvoir réguler, commander le fonctionnement d’une machine. L’idée fondatrice de Wiener et de ses collègues, c’est d’analyser le fonctionnement même du comportement (machinique, animal ou humain) en terme d’intention (ou de but) et de contrôle. Si l’on se demande par exemple comment une main se saisit d’un verre d’eau, il n’y a pas lieu selon lui de décortiquer l’ensemble des muscles et des mouvements mis en branle pour réussir l’opération : ce serait trop compliqué, voire impossible dans certains cas. Mieux vaut alors prendre en compte le but d’une part, ainsi qu’une mesure de la différence entre l’état présent et le but visé (la marge d’erreur en somme) d’autre part. C’est d’abord cela, le contrôle : la prise en compte et la minimisation de l’erreur en fonction d’un but. Tant que notre main n’a pas attrapé le verre d’eau, nous continuons notre mouvement. Ou, pour une machine, si elle ne va pas assez vite, des mécanismes sont censés l’accélérer, et inversement si elle va trop vite il faut trouver un moyen de la freiner. La “découverte” de cette façon particulière de raisonner s’est faite chez Wiener travaillant sur les canons anti-aériens durant la seconde guerre mondiale : il s’agissait alors de minimiser l’écart entre la prédiction de la position de l’avion ennemi et sa position réelle, afin de pouvoir l’abattre lorsque cet écart était nul. Cette approche peut sembler banale mais c’est de là que vient l’obsession de la cybernétique pour le feedback, autre nom du contrôle : a-t-on atteint les buts fixés ? Comment modifier notre action pour les atteindre ? Cette notion se répandra dans la suite du XXe siècle dans bien des domaines : économie, gestion, management, coaching personnel, ingénierie, publicité, réseaux de neurones, notation généralisée, etc. Évidemment, cela a lieu bien au-delà du domaine de la cybernétique : son rôle est d’avoir approché la rétroaction de manière technique et conceptuelle.
LUND2021j.6
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Vient ensuite l’information. La notion a de nombreuses racines, mais on peut se contenter de mentionner son émergence scientifique ou technique ainsi que son rapport avec le contrôle. L’article fondateur de la théorie de l’information, - ou plutôt, au départ, de la communication -, est celui de Claude Shannon en 1948 “Une théorie mathématique de la communication”. Sans rentrer dans les détails, la notion d’information, - en bonne partie issue des recherches en télécommunication et notamment en cryptographie lors de la Seconde Guerre mondiale -, désigne en gros la quantité d’ordre présent dans un message lorsqu’on connaît les propriétés de la source qui émet ce message. Ni sens ni matière ni énergie, l’information est une réalité originale, forgée théoriquement mais également au sein d’un univers technique. Une nouvelle unité est créée, le bit, pour binary digit, soit nombre binaire, pour pouvoir quantifier l’information (les fameux couples de 0 et de 1). L’enjeu pour la cybernétique, c’est que l’information et sa transmission sont justement les clés qui permettent de connaître l’état d’une situation, de le transmettre et ainsi d’activer ou non des mécanismes de contrôle, de feedback, dans un sens ou un autre, afin que tel système atteigne tel but. Pas de contrôle, donc, sans information.
LUND2021j.7
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Enfin, l’homogénéité entre l’animal et les machines. Toute la force de la cybernétique vient de là : des mécanismes qui traitent de l’information et minimisent les marges d’erreurs sont censés être présents partout dans la nature mais également dans les machines. L’important ici n’est pas tant que cela soit vrai ou non, mais le fait que l’on se mette à analyser de cette manière les comportements, aussi différents soient-ils. Peu de temps après les premiers succès de la cybernétique, la biologie moléculaire parlait de l’ADN comme d’un programme qui transmet des informations de génération en génération, informations qui déterminent une grande partie de notre constitution physique. Aujourd’hui, des outils informatiques permettent de reproduire des séquences génétiques pour ’coder’ telle protéine se trouvant sur tel virus afin de déclencher une réponse immunitaire en l’absence du virus en question.
LUND2021j.8
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Voici pour les choses les plus connues, jamais inutiles à rappeler. Reste que l’on s’intéresse souvent moins au fond métaphysique de l’affaire. Et ici, ce n’est pas chez Wiener, ni même chez Shannon, mais plutôt du côté de Warren McCulloch, un neurologue écrivant à la même époque qu’il faut aller chercher. Certains disent qu’il fut d’ailleurs l’éminence grise du mouvement cybernétique puisque c’est lui qui organise les conférences Macy (entre 42 et 53, elles regroupaient les principaux tenants de la cybernétique). Chez lui, il est très clair que cette dernière a une vocation philosophique : celle de mettre à jour les secrets de l’esprit humain, dont les religions et les philosophes n’ont jamais su dire quelque chose de solide jusqu’ici. Fini les arguties métaphysiques et les brouillards théologiques, la cybernétique est là pour indiquer que l’esprit se réduit au cerveau, que la pensée se réalise concrètement via des connexions entre neurones que l’on peut, moyennant quelques arrangements, reproduire à l’aide de circuits électriques. Il expliquait en 1961 : “La recherche du substrat physiologique de la connaissance se poursuivra tant qu’elle ne sera pas complètement achevée, tant, donc, que nous n’aurons pas obtenu de réponse satisfaisante dans le cadre de la physique, de la chimie, de l’anatomie et de la physiologie du système biologique à la question de savoir comment nous connaissons ce que nous connaissons.”. Selon le crédit que l’on y porte, la portée de l’argument est immense : finit les vieilles distinctions corps-esprit, place à un matérialisme d’un genre nouveau où la pensée, l’esprit, peuvent être expliqués et surtout matérialisés dans des circuits (de neurones et, si possible, des circuits électriques). Sachant cela, il conviendrait d’être prudent lorsqu’on s’aventure trop rapidement du côté d’une critique du dualisme propre à l’Occident, de la domination de l’abstraction sur le concret, de la raison sur la sensibilité, etc. : on voit ici combien les cybernéticiens ont œuvré à dépasser l’opposition entre le corps et l’esprit, et ce plutôt dans le sens d’un réductionnisme matérialiste qui voulait anéantir les prétentions de l’esprit à être une substance plus ou moins indéfinissable, immatérielle, séparée, etc.
LUND2021j.9
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Cela dit, il y a des raisons au fait d’associer l’informatique en général à une forme d’abstraction et de rationalisme. Peut-être la cybernétique historique n’en est-elle pas responsable, elle qui prétendait justement matérialiser la pensée. Ce n’est pas le cas du courant de recherche qui se fera connaître à partir de 1956 sous le nom d’intelligence artificielle. Ici, il faut exagérer un peu les distinctions, afin de ne pas tout confondre : les fondateurs de l’intelligence artificielle se dressent en partie contre la cybernétique, même si certains d’entre eux, comme Claude Shannon, ont participé aux fameuses conférences Macy. Certains d’entre eux considéraient que la cybernétique n’était arrivée à rien avec son approche en terme de feedback, et qu’il fallait tourner la page. La page de l’intelligence artificielle consiste à prendre l’ordinateur naissant comme le modèle de la pensée : penser, c’est traiter des informations, c’est calculer à partir de symboles. Surtout, on met alors en place une distinction très forte et désormais classique entre hardware (la partie matérielle, les circuits, les processeurs) et la partie software (le logiciel, la suite des instructions logiques, le programme). Et la spécificité de l’intelligence artificielle est de se concentrer sur la partie logicielle, en faisant l’hypothèse que la machine saura ensuite effectuer les instructions qu’on lui donne si différentes soient-elles. Autrement dit, tout l’effort à faire réside dans les montages logiques, les suites d’instructions et de programmes (le code) que l’on va construire par la force de l’esprit pour les faire réaliser ensuite par la machine. D’où une séparation très forte entre matière et pensée, puisqu’au fond la machine matérielle peut réaliser n’importe quelle instruction logique. Comme si le corps matériel se pliait à toutes les instructions issues du programme (et, de fait, on se mit à créer des programmes réalisant des opérations très différentes avec les mêmes machines). Comme l’écrit Jerry Fodor, “de même qu’un calcul mathématique peut être effectué sur des supports très différents (boulier, machine mécanique ou électronique), on peut dissocier l ’analyse des opérations effectuées des supports matériels (cerveau ou machine) qui le permettent.”
LUND2021j.10
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Les premiers résultats de cette tendance sont par exemple le GPS pour General Problem Solver – rien que ça – de Simon et Newell (1957), qui ambitionne de résoudre tous les problèmes d’une certaine forme ou encore le langage LISP de McCarthy (1958) qui permet de manipuler des listes d’objets très différents, les premiers programmes pour jouer aux échecs et aux dames ou encore Dendral, un système expert capable de déterminer la formule chimique d’une molécule (Feigenbaum, 1965). La plupart du temps, ces applications transforment un état du monde en un symbole, une donnée, à laquelle il font ensuite subir divers opérations de calcul qui aboutissent à de nouvelles données utilisables en fin de parcours. Plus largement, on entre avec les années 50 dans l’ère du cognitivisme, qui, en plus d’avoir trouvé en l’ordinateur le modèle de la pensée, étend son influence dans plusieurs domaines : l’informatique mais aussi les neurosciences, la linguistique, la psychologie, etc. Si ce courant a depuis été partiellement dépassé ou rattrapé par la vague du connexionnisme, cette approche ainsi que les sciences cognitives restent omniprésentes aujourd’hui, tant sur le plan de la recherche fondamentale que sur celui des applications pratiques et politiques. Il faudrait revenir plus longuement sur l’intelligence artificielle, les fantasmes qu’elle a généré, parfois sciemment, mais l’objet de cette généalogie est de voir comment l’informatique a su rebondir à partir des critiques adressées à cette approche.
LUND2021j.11
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Venons-en maintenant à notre point important : dès le départ, plusieurs critiques de la cybernétique puis de l’intelligence artificielle émergent, même si elles sont minoritaires et que la recherche avance sans trop s’en soucier. L’une des plus fameuse n’est autre que celle de Martin Heidegger, le philosophe allemand qui n’a cessé, vers la fin de sa vie, d’épingler la cybernétique comme étant le dernier avatar de la métaphysique occidentale, qui aurait carrément remplacé la philosophie. En plaçant le contrôle et le gouvernement à même les choses, au sein des dispositifs techniques, tout se passe comme si la cybernétique incarnait enfin techniquement un projet de contrôle de la nature et des humains - on reconnaît bien le projet de l’Occident. Autrement dit le pouvoir, autrefois logé dans la religion ou la politique, s’incarne désormais dans les dispositifs techniques, dans la matérialité du monde. Plus généralement, Heidegger attaque aussi la technique et son usage moderne qui aurait trahi sa vocation première, celle de prolonger notre rapport au monde, pour aller au contraire vers un arraisonnement du monde, une manière d’user de la nature comme un stock dans lequel puiser jusqu’à l’épuisement. Mais c’est encore un autre aspect qui nous interpelle dans les charges de Heidegger contre le déploiement technologique de son temps : il déplore l’omniprésence d’une vision du savoir et de la pensée en terme de représentation, de logique et de faits. La modernité occidentale, et notamment la science et la philosophie analytique de son temps, pèchent ainsi par excès de ce qu’il appelle “l’attitude théorétique”, qui désigne le fait de se rapporter au monde via des images censées représenter des collections de faits, puis de disséquer ces images, de les manipuler avec les outils de la logique et de revenir ensuite au monde, supposé tout à fait distinct de ces représentations, pour agir sur lui en agissant sur les faits en question. Tout cela est erroné selon Heidegger : nous sommes d’emblée des êtres-au-monde de telle manière qu’il est en fait impossible de nous en séparer et, pour comprendre quelque chose à nous-mêmes et à ce monde, il vaut mieux partir de notre activité, de l’engagement pratique de notre corps au quotidien, plutôt que de manipuler des catégories logiques.
LUND2021j.12
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Ce sont ces aspects, présents notamment dans Être et Temps et sa première section, que va reprendre un certain Hubert Dreyfus pour attaquer frontalement l’intelligence artificielle dans un livre qui a fait date, paru en 1972 : What computers can’t do (Ce que les ordinateurs ne peuvent pas faire). Avant ce livre désormais classique, le même Dreyfus avait rédigé en 1965 un rapport pour la RAND Corporation, une institution de Recherche et Développement alors au service de l’armée américaine. L’enjeu : plusieurs chercheurs devaient se prononcer pour savoir s’il fallait ou non continuer d’investir dans l’intelligence artificielle. Parmi les différents rapports, celui de Dreyfus marque les esprits d’abord par son titre “Alchimie et Intelligence artificielle”, ensuite par son contenu, qui expose de manière critique les prétentions orgueilleuses de l’IA ainsi que ses limites indépassables. On dit que durant ses années au MIT et suite à cet article, peu de gens oseront s’asseoir aux côtés de Dreyfus à la cantine. Pourtant, aux côtés du “ALPAC report” de 1966 et du “Lighthill report” de 1973, les travaux de Dreyfus font partie des raisons qui déterminent ce qu’on appelle aujourd’hui “l’hiver de l’IA” à partir des années 70, soit la période où les financements s’effondrent et où l’on prend conscience que les premiers espoirs véhiculés par les ordinateurs ne seront pas réalisés aussi vite que prévu. L’approche de Dreyfus, qui comparait donc l’IA à l’alchimie et ses prétentions fantasques de changer le métal (l’ordinateur) en or (l’intelligence), est originale car, avec What computers can’t do, elle se joue avant tout sur un terrain philosophique. Ce qu’il reproche à l’IA des premières années et au cognitivisme en général, c’est de prétendre à l’intelligence tout en se passant des notions de corps et de monde. Et pas seulement de ces notions, mais aussi des réalités qui vont avec. À force de penser qu’un logiciel peut être intelligent, que la logique règle des problèmes, on finit par oublier que l’humain n’est intelligent que parce qu’il a un corps et un monde, ce que n’ont pas les ordinateurs. À partir d’une lecture de Heidegger et Merleau-Ponty, Dreyfus met en évidence l’enchevêtrement entre le sujet humain et son monde : en fait, les deux se constituent mutuellement. Mieux : cette constitution réciproque du corps et du monde n’est pas une opération logique ou théorique, elle est le fruit de nos pratiques quotidiennes, en deçà de toute représentation. Plus techniquement, Dreyfus affirme que le corps est indispensable à l’intelligence, ne serait-ce que parce que c’est grâce à lui que l’on perçoit le contexte de toute situation, de manière plus ou moins instinctive ou inconsciente. Or, il est justement très difficile, voire impossible pour une machine de prendre en compte les éléments de contexte tant ils sont nombreux. Encore plus difficile, sans doute, de parvenir à prendre en compte le contexte tout en lui donnant un statut semi-conscient selon les situations (parfois, notre corps ’sait’ quelque chose, comme par exemple la température de l’air, et adapte sa conduite en conséquence, sans que cela se transforme forcément en une information consciente). Toutes choses que le corps humain apprend à faire sans plan pré-établi, en vivant simplement dans un monde. Ces critiques qui passent pour du bon sens furent d’abord l’objet de sévères attaques de la communauté de l’IA (voir ce que rétorque Seymour Papert, du MIT, à Licklider qui lui apportait son soutien : “I protest vehemently against crediting Dreyfus with any good”). Mais quelques années années plus tard, elles trouvèrent un public et des chercheurs réceptifs au sein même du champ de l’informatique.
LUND2021j.13
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : La reprise la plus connue des thèses de Dreyfus dans le champ de l’informatique est sans doute celle de Terry Winograd et Fernando Flores dans Understanding Computers and Cognition : A New Foundation For Design paru en 1987 (traduit en français par L’intelligence artificielle en question). Bien des choses sont intéressantes dans ce livre, à commencer par ses auteurs. Fernando Flores, d’abord. Ancien ministre de l’Économie sous Salvador Allende au Chili, il a piloté le projet Cybersyn aux côtés de Stafford Beer : un vaste réseau d’ordinateurs censés harmoniser et piloter en temps réel l’économie et la politique chilienne. Emprisonné en 73 après le coup d’État de Pinochet, il est libéré par Amnesty International en 76 et se réfugie aux États-Unis, où il lit Dreyfus, Merleau-Ponty, Heidegger, etc. Après une thèse sur la communication, il devient consultant dans les nouvelles technologies. Précisons également qu’en 2010, il est nommé par Sebastián Piñera, actuel président du Chili, à la tête du Conseil National de l’Innovation pour la Compétitivité. Drôle de retournement historique, si l’on sait que le frère de Piñera (Jose) est l’un des économistes libéraux, membre des Chicago Boys, qui a notamment mis en place la retraite par capitalisation au Chili sous Pinochet. Autant pour Fernando Flores, qui n’hésitait pas, à l’époque, à dédicacer son livre au peuple chilien “pour avoir ouvert de nouvelles perspectives et pour son courage en ces temps difficiles. Il nous a beaucoup appris sur le langage et sur le sens de la vie”. Terry Winograd, lui, est un chercheur américain de Stanford au parcours original. Très tôt surnommé le “Newton de l’informatique”, il a participé avec enthousiasme à la première vague de l’IA en créant le langage SHRDLU qui permettait de “communiquer” avec un petit robot virtuel en langage naturel, par le clavier d’un ordinateur, pour lui faire réaliser un certain nombre d’instructions dans un “micro-monde” composé de formes géométriques de différentes couleurs. Pionnier de l’IA, il ne s’en est pas moins détourné grâce à la lecture de Dreyfus et la rencontre de Flores pour aller vers ce qu’il est convenu d’appeler aujourd’hui l’interaction humain-machine (Human Machine Interaction, HMI) : autrement dit, se concentrer sur les usages pertinents que l’on peut faire des technologies en les prenant dans leur relation avec les humains plutôt que sur la recherche d’une intelligence autonome. Toute sa vie, il a ensuite tenté de réfléchir à la manière dont la technologie peut venir en aide aux humains et nous reviendrons plus tard sur la suite de sa carrière.
LUND2021j.14
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Venons-en au cœur du livre. La première partie est une critique philosophique de ce que les auteurs appellent la “tradition rationaliste occidentale”. Cette critique se fonde sur trois sources majeures. Heidegger d’abord, dont nous avons déjà parlé et d’où ils tirent, à la suite de Dreyfus, l’idée que la cognition ou la pensée n’est pas d’abord une affaire de logique et d’abstraction mais au contraire d’être-au-monde, de rapport pratique au monde qui passe avant tout par un corps capable de percevoir un contexte et de faire émerger du sens par son engagement charnel. La seconde inspiration vient de la biologie singulière de Humberto Maturana et Francisco Varela, deux chiliens, proches de Flores, qui ont fait partie du courant de la seconde cybernétique, dont la particularité est d’avoir insisté sur les systèmes auto-régulateurs en biologie. Selon eux, la cognition n’est pas un phénomène proprement humain et encore moins un calcul d’informations mais plutôt le propre du vivant, qui consiste à produire le monde par le fait même de vivre, de déployer son être en agissant. Vivre, en soi, ne signifie rien d’autre qu’ouvrir un monde. Ils abandonnent complètement la perspective “représentationelle” qui est celle du cognitivisme classique : il n’y a pas de monde qui pré-existe à notre action, c’est elle qui déploie le monde. Surtout, par le biais de ce qu’ils appellent “l’auto-poïèse”, ils tentent de penser l’émergence de règles, d’une vie pas complètement chaotique, sans présupposer le moindre “plan” au départ. Enfin, avec Austin et sa théorie des énoncés performatifs, Winograd et Flores mettent en avant une conception du langage qui ne soit pas pure communication mais acte de création. Non pas description d’un monde toujours à distance mais intervention et production de ce même monde (les exemples classiques d’énoncés performatifs sont ceux d’un juge qui profère sa sentence : “je vous condamne” ou encore la déclaration d’amour “je t’aime” qui ont des conséquences directes, qui produisent un état de fait différent après avoir été prononcés). Pour Winograd et Flores, il convient d’élargir cela au langage en général : chaque parole participe à l’élaboration toujours en cours du monde. Ce point est important puisque, par ailleurs, ils ont conscience que la programmation, en informatique, est l’invention et la manipulation de langages plus ou moins complexes : d’où l’idée que l’informatique est d’emblée la configuration d’un monde. “Les ordinateurs ont un impact particulièrement puissant, parce qu’ils sont des machines pour agir avec et dans le langage. En les utilisant nous nous engageons dans un discours dont les termes ont été définis par les programmeurs”.
LUND2021j.15
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Il faut reconnaître la subtilité de leur critique. Ils ne tombent à aucun moment dans un discours publicitaire sur les outils technologiques. Au contraire, ils s’en prennent même à l’usage à tout bout de champ du terme “intelligent” pour vendre de nouveaux produits aux propriétés très limitées. Ils attaquent fermement l’IA classique avec des arguments pertinents, mettent notamment en avant l’importance de l’invisible, c’est-à-dire du contexte, des intentions, des affects, qui permettent au langage de faire sens et de produire des opérations. Ils insistent aussi sur la dimension de ratage, de manque et de rupture qui permet de révéler notre rapport au monde : c’est quand un objet manque qu’il m’apparaît en tant qu’objet séparé ; c’est quand les choses ne marchent pas comme il faut qu’on doit les remettre en jeu – ici, en filigrane, se tisse une tendance qui a grandi aujourd’hui et qui fait de la crise un élément de progrès, via des concepts comme celui de résilience.
LUND2021j.16
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Après une critique assez large et plutôt subtile de la tradition rationaliste qui met en avant la raison et la représentation comme concepts phares pour intervenir sur le monde, les auteurs tentent de montrer quelques applications pratiques possibles de leur approche. Le lecteur touché par la dédicace liminaire au peuple chilien sera alors surpris de constater qu’ils s’adressent, en guise de peuple, aux managers. Puisque leur nouvelle approche, dans le fond, invite à réfléchir à l’action efficace plutôt qu’à la meilleure conception , il est logique pour eux de se tourner vers l’entreprise : “le problème n’est pas de choisir mais de produire” (p.227). Fidèles à une tradition libérale dans les études sur les institutions, ils définissent l’entreprise comme un “réseau de conversations” là où “les ordinateurs sont des outils pour diriger le réseau des conversations” (p.261). Pas d’illustration plus naïve et sincère de l’affirmation du CLODO (Comité pour la Liquidation ou le Détournement des Ordinateurs) selon laquelle “L’ordinateur est l’outil préféré des gouvernants”. Les informaticiens munis d’une solide philosophie du langage ont donc tout leur mot à dire sur la manière de gérer une entreprise et même une grande responsabilité puisque, selon leur mots, c’est la manière de nommer un problème qui décide de celui-ci. Dans cette optique, ils exposent les traits principaux d’un programme : le Coordinateur, lancé par Fernando Flores via son entreprise, Action Technologies, et permettant de fluidifier la communication et les interactions en entreprise. Ce programme organise la vie de bureau. L’enjeu est de faire mieux apparaître le contexte invisible du langage. Les emails doivent être labellisés comme des requêtes ou des offres ; certaines réunions doivent être étiquetées comme des “conversations pour l’action” ou des “conversations pour les possibilités”, etc. Un des enjeux était de faire voir tout ce qui normalement est invisible pour aider à la synchronisation des collaborateurs - on assiste en directe à la liquidation de l’analyse en terme de lutte de classe ou de rapports de forces, qui deviennent ici des “malentendus”. Ce programme s’est vendu à des milliers d’exemplaires et a inspiré des générations de start-upers.
LUND2021j.17
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Avant d’en venir à d’autres applications pratiques de cette approche, retenons qu’elle se base sur une vision du langage comme élément central dans la production d’un monde et, plus concrètement, dans le fonctionnement de l’action efficace, en particulier dans l’entreprise. L’ordinateur est alors logiquement mis à contribution puisqu’il est d’abord un outil pour diriger les conversations. Mais c’est via une approche relationnelle qu’il prend toute sa place : non comme une machine qui fera tout pour nous (une intelligence artificielle dans le sens publicitaire des mots), mais comme une machine avec laquelle nous interagissons et qui permet de meilleures interactions entre humains. “Dans tous les cas la question que l’on doit poser n’est pas une question abstraite du type ‘Quel est le système dont nous avons besoin ?’ mais très concrètement, ‘comment les différents outils nous mènent à des nouvelles conversations ainsi qu’à de nouveaux modes de travail et d’être ?’”. Trouver les nouveaux outils qui configurent le travail et l’être autrement, voilà ce que les auteurs entendent par le Design (traduit par “conception” dans la version française) et son usage ontologique (après eux, on parlera volontiers de design ontologique). Mais cette recherche de nouveaux outils ne doit pas être imposée brutalement, comme un plan qu’on appliquerait du haut : “Nous ne pouvons pas imposer directement une nouvelle structure à un individu, mais lorsque nous faisons des changements dans l’espace des interactions, nous déclenchons des changements dans l’horizon des préconditions de la compréhension” (p.270). C’est cet horizon des préconditions, invisible, contextuel, langagier, qui est leur cible, qu’il s’agit de toucher prudemment pour changer bientôt l’environnement des individus. Soit dit en passant, on reconnaît là une tendance à long terme de l’ère néo-libérale : éviter les plans préconçus que l’on applique d’un bloc à une situation et leur préférer des modifications de l’environnement, des conditions initiales, du contexte, afin que chacun évolue ensuite “naturellement” vers un nouvel état.
LUND2021j.18
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Le livre de Winograd et Flores a été classé parmi les vingt livres les plus influents dans le domaine des technologies de la communication par le magazine Byte. Leur approche n’est donc pas passée inaperçue, et elle a même fait des émules. La filiation la plus célèbre est peut-être celle qui relie Terry Winograd à Larry Page, le fondateur de Google. H. Halpin et A. Monnin vont jusqu’à écrire que “Winograd et Flores avaient jeté les bases métaphysiques de Google”, qui consistent à se concentrer sur l’implication de l’utilisateur dans le monde (ce qu’il veut, ce qu’il cherche) plutôt que sur les classements logiques (par ordre alphabétique, par thème, etc) de l’information. C’est même l’expérience de cet utilisateur qui va permettre de rendre le moteur plus efficace, puisqu’on sait que sa pertinence vient en partie du fait qu’il nous redirige vers les pages les plus populaires d’abord, autrement dit celles que d’autres ont déjà visitées. Il se sert de l’expérience et des intentions plutôt que de la logique abstraite ; il repose sur une relation permanente avec l’utilisateur plutôt que sur une machine intelligente par elle-même. “Dans leur ré-interprétation radicale qui mélange ensemble Heidegger et la cybernétique, l’humain allait devenir une partie d’un système cognitif distribué d’un nouveau genre, qui apprend continuellement de ses erreurs. La technologie vise alors une intégration plus douce, voire invisible, avec l’humain.” (Halpin et Monnin, 2016).
LUND2021j.19
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Par ailleurs, Winograd a fait partie de l’équipe de Google à ses départs et c’est lui qui a conçu l’interface graphique de Caribou, l’ancien service de messagerie qui allait devenir Gmail, soit la messagerie la plus utilisée au monde. Au-delà de Google, il a influencé également Reid Hoffman, le fondateur de LinkedIn (2003). Ce dernier confie d’ailleurs l’importance de sa rencontre avec Winograd, qui l’a convaincu de l’importance d’étudier la philosophie. C’est notamment dans le champ de la communication et du travail qu’il a poursuivi les intuitions de Flores et Winograd : on comprend ici, avec LinkedIn, en quoi la technologie numérique accompagne les humains et transforme leur environnement, faisant au passage de chaque personne un entrepreneur connecté. Voila le sens de ’l’intégration douce’ des ’préconditions de la compréhension’ qui finissent par faire émerger ’de nouvelles manières d’être”.
LUND2021j.20
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Reprenant tous ces éléments de langage, une dernière filiation importante est celle qui relie Winograd et Flores à Mark Weiser et au Xerox Parc. Cette institution, aujourd’hui simplement dénommée le PARC pour Palo Alto Research Center, a été fondée en 1970 et se situe justement dans la droite lignée de la tendance qui a préféré se concentrer sur les relations humain-machine. On y retrouve par exemple Douglas Engelbart, inventeur de la souris ou encore Joseph Licklider, promoteur incessant de la “symbiose humain-machine”. C’est là-bas que sont développées parmi les premières interfaces graphiques afin de rendre l’usage de l’ordinateur plus commode pour un humain. Là-bas aussi que l’on conçoit les ordinateurs personnels et où Steve Jobs est venu faire un tour en 1979 avant de sortir le fameux Macintosh en 1984. Avec Mark Weiser, c’est l’étape d’après qu’il s’agit de penser.
LUND2021j.21
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Paru pour la première fois en 1988, l’article de Weiser intitulé “L’ordinateur pour le XXIe siècle” est fondateur de ce que l’on nomme parfois l’informatique ubiquitaire. Cette appellation a de quoi faire sursauter, et pour cause, elle désigne l’idée selon laquelle l’informatique doit investir l’ensemble des champs de la vie quotidienne sans que l’on se rende compte de son omniprésence. La première phrase de l’article visionnaire de Weiser est claire à ce sujet : “les technologies les plus abouties sont celles qui disparaissent. Elles se tissent dans la trame de notre quotidien jusqu’à s’y fondre complètement”. On retrouve exactement l’ambition de Winograd et Flores, celle d’occuper ou de viser “l’horizon des préconditions de la compréhension”, le contexte, la strate invisible qui conditionne le visible. Tout l’enjeu de l’article de Weiser est de décrire la troisième génération d’ordinateurs. La première était celle des grosses machines à calculer, chères et accessibles seulement à des chercheurs spécialisés et à l’armée. La deuxième génération, née dans les années 80, est celle de l’ordinateur personnel, qui est un pas important du côté de l’approche en terme de relation humain-machine : non plus construire des machines monstrueuses qui deviendront plus intelligentes que nous mais construire des appareils manipulables, pratiques, utiles dans notre quotidien. Mais Weiser voit l’étape d’après car, selon lui, l’ordinateur personnel est déjà quasi has been tant il requiert de l’attention et une fermeture de l’utilisateur à ce qui se passe autour de lui. Le monde fluctuant et interactif qui s’ouvre demande que l’on ne concentre pas toute son attention vers un seul objet. Il propose alors une vision dans laquelle l’informatique et les écrans disparaissent mais en un sens particulier : en se multipliant. C’est parce qu’ils deviennent omniprésents, partie intégrante de notre environnement immédiat, que les écrans peuvent “disparaître” dans la trame de notre quotidien. On le crédite parfois d’être à l’origine de l’Internet des objets et, plus généralement, de tout ce qui contribue à répandre l’usage de l’information sous ses multiples formes. Il rappelle par exemple que : “des ordinateurs servent déjà à activer le monde dans des interrupteurs lumineux, des thermostats, des autoradios, des fours. Ces machines et d’autres seront interconnectés dans un réseau ubiquitaire”. Cela est encore plus vrai aujourd’hui, d’ailleurs la filière automobile en subit les conséquences depuis la pénurie de micropuces présentes par centaines dans chaque véhicule. Mais en plus de répandre l’usage de l’information à tous les objets, il convient, selon Weiser, de repenser l’usage et la forme des ordinateurs eux-mêmes. Il propose alors trois tailles d’écrans, pour trois usages différents. Le plus petit écran (tab) doit faire la taille d’un post-it et on doit pouvoir l’emporter partout et l’utiliser rapidement. Vient ensuite un écran de la taille d’une feuille A4 (pad), également transportable, plus léger qu’un ordinateur mais qui peut servir de relais à ce dernier en y transférant toutes les données nécessaires. Enfin, un écran de la taille d’un tableau de classe (board) doit permettre d’effectuer des travaux collectifs au sein des entreprises. Le but de la manœuvre est de parvenir à ce qu’il y ait “des centaines d’ordinateurs dans chaque pièce”, avec le sens élargi qu’il a alors donné à la notion d’ordinateur. On laissera à chacun le loisir de constater à quel point ce Weiser avait, dès 1988, entrevu l’une des directions les plus importantes (et les plus lucratives) du développement technologique.
LUND2021j.22
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : La lignée philosophique présentée plus haut est également visible chez Weiser, qui cite même Heidegger et le concept de “ready-to-hand” ou objet sous-la-main, c’est-à-dire la manière dont notre appréhension d’une situation fait instinctivement ressortir ce qui peut ou non nous servir. L’important, souligne Weiser, c’est le fait que l’on puisse faire usage d’un tel objet sous-la-main sans avoir à y penser particulièrement afin de pouvoir se projeter sur de nouveaux objectifs. Il s’agit bien d’atteindre les conditions de possibilité d’expériences futures. Ce qu’il se garde de dire, c’est en quoi cette nouvelle technologie une fois devenue “naturelle” ou “invisible” transforme notre expérience des choses, des autres et du monde. Il n’a pas l’air de s’en soucier outre mesure, si ce n’est qu’il faut que les écrans arrêtent de faire écran, de confisquer notre attention démesurément. D’ailleurs, il théorisera par la suite ce qu’il appelle la “Calm technology”, soit la technologie douce, avec toujours la même idée : ne pas saturer l’attention des utilisateurs, offrir un environnement où les outils technologiques sont présents partout, en silence, jouant leur partition en attendant patiemment d’être sollicités.
LUND2021j.23
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : À cet égard, on pourrait dire que l’imposition du pass sanitaire ne relève pas franchement de la technologie douce et invisible. Sauf que l’argument de Weiser, on l’a vu, est plus brutal tout en étant plus subtil : la technologie devient douce non pas en s’effaçant mais par multiplication des dispositifs informatiques, par hypertrophie d’écrans et de capteurs, au point qu’on les oublie, qu’on n’y prend plus garde ; bref, on s’y habitue. Car derrière l’omniprésence technologique du pass, il y a la facilité d’usage, le bip qui nous permet depuis longtemps d’entrer dans un bus (on se demande d’ailleurs toujours pourquoi) ou une bibliothèque, le badge et bien sur le QR-code et les informations qu’il contient. Tout est là, à portée de main, en train de se fondre dans le décor à une vitesse ahurissante. Plus que le contrôle total qui effraie parfois, c’est ici sur les transformations insidieuses des modes de vie que nous insistons : il est souvent indispensable d’avoir son téléphone sur soi, on confie lentement nos vies à des appareils auxquels on ne comprend à peu près rien, on dépend de ces machines qui deviennent littéralement des prothèses. Celles-ci nous donnent en même temps accès à de nouvelles “manières d’êtres” qui seront, en retour, analysées puis converties en publicités personnalisées qui à leur tour généreront des pratiques, des données, des publicités, etc., dans un cercle sans fin que le schéma initial de la rétroaction indiquait partiellement.
LUND2021j.24
Cf. Lundi matin, De la cybernétique à l’informatique ubiquitaire, op. cit. : Cela dit, que la technique devienne peu à peu notre environnement et non pas un simple moyen pour arriver à des fins, Leroi-Gourhan et d’autres s’étaient déjà chargés de le montrer et voilà maintenant quelques milliers d’années que ça dure. Reste que, dorénavant, cet environnement est d’un coté entièrement designé et maîtrisé alors qu’il est surtout subi du côté des utilisateurs. Se tourner alors du côté de la réappropriation de ces outils et de leur maîtrise “par le bas” est encore insuffisant puisque l’on sait les conséquences écologiques désastreuses du secteur numérique, plus polluant que l’aviation. Demeure alors la possibilité de cibler des dispositifs précis tout en s’attaquant au système qui les produit : c’est sans doute là une des raisons du mouvement en cours contre le pass sanitaire.
LUND2021k
Everybody Knows the Rules
Everybody Knows the Rules, Caroline Bernard, in Lundi matin, #306, 28 septembre 2021, https://lundi.am/Everybody-Knows-the-Rules
LUND2021k.1
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : Le mot règle, vient étymologiquement du terme regula (la règle), du verbe rego qui veut dire conduire, diriger. En anglais, l’anthropologue Tim Ingold nous rappelle, “le verbe ruler désigne un souverain qui contrôle et gouverne un territoire. Le même mot désigne aussi une règle, un instrument pour tracer des lignes droites.” En français, comme en anglais, la règle est à la fois l’outil de mesure, comme la mesure elle-même. On peut noter également le double sens de mesure (mesurer, prendre des mesures). Aussi, la règle permet de contrôler, les distances, les temporalités, les poids, aussi bien que les comportements, dans le même temps qu’elle les mesure. Au Moyen-âge, dans les monastères, les regula étaient les règles monastiques en vigueur. Ainsi, une prière répétée un nombre de fois précis, à un rythme calibré, durait une heure. Au terme de cette heure priée, le moine en charge sonnait la cloche pour indiquer l’heure aux habitants du village. En l’absence d’outils de mesure plus sophistiqués, le moine officiait en tant qu’homme-horloge. Depuis, le moine ne donne plus l’heure, les outils de mesures se sont développés à un rythme pandémique jusqu’à ce que les technologies numériques en permettent un déploiement exponentiel, avec entre autres, l’avènement des smart phones et leurs applications. Nous mesurons tout, nos nombres de pas, nos temps d’écran, nos interactions en ligne, etc. J’ai même un ami qui enregistre ses ronflements pour en mesurer la fréquence. Ces mesures numériques sont toujours fondées sur le même principe computationnel, à savoir la collecte de données selon un ensemble de variables, et de paramètres (parfois grâce à des capteurs), et en fonction d’unités de mesures (le nombre de battement par minute, etc.). Si nous pouvons imaginer mettre au point des mesures précises pour le nombre de pas ou de ronflements, on n’est pas sans mal quand il s’agit de mesurer des phénomènes plus complexes, comme la productivité ou encore le bonheur. Pas une semaine ne passe sans que la presse n’évoque des biais cognitifs ou des difficultés de modélisation : cet été par exemple, on signalait des retards menstruels chez des femmes tout justes vaccinées contre la COVID. L’enquête s’avérait sibylline, car combien de femmes n’avaient pas remonté l’information à leur médecin, combien ne l’avaient même pas remarqué, combien étaient de base sujettes à des retards, et combien d’autres critères pouvaient encore interférer dans ces retards supposés. Ainsi, une approche quantitative seule achoppait nécessairement. Compter les retards de règles ne suffisait pas pour comprendre le lien supposé entre vaccination et menstruation, et le travail de recoupements semblait abyssal. Ce flottement n’est pas forcément dommageable si on considère ce type d’enquête avec le recul nécessaire. Le danger de ce tout-mesure, de cette approche quantitative comme finalité, est lorsqu’au bout de la chaine il y a une prise de décision, et parfois une prise de décision de nature politique.
LUND2021k.2
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : En 2013, le philosophe Grégoire Chamayou publie Théorie du drone, et explique alors que soixante-dix pour cent des attaques de drone menées par les États-Unis, sont des “frappes de signature”, déclenchées à la suite d’observations aériennes et de recoupements algorithmiques. Si une fois compilées, les données tirées de ces observations présentent une déviance, alors une attaque est ordonnée par les militaires contre l’individu ou le groupe. La déviance dans le comportement des individus est déterminée par l’analyse algorithmique de motifs de vie (pattern of life analysis). Chamayou explique que ce mode de désignation des cibles déclenche de nombreuses erreurs et la mort de civils. Ainsi, la discrimination est très difficile entre combattants et non combattants dans des pays où les hommes portent fréquemment des armes et où les guerriers sont sans uniforme. Observer depuis le ciel, même pendant des mois, est forcément lacunaire. En imaginant pouvoir modéliser le vivant, grâce aux recoupements des images et des algorithmes, on confond la quantité des données collectées avec la qualité des événements observés. Avec un tel mode opératoire, le vivant et sa modélisation sont considérés comme étant de même nature, selon une équivalence qui ne présenterait ni pertes, ni transformation qualitative. Lors de la parution du livre en 2013, Chamayou s’affolait des lobbies qui allaient nous précipiter à l’ère des robots tueurs, c’est-à-dire des drones armés susceptibles de décider seuls des attaques, sans autre filtre humain. Un rapport de l’ONU, datant de 2021, déclare avec prudence avoir constaté l’implication récente de ce type d’appareils notamment dans des actions en Lybie. Ici, l’approche quantitative (collecte et recoupements d’un grand nombre de données) est mise au centre du processus décisionnel et non le moindre puisqu’elle déclenche une mission létale (avec un important nombre d’erreurs).
LUND2021k.3
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : Un autre exemple, en 2018, des détracteurs de la reconnaissance faciale entrent les portraits de membres du congrès étatsunien dans le logiciel développé par Amazon. Celui-ci est vendu aux forces de police pour douze euros par mois. Vingt-huit portraits des membres du congrès, réalisés dans des conditions photographiques parfaites, ont été confondus avec les vingt-cinq mille photographies de citoyens entrées dans la base de données à leurs dépens. Quarante-deux pour cent de ces erreurs impliquaient des politiciens de couleur. Pour autant, les détenteurs de ces technologies comme l’entreprise Anyvision, présente dans quarante pays, nous garantissent la fiabilité de la technique en se justifiant par le grand nombre de données collectées. Leur logiciel modélise le visage d’une personne depuis un portrait photographique via cinq-cents millions de points. Et évidemment, si on vérifie une image cinq-cents millions de fois, alors la machine ne peut pas se tromper. La preuve en est, les vingt-huit erreurs sur les membres du congrès états-unien. Plus récemment, le gouvernement chinois, pionnier mondial de la coercition numérique, annonce repérer des criminels de dos à leur simple démarche, sur la base d’une analyse algorithmique de l’image. Les frappes de drone, comme ces dispositifs de surveillance, sont fondées en la croyance de la mesure toute-puissante. Le grand nombre de données collectées serait un garant de la vérité. La faillibilité de ce principe est pourtant avérée, la singularité de la donnée même recoupée est toujours relative. Les erreurs sont courantes, le faux-positif, une possibilité de tous les instants. Mais malgré ces travers, la mesure numérique devient le moyen d’établir la règle.
LUND2021k.4
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : Dans Objectivité, Lorraine Daston et Peter Galison retracent l’histoire de la notion d’objectivité dans les sciences depuis le XVIIIe siècle. Les théoriciens expliquent le combat aussi vain qu’acharné des scientifiques à neutraliser toute forme de subjectivité, en conférant parfois de façon fantasmée un statut supérieur à l’objectivité comme seul registre de réalité. Les écrivains citent en exemple les mises en garde faites aux botanistes à ne pas rendre les dessins de fleurs trop précis, au risque de créer des nouvelles espèces sur la base de singularités non opérantes. Depuis des siècles, les scientifiques s’inquiètent de l’échelle d’observation. Trop loin, l’essentiel peut leur échapper, trop proche, on peut se perdre dans des détails non pertinents. Non sans dérision dans son texte “Celui qui se consacre à l’étude des nuages est perdu”, l’écrivain Marcel Beyer, considère ainsi que les nuages échappent à l’observation scientifique car “pour l’homme de science éclairé et soucieux du sérieux de la chose scientifique, existe le danger de “voir quelque chose” dans le nuage, quelque chose qui existe, dans l’imagination certes, mais pas sous les yeux de l’observateur”. Selon lui, ni les peintres de paysages, ni les photographes, ni les météorologues ne saisissent la véritable nature des nuages, si tenté que cette nature véritable existe. Variables, diffus, jamais identiques, les nuages se dérobent selon lui, à la “mise en science”, à la “mise en données”, leurs interprétations étant infiniment inconstantes et bavardes. Où commence le nuage ? Quand finit-il ? Quelle forme serait suffisamment générique pour permettre un classement ? Comment isoler le nuage de son environnement, de sa relation aux autres nuages pour le désigner comme une entité réellement autonome ? Comment désigner le nuage lambda comme unité de base, depuis laquelle on puisse compter les nuages ? On peut observer la présence de nuages, mais c’est une autre affaire que de les compter un par un. Aussi, notre monde ressemble plus à un réseau de nuages interconnectés et interdépendants qu’à une suite de données isolées, comptabilisées puis recoupées.
LUND2021k.5
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : Même en l’absence d’outils de mesure, certaines prises de décision aujourd’hui naissent d’une logique numérique. Cet été, les règles d’entrée au théâtre ont été décidées par la découpe du vivant en une suite de variables isolables selon les critères de sécurité du terrorisme et de la pandémie, en pensant qu’on pouvait prévenir l’un sans gêner l’autre. La variable risque d’attaque terroriste s’est trouvée isolée de la variable contagion par la COVID. Les personnes ont été alors privées de leurs gels hydroalcooliques n’étant plus à ce moment l’objet qui sauve, mais devenant un potentiel explosif. En isolant les variables du terrorisme et de la COVID de la complexité du vivant, en les traitant séparément, les mesures prises sont devenues ici contradictoires, car fondées sur une logique numérique descriptive trop pauvre.
LUND2021k.6
Cf. Lundi matin, Everybody Knows the Rules, op. cit. : Quelle relation entre la confiscation de mon gel hydroalcoolique, les attaques de drones, et la reconnaissance faciale ? Toutes les règles décrites ici sont fondées sur une approche computationnelle, sur le fait de compter d’abord, d’isoler des données, de les recouper et de décider ensuite, sur la base du résultat comptable, et parfois sur la base de ce seul résultat comptable. La liste des règles, sociales ou politiques, fondées sur ce même principe comptable est aujourd’hui insondable. Compter c’est isoler, compter c’est lisser. Compter c’est décider.
LUND2021l
Quand l’humain rêve d’IA
Quand l’humain rêve d’IA, apteq, in Lundi matin, #313, 15 novembre 2021, https://lundi.am/Quand-l-humain-reve-d-IA
LUND2021l.1
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : Le calcul algorithmique procède par réduction, abstraction du réel en sélectionnant certaines caractéristiques qui importent ou non. […] La conception de systèmes donnés se fonde sur des méthodes de classifications. Tout commence par une modélisation statistique dont les critères doivent être précisément choisis (c’est tout le travail des data scientists et d’autres). Le calcul informatique ne sait donc pas tout du monde. Il n’en relève que certains aspects pour constituer une abstraction du réel. Cette abstraction prend des formes bien déterminées, et la lecture de Bratton décrit la nécessité d’intervenir politiquement dans le champ de ces abstractions et modélisations computationelles. Tout en venant de décisions humaines (et non d’une IA magique), elles peuvent être inhumaines en tant que “décision sur les paramètres de la décision – une décision sur la décision” [Grégoire Chamayou, Théorie du drone, la Fabrique, p.299.] Grégoire Chamayou en donne des exemples explicites dans sa Théorie du drone : “traduire l’impératif de ‘ne cibler que des cibles légitimes’ en lignes de code est une opération vide tant que l’on ne spécifie pas ce que recouvre la variable ‘Target’. De même, on peut toujours essayer de coder une expression formalisée du principe de proportionnalité […] mais il faudra toujours spécifier au programme par une valeur, directe ou indirecte, ce qui constitue le seuil de proportion acceptable entre vies civiles tuées et avantages militaires attendus” [Grégoire Chamayou, idem. p.299.]. Ce sont ces variables qui déterminent ce qui compte ou non pour les machines.
LUND2021l.2
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : L’une des tensions de l’histoire de la cybernétique est celle du dualisme entre le corps et l’esprit, entre l’information et son support. Cette tension s’incarne également dans la distinction entre la logique abstraite, le traitement symbolique de l’information et l’inscription corporelle du calcul, son effectuation pratique. Alan Turing en 1936 a formalisé (en plus du test mentionné) “sa machine universelle”. Sans entrer trop dans les détails, disons qu’il s’agit d’un petit robot imaginaire qui déplace une bande, divisée en petits carrés. Ce robot fictif y lit et écrit des symboles, selon des règles qui lui indiquent quoi écrire et où, chaque nouveau déplacement dépendant de ce qui est marquée sur la bande. La machine de Turing condense formellement l’essence de l’ordinateur. Turing a démontré que toute fonction qui peut être mise en algorithme peut être calculée par une Machine de Turing. Cette machine est toutefois abstraite, sa mise en œuvre pose d’autres enjeux. On dit souvent qu’un algorithme peut être défini comme une recette de cuisine, en ceci qu’il suffit de suivre des étapes données pour produire le résultat voulu. Cette définition est symbolique. Elle passe sous silence le fait que les algorithmes numériques sont confrontés à des contraintes d’implantations dans du matériel informatique et qu’ils effectuent leurs opérations de façons répétées sur des volumes de données gigantesques en quelques millièmes de secondes. Un aspect quantitatif et matériel, l’impératif d’efficacité des algorithmes, la programmation, a dû être associé à la machine de Turing pour initier l’informatique moderne. Toutes les perspectives d’immortalité s’engouffrent à l’inverse sur le plan des machines abstraites, parmi des corps qui ne comptent pas. Cette conception désincarnée de l’information se nourrit de l’analogie qui distingue en informatique le hardware du software, mais le cerveau n’est pas un logiciel.
LUND2021l.3
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : En vérité, cette conception désincarnée de l’information n’est qu’un seul aspect du calcul informatique. Comme le rappelle Mathieu Triclot [Mathieu Triclot, Le moment cybernétique, Champ Vallon.] dans son ouvrage sur la cybernétique, la mise en parenthèse des considérations sur le transport des messages et les propriétés énergétiques du signal ne peut être que temporaire. Son universalisation se fait abstraitement dans le champ de la physique théorique mais s’opère concrètement dans le champ des télécommunications et de l’informatique. Le calcul n’existe qu’équipé matériellement. Saisir ce qu’est l’IA implique de constamment prêter attention à son incarnation concrète, au basculement entre le calcul abstrait dont elle relève et sa concrétisation dans des machines. Cette incarnation matérielle dépend d’une multiplicité de réseaux et bases de données. Un seul et unique ordinateur n’incarnera jamais la puissance menaçante convoquée par Elon Musk. L’argument n’est pas à entendre seulement comme un rappel de la matérialité des choses. Il s’agit de rendre indissociable l’informatique et sa matérialisation concrète. De fait, l’intelligence des machines repose avant tout sur des machines.
LUND2021l.4
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : L’intelligence alien de l’IA acquiert à ce stade un autre sens. D’une part, elle repose sur des processus d’abstractions déterminées qui chaque fois réduisent la réalité d’une certaine façon. Pour une mitrailleuse autonome, selon sa programmation, ce qu’est un humain, un enfant ou un verre d’eau est une distinction pertinente ou non, qui compte ou pas. D’autre part, l’intelligence se trouve redéfinie comme étant distribuée. L’intelligence des machines n’existe pas centralisée dans un seul et unique ordinateur. Elle dépend au contraire d’une multiplicité d’appareils, de bases de données et de réseaux techniques. Elon Musk peut affirmer craindre l’IA et en même temps multiplier les machines électroniques, la conception de robots ou de voitures autonomes. La sur-exposition d’une menace masque l’avancée des calculs. Il s’agit plutôt d’envisager, c’est là où les machines inquiètent, que l’histoire de l’esprit humain soit liée à celle des techniques. L’ethno-archéologie d’André Leroi-Gourhan fait de l’invention des outils un processus déterminant de l’hominisation. Dans cette perspective, la technique extériorise la mémoire et libère les organes. L’homme fabrique des prothèses artificielles, des artefacts techniques extérieurs à son corps et dont l’histoire construit une co-évolution des organismes vivants et des organismes techniques. L’activité technique est un comportement du vivant, avant d’être une opération intellectuelle. L’esprit est donc toujours technique. La technique fonctionne comme extériorisation du spirituel, en fournissant des moyens et des instruments par lesquels l’esprit peut revenir à lui-même. Elon Musk veut imposer une trajectoire bien déterminée au développement de ces artefacts.
LUND2021l.5
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : Tout un milieu technique et social donne forme aux agencements des humains et des machines. Et en même temps, chaque machine, une fois concrétisée, déborde toujours sa stricte fonction et ne s’y résume pas. Dans la philosophie de Gilbert Simondon, “L’inhumanité supposée des objets techniques tient d’abord, à leur apparence de matérialité insignifiante” [Gilbert Simondon, Du mode d’existence des objets techniques, p.11.]. Selon lui, l’enjeu est de ne pas placer les machines dans un rapport strictement utilitaire, dans une relation où elles ne sont que des outils. L’objet technique est d’abord technique avant d’être utile. Ces quelques intuitions font lire encore autrement la menace de l’IA et son intelligence alien. Elon Musk et consorts mettent en concurrence l’IA et l’humain. La question du grand remplacement pose d’abord un écart entre humains et machines pour ensuite interroger qui des deux va l’emporter. L’IA serait menaçante parce que potentiellement plus puissante que nous, plus puissante c’est-à-dire économiquement plus efficiente. Ce qui est mis en équivalence, ce ne sont que les capacités évaluées du point de vue économique. Les machines nous menacent parce qu’elles pourraient faire mieux que nous, et plus vite. Elon Musk nous propose d’ailleurs d’apprendre à courir plus vite. Les machines restent de simples instruments, qui peuvent être hors de notre contrôle ou qu’il faut savoir dépasser pour garder le contrôle et produire plus. En dépit des apparences, ce cadrage ne permet pas de penser les relations entre humains et machines, tout ce qui nous constitue déjà mutuellement. L’hypothèse de Donna Haraway dans son manifeste cyborg publié en 1984 était une manière de partir de ces relations existantes, pas de les affirmer ou les défendre, simplement de commencer par les reconnaître et de penser notre situation de ce point de vue et non à partir de l’humain humaniste, ce sujet qui semble si cher à ceux qui nous gouvernent. Les théorisations du post-humain, lancées entre autres par Rosi Braidotti, cherchent à continuer cette perspective, en choisissant stratégiquement de ne plus partir de la figure du sujet de l’humanisme, le plus souvent blanc, mâle, etc. On ne comprend qu’au regard de l’IA ces différentes hypothèses.
LUND2021l.6
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : Face à la toute puissance de l’IA à laquelle œuvre Kai-Fu Lee, il faudrait compter sur la toute puissance de l’humain. La lecture de Bratton a le mérite de se décentrer de cette alternative infernale entre la menace des machines et la convocation abstraite d’une humanité générique. Elle permet d’apercevoir comment procède l’IA bien réelle d’aujourd’hui et la quête désenchantée de l’efficience qu’elle impose dès maintenant. Les objets techniques doivent être abordé comme des modes d’existences, situés dans des milieux digitaux qui constituent certains types de relations et des manières bien spécifiques de penser. La peur du grand remplacement ou d’une toute puissante IA à venir obscurcit nos relations aux machines et au milieu.
LUND2021l.7
Cf. Lundi matin, Quand l’humain rêve d’IA, op. cit. : Nous pouvons ainsi nous resituer dans ce que font réellement les machines et ce qu’elles promettent de faire. Il y aura de ce point de vue plus à dire sur la géo-ingénierie, les fantasmes d’une solution par le plan ou le design, et la computation à l’échelle planétaire. L’enjeu va au-delà du fait de savoir comment les machines fonctionnent précisément. Il s’agit d’étudier comment elles modélisent le monde, comment elles établissent telle représentation du monde et pas telle autre, sans écarter les contraintes matérielles de tels calculs. Autrement, la critique manque la computation telle qu’elle opère réellement. L’enjeu du rapport à l’IA n’est pas une question morale, sur les finalités ou les limites de l’intelligence des machines L’IA ne pose pas la question d’une intelligence suprême, mais celle du trouble ontologique constant qu’introduisent les calculs informatiques autour de nous. L’intelligence alien des machines est aujourd’hui difficilement séparable de la nôtre. Ce sont à partir de ces relations qu’on pourra trouver des prises pour s’en défaire. Aucune IA centrale ne nous fait face, ni maintenant ni par la suite.
LUND2021m
La Cybernétique à l’assaut de l’Homme
La Cybernétique à l’assaut de l’Homme, Stéphane Zagdanski, in Lundi matin, #313, 22 novembre 2021, https://lundi.am/La-Cybernetique-a-l-assaut-de-l-Homme
LUND2021m.1
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Définie par son fondateur Norbert Wiener en 1948, dans son essai éponyme, comme : “Contrôle et communication dans l’animal et la machine”, la Cybernétique s’est déployée de manière si hégémonique qu’il n’est plus aujourd’hui un domaine intellectuel, social, politique, économique, scientifique, technologique ou idéologique qui n’y soit asservi. La crise pandémique contemporaine et sa réaction idéologique qu’est le sanitarisme même sont impensables sans la Cybernétique. Sans la Cybernétique, ni Finance contemporaine, ni Big Pharma, ni Statistique servant à la “gouvernance forte” des populations de la planète, ni bien entendu internet et les réseaux sociaux, ni l’informatique dont sont bourrés les écrans qui arraisonnent notre quotidien, ni l’Intelligence Artificielle, ni l’armement de défense et de destruction modernes, ni rien de ce qui fait la trame empoisonnée de l’existence du Numéricain en 2021 ne serait concevable. Ce que dissimule béatement la propagande néo-libérale, ce que sans doute elle n’a nullement les moyens de saisir, c’est qu’au parachèvement de la dichotomie entre l’“animal” et la “raison” correspond une mutation substantielle du Capitalisme, devenu intégralement algorithmisé sous l’espèce inédite de la “Finance”.
LUND2021m.2
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : La Cybernétique, donc, se fonde sur un nouage complexe entre le capitalisme algorithmique, le fantasme scientifique de l’auto-entreprise humaine, et l’atrophie universelle de la Parole en vue de mettre au pas toute Pensée créatrice.
LUND2021m.3
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le mot “cybernétique” est de la même étymologie grecque que “gouvernail” et “gouverner” : kubernetikè. La Domination planétaire tire ainsi le plus imparable parti de la Cybernétique, qui n’est pas tant la science des ordinateurs que la modalité moderne, mathématiquement assistée, de ce que Heidegger nomme la Führung, c’est-à-dire la direction impulsée par les “chefs” (les Führers), et de sa doublure d’animosité et d’annihilation à l’encontre de l’animal.
LUND2021m.4
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Dès son apparition, la Cybernétique était dotée de cette ombre dominatrice qu’elle feignit de feindre d’ignorer. Wiener prétendit en effet ne pas avoir su que le mot “cybernétique”, inventé par André-Marie Ampère en 1834 dans son Essai sur la philsophie des sciences, signifiait “l’étude des moyens de gouvernement”. Sa propre définition était : “We have decided to call the entire field of control and communication theory, whether in the machine or in the animal, by the name Cybernetics.” La première chose qui frappe est l’absence du mot “homme” dans ce beau programme éponyme. Wiener rectifiera le tir en 1950 dans son essai intitulé Cybernétique et société, sous-titré De l’usage humain des êtres humains. Voilà de quoi être rassuré…
LUND2021m.5
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : À la source de la Cybernétique est le désir de réguler automatiquement le fonctionnement d’une machine à vapeur, cette auto-régulation dépendant elle-même du principe de la rétro-action (une action dont l’effet soit aussi sa propre cause), autrement dit une action à laquelle la main de l’homme n’a plus de part.
LUND2021m.6
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Or, entre le principe de la rétro-action et celui de l’auto-régulation, s’insère un troisième principe sans lequel les deux premiers ne peuvent collaborer, qui est celui de l’information – lequel implique une certaine conception du langage.
LUND2021m.7
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Il faut comprendre que ce ne fut jamais la Technique qui prit modèle sur la Nature mais au contraire la Nature qui fut d’emblée comparée et conçue sur le modèle d’un dispositif technique. La navigation usuelle est ainsi confrontée à l’“irrégularité” naturelle des flots marins. Or cette irrégularité n’en est une que pour l’homme rationnel : pour le dauphin ou le phoque, cette irrégularité n’existe pas davantage que l’irrégularité des vents pour l’albatros : l’instinct animal improvise avec dextérité à chaque instant et jouit de ce qui, pour l’homme, n’est taxé d’“irrégularité” qu’en comparaison de la pure régularité circulaire de la logique. Le servomoteur est ainsi le fruit de cet idéal logique qui consisterait, davantage qu’à guérir cette “imperfection” naturelle, à la prévenir avant qu’elle ne surgisse. Et idéalement à l’annihiler.
LUND2021m.8
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Autre inspiration principale de la Cybernétique, de l’aveu de Wiener : la thermodynamique, où là encore il s’agit de faire fi du caractère singulièrement humain de l’observation – soit la relativité pour chacun du chaud et du froid –, et où l’information et la statistique jouent un rôle prépondérant. L’information parce que l’entropie, notion majeure en thermodynamique, est précisément associée à un défaut d’information : Le terme “‘entropie’ a été introduit en 1865 par Rudolf Clausius à partir d’un mot grec signifiant ‘transformation’. Il caractérise le degré de désorganisation, ou d’imprédictibilité, du contenu en information d’un système.” L’entropie est donc une notion commune à la thermodynamique (où elle exprime initialement “la quantité d’énergie qui ne peut se transformer en travail”, et plus généralement “le degré de désordre de la matière” – indexé sur quel hypothétique “ordre” de la matière ?) et à la théorie de l’information (où elle exprime “le degré d’incertitude où l’on est de l’apparition de chaque signal”). Quant à la statistique, elle est aussi au cœur du calcul thermodynamique, fondé sur la théorie atomique de la matière, puisque l’entropie est définie d’après une “variable d’état correpondant à une grandeur d’origine statistique”.
LUND2021m.9
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : C’est à New York, de 1942 à 1953 lors des conférences Macy, que naît la Weltanschauung cybernétique, laquelle correspond à un projet d’abord idéologique : il s’agit de créer un nouveau monde fondé sur une conception inquestionnable de l’humain. La probabilité d’une annihilation de l’humain supplanté par des machines n’est qu’une des conséquences, plausibles et revendiquées, de ce désir d’inquestionnabilité qui traverse toute l’histoire de la Cybernétique, depuis le régulateur à boules de Watt jusqu’à l’androïde “Atlas” de Boston Dynamics… Les conférences Macy élaborent ainsi le projet d’une collaboration interdisciplinaire de diverses expertises, mathématiques, anthropologie, psychologie, psychanalyse non freudiennne, économie, logique…, en vue d’édifier une “science générale du fonctionnement de l’esprit”. Les mathématiques et la logique sont bien entendu les références majeures de ces conférences. On y retrouve l’ancêtre auto-régulateur à boules de James Watt dans le concept principal qui nourrit leurs réflexions, et qui reste la part privilégiée de Wiener : “Feedback Mechanisms and Circular Causal Systems in Biological and Social Systems”. La causalité circulaire, appréhendée dans le phénomène de feedback ou “rétroaction”, est définie comme “processus dans lequel un effet intervient aussi comme agent causal sur sa propre origine, la séquence des expressions de la cause principale et des effets successifs formant une boucle dite boucle de rétroaction”. Une autre formulation, par Heinz von Foerster à partir des années cinquante, est celle de “mécanismes qui produisent eux-mêmes leur unité (self-integrating mechanisms)”. C’est là, pendant ces conférences Macy que se formalise et se conceptualise l’idée littéralement folle d’un auto-entrepreneuriat de l’homme par l’homme. La 5e conférence, en 1948, qui porte le même intitulé que la 1re et la 4e : Circular Causal and Feedback Mechanisms in Biological and Social Systems, est consacrée à la structure du langage. Roman Jakobson y participe. C’est la même année que McCulloch déclare que “du point de vue de l’analyse qu’on peut en faire, ‘il n’y a pas de différence entre le système nerveux et une machine informatique’”. À partir de 1949, le terme “Cybernétique” est officiellement appliqué à la série des conférences, comme condensé de l’intitulé initial : Cybernetics: Circular Causal and Feedback Mechanisms in Biological and Social Systems. Comme d’habitude, le style de ces grands délirants les trahit d’avantage que toutes leurs équations. Deux participants à la 7e conférence en 1950, Pitts et Stroud, évoquent “l’immense perte d’information” entre les organes des sens et notre “computer” mental. C’est la dernière conférence à laquelle assistent Wiener et Von Neumann, qui passent la main au mathématicien Claude Shannon, père de la “théorie de l’information”. Psychiatres et psychologues, spécialistes de l’hypnose et Gestalt thérapistes accompagnent depuis le début cette aventure qui ressemble à s’y méprendre à l’Académie d’exaltés dingos de Lagado décrite par Swift dans ses Voyages de Gulliver. Voici par exemple comment Willard Rappleye, le président de la fondation Macy, résume en 1955 leurs découvertes : “Les conflits sociaux sont en réalité les symptômes de causes sous-jacentes : la psychiatrie nous enseigne la nature de ces causes. Par conséquent, les Insights et les méthodes de la psychiatrie, de la psychologie et de l’anthropologie culturelle élucident les perturbations émotionnelles du monde.” Une société qui va mal n’est donc pas une société où le riche exploite le pauvre, comme on l’imagine depuis la plus haute Antiquité jusqu’aux Gilets Jaunes. C’est une société “émotionnellement perturbée” dont la Psychiatrie est à même de résoudre tous les symptômes. Freud y est banni d’emblée. Lors de la conférence de 1946, toujours sous l’égide du même intitulé : “Mécanismes de rétroaction et Systèmes causaux circulaires dans les Systèmes biologiques et sociaux”, Norbert Wiener remet en cause le concept freudien de Libido, sous prétexte que “l’information est un concept de base plus approprié pour décrire des évènements psychologiques”. Pourquoi ? Comment ? Bien malin qui le dira. Lorsque les Conférences Macy s’interrompent, en 1953, le ver cybernétique est dans le fruit de la connaissance universelle. Dans le sillage des conférence de Macy a lieu en 1956 une conférence majeure au MIT, consacrée aux sciences cognitives, à laquelle participe le jeune Noam Chomsky, dont les Structures syntaxiques, parues en 1957, signeront le triomphe des théories cybernétiques made in MIT appliquées au langage. Une sorte de boucle est bouclée qui va de la circularité causale à la grammaire universelle, et dont il ne semble pas que les dingos swiftiens qui l’ont élaborée ne soient en mesure de percevoir les conséquences désastreuses sur le cours du monde ni la raison profonde de l’intérêt jamais démenti du Departement Of Defense et de la DARPA à leurs si mirobolantes inventions.
LUND2021m.10
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Très vite la Cybernétique se déploie comme science humaine – elle a son mot à dire sur l’homme en son entier – à visée de science exacte – elle naît d’un idéal de régularité logique (la “causalité circulaire”) et tend à y retourner sans cesse. L’irrégulier, l’incertain, le miracle et l’imprévisible sont ses pires ennemis. Et ce que cette science qui se veut exacte vise à son insu, c’est d’emblée ni plus ni moins ce qu’il y a de plus imprévisible au monde : l’inspiration, soit la vraie pensée créatrice qui n’a rien à voir avec l’intelligence, artificielle ou pas (relisez le Contre Sainte-Beuve de Proust), et qui par essence, comme le sable selon Pindare, “échappe au calcul”. “Le premier jour”, raconte Wiener à propos d’une réunion avec McCulloch datant de 1945, “Von Neumann parla de machines à calculer et moi d’ingénierie de la communication. Le deuxième jour, Lorente de Nó et McCulloch firent en commun une présentation très convaincante de l’état actuel du problème de l’organisation du cerveau. À la fin, nous étions tous convaincus du fait que les sujets portant sur l’ingénierie et sur la neurologie ne font qu’un, et que nous devrions réfléchir à créer un projet de recherche permanent dans lequel nous pourrions développer ces idées.”
LUND2021m.11
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Wiener est un enfant prodige, fils d’un spécialiste des langues condisciple de Zamenhof, l’inventeur polyglotte de l’espéranto, la langue universelle. Norbert sait lire à un an et demi et est éduqué (et un tantinet martyrisé) à domicile par son père jusqu’à l’âge de sept ans. Le père l’oblige à ingurgiter des centaines de livres jusqu’à la nausée, au point que Norbert souffre d’une myopie grave qui l’oblige à cesser toute lecture pendant six mois. Inutile de dire qu’on est, dans ces milieux juifs polyglottes complètement déjudaïsés, à mille lieues de l’éducation juive traditionnelle où ce qui se transmet par l’exemple (davantage que par la coercition) n’est pas tant le savoir en soi que sa jouissance, le plaisir d’étudier, vécu quotidiennement dans tous les détails par toute la famille. Elias Canetti, qui appartenait à un milieu comparable à celui de Wiener ou von Neumann de Juifs polyglottes déjudaïsés hyper-cultivés, raconte aussi dans Le flambeau dans l’oreille comment sa mère l’initia despotiquement et sadiquement à l’apprentissage de la langue allemande.
LUND2021m.12
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Rafael Lorente de Nó, dont il est aussi question dans l’anecdote précédemment citée, est un neurophysiologiste espagnol. Hormis ses travaux neurologiques, il a décrit avant même Turing le phénomène des “recurrent circuits” qui auront une importance majeure en cybernétique.
LUND2021m.13
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Waren McCulloch, neuro-psychiatre et mathématicien, fondateur des conférences de Macy, à New York (1942-1953), auxquelles participera d’emblée Norbert Wiener, et qui décrivant en 1943 le système neuronal selon le principe sans nuance du “tout ou rien”, “situe celui-ci dans la catégorie des modèles logiques (ceci l’amènera à la théorie des automates et ouvrira à l’élaboration d’automates ‘auto-régulés’ ). À l’instar d’Alan Turing, il considère les fonctions de l’esprit comme une fonction mathématique (un opérateur transformant des entrées en des sorties)”.
LUND2021m.14
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le plus représentatif de l’esprit cybernétique de la bande semble bien John von Neumann (1903-1957), mathématicien et physicien dont les contributions se retrouvent aussi bien en logique formelle qu’en mécanique quantique, en économie, en informatique, et last but not least dans l’arme atomique. Il est en effet un des participants actifs au projet Manhattan qui verra se développer et s’appliquer la bombe génocidaire américaine. Né en Hongrie d’une famille juive déjudaïsée, von Neumann était, comme Wiener, un enfant prodige. À six ans, il converse couramment avec son père en grec ancien et peut faire mentalement une division à huit chiffres. À huit ans, il aurait lu et intégralement mémorisés les 44 volumes de l’histoire universelle de la bibliothèque familiale. Gavé comme une oie d’un savoir universel artificiel, c’est le même homme qui, participant au projet Manhattan (ce que Wiener refusa, se consacrant exclusivement aux techniques de défense aérienne), découvrira qu’une bombe atomique fait d’autant plus de dégâts qu’elle explose non pas au sol mais à une certaine altitude optimale. Qu’il s’agisse de logique, de mécanique quantique, d’économie ou même de bombe, les problèmes qu’il s’agit de résoudre sont, au fond, les mêmes qui se posaient déjà en navigation (kubernétikè, “art de piloter un navire”) : l’imprédictibilité, l’indétermination, l’incalculable, l’imprévisible, bref ce que l’auto-régulation et la causalité circulaire sont censées contrecarrer, et qui revient toujours à la mise hors-jeu du facteur le moins prévisible qui soit – au point que son nom même n’est toujours pas arrêté et fluctue au gré des langues et des cultures… J’ai nommé, Mesdames Messieurs : l’être humain. Von Neumann ne le formule pas ainsi, mais cette répulsion pour l’imprévisible inventivité propre à l’âme humaine suinte de chaque fragment de sa rhétorique polytechnicienne. En logique formelle, par exemple, le “souci axiomatique qui caractérise” von Neumann selon sa fiche Wikipédia, le pousse à élaborer “une formulation mathématique unique, unificatrice et satisfaisante de la théorie”. Mais c’est dans le domaine militaire qu’éclate le plus clairement cet agacement de l’imprédictible facteur humain pour le prodigieux logicien soucieux d’axiomatique. Von Neumann collaborera activement au génocidaire programme Manhattan, mettant au point les “lentilles explosives” de la première bombe A, et procèdant aux calculs pour déterminer l’altitude d’explosion optimale des deux bombes lancées sur Hiroshima et Nagasaki afin de “maximiser l’étendue des dégats causés”. Il fait également partie du comité chargé de sélectionner les cibles de la bombe atomique (aucune des villes envisagées n’est un enjeu militaire). Il préconise le centre de Kyoto, soit l’ancienne capitale impériale, cultuelle et culturelle du Japon. Ce choix n’est pas plus objectif que les autres décisions axiomatiques de von Neumann. Il s’agit d’une furie revancharde de la part du triste gamin prodige à qui on a fait ingurgiter toute l’encyclopédie du savoir universel, de même que n’est pas neutre la décision américaine d’épargner Kyoto (à quoi sera substituée Nagasaki), due au secrétaire à la Guerre Henry Stimson, qui “affectionnait tout particulièrement Kyoto où il avait passé sa lune de miel 30 ans auparavant”. Chassez l’imprédictible facteur humain par la porte de la black box cybernétique, il revient par la fenêtre. La rationalité, par conséquent, n’avait rien à voir dans des décisions aussi cruciales que celle d’annihiler en quelques micro-secondes des milliers d’êtres humains. L’un des arguments de l’équipe du Projet Manhattan en faveur du bombardement de Kyoto était précisément qu’il s’agissait d’une ville universitaire, et qu’ils “pensaient que les habitants seraient plus à même de comprendre que la bombe atomique n’était pas juste une arme de plus – qu’elle constituait quasiment un tournant dans l’histoire de l’humanité”. L’argument semble délirant, il n’est en réalité qu’à la mesure de ce dont il s’agit : Vitrifiez-moi ces intellectuels pour bien leur faire comprendre que la Cybernétique est l’autre et nouveau nom du monde. Enfin, bien sûr, l’éclectique von Neumann contribua également au déploiement du domaine informatique, où la vitesse de calcul des ordinateurs jouait un rôle majeur dans le développement de l’arme atomique. Tout cela le mènera à envisager dans les années 50 l’hypothèse de la “singularité technologique”, qui couronne en quelque sorte sa carrière mentale. Selon cette hypothèse, “l’invention de l’intelligence artificielle déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles dans la société humaine. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou ‘supraintelligence’ qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une ‘explosion d’intelligence’, créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l’intelligence humaine.”
LUND2021m.15
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le point aveugle de ces maniaques, c’est leur concept de base, ce qu’ils appellent “l’intelligence”. Car leur conception de l’“intelligence” n’est jamais remise en question par les promoteurs de l’IA, qui proviennent tous toujours du même sérail mathématico-scientifique (le MIT principalement), capable de bien des choses (ils envoient des hommes sur la lune et des drones sur Mars), mais de penser créativement, jamais. Plus exactement, ils ne remettent jamais en question l’axiome selon lequel l’intelligence se réduirait à une fonction gestionnaire et calculatrice, axiome qu’ils n’ont pas déniché dans l’étude des plus grands écrivains, ni des grands peintres ni des musiciens virtuoses, mais dans l’observation de leurs propres machines auto-régulées… Un célèbre génie du XXe siècle a formulé : “Les ordinateurs ne servent à rien, ils ne savent donner que des réponses”. De tels propos subversifs ne sont pas envisageables pour l’un des principaux spécialistes de l’IA, Marvin Minsky (1927-2016), collaborateur et disciple de McCulloch, qui avoua avoir songé à l’IA pour la première fois en observant un bras articulé connecté à une caméra manipuler des briquettes de jeux d’enfants.
LUND2021m.16
Cf. Lundi matin, La Cybernétique à l’assaut de l’Homme, op. cit. : Le propre du génie, c’est qu’il est inspiré. “Je ne cherche pas, je trouve.” Le génie n’est pas un type qui calcule, qui ordonnance, qui hiérarchise, qui accumule du savoir ou quoi que ce soit d’autre. Le génie ne thésaurise pas, il fait des trouvailles. Cela est inenvisageable pour ces abrutis du MIT qui témoignent à l’égard de la génialité d’une forme de candeur, de bêtise perverse, y compris lorsqu’il s’agit de mathématiciens de haut niveau. Seuls les plus géniaux parmi les mathématiciens sont proches des philosophes et des artistes, et se montrent entièrement acquis à la trouvaille poétique. Qu’on songe à Wittgenstein. Un grand philosophe, disait Deleuze, est quelqu’un qui invente des concepts. Or la Cybernétique n’est pas un concept inventé. C’est un complexes de fantasmes dévorateurs appliqué à se jeter comme sur une proie à l’assaut de l’ensemble de la réalité : la nature, les animaux, les humains, les sociétés.
LUND2022a
L’anarchéologie de Jean Vioulac
L’anarchéologie de Jean Vioulac, in Lundi matin, #345, 27 juin 2022, https://lundi.am/L-anarcheologie-de-Jean-Vioulac
LUND2022a.1
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : {{nous sommes en train de sortir de la civilisation de l’écrit pour celle de l’écran, le support n’est plus le texte mais le son et l’image, et il y a là une incontestable mutation : la vidéo concerne la vue, le visible, auquel elle ajoute l’audible, dans la vidéosphère les esprits acquièrent ainsi réellement leur corps translucide, immatériel et immortel de spectres. Le fantôme qui hante un texte est très différent d’un spectre audiovisuel : l’un est un fantasme, un objet de pensé, un souvenir et un regret, alors que le second est une réalité empiriquement constatable, qui s’impose dans le monde et y déploie ses effets. Il y a une différence de nature, et non de degré, entre quelqu’un (c’est un exemple) qui est hanté par la figure de Walter Benjamin parce qu’il relit sans cesse ses textes, et un autre qui assiste à un meeting de l’hologramme de Jean-Luc Mélenchon. Un hologramme qui fait de la politique, donc, qui s’impose dans l’espace public et y exerce des effets de pouvoir. Ce cas de l’hologramme est (à l’heure où je vous parle) marginal, mais on trouve le même type d’impact avec l’omniprésence médiatique de tel ou tel personnage, dont les avatars se démultiplient indéfiniment et nous cernent de toute part, nous imposent leur présence grimaçante et leur logorrhée verbale sans que nul ne sache comment les conjurer ; vous pouvez faire des milliers de kilomètres en train, en bateau, à dos d’âne, et retrouver les mêmes à l’arrivée, c’est un cauchemar. On retrouve ici la révolution technologique caractéristique du passage de l’outil à la machine, à savoir que ce n’est plus le sujet vivant en chair et en os qui est à la manœuvre : un livre est un objet inerte et mort, il faut l’activité d’un lecteur vivant pour faire apparaître le fantôme qui le hante ; les spectres vidéo sont produits par la machinerie médiatique, à toute heure du jour et de la nuit et en un nombre illimité d’avatars, indépendamment même des sujets.}
LUND2022a.2
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : j’en arrive à la conclusion que la monnaie fut en Grèce la pierre philosophale qui a fondé l’avènement de la pensée abstraite, ou plus précisément, qui a donné au spectre de l’esprit le mode d’être du numérique, celui dunoûs, “l’intellectel ordonateur”. La pensée de Platon fut l’expression idéologique de processus d’abstraction réelle opérée dans les pratiques, qui ont réellement réduites les choses sensibles à une essence idéelle (la valeur), ont donné à cette valeur universelle le mode d’être de la présence constante (la monnaie), elle-même fondée sur une Unité numérique en laquelle Platon voyait à la fois la garantie de la valeur (le Bien) et le principe de la production du monde (par le démiurge). Or notre époque est caractérisée par l’avènement réel de cette unité numérique en principe universel, mesure de toute chose, producteur du tout et démiurge du monde : notre époque est caractérisée par la transmutation de la monnaie en Capital. Le Capital est l’hégémonie cybernétique de l’Unité numérique, il accomplit la métaphysique, parce que la métaphysique a d’emblée pensée la monnaie dans sa fonction-Capital. Avec la logique de l’idéalisme spéculatif, on a le logiciel du dispositif cyber-capitaliste.
LUND2022a.3
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : il faut d’emblée assumer que, quelle que soit la question que l’on traite, la pensée n’est jamais solitaire, individuelle, égotiste, elle est toujours communautaire, elle est un héritage historique, nous sommes toujours pris dans des structures intellectuelles, des catégories, concepts et significations, une logique qui nous déterminent de part en part. La lucidité philosophique impose donc au préalable d’expliciter cette logique, ou pour le dire autrement, de prendre conscience du logiciel avec lequel nous traitons les données. Or (et les seuls mots de “logique” et de “logiciel” l’attestent) nous sommes les héritiers du logos, de la rationalité grecque, qui a fait de la science la norme du vrai : nous pensons toujours dans le cadre légué par Thalès, Pythagore, Démocrite, Euclide, Platon et Aristote.
LUND2022a.4
Cf. Lundi matin, L’anarchéologie de Jean Vioulac, op. cit. : l’avènement de l’économie de production, c’est la révolution néolithique, la première grande révolution de l’histoire de l’humanité : Homo sapiens vit pendant plus de 300.000 ans en petits groupes de chasseurs-cueilleurs nomades, il s’installe (il y a environ 10.000 ans) en sociétés d’agriculteurs-éleveurs sédentaires. C’est pourquoi il faut remonter aussi loin : d’abord parce que la société de production (et les processus d’abstraction réelle qui lui sont immanents) est la base réelle de la superstructure théorico-logique, ensuite parce qu’advient ainsi une nouvelle puissance, capable de dominer et de transformer le monde, la puissance sociale de production. Cette puissance domine les hommes eux-mêmes : la révolution néolithique est la socialisation de l’homme, sa subordination aux hiérarchies, elle n’est pas seulement domestication des animaux mais aussi et surtout domestication de l’homme lui-même, qui en fait un animal docile, servile et obéissant. […] Or notre époque se définit par la révolution industrielle, seconde grande révolution dans l’histoire de l’humanité, qui opère de même un changement de régime ontologique. On peut nommer “machination” ce nouveau régime ontologique, qui définit le monde non plus comme nature mais comme machine, non plus comme objet pour un sujet mais data pour un calcul, entièrement subordonné à l’Unité numérique qui monopolise toute la puissance sociale de production : le Capital. D’où là encore l’importance de Marx, le seul à avoir pensé l’hégémonie cybernétique totalitaire du Capital, qui est aujourd’hui le seul principe et le seul fondement. C’est la critique de fond qu’il faut faire aux anarchistes classiques, la même qu’il faut adresser aux libertariens : le problème n’est pas seulement l’État, le problème est celui du Capital dont l’État n’est qu’un appareil. Tant que la monarchie du Capital n’aura pas été renversée, l’anarchisme reste formel, et il risque de se dissoudre dans l’individualisme de sociétés atomisées par la machination cybercapitaliste et de se confondre avec le libertarisme.
ABIT2012
Sciences des données
Serge ABITEBOUL, Sciences des données : De la Logique du premier ordre à la Toile, Paris, Collège de France / Fayard, 2012, Leçon inaugurale prononcé le jeudi 8 mars 2012, Chaire d’informatique et sciences numériques, http://abiteboul.com/College/lecon.htm.
ABIT2012.1
Cf. Abiteboul, Science des données, op. cit. : Une donnée est une description élémentaire, typiquement numérique ici, d’une réalité. C’est par exemple une observation ou une mesure. À partir de données collectées, de l’information est obtenue en organisant ces données, en les structurant pour en dégager du sens. En comprenant le sens de l’information, nous aboutissons à des connaissances, c’est-à-dire à des “faits” considérés comme vrais dans l’univers d’un locuteur et à des “lois” (des règles logiques) de cet univers.
ABIT2012.2
Cf. Abiteboul, Science des données, op. cit. : Nous utiliserons ici le terme anglais “crowdsourcing” Il s’agit de publier sur la Toile des problèmes que des programmes ne savent pas bien résoudre ; des internautes proposent alors des réponses, typiquement moyennant finance. […] L’originalité de tels dispositifs est que l’individu se retrouve au service d’un système informatique, qui l’utilise, par exemple, pour compléter sa base de connaissances ou résoudre des contradictions dans cette base.
DOWE2011b
Une introduction à la science informatique
Gilles DOWEK, Une introduction à la science informatique pour les enseignants de la discipline en lycée, Préface de Gérard BERRY, ouvrage dirigé par Gilles DOWEK, Paris, Centre réfional de documentation pédagogique de l’académie de Paris, 2011, https://wiki.inria.fr/wikis/sciencinfolycee/images/d/df/LSI0De_but.pdf.
DOWE2011b.1
Cf. Dowek, Une introduction à la science informatique, op. cit., p. 16 : l’informatique est fondée sur l’interaction et l’équilibre de quatre notions fondamentales, le codage numérique de l’information, les algorithmes ou procédés de calcul automatiques, les langages permettant de définir formellement les algorithmes, et les machines exécutant les programmes écrits dans ces langages.
DOWE2011b.2
Cf. Dowek, Une introduction à la science informatique, op. cit., p. 17 : depuis longtemps,nous avions construit des machines capables d’exécuter plusieurs algorithmes, comme la machine de Pascal, qui effectuait des additions et des soustractions, la nouveauté avec les ordinateurs était qu’ils étaient capables d’exécuter, non seulement plusieurs algorithmes, mais tous les algorithmes possibles, opérant sur des données symboliques. C’est cette universalité des ordinateurs qui explique leur omniprésence dans nos vies professionnelles et personnelles : un comptable, un architecte et un médecin n’utilisent pas les mêmes algorithmes, mais ils utilisent tous un ordinateur pour les exécuter. L’histoire de la naissance de l’informatique est donc celle de la rencontre de ces deux concepts d’algorithme et de machine. Un algorithme est une méthode opérationnelle qui permet de résoudre systématiquement toutes les instances d’un problème donné. Une machine est un système physique, avec lequel nous avons défini un protocole d’échange d’informations.
DOWE2011b.3
Cf. Dowek, Une introduction à la science informatique, op. cit., p. 18 : Avec la naissance de l’informatique, nous avons commencé à nous poser quotidiennement des questions, rares jusqu’alors : quel langage inventer pour décrire tels ou tels objets ? Cette interrogation sur la notion de langage place l’informatique dans le prolongement de la linguistique, mais surtout de la logique.
TREG2019a
Personnalité de la semaine
Félix TRÉGUER, Personnalité de la semaine, France Inter, septembre 2019, transcription sur https://www.april.org/felix-treguer-personnalite-de-la-semaine-france-inter.
TREG2019a.1
Cf. Tréguer, Personnalité de la semaine, op. cit. : Après dix ans d’engagement dans les combats autour des droits de l’homme dans l’environnement numérique, c’est vrai que le constat est un peu amer. Un outil qui devait servir à l’accès au savoir, à la connaissance, qui devait démocratiser la liberté d’expression, transformer l’écosystème médiatique pour favoriser la démocratie, on se rend compte que c’est, en fait, un formidable instrument aux mains des pouvoirs étatiques et économiques.
TREG2019a.2
Cf. Tréguer, Personnalité de la semaine, op. cit. : Je pense que les outils pour transformer l’environnement numérique, transformer Internet et en faire un outil d’émancipation existeraient. Le problème c’est que je ne crois pas que les conditions historiques soient réunies pour qu’on arrive à renverser la vapeur, donc j’avoue que je suis assez pessimiste. J’essaie justement de refaire un petit peu l’histoire de la critique de la technologie dans ce livre : il faut se rappeler que l’ordinateur et l’informatique ont fait l’objet d’oppositions très fortes dans les années 60-70. C’est quelque chose qu’on a largement oublié. En fait, les débats de l’époque ressemblent beaucoup à ceux qu’on a aujourd’hui, s’agissant des capacités de surveillance, s’agissant de l’incorporation de la machine informatique dans les grandes bureaucraties qui nous gouvernent et je crois qu’aujourd’hui une des priorités des mouvements sociaux et de ceux qui luttent pour la transformation sociale c’est de réinvestir la critique de la technologie et de se rendre compte qu’en fait, au lieu de nous libérer, elle a tendance à nous asservir.
TREG2019b
Internet : face à « l’utopie déchue », « débrancher les machines »
Félix TRÉGUER, Internet : face à « l’utopie déchue », « débrancher les machines », Mediapart, 14 septembre 2019, https://www.mediapart.fr/journal/culture-idees/140919/internet-face-l-utopie-dechue-debrancher-les-machines.
TREG2019b.1
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : Le second échec est en partie personnel, celui de l’auteur, sociologue mais également hacktiviste, membre fondateur de l’association de défense des libertés numériques La Quadrature du Net. Félix Tréguer a participé à la plupart des grandes batailles militantes de ces dernières années, dont beaucoup se sont soldées par des défaites. Malgré tous leurs efforts, et les révélations d’Edward Snowden en juin 2013, les hacktivistes n’ont pas réussi à empêcher l’adoption des multiples lois liberticides ni à ralentir l’emprise des GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sur nos vies privées. Ce sont en outre les idéaux mêmes des pionniers de la contre-culture numérique qui ont été récupérés et retournés contre les usagers. Un renversement qui a plongé la technocritique dans une impasse théorique dont elle peine à sortir.
TREG2019b.2
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : Cet excès de confiance a conduit les militants à se reposer sur des modes d’action situés à l’intérieur du numérique et du cadre légal défini par les autorités. “Depuis dix ans, j’ai participé, avec bien d’autres… [à] une opposition de droit destinée à préserver le potentiel émancipateur d’Internet, en défendant la légalité de certains modes d’action politique novateurs permis par le numérique, ou en invoquant les libertés publiques contre les politiques de contrôle d’Internet promues par les États”, constate Félix Tréguer.
TREG2019b.3
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : “Après un demi-siècle d’informatisation du monde, on pourrait continuer à recycler, sans plus trop y croire, les mêmes discours et les mêmes recettes pour éviter que l’informatique ne nuise aux libertés. Sauf qu’en attendant, nous perdons l’essentiel des batailles. Pendant ce temps, les nuages s’amoncellent”, prévient-il.
TREG2019b.4
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : À cette époque, le réseau ne s’est pas encore propagé au sein du grand public. Mais l’informatique et la révolution numérique ont déjà profondément influencé les esprits et donné naissance à “deux utopies techniciennes concurrentes”. La première est “celle des bureaucraties d’État qui conçoivent l’ordinateur non seulement comme une aide, voire un substitut, à la décision et à l’action humaine, mais aussi comme l’instrument d’une plus grande ‘efficacité‘ dans la conduite des fonctions régaliennes”.
TREG2019b.5
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : La seconde est celle développée à partir des années 1960 par des “hippies technophiles” et vise à faire “de l’informatique une machine à communiquer capable de contribuer à l’épanouissement de l’individu démocratique”. “Ces appels à la démocratisation de l’informatique” vont donner naissance à de nombreuses initiatives comme les “associations d’amateurs consacrées à la construction artisanale de micro-ordinateurs, à l’échange de pièces de programmes, au partage de connaissances et à l’entraide”.
TREG2019b.6
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : L’Utopie déchue retrace cette histoire de la contre-culture numérique : celle des premiers “phreakers”, spécialisées dans le détournement des lignes téléphoniques, des hackers qui “brandissent […] la menace du sabotage informatique, équivalent numérique des destructions de matériel prisées depuis la fin des années 1960 par les groupes d’actions directes”, des cypherpunks qui voient dans la cryptographie un outil pour rétablir l’équilibre démocratique ou encore le mouvement du logiciel libre qui lutte contre la confiscation de l’informatique par les entreprises.
TREG2019b.7
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : Ensuite, le numérique va être la cible, dès les années 1990, de ce que le livre qualifie de “reféodalisation”, d’une reprise en main. Au nom de la lutte contre les contenus pédopornographiques, terroristes, raciste, sexistes…, la liberté d’expression est de plus en plus encadrée sur Internet. Même si l’auteur ne nie pas certaines dérives, il note qu’à “chacune de ces controverses touchant à la liberté d’expression sur Internet transparaît aussi le mépris de la classe politique pour la plèbe bruyante qui se donne ainsi à voir, et non seulement en raison de ses discours haineux, mais aussi à cause d’expressions qui remettent en cause la domination symbolique”.
TREG2019b.8
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : L’Utopie déchue pourrait être un livre défaitiste et déprimant. Comme le résume Félix Tréguer en conclusion, nous sommes entrés dans la “société de contrôle” décrite en 1990 par le philosophe Gilles Deleuze. Celle-ci fait suite aux sociétés de souveraineté et disciplinaires analysées par Michel Foucault. Aux individus, elle substitue “des ‘dividuels’ sans corps – un néologisme désignant des ‘individus divisés’, atomisés, réduits à des ‘chiffres’ – tandis que les masses deviennent ‘des échantillons, des données, des marchés ou des banques’”.
TREG2019b.9
Cf. Tréguer, Internet : face à « l’utopie déchue », « débrancher les machines », op. cit. : En définitive, c’est au contraire un livre enthousiasmant, qui tente de refonder la technocritique pour trouver de nouvelles stratégies. “Face à ceux qui, découragés par l’apparente incommensurabilité de Big Brother, seraient tentés de verser dans l’apathie”, écrit Félix Tréguer, Gilles Deleuze “affirmait qu’entre la souveraineté, les disciplines ou le contrôle, ‘il n’y a pas lieu de demander quel est le régime le plus dur, ou le plus tolérable, car c’est en chacun d’eux que s’affrontent les libérations et les asservissements’. Ce qu’il faut, expliquait-il, c’est ‘chercher de nouvelles armes’”. Jusqu’à présent, les stratégies militantes ont reposé sur “des approches éthiques, juridiques, technologiques ou organisationnelles” visant à “tenter de corriger les pires aspects des technologies modernes”. Le problème est que technologie et pouvoir forment un couple marchant main dans la main. Pour être efficace, l’hacktivisme doit donc avant toute chose opérer une “disjonction” entre pouvoir et technologie. Or, poursuit le sociologue, “à l’heure où le Big Data et l’intelligence artificielle s’accompagnent d’une recentralisation phénoménale des capacités de calcul, un tel découplage entre pouvoir et informatique paraît moins probable que jamais. Et si l’on admet qu’il n’adviendra pas dans un futur proche, alors il est urgent d’articuler les stratégies classiques à un refus plus radical opposé à l’informatisation du monde”.
RESC2017
The Computational Theory of Mind
Michael RESCORLA, The Computational Theory of Mind, in The Stanford Encyclopedia of Philosophy, Spring 2017 Edition, Edward N. Zalta (ed.), https://plato.stanford.edu/archives/spr2017/entries/computational-mind/.
RESC2017.1
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Could a machine think? Could the mind itself be a thinking machine? The computer revolution transformed discussion of these questions, offering our best prospects yet for machines that emulate reasoning, decision-making, problem solving, perception, linguistic comprehension, and other characteristic mental processes. Advances in computing raise the prospect that the mind itself is a computational system – a position known as the computational theory of mind (CTM). Computationalists are researchers who endorse CTM, at least as applied to certain important mental processes. CTM played a central role within cognitive science during the 1960s and 1970s. For many years, it enjoyed orthodox status. More recently, it has come under pressure from various rival paradigms. A key task facing computationalists is to explain what one means when one says that the mind “computes”. A second task is to argue that the mind “computes” in the relevant sense. A third task is to elucidate how computational description relates to other common types of description, especially neurophysiological description (which cites neurophysiological properties of the organism’s brain or body) and intentional description (which cites representational properties of mental states).
RESC2017.2
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Early AI research emphasized logic. Researchers sought to “mechanize” deductive reasoning. A famous example was the Logic Theorist computer program (Newell and Simon 1956), which proved 38 of the first 52 theorems from Principia Mathematica (Whitehead and Russell 1925). In one case, it discovered a simpler proof than Principia’s. Early success of this kind stimulated enormous interest inside and outside the academy. Many researchers predicted that intelligent machines were only a few years away. Obviously, these predictions have not been fulfilled. Intelligent robots do not yet walk among us. Even relatively low-level mental processes such as perception vastly exceed the capacities of current computer programs.
RESC2017.3
Cf. Rescorla, The Computational Theory of Mind, op. cit. : One problem that dogged early work in AI is uncertainty. Nearly all reasoning and decision-making operates under conditions of uncertainty. For example, you may need to decide whether to go on a picnic while being uncertain whether it will rain. Bayesian decision theory is the standard mathematical model of decision-making under uncertainty. Uncertainty is codified through probability. Precise rules dictate how to update probabilities in light of new evidence and how to select actions in light of probabilities and utilities.
RESC2017.4
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Warren McCulloch and Walter Pitts (1943) first suggested that something resembling the Turing machine might provide a good model for the mind. In the 1960s, Turing computation became central to the emerging interdisciplinary initiative cognitive science, which studies the mind by drawing upon psychology, computer science (especially AI), linguistics, philosophy, economics (especially game theory and behavioral economics), anthropology, and neuroscience. The label classical computational theory of mind (which we will abbreviate as CCTM) is now fairly standard. According to CCTM, the mind is a computational system similar in important respects to a Turing machine, and core mental processes (e.g., reasoning, decision-making, and problem solving) are computations similar in important respects to computations executed by a Turing machine.
RESC2017.5
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Hilary Putnam (1967) introduced CCTM into philosophy. He contrasted his position with logical behaviorism and type-identity theory. Each position purports to reveal the nature of mental states, including propositional attitudes (e.g., beliefs), sensations (e.g., pains), and emotions (e.g., fear). According to logical behaviorism, mental states are behavioral dispositions. According to type-identity theory, mental states are brain states. Putnam advances an opposing functionalist view, on which mental states are functional states. According to functionalism, a system has a mind when the system has a suitable functional organization. Mental states are states that play appropriate roles in the system’s functional organization. Each mental state is individuated by its interactions with sensory input, motor output, and other mental states.
RESC2017.6
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Fodor (1975, 1981, 1987, 1990, 1994, 2008) advocates a version of CCTM that accommodates systematicity and productivity much more satisfactorily. He shifts attention to the symbols manipulated during Turing-style computation. An old view, stretching back at least to William of Ockham’s Summa Logicae, holds that thinking occurs in a language of thought (sometimes called Mentalese). Fodor revives this view. He postulates a system of mental representations, including both primitive representations and complex representations formed from primitive representations. For example, the primitive Mentalese words JOHN, MARY, and LOVES can combine to form the Mentalese sentence JOHN LOVES MARY. Mentalese is compositional: the meaning of a complex Mentalese expression is a function of the meanings of its parts and the way those parts are combined. Propositional attitudes are relations to Mentalese symbols. Fodor calls this view the representational theory of mind (RTM). Combining RTM with CCTM, he argues that mental activity involves Turing-style computation over the language of thought. Mental computation stores Mentalese symbols in memory locations, manipulating those symbols in accord with mechanical rules.
RESC2017.7
Cf. Rescorla, The Computational Theory of Mind, op. cit. : In the 1980s, connectionism emerged as a prominent rival to classical computationalism. Connectionists draw inspiration from neurophysiology rather than logic and computer science. They employ computational models, neural networks, that differ significantly from Turing-style models. A neural network is a collection of interconnected nodes. Nodes fall into three categories: input nodes, output nodes, and hidden nodes (which mediate between input and output nodes). Nodes have activation values, given by real numbers. One node can bear a weighted connection to another node, also given by a real number. Activations of input nodes are determined exogenously: these are the inputs to computation. Total input activation of a hidden or output node is a weighted sum of the activations of nodes feeding into it. Activation of a hidden or output node is a function of its total input activation; the particular function varies with the network. During neural network computation, waves of activation propagate from input nodes to output nodes, as determined by weighted connections between nodes. In a feedforward network, weighted connections flow only in one direction. Recurrent networks have feedback loops, in which connections emanating from hidden units circle back to hidden units. Recurrent networks are less mathematically tractable than feedforward networks. However, they figure crucially in psychological modeling of various phenomena, such as phenomena that involve some kind of memory (Elman 1990). Weights in a neural network are typically mutable, evolving in accord with a learning algorithm. The literature offers various learning algorithms, but the basic idea is usually to adjust weights so that actual outputs gradually move closer to the target outputs one would expect for the relevant inputs. The backpropagation algorithm is a widely used algorithm of this kind (Rumelhart, Hinton, and Williams 1986). Connectionism traces back to McCulloch and Pitts (1943), who studied networks of interconnected logic gates (e.g., AND-gates and OR-gates). One can view a network of logic gates as a neural network, with activations confined to two values (0 and 1) and activation functions given by the usual truth-functions. McCulloch and Pitts advanced logic gates as idealized models of individual neurons. Their discussion exerted a profound influence on computer science (von Neumann 1945). Modern digital computers are simply networks of logic gates. Within cognitive science, however, researchers usually focus upon networks whose elements are more “neuron-like” than logic gates. In particular, modern-day connectionists typically emphasize analog neural networks whose nodes take continuous rather than discrete activation values. Some authors even use the phrase “neural network” so that it exclusively denotes such networks.
RESC2017.8
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Philosophers and cognitive scientists use the term “representation” in diverse ways. Within philosophy, the most dominant usage ties representation to intentionality, i.e., the “aboutness” of mental states. Contemporary philosophers usually elucidate intentionality by invoking representational content. A representational mental state has a content that represents the world as being a certain way, so we can ask whether the world is indeed that way. Thus, representationally contentful mental states are semantically evaluable with respect to properties such as truth, accuracy, fulfillment, and so on.
RESC2017.9
Cf. Rescorla, The Computational Theory of Mind, op. cit. : Classical computationalists typically assume what one might call the formal-syntactic conception of computation (FSC). The intuitive idea is that computation manipulates symbols in virtue of their formal syntactic properties rather than their semantic properties. FSC stems from innovations in mathematical logic during the late 19th and early 20th centuries, especially seminal contributions by George Boole and Gottlob Frege. […] Formalization plays a significant foundational role within computer science. We can program a Turing-style computer that manipulates linguistic expressions drawn from a formal language. If we program the computer wisely, then its syntactic machinations will cohere with our intended semantic interpretation. For example, we can program the computer so that it carries true premises only to true conclusions, or so that it updates probabilities as dictated by Bayesian decision theory.
TUAL2019
L’intelligence artificielle, le grand malentendu
Morgane TUAL, L’intelligence artificielle, le grand malentendu, in Le Monde.fr, 13 novembre 2019, https://www.lemonde.fr/idees/article/2019/11/13/l-intelligence-artificielle-le-grand-malentendu_6018956_3232.html.
TUAL2019.1
Cf. Tual, L’intelligence artificielle, le grand malentendu, op. cit. : L’intelligence artificielle n’existe pas. Le titre de cet ouvrage (First, 288 p., 17,95 €) a de quoi étonner, en ces temps où les technologies d’IA, portées par des progrès impressionnants, ne cessent de faire les gros titres. D’autant plus quand on y regarde de plus près : le livre est signé Luc Julia, cocréateur de Siri, l’une des intelligences artificielles les plus célèbres au monde ! “En 1956, on a décidé d’appeler ça de l’intelligence artificielle, alors que ça n’a rien à voir avec de l’intelligence”, assume le chercheur, aujourd’hui vice-président de l’innovation chez Samsung.
TUAL2019.2
Cf. Tual, L’intelligence artificielle, le grand malentendu, op. cit. : Dans son ouvrage, il fait référence à la conférence du Dartmouth College, organisée cette année-là aux États-Unis par les pionniers Marvin Minsky et John McCarthy, qui introduisent la notion d’intelligence artificielle. “Elle désigne alors une discipline scientifique qui a pour but de décomposer l’intelligence en fonctions élémentaires, au point qu’on puisse fabriquer un ordinateur pour les simuler”, explique Jean-Gabriel Ganascia, chercheur au Laboratoire informatique de Sorbonne-Université (LIP6) et président du comité d’éthique du CNRS. Un domaine d’étude scientifique, donc. Problème : “On a commencé à fantasmer sur le mot, constate Luc Julia, sur l’idée qu’on pourrait créer quelque chose proche de nous qui nous remplacerait, voire nous contrôler. Alors que c’est l’inverse : c’est nous qui contrôlons l’IA ! Cette IA dont on parle à longueur de journée n’est qu’un outil, comme un bon marteau ou un couteau.”
TUAL2019.3
Cf. Tual, L’intelligence artificielle, le grand malentendu, op. cit. : Le malentendu réside notamment dans l’emploi du mot “intelligence”. “En appelant un logiciel ‘intelligence artificielle’, on présuppose que l’intelligence peut être un comportement simulé, qui ne consisterait qu’en un échange d’informations – c’est la théorie de la cybernétique, explique Marc Atallah, directeur de la Maison d’Ailleurs (Musée de la science-fiction à Yverdon-les-Bains, en Suisse) et professeur de littérature à l’université de Lausanne. Dans les années 1950, qui sont aussi les années des tests de QI [quotient intellectuel], si vous calculez vite, vous êtes considéré comme intelligent. Or, ce terme peut vouloir dire plusieurs choses : être cultivé, savoir créer des liens, se comporter ‘en bonne intelligence’… La capacité de calcul n’est qu’une petite partie de tout ça.” À cause de cette “erreur sémantique, poursuit-il, les gens ont l’impression que l’IA fonctionne comme nous, et tendent à projeter les comportements problématiques d’humains sur la machine”. Luc Julia souligne aussi la responsabilité “des médias et d’Hollywood, qui trouvent ça sexy et sensationnaliste”. “Robocop, Her… C’est plus sympa de parler de ça que de mathématiques et de statistiques”.
DOWE2014
La place de l’informatique dans la classification des sciences
Gilles DOWEK, La place de l’informatique dans la classification des sciences, in blog Binaire, 5 février 2014, https://www.lemonde.fr/blog/binaire/2014/02/05/la-place-de-linformatique-dans-la-classification-des-sciences/.
DOWE2014.1
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Le questionnement sur la classification des sciences provient en partie du besoin d’organiser les institutions scientifiques : écoles, universités, laboratoires, etc. Ainsi, l’enseignement des sciences dans les écoles du Moyen Âge était-il organisé selon le quatrivium de Boèce : arithmétique, musique, géométrie et astronomie. Et avant sa récente réorganisation le Centre National de la Recherche Scientifique était-il organisé en suivant précisément la classification des sciences d’Auguste Comte : mathématiques (section 1), physique (sections 2 à 10), chimie (sections 11 à 16), astronomie (sections 17 à 19), biologie (sections 20 à 31), sciences humaines (sections 32 à 40), le seul écart étant la place de l’astronomie. Mais ce questionnement provient aussi sans doute d’une interrogation plus fondamentale sur la nature des sciences, sur ce qui les unit et les sépare. Il y a ici une manière originale, car extensionnelle, de s’interroger sur la nature de la science, en s’interrogeant sur la nature des sciences. Ces raisons, institutionnelle et épistémologique, expliquent que ce questionnement ressurgisse particulièrement quand une nouvelle science apparaît, la physique sociale à l’époque de Comte, l’informatique aujourd’hui.
DOWE2014.2
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Selon une tradition qui remonte au moins à Kant, s’interroger sur la nature d’une science consiste à s’interroger d’une part sur les objets qu’elle étudie et d’autre par sur sa méthode, c’est-à-dire sur la manière dont nous jugeons, dans cette science là, de la vérité d’une proposition. Cela nous mène concevoir la classification des sciences comme un tableau à deux dimensions. La première dimension concerne les objets étudiés. Ici, nous pouvons opposer les mathématiques, qui étudient des objets abstraits, ou du Logos, ou cognitifs, aux sciences de la nature, qui étudient des objets concrets, ou du Cosmos, ou objectifs. De manière équivalente, les connaissances peuvent être qualifiées de synthétiques dans les sciences de la nature et d’analytiques en mathématiques. Bien entendu, cette conception des connaissances mathématiques ne date que du programme de Frege et de la conception moderne, due à Hilbert et à Poincaré, des axiomes comme définitions, implicites ou déguisées, des objets étudiés par les mathématiques. Avant cela, les objets mathématiques étaient perçus comme réels bien qu’idéaux, le rôle des axiomes n’était que celui de décrire cette réalité idéale, et les connaissances mathématiques étaient perçues comme synthétiques. Cette transformation de la perception des mathématiques a mené à une évolution de la signification des mots “analytique” et “synthétique”, qui, peu à peu, ont pris la même signification que les mots “nécessaire” et “contingent”. Il est ensuite possible de distinguer le vivant au sein de la nature et l’humain au sein du vivant, ce qui mène à la distinction entre les sciences physiques, les sciences de la vie et les sciences humaines, même si la spécificité de ces dernières mène parfois à les distinguer, ce qui conduit, par exemple, Michel Serres à séparer les sciences du collectif des sciences de l’objectif. Cette progression du général au particulier, qui distingue le vivant au sein de la nature et l’humain au sein du vivant est le principe dominant dans la classification de Comte. Ce principe explique aussi que les mathématiques se trouvent avant les sciences physiques, dans cette classification, si l’on veut bien considérer qu’une proposition est nécessaire quand elle est vraie dans tous les mondes possibles et que la nature n’est qu’un monde possible parmi d’autres. La seconde dimension concerne la méthode que chaque science utilise pour étudier ces objets. Ici encore, la distinction principale oppose les mathématiques, où juger qu’une proposition est vraie demande de la démontrer, aux sciences de la nature où juger qu’une proposition est vraie demande ou bien une observation, ou bien la construction d’une hypothèse qui n’est pas en contradiction avec les observations. Par exemple, nous savons que Jupiter a des satellites car nous les avons observés et nous tenons pour vrai que Mercure n’a pas de satellite, car nous n’en avons jamais observé. Dans les deux cas juger la proposition vraie demande une interaction avec la nature. Les jugements en mathématiques peuvent être qualifiés de a priori, et dans les sciences de la nature, d’a posteriori. Nous aboutissons finalement à une classification relativement simple, avec les mathématiques analytiques a priori, les sciences de la nature synthétiques a posteriori et deux cases du tableau vides, ou presque, pour d’hypothétiques connaissances analytiques a posteriori et synthétiques a priori, ces dernières se limitant, après Frege, à la connaissance de sa propre existence et quelques connaissances de la même nature. Quelle est la place de l’informatique dans une telle classification ?
DOWE2014.3
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Commençons par nous demander de quels objets parle l’informatique. L’informatique parle d’objets de différente nature : informations, langages, machines et algorithmes. Ces quatre classes d’objets sont très vastes : les langages comprennent les langages de programmation, mais aussi les langages de requête, les langages de spécification, etc., les machines comprennent les ordinateurs, mais aussi les robots, les réseaux, etc. Il y a sans doute ici une originalité de l’informatique, que nous ne pouvons réduire à l’étude d’un seul type d’objets : nous amputons l’informatique en la définissant comme la science des algorithmes, ou comme celle des machines. Chacun de ces quatre concepts est antérieur à l’informatique, mais ce que l’informatique apporte sans doute de nouveau est leur organisation en une science cohérente. Le concept d’algorithme, par exemple, existe depuis plus de quatre mille ans, mais cela ne suffit pas pour considérer les scribes de l’Antiquité comme des informaticiens. L’informatique n’a débuté qu’au milieu du XXe siècle, quand nous avons commencé à utiliser des machines pour exécuter des algorithmes, ce qui a demandé de concevoir des langages de programmation et de représenter des données sur lesquelles ces algorithmes opèrent sous une forme accessible aux machines, c’est là l’origine de la théorie de l’information. Ces quatre concepts sont d’égale dignité, mais ils ne jouent pas tous le même rôle dans la constitution de l’informatique. Illustrons cela par un exemple. Un programme de tri est un algorithme, exprimé dans un langage de programmation et exécuté sur une machine, qui transforme des informations. Par exemple, il transforme la liste 5,1,3 en la liste 1,3,5. Toute l’entreprise que constitue la conception d’un algorithme de tri, la définition d’un langage de programmation dans lequel l’exprimer, la construction d’une machine pour l’exécuter, etc. a comme but de savoir que le résultat du tri de la liste 5,1,3 est la liste 1,3,5. Il semble donc que le but ultime de l’informatique soit de transformer des informations et que les algorithmes, les langages et les machines soient des éléments de méthode pour atteindre ce but. Nous pouvons ici faire un parallèle avec la physique. Le but de la mécanique céleste est de faire des prédictions sur la position des astres à une date donnée. Et les concepts de force, de moment ou d’énergie sont des éléments de méthode pour parvenir à ce but. Nous pourrions, à juste titre, objecter que l’informatique s’intéresse peu au résultat du tri de la liste 5,1,3 et davantage, par exemple, à l’algorithme de tri par fusion. Nous pourrions, de même, objecter que la physique s’intéressent davantage aux équations de Newton, qu’à la position de Jupiter lundi prochain. Il n’en reste pas moins que le but ultime de la physique est de produire des propositions sur la nature, et non sur les équations différentielles. Et que c’est ce ce but ultime qui définit la nature de la physique. De même, le but ultime de l’informatique est de transformer des informations, non de produire des résultats sur les algorithmes, les langages ou les machines. Et c’est ce but ultime qui définit la nature de l’informatique. Ainsi, s’interroger sur la nature de l’objet d’étude de l’informatique, c’est s’interroger sur la nature des informations, et non sur celle des langages, des machines ou des algorithmes. Les informations sont des objets abstraits et le jugement que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 est analytique. Du point de vue des objets qu’elle étudie, l’informatique se place donc parmi les sciences analytiques, à coté des mathématiques.
DOWE2014.4
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Il est possible de juger que le résultat du tri de la liste 5,1,3 est la liste 1,3,5 par une simple opération mentale. Ce jugement peut être alors qualifié de jugement a priori. Toutefois, le calcul mental n’appartient pas à l’informatique, car ce qui définit l’informatique n’est pas la simple application d’un algorithme à des informations, mais l’utilisation d’une machine, c’est-à-dire d’un système physique, pour cela. Juger que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 ne demande pas une simple opération mentale, mais tout d’abord une observation : le résultat du calcul est une configuration d’un système physique, que nous devons observer. Ce lien à la nature est essentiel en informatique : la possibilité ou non d’effectuer certains calculs avec une machine est conditionnée par les lois de la physique : que la vitesse de transmission de l’information cesse d’être bornée, et certaines fonctions impossibles à calculer avec une machine dans notre monde, pourraient alors être calculées. Le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est donc un jugement a posteriori. Et du point de vue méthodologique, l’informatique appartient donc aux sciences a posteriori, à coté des sciences de la nature. Nous pourrions, bien entendu, objecter que, si le jugement que le résultat du tri, par une machine, de la liste 5,1,3 est la liste 1,3,5 est a posteriori, d’autres jugements, en informatique, sont a priori. Par exemple le jugement que l’algorithme de tri par insertion est quadratique. De même, en physique, le jugement que les trajectoires solutions de l’équation de Newton sont des coniques est un jugement a priori. Toutefois cela ne fait pas de la physique une science a priori, car, comme nous l’avons dit, le but ultime de la physique n’est pas de produire des propositions sur les solutions des équations différentielles, mais sur la nature. De même l’existence de jugements a priori en informatique ne fait pas de l’informatique une science a priori, car le but ultime de l’informatique n’est pas de produire des propositions sur la complexité des algorithmes de tri, mais d’utiliser des machines, des systèmes physiques, pour exécuter ces algorithmes.
DOWE2014.5
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Nous arrivons donc à la conclusion que l’informatique est une science à la fois analytique, ce qui la rapproche des mathématiques, et a posteriori, ce qui la rapproche des sciences de la nature. Aux deux catégories, sciences analytiques a priori et synthétiques a posteriori, il convient donc d’en ajouter une troisième pour les sciences analytiques a posteriori, catégorie à laquelle l’informatique appartient.
DOWE2014.6
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : De nombreuses Universités regroupent les mathématiques et l’informatique dans une Unité de Formation et de Recherche de mathématiques et informatique. À l’inverse, l’organisation du Centre National de la Recherche Scientifique faisait de l’informatique une partie de la physique, puisque la section 7, Sciences et technologies de l’information (informatique, automatique, signal et communication), était classée entre la section Matière condensée : structures et propriétés électroniques et la section Micro et nano-technologies, électronique, photonique, électromagnétisme, énergie électrique. Apparaissent ici deux visions partielles de l’informatique, comme science analytique, à l’instar des mathématiques, et science a posteriori, à l’instar des sciences de la nature, qui, l’une et l’autre, occultent la spécificité de l’informatique, à la fois analytique et a posteriori, et donc différente à la fois des mathématiques et des sciences de la nature. Ces deux visions amputent, l’une et l’autre, l’informatique pour la faire entrer dans une classification qui lui est antérieure.
DOWE2014.7
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Avant de nous demander si l’informatique est la seule science de sa catégorie ou s’il y a de nombreuses sciences analytiques a posteriori, nous pouvons nous poser la même question pour les deux autres catégories évoquées ci-avant. Les mathématiques nous semblent bien être la seule science analytique a priori, alors que les sciences synthétiques a posteriori sont nombreuses : physique, biologie, etc. Toutefois, cette différence semble purement conventionnelle. Nous aurions pu, comme Boèce, distinguer l’arithmétique de la géométrie, ou alors regrouper les sciences de la nature en une seule science : la philosophie naturelle. Nous pouvons, de même, diviser l’informatique en diverses branches qui étudient les langages de programmation, les réseaux, la complexité des algorithmes, l’architecture de machines, la sûreté, la sécurité, etc. Et considérer ces branches comme des sciences distinctes ou comme les rameaux d’une même science est purement conventionnel. De même, quand nous utilisons une machine analogique, ou même une soufflerie, pour résoudre une équation différentielle, nous produisons des connaissances analytique a posteriori. Et qu’un tel résultat soit considéré comme faisant partie de l’informatique ou non est purement conventionnel.
DOWE2014.8
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : L’informatique demande donc d’étendre la classification des sciences pour faire une place aux sciences analytiques a posteriori. Mais elle déstabilise également les classifications traditionnelles des sciences de deux manières. D’abord elle mène à relativiser la distinction entre connaissances a priori et connaissance a posteriori. L’externalisation de la pensée et de la mémoire qui a commencé avec l’écriture et qui s’est accélérée avec l’informatique, l’utopie du transhumanisme, l’exploration et la simulation des mécanismes neuronaux, la perception de soi-même comme autre, et plus généralement tout ce qui nous mène à nous penser, non comme extérieurs à la nature, mais comme partie de la nature, nous mène à relativiser la différence entre a priori et a posteriori. Nous considérons comme a priori un jugement établi par le seul recours du calcul mental, et comme a posteriori un jugement établi avec un objet matériel comme une calculatrice. Mais si nous parvenions à greffer à notre cerveau un circuit électronique permettant de faire des opérations arithmétiques, devrions nous considérer comme a priori ou a posteriori un jugement établi en ayant recours à ce dispositif ? Cette distinction entre jugement a priori établi par un calcul mental et a posteriori établi par recours à une calculatrice est-elle due au fait que nos neurones sont à l’intérieur de notre boîte crânienne, alors que la calculatrice en est à l’extérieur ? qu’ils sont formé de carbone, d’oxygène et d’hydrogène, et non de silicium ? ou que pour lire le résultat du calcul nous avons besoin d’utiliser un organe sensoriel dans un cas mais non dans l’autre ? Donc, parce qu’elle renouvelle les méthodes permettant de juger une proposition vraie, l’informatique déstabilise la distinction entre connaissance a priori et connaissance a posteriori. Nous devons sans doute inventer des distinctions plus fines que la simple distinction entre a priori et a posteriori, qui prennent en compte la variété des outils qui permettent de juger la vérité d’une proposition : neurones, organes sensoriels, instruments de mesure, instruments de calculs, etc. en insistant à la fois sur le caractère faillible de chacun d’eux et sur leur complémentarité.
DOWE2014.9
Cf. Dowek, La place de l’informatique dans la classification des sciences, op. cit. : Comme le mot “chimie”, et contrairement au mot “physique”, le mot “informatique” désigne à la fois une science et une technique, c’est-à-dire une activité qui vise à savoir et une autre qui vise à construire. Cependant, les liens entre ces deux activités semblent beaucoup plus forts en informatique que dans d’autres domaines du savoir. Par exemple, des branches entières de l’algorithmique, sont apparues pour répondre à des problèmes posés par le déploiement des réseaux. Cependant, il est vraisemblable que les sciences et les techniques aient des liens forts dans tous les domaines et que notre perception de cette séparation soit une illusion. Par exemple au XIXe siècle encore, le texte fondateur de la thermodynamique s’intitulait Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance. Sadi Carnot n’opposait donc pas la thermodynamique à la construction de machines à vapeur. L’informatique nous rappelle la force de ce lien entre science et technique et nous mène à nous demander si nous devrions chercher à classer les sciences uniquement ou les sciences et les techniques ensemble. Ainsi, l’informatique nous demande-t-elle non seulement d’étendre la classification des sciences pour faire une place aux sciences analytiques a posteriori, mais elle déstabilise aussi la distinction habituelle entre a priori et a posteriori, et les classifications habituelles qui ne classent que les sciences et non, ensemble, les sciences et les techniques.
KERM2015
La visionnaire Ada Lovelace
Anne-Marie KERMARREC, La visionnaire Ada Lovelace, in blog Binaire, 7 mars 2015, https://www.lemonde.fr/blog/binaire/2015/03/07/la-visionnaire-ada-lovelace/.
KERM2015.1
Cf. Kermarrec, La visionnaire Ada Lovelace, op. cit. : Ada Lovelace est le fruit des amours tumultueuses de Lord Byron, poète romantique dont le talent n’a d’égal que le goût pour les frasques amoureuses, père qu’elle ne connaitra jamais d’ailleurs, et de Anabella Milanke, mathématicienne, que Byron aimait à appeler sa “Princess of parallelograms”… De l’importance du niveau d’instruction des mères pour celle des jeunes filles. Poussée par sa mère, elle étudie les mathématiques. Elle rencontre à 17 ans, Charles Babbage, mathématicien, professeur à l’Université de Cambridge. Fascinée par les machines qu’il conçoit, Ada y consacrera une grande partie de sa courte vie. Babbage, dont les travaux couvrent un spectre aussi large qu’hétéroclite, du pare-buffle pour locomotive à l’analyse des troncs pour y déceler l’âge des arbres, de l’invention du timbre poste unique aux premiers ordinateurs, conçoit sa machine à différence, sur les traces de la Pascaline de Pascal, initialement pour pallier les erreurs humaines et fournir ainsi des tables nautiques, astronomiques et mathématiques exactes, y incorporant des cartes perforées du métier Jacquard. Ce métier, inventé par Jacquard afin d’éviter aux enfants les travaux pénibles, permettait de reproduire un motif grâce à des cartes perforées qui n’actionnaient que les crochets nécessaires à effectuer le motif choisi sur un métier à tisser. La légende dit que Jacquard s’en est toujours voulu de l’invention de cette machine qui, outre d’être à l’origine de la révolte des canuts, a certes détourné les enfants des métiers à tisser, mais ne leur a pas épargné des travaux pénibles dans d’autres secteurs et parfois dans des conditions encore plus difficiles.
KERM2015.2
Cf. Kermarrec, La visionnaire Ada Lovelace, op. cit. : Babbage se concentre bientôt sur la conception d’une machine plus puissante, la machine analytique dont le design a déjà tout d’un ordinateur moderne. Si Babbage avait en tête de pouvoir effectuer grâce à sa machine de nombreux calculs algébriques, celle qui l’a réellement programmée pour la première fois est Ada Lovelace. En 1842, à la faveur d’un séminaire de Babbage à l’Université de Turin, Louis Menebrea, publie en français un mémoire décrivant la machine analytique de Babbage. Babbage, impressionné par les qualités intellectuelles et mathématiques d’Ada, et dont la compréhension fine de sa machine ne lui aura pas échappé, décide de lui confier la traduction de cet article. Elle s’attellera à cette tâche avec une grande application et à la faveur de cet exercice, augmentera l’article de nombreuses notes, qui triplent sa taille. Ces notes, dont la publication l’a rendue “célèbre”, démontrent que si elle appréhende le fonctionnement de la machine aussi bien que Babbage, elle en voit beaucoup plus clairement l’énorme potentiel. Ceci valut à Ada d’être considérée comme le premier programmeur de l’histoire. Elle a, la première, clairement identifié des notions essentielles en informatique que sont les entrées (les cartes perforées contenant données et instructions), les sorties (cartes perforées contenant les résultats), l’unité centrale (le moulin) et la mémoire (le magasin permettant de stocker les résultats intermédiaires). À la faveur de la conception de l’algorithme permettant le calcul des nombres de Bernoulli, elle a introduit la notion de branchements, mais également expose comment une répétition d’instructions peut être utilisée pour un traitement, introduisant ainsi le concept de la boucle que l’on connaît bien en programmation. Cent ans d’avance. Dans ses notes, Ada décrit en particulier comment la machine peut être utilisée pour manipuler pas uniquement des nombres mais aussi des lettres et des symboles. Ada est une visionnaire, elle est celle qui, la première, entrevoit l’universalité potentielle d’une telle machine, bien au delà de ce que ses contemporains pouvaient appréhender. Ada avait eut cette vision du calculateur universel bien avant l’heure, vision qu’Alan Turing formalisera quelque cent ans plus tard. En particulier elle fut, tellement en avance, en mesure d’imaginer la composition musicale effectuée par un ordinateur. Dans sa fameuse note G, la note finale, elle décrit un programme, comme nous l’appellerions aujourd’hui, qui permettrait à la machine analytique de faire des calculs sans avoir les réponses que les humains auraient pu calculer d’abord. Virage radical par rapport à ce que l’on attendait initialement de la machine analytique. Ada Lovelace était une femme, non conventionnelle, athée quand sa mère et son mari étaient de fervents catholiques. Sur la fin de sa vie, Ada avait pour seul objectif de financer la machine de Babbage, elle croit avoir découvert une méthode mathématique lui permettant de gagner aux courses, qui la laissera dans une situation financière délicate. Elle meurt à 36 ans d’un cancer de l’utérus. Une femme trop peu célébrée. Même si un langage de programmation porte son nom, Ada est restée assez discrète dans la discipline. Étudiante en informatique, j’ai entendu parler de Turing, de von Neuman ou de Babbage. Jamais d’Ada Lovelace. C’est Babbage qui fut récompensé par la médaille d’or de la Royal Astronomical Society en 1824. La vision d’Ada prendra son sens quelque cent ans plus tard dans les travaux de Turing. Alors même qu’il apparaît clairement que les notes d’Ada jetaient les premières bases de la machine de Turing, aucune des nombreuses biographies consacrées à Turing ne la mentionne. Il semblerait pourtant qu’il ait lu la traduction de Lovelace et ses notes quand il travaillait à Bletchey Park. Pire encore, certains historiens lui en retirent même la maternité comme l’historien Bruce Collier. Si cette interprétation est largement contestée, cela en dit long sur la crédibilité qu’on accorde parfois aux esprits féminins.
DEVI2016
L’empathie des robots
Laurence DEVILLIERS, L’empathie des robots, in blog Binaire, 16 septembre 2016, https://www.lemonde.fr/blog/binaire/2016/09/16/laurence-devillers-lempathie-des-robots/.
DEVI2016.1
Cf. Devilliers, L’empathie des robots, op. cit. : Nous procédons en trois phases : codage, étiquetage, modèle. Prenons un exemple de reconnaissance des émotions à partir d’une bande son. Nous choisissons dans ce signal un certain nombre d’“aspects”, qui vont nous donner des centaines, voire des milliers de coordonnées physiques. Nous codons donc la bande son en une séquence de vecteurs de ces coordonnées. Le codage est la phase la plus compliquée. Il faut choisir les bons paramètres, et cela demande une compréhension poussée des expressions des émotions. Il faut arriver à une information plus compacte, mais qui ait gardé suffisamment d’information pour pouvoir encore y retrouver les émotions. L’être humain intervient ensuite en étiquetant ces séquences de vecteurs (segments de son, de vidéo), avec des émotions, colère, joie, tristesse… L’algorithme d’apprentissage automatique essaie ensuite d’“apprendre” un modèle à partir du signal et des étiquettes. C’est ce modèle que le robot va utiliser. Une personne va parler et un programme va utiliser alors le modèle pour prédire que le signal correspond vraisemblablement à telle ou telle émotion. En quelque sorte, le programme essaie de trouver des ressemblances avec des signaux existants dans le corpus de données de départ. S’il trouve une ressemblance avec un signal étiqueté “colère”, il en déduit que la personne est en colère.
DEVI2016.2
Cf. Devilliers, L’empathie des robots, op. cit. : Nous avons surtout utilisé une autre technologie, les “machines à vecteurs de support”, pour la détection des émotions. Nous commençons à utiliser le deep learning, c’est à dire les “réseaux de neurones convolutionnels”, mais il est nécessaire d’avoir de très grands corpus pour l’apprentissage. Le deep learning extrait directement les paramètres à partir du signal brut et les compose automatiquement. C’est une direction intéressante qui donne de bons résultats mais c’est une approche de type boite noire qui ne permet pas de savoir quels sont les critères utiles. L’approche manque de transparence.
DEVI2016.3
Cf. Devilliers, L’empathie des robots, op. cit. : [L’humain n’aura-t-il pas l’impression qu’on rentre dans son intime, si la machine sait tout ce qu’il ressent ?] Il faut des garde-fous. Personnellement, je trouverais insupportable un environnement dans lequel nous serions entourés de machines qui analyseraient nos émotions, sans raison, ou juste pour des motifs commerciaux, ou pour une surveillance policière. Mais si c’est pour l’accompagnement médical des personnes, pour leur bien-être, cela se justifie.
DEVI2016.4
Cf. Devilliers, L’empathie des robots, op. cit. : [Ces liens d’émotion entre humains et robots ne peuvent-ils pas avoir quelque chose de déconcertant, voire d’inquiétant ?] Dans les années 50, les psychologues Heider et Simmel ont fait l’expérience de projeter un film où un grand triangle poursuivait deux autres petites formes géométriques, un triangle et un rond. Les spectateurs, en voyant ces mouvements, leur prêtaient des intentions et imaginaient des scénarios rocambolesques sachant très bien qu’ils s’agissaient de formes géométriques. Dans le film, il y a bien une intention qui vient du réalisateur, mais le sentiment vient de l’interprétation que l’humain fait de ce qu’il voit. Est-ce qu’un robot a des sentiments ? Non, c’est l’humain qui lui prête des sentiments, une personnalité. On peut ainsi parler à son chien ou à son chat en étant parfaitement conscient qu’il ne comprend pas. Les roboticiens cherchent à produire des robots avec lesquels une personne aura de l’empathie. Pour eux, les machines simulent, ce sont juste des coquilles vides qui n’ont pas d’intériorité, pas d’émotions. Ce sont les utilisateurs de ces machines qui vont interpréter leur comportement à travers un prisme anthropomorphique, leur prêter une humanité qu’elles ne possèdent pas. Les utilisateurs vont projeter leurs émotions sur ces machines. Mais est-ce que c’est gênant ? Où est le problème si les personnes préfèrent s’imaginer que les robots ont des émotions ? De mon point de vue, il n’y a pas de problème. Je ne vois qu’un seul risque : que l’humain s’attache trop à un robot. Il faut maitriser cette empathie avec les machines pour éviter la confusion avec une empathie humaine. Ce risque est d’autant plus présent que la future génération de robot sera douée d’apprentissage en continu. Les robots apprendront au contact des humains ce qui risque de renforcer l’attachement à la machine, un peu comme un adulte apprend à son enfant. L’apprentissage en continu des machines est une importante rupture technologique et juridique. Il pourrait y avoir une coresponsabilité en cas de problème avec un robot entre le concepteur et l’utilisateur.
DEVI2016.5
Cf. Devilliers, L’empathie des robots, op. cit. : [Tu es passionnée par ton travail. Qu’est-ce qui te motive ?] Le mystère des sentiments. Je cherche avant tout à comprendre. Quand j’étais enfant, je voulais travailler sur le cerveau. Je ne suis pas si loin ! Cela m’a conduite à interroger mon rapport aux machines et aux robots et à réfléchir sur l’éthique de ces robots affectifs artificiellement. J’aimerais construire des systèmes d’interaction entre robots et humains qui respectent les règles morales de la vie en société et puissent accompagner les personnes âgées notamment souffrant de la maladie d’Alzheimer. À titre personnel, j’aimerais avoir, chez moi dans trente ou quarante ans, un robot qui ait aussi le sens de l’humour ! C’est un sujet de recherche sur lequel nous travaillons.
AILA2017
Dompteuse de données
Anastasia AILAMAKI, Dompteuse de données, in blog Binaire, 16 septembre 2017, https://www.lemonde.fr/blog/binaire/2017/09/01/dompteuse-de-donnees/.
AILA2017.1
Cf. Ailamaki, Dompteuse de données, op. cit. : [Sur quoi porte ta recherche ?] Sur les bases de données massives. J’aime construire des systèmes qui gèrent de grandes quantités de données. Je travaille principalement sur deux axes de recherche : une meilleure utilisation des matériels, et l’expérimentation de la gestion de données massives sur de grandes applications.
AILA2017.2
Cf. Ailamaki, Dompteuse de données, op. cit. : Mon deuxième axe de recherche se situe aux frontières de l’informatique. Je travaille sur des applications qui utilisent ou devraient utiliser les bases de données, mais que nos systèmes n’arrivent pas vraiment à satisfaire aujourd’hui. Ces applications se déroulent dans des domaines scientifiques traitant des masses de données considérables, qui proviennent de mesures de phénomènes naturels ou de simulations. Il faut absolument collaborer avec les scientifiques de ces domaines pour arriver à satisfaire leurs besoins. On rencontre des problèmes variés : l’organisation des données, la puissance de calcul requise, la diversité des données scientifiques, les besoins des scientifiques qui évoluent souvent rapidement, de manière très dynamique, alors que les systèmes de gestion de données traditionnels ont été conçus pour des données régulières et statiques…
AILA2017.3
Cf. Ailamaki, Dompteuse de données, op. cit. : Je participe au projet “Human brain” visant notamment à identifier une maladie du cerveau par sa “signature” qui combine des informations de divers types : des mesures cliniques et biométriques, des données biologiques, radiologiques, cliniques, etc. Les systèmes doivent faciliter les calculs de telles signatures, pour arriver à un meilleur diagnostic, personnalisé pour chaque patient et plus juste statistiquement. Il nous faut des systèmes capables d’aller chercher les données dans différents services de l’hôpital et de les rassembler. Nous n’y sommes pas encore.
AILA2017.4
Cf. Ailamaki, Dompteuse de données, op. cit. : Pour moi, l’“informatique”, c’est une manière de penser pour résoudre des problèmes qui semblent a priori difficiles. On peut décomposer un problème en des problèmes plus simples. On peut choisir pour un problème, le bon niveau d’abstraction. Cela n’est pas juste théorique ; on arrive à des solutions pratiques pour des familles de problèmes. Dans mon domaine de la gestion de données, le problème change quand la taille des données, les processeurs changent. Même si le problème reste le même formellement, mathématiquement, les solutions efficaces ne sont plus les mêmes. Le problème est différent qualitativement. La complexité en temps suivant la taille de données est une composante essentielle du problème. Ce jeu entre complexité et abstraction dans la résolution de problèmes est passionnant. J’essaie de comprendre comment il peut m’apporter aussi des solutions dans ma vie quotidienne, peut-être dans la gestion de mes enfants ?
PUMA2017
La géographie ubiquitaire
Denise PUMAIN, La géographie ubiquitaire, in blog Binaire, 8 septembre 2017, https://www.lemonde.fr/blog/binaire/2017/09/08/la-geographie-ubiquitaire/.
PUMA2017.1
Cf. Pumain, La géographie ubiquitaire, op. cit. : L’informatique a introduit des progrès décisifs dans la manière de pratiquer la géographie et a également fait beaucoup pour amplifier les usages de la science géographique dans la société. Je vois trois grandes étapes dans cette évolution. L’informatique, automatisation de tâches. D’abord, dans les années 60-70, nous avons pu informatiser des analyses statistiques. L’ouverture de centres de calcul accessibles aux gens des sciences sociales a changé notre travail. En ce qui concerne la géographie, l’instrument décisif a été l’analyse multivariée pour rendre compte des diversités entre des territoires ruraux, des villes, ou des États. À ces échelles, l’enquête individuelle n’est pas possible, il faut utiliser des recensements. Nous avons utilisé ce qu’on appelle aujourd’hui l’analyse exploratoire des données pour effectuer des comparaisons de manière systématique, plus raisonnée et répétable. Par exemple, j’ai rassemblé des données sur la croissance de plusieurs centaines de villes françaises depuis le recensement de 1831, sur l’évolution de leur démographie et de leur profil économique. Dès 1954, on avait des statistiques sur la composition par branche d’activité économique, la composition socioprofessionnelle, avec des nomenclatures comprenant des dizaines, puis des centaines de catégories, toute une richesse d’informations exploitables par le géographe. Pour nous la quantification a été la solution. Pour moi, l’informatique a donc d’abord été une libération, une possibilité d’objectiver, d’avoir un degré de scientificité plus important qu’auparavant. La pensée algorithmique. Ensuite, l’informatique a véritablement transformé notre façon de penser. Elle nous a conduits d’une formalisation essentiellement liée à l’usage des statistiques, à des formalisations bien plus riches utilisant des modèles de simulation. Avec des universitaires de Stuttgart et de l’Université libre de Bruxelles, nous avons exploré des modèles dynamiques d’analyse territoriale et régionale. Avec Thérèse Saint-Julien et Lena Sanders, nous avons pu comparer les transformations socio-économiques des agglomérations de Rouen, Bordeaux, Nantes et Strasbourg au fil du temps. Au début des années 80, s’est créée une communauté autour de la simulation pour la géographie, avec des modèles mathématiques d’auto-organisation urbaine, ou encore d’analyse des migrations interrégionales. Cela nous a conduits à des modélisations informatiques par systèmes d’agents. Un agent pouvait être un territoire, une personne, un élément de l’environnement. Les agents, représentés par des êtres informatiques, sont susceptibles d’acquérir des informations sur leur environnement et de communiquer avec d’autres agents pour avoir des interactions, des actions avec d’autres agents. Typiquement, les attributs d’une ville pouvaient être sa population, sa richesse, ses types de production, sa situation portuaire, son attractivité touristique ou le fait d’être une ville capitale. On a beaucoup de mal à connaître tous les échanges que les villes ont entre elles, surtout pour mesurer les échanges économiques ou financiers. On a donc imaginé un système théorique de marché d’échanges entre villes à partir de leurs fonctions économiques ; elles proposent des productions et des services à des villes dans un environnement proche, avec un marché régulant ce commerce, modélisé informatiquement. Les systèmes multi-agents offrent une grande souplesse de modélisation pour représenter une diversité de formes d’interactions dans l’espace selon les fonctions des villes, capitales régionales, ou villes industrielles ou touristiques par exemple.. Les modèles ainsi construits font partie d’une série que nous appelons “SimPop” pour “simulation de population”, à partir de systèmes multi-agents. Cette évolution est trop complexe pour être imaginée sans ordinateurs bien sûr. Cette deuxième étape a eu un débouché inattendu. Les modèles SimPop étaient conçus au début par des doctorants dépendant d’informaticiens, et du coup nous n’avions qu’une capacité d’intervention limitée. Puis nous avons pu construire les modèles directement, en réunissant des informaticiens de l’institut des systèmes complexes et des géographes déjà formés à l’informatique. Cela a tout changé pour nous. On pouvait commencer avec un modèle simple pour le raffiner. On pouvait voir l’amélioration produite entre deux versions. On pouvait complexifier le modèle, introduire des effets de contexte environnementaux… Cela nous a permis une meilleure mise au point par exploration de toutes les possibilités offertes par le modèle. On pouvait procéder pas à pas, en réduisant la complexité, et aussi, faire des millions de simulations avec le même modèle. On pouvait vraiment explorer l’espace des paramètres. On a, par exemple, mis au point un modèle informatique d’émergence de ville post-néolithique. Un archéologue peut le nourrir de ses propres données, et vérifier si ce que raconte théoriquement le modèle a un sens sur son cas particulier en archéologie. Ça a été un progrès épistémologique car cette manière de faire des modèles permet de valider des hypothèses scientifiques. On savait par exemple que des villes produisaient des innovations qui se propageaient d’une ville à l’autre. On a pu construire un modèle qui capturait finement cette propagation. Pour la première fois, on pouvait montrer que “nos hypothèses étaient nécessaires et suffisantes”. Par exemple, on a montré que spécifier la durée de vie d’une innovation dans le modèle n’avait pas d’importance. Cette modélisation est essentiellement algorithmique. Nous apprenons énormément des algorithmes. Cette seconde étape, c’est donc l’entrée de la pensée algorithmique dans notre discipline. La géographie au quotidien. La troisième et dernière étape que je considèrerai tient de l’arrivée des systèmes d’information géographique (GIS en anglais) et, dans notre quotidien, de données géo-localisées de manière massive. Cela me semble être un véritable bouleversement. La première loi de la géographie, c’est celle de la proximité : tout interagit avec tout, mais deux choses proches ont plus de chances d’interagir que deux choses lointaines. Aujourd’hui, des applications vous donnent des informations sur vos amis qui sont dans le voisinage ou sur d’autres qui sont géographiquement très loin. Le numérique permet d’élargir considérablement les interactions, et les distances jouent un moins grand rôle. Malgré cela, la géographie prend une place considérable. Il n’y a pas de chômage chez les géographes numériciens ! Ils trouvent du travail, par exemple, en géo-cartographie des prix immobiliers, ou dans le suivi des flottes de véhicules pour des entreprises de transports. Les concepts, la visualisation, les outils qu’ils utilisent, s’appuient sur des savoir-faire de la cartographie et de la géographie : la géomatique, que certains appellent gis-science ! Les cartes géographiques prennent énormément d’importance. Les cartes ont été longtemps du ressort des états-majors, selon la formule : “la géographie, ça sert d’abord à faire la guerre”. L’IGN a d’ailleurs été créé par hasard en 1940 pour éviter que les Allemands ne mettent la main sur la cartographie de l’armée. Les citoyens utilisent aujourd’hui quotidiennement des cartes numériques sur leurs téléphones, Avec des systèmes comme OpenStreetMap, ils s’approprient la cartographie ; ils participent à la mise au point des cartes, à leurs mises-à-jour en temps réel.
COQU2019
Langages des maths, langages de l’informatique
Thierry COQUAND, Langages des maths, langages de l’informatique, in blog Binaire, 26 juillet 2019, https://www.lemonde.fr/blog/binaire/2019/07/26/demonstrations-mathematiques-et-programmes-informatiques/.
COQU2019.1
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : Dans ma thèse, je me suis intéressé au raisonnement mathématique et à sa représentation sur un ordinateur. L’étude du raisonnement est ancienne, mais l’arrivée de l’informatique l’a bouleversée, car il devenait possible de confier à une machine la vérification de la correction des raisonnements. Avant la rencontre avec l’informatique, les mathématiciens, notamment Bourbaki, étaient déjà allés très loin sur le chemin de la formalisation des démonstrations, mais ils voyaient bien les limites de cette démarche. Si on donne tous les détails dans une démonstration, si on la formalise totalement, elle devient vite trop longue et illisible pour les humains. En revanche, un ordinateur a besoin de tous ces détails et ne s’effraie pas de la longueur des démonstrations. L’arrivée de l’informatique changeait donc tout. J’ai été influencé par les travaux du mathématicien néerlandais, Nicolaas de Bruijn, qui a eu l’idée d’utiliser des notations issues de l’informatique pour représenter les démonstrations. Ses travaux, ceux du statisticien et logicien suédois Per Martin-Löf et du logicien français Jean-Yves Girard m’ont beaucoup influencé. Ma thèse fait la synthèse des langages qu’ils ont proposés. On retrouve dans nos travaux, l’idée que les démonstrations mathématiques sont des programmes exprimés dans un type particulier de langage de programmation : un langage fonctionnel, comme les langages Lisp ou ML. Cette manière d’exprimer les programmes est particulièrement appropriée pour obtenir une représentation uniforme des programmes informatiques et des démonstrations mathématiques. La programmation fonctionnelle apporte comme une correspondance magique entre programmes et démonstrations. C’est ce que j’ai fait dans ma thèse. Et c’est le programme que j’ai poursuivi pendant trente ans dans un domaine qui reste toujours très riche. Cette correspondance entre programmes fonctionnels et démonstrations jette rétrospectivement une lumière nouvelle sur les travaux des logiciens des années 1930, par exemple ceux de Gerhard Gentzen, qui y trouve en quelque sorte les bons langages pour être exprimés. On peut aussi s’intéresser à la généralisation de cette correspondance à d’autres types de langages de programmation. C’est une direction de recherche active aujourd’hui.
COQU2019.2
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : On connaît depuis longtemps l’importance des notations en mathématiques. J’aime bien l’exemple de Leibniz. Une de ses grandes contributions pour le calcul différentiel tient dans les notations qu’il introduit. De Bruijn aussi a passé beaucoup de temps à comprendre ce que sont les bonnes notations en logique et en mathématique. L’informatique ici aussi apporte un renouveau : parce que les systèmes qu’ils conçoivent sont très complexes, les informaticiens sont obligés de trouver de bonnes notations.
COQU2019.3
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : [La manière d’exprimer les démonstrations évolue avec le temps, n’est-ce pas contradictoire avec l’idée d’objectivité de la vérité mathématique ?] La correction d’un raisonnement mathématique doit être un fait objectif. Mais le chemin vers la perfection est long et ce que nous avons découvert, depuis cinquante ans est qu’écrire des démonstrations absolument correctes est impossible sans ordinateur. Chaque étape du développement des mathématiques nous a cependant apporté de nouvelles notations qui nous ont rapproché de cet idéal. C’est pour cela qu’il y a une histoire de des langages d’expression des démonstrations. Il nous reste cependant encore beaucoup de progrès à faire : les démonstrations formelles que nous écrivons aujourd’hui sont difficilement lisibles par les humains. Nous devons donc comprendre comment concilier complexité, correction et lisibilité. Nous ne sommes qu’au début de cette histoire.
COQU2019.4
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : Les informaticiens sont confrontés à la complexité des programmes, de même que les mathématiciens confrontés à celle des démonstrations. Ils ont donc eux aussi besoin de vérifier que leurs programmes sont corrects, qu’ils font bien ce qu’ils sont supposés faire. Les outils pour raisonner sur les programmes, pour vérifier leur correction sont les mêmes que ceux qui permettent de vérifier la correction des démonstrations mathématiques. C’est une autre illustration de cette correspondance fantastique entre programmes et démonstrations.
COQU2019.5
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : À mes yeux, le plus intéressant dans ce tour de force est que pour y arriver il s’est appuyé sur ses intuitions d’informaticien. C’est exactement ce que Gérard Huet et moi avions en tête quand nous avons commencé notre travail sur le Calcul des constructions : l’idée que nos intuitions de mathématiciens étaient utiles pour écrire des programmes et que nos intuitions d’informaticiens étaient symétriquement utiles pour écrire des démonstrations. Ces systèmes de vérification de démonstrations formelles arrivent aussi à un moment particulier de l’histoire des mathématiques. On commence depuis quelques années à voir apparaître des démonstrations de plusieurs centaines de pages. Les mathématiciens s’attaquent aujourd’hui à des démonstrations très complexes qu’il devient quasiment impossible de vérifier “à la main”.
COQU2019.6
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : Un même outil mathématique, le lambda-calcul, représente remarquablement bien à la fois la structure d’une démonstration mathématique et celle d’un algorithme. C’est ce même objet qui est à l’origine de la programmation fonctionnelle. Dans les années 1900-1930, il y a eu de grands débats en logique. Peut-on démontrer l’existence d’un objet sans jamais montrer cet objet. C’est ce qu’il se passe, par exemple, dans un raisonnement par l’absurde. Si on suppose qu’un tel objet n’existe pas, on arrive à une contradiction. Donc un tel objet existe parce qu’il est impossible qu’il n’existe pas. Dans un tel argument, on ne montre jamais l’objet dont on démontre l’existence. On n’a pas le début d’une idée pour imaginer à quoi il ressemble. Avec le lambda-calcul, on se focalise sur les démonstrations “constructives”, celles qui montrent comment construire les objets dont elles montrent l’existence.
COQU2019.7
Cf. Coquand, Langages des maths, langages de l’informatique, op. cit. : [Faut-il interdire le raisonnement par l’absurde ?] Non bien entendu, mais les démonstrations par l’absurde occupent une place singulière au sein des démonstrations. Cette singularité fait qu’elles trouvent mal leur place dans la correspondance entre programmes et démonstrations. Cette correspondance est surtout une correspondance entre les programmes fonctionnels et les démonstrations constructives. Peut-on aller au-delà des démonstrations constructives ? C’est une direction de recherche active aujourd’hui.
HUI2020
Produire des technologies alternatives
Yuk HUI, Produire des technologies alternatives, in Ballast, 9 juillet 2020, https://www.revue-ballast.fr/yuk-hui-produire-des-technologies-alternatives/.
HUI2020.1
Cf. Hui, Produire des technologies alternatives, op. cit. : C’est entre le XVIIe et le XVIIIe siècle que la notion de système a acquis l’importance qu’elle a eue par la suite en philosophie, mais il faut souligner qu’il y avait alors deux sens à ce terme. Le système “mécanique”, d’abord, qu’on peut faire remonter à Descartes, s’érige sur les bases de la science physique et considère toute chose à partir des lois naturelles qui la constituent. Par exemple, toutes les parties d’une orange suivent des lois naturelles et physique et se constituent les unes par rapport aux autres dans un ordre de causalité linéaire. Avec Kant émerge une nouvelle notion de système inspirée par les découvertes de la biologie (qui n’était alors pas considérée comme une discipline scientifique). L’organisme donne à voir une autre structure que celle du système mécanique : l’être vivant est régi par une causalité non-linéaire, immanente, de sorte qu’on ne peut pas en expliquer le fonctionnement par des lois mécaniques. La cause de sa structure ne vient pas de l’extérieur ; c’est la totalité elle-même qui est sa propre cause. La structure d’un arbre, par exemple, correspond à une autre organisation que celle du modèle mécaniste : ses différentes parties entretiennent entre elles un rapport de communauté et de réciprocité qui fait que toutes les parties contribuent à un tout – qui est l’arbre – et ne sont intelligibles qu’à partir de ce tout. C’est le système “organique”. Or, de ces deux conceptions du système découlent, en parallèle, deux conceptions différentes de l’État : alors que l’État dans la philosophie politique de Hobbes est mécanique, il est organique dans celle de Hegel. Si on veut “changer le système”, il faut interroger l’épistémologie du système et sa relation à l’État et au capital.
HUI2020.2
Cf. Hui, Produire des technologies alternatives, op. cit. : La notion de système est donc omniprésente dans la philosophie et dans la société moderne, mais la différence entre notre époque et celle de Hegel, c’est que nous nous confrontons à un système matérialisé à travers les machines cybernétiques. La “machine organique” la plus avancée que Hegel avait envisagée, c’était l’État ; les transhumanistes aspirent, eux, au remplacement de l’État – encore trop humain à leurs yeux – par les intelligences artificielles. C’est pourquoi on ne peut pas simplement dire que les machines cybernétiques sont organiques ou mécaniques, parce qu’elles sont de plus en plus similaires à des organismes ; il faudrait plutôt les considérer comme un organo-mécanisme. En d’autres termes, nous sommes passés de l’“inorganique organisé” (un terme de l’archéologue préhistorien André Leroi-Gourhan qui désigne l’invention de l’outil) à l’“inorganique organisant”, qui correspondrait à ce que Gilles Deleuze appellerait les “sociétés de contrôle” – et dont on voit actuellement la manifestation très claire dans certains pays, à travers la mise en place de dispositifs étatiques visant à tracer le virus et à confiner les individus.
HUI2020.3
Cf. Hui, Produire des technologies alternatives, op. cit. : Il faut bien voir que la cybernétique consiste en un dépassement des deux modèles précédents (mécanique et organique) et de leur dualité. En gros, depuis Descartes, on pense la machine dans son opposition à l’organique – et on retrouve ce dualisme dans des critiques “naïves” contre la cybernétique aujourd’hui, qui présupposent que les machines modernes ne sont que mécaniques et pas organiques. Or le dualisme sur lequel repose ce type de critique a précisément été la cible de la cybernétique. De même que la philosophie contemporaine s’efforce de dépasser le dualisme entre sujet et objet ou entre humain et environnement, en mettant en évidence la continuité entre les deux pôles plutôt que leur opposition et en les intégrant l’un dans l’autre, de même les théoriciens de la cybernétique – du mathématicien Norbert Wiener au sociologue Niklas Luhmann – ont tenté de surmonter cette logique dualiste qui oppose machine et organisme. Ainsi, je crois que la logique dualiste n’est plus l’enjeu aujourd’hui ; l’enjeu, c’est bien plutôt la logique totalisante, unifiée, dont la cybernétique est l’exemple.
HUI2020.4
Cf. Hui, Produire des technologies alternatives, op. cit. : La réalisation d’une telle logique impliquerait la disparition de tout “dehors” possible, au profit de ce seul système. Or c’est précisément ce que s’efforcent de faire les transhumanistes : derrière le prétexte de “dépasser les limites de l’humain” et de réaliser ce que Nietzsche appelle le “surhomme”, il y a un enjeu métaphysique, qui repose sur cette logique totalisante de la cybernétique. Cette logique commande d’accélérer le développement technologique pour atteindre un jour son aboutissement, ce qu’on appelle la “singularité”. En somme, selon les cybernéticiens, l’accélération du progrès technologique s’acheminerait mécaniquement vers une fin, qui serait cette “singularité” – et qui enveloppe un sens théologique ambigu, entre l’Antéchrist et le Katechon. À leurs yeux, le progrès humain dépend exclusivement de la technologie. Et en ce sens, l’explosion de l’intelligence des machines à laquelle on assiste aujourd’hui ne relève pas simplement d’un avancement technologique mais d’un agenda politique qui vise, à terme, à réaliser une super-intelligence qui pourra prendre en charge les affaires des États et se substituer aux gouvernements. On voit bien que cette logique totalisante et unifiante du système cybernétique a des conséquences politiques directes.
HUI2020.5
Cf. Hui, Produire des technologies alternatives, op. cit. : La question est biaisée : elle suggère qu’il n’y a qu’un seul système et qu’on est confinés dedans, comme dans une boucle fermée sur elle-même. C’est là l’erreur des transhumanistes, qui conduit à la croyance futuriste selon laquelle seul l’accomplissement de la logique interne du système et donc l’accélération technologique permet de surmonter les problèmes (quels qu’ils soient). À l’inverse, je pense qu’il est nécessaire d’inventer un paradigme qui nous permette de sortir de cette totalité du “système”. Dans Du Mode d’existence des objets techniques, le philosophe Gilbert Simondon proposait de replacer la technique dans sa genèse, montrant par là qu’il existe une réalité plus vaste, qui permet l’individuation de la technicité elle-même et sa mise en relation historique et dynamique avec d’autres pensées, comme la pensée religieuse, esthétique et philosophique. L’analyse de Simondon permet en quelque sorte de retrouver un “dehors”, et ainsi de poser différemment la question du rôle de la technique dans la vie humaine.
HUI2020.6
Cf. Hui, Produire des technologies alternatives, op. cit. : Il me semble que le dualisme bien souvent reconduit dans les débats écologiques entre la technologie d’une part et la nature de l’autre repose sur une formulation “naïve” du problème, qui fait fond sur un concept de technologie hérité du mécanisme de Descartes. Or, comme je vous le disais, la cybernétique a elle-même dépassé ce dualisme, de sorte que la machine contemporaine à laquelle on est confrontés ne peut plus être simplement opposée à la nature. Il ne faut donc pas rejeter en bloc l’épistémologie cybernétique mais plutôt se la réapproprier, car elle permet de reformuler et de mieux penser la question écologique. Si on regarde l’histoire de la notion d’écologie, elle signifiait chez le biologiste allemand Ernst Haeckel – qui est l’inventeur du mot – l’articulation de la relation entre l’organisme et son milieu. Il montre qu’il y a une rétroaction, ou feedback, entre l’organisme et le milieu, ce que la cybernétique pourra analyser comme opération de l’information. Ce terme de milieu sera ensuite repris et approfondi par les biologistes et les cybernéticiens comme Jakob von Uexküll, Gregory Bateson, James Lovelock, etc.
BERR2013
L’informatique du temps et des événements
Gérard BERRY, L’informatique du temps et des événements : Leçon inaugurale prononcée au Collège de France le jeudi 28 mars 2013, Paris, Collège de France 2013, https://books.openedition.org/cdf/3300.
BERR2013.1
Cf. Berry, L’informatique du temps et des événements, op. cit. : Je souhaite préciser la différence entre le mot numérique, dont l’utilisation s’est récemment répandue, et le mot informatique. On peut qualifier de numérique toutes les activités reposant sur la numérisation des données : photographie numérique, communication numérique, économie numérique, art numérique, etc. Mais le cœur de toute activité numérique reste la science et la technologie de l’informatique, qui définit, étudie et implémente le calcul automatique sur l’information numérisée.
BOUV2015
Une épistémologie réaliste est-elle possible ?
Jacques BOUVERESSE, Une épistémologie réaliste est-elle possible ?, in Une épistémologie réaliste est-elle possible ? Réflexions sur le réalisme structurel de Poincaré, Paris, Collège de France 2015, http://books.openedition.org/cdf/4020.
BOUV2015.1
Cf. Bouveresse, Une épistémologie réaliste est-elle possible ?, op. cit. : Le problème du réalisme scientifique a trait à la question de savoir si la partie théorique de la science constitue elle-même la description objective d’une réalité, qui est considérée généralement comme plus fondamentale et également, pour cette raison, plus réelle que la réalité observable. Les adversaires du réalisme (qu’ils s’appellent positivistes, pragmatistes, vérificationnistes, instrumentalistes, fictionnalistes ou d’un autre nom quelconque) soutiennent que ce à quoi nous pouvons aspirer et ce que nous pouvons obtenir de meilleur en matière de connaissance objective n’est pas constitué par la production de théories vraies qui ont pour tâche de décrire le mécanisme réel de la nature, mais seulement de théories qui constituent des instruments efficaces pour le calcul et la prédiction et qui nous permettent, selon la formule consacrée, de “sauver les phénomènes” et de le faire de la façon la plus simple, la plus élégante et la plus commode possible.
BOUV2015.2
Cf. Bouveresse, Une épistémologie réaliste est-elle possible ?, op. cit. : La raison de cela est que, dans l’explication, le chemin qui conduit de la théorie à la réalité concrète n’est pas direct, mais passe généralement par la construction d’un modèle qui constitue le genre de réalité dont la théorie peut être dite vraie, mais pas la réalité que l’on se propose de représenter et dont il est question dans les lois phénoménologiques : “La route qui mène de la théorie à la réalité va de la théorie au modèle, et ensuite du modèle à la loi phénoménologique. Les lois phénoménologiques sont effectivement vraies des objets dans la réalité – ou pourraient l’être ; mais les lois fondamentales sont vraies uniquement des objets dans le modèle [Nancy Cartwright, How the Laws of Physics Lie, Oxford, Clarendon Press, 1983, p. 4.].”
GUER2019
L’algorithmique répartie : à la recherche de l’universalité perdue
Rachid GUERRAOUI, L’algorithmique répartie : à la recherche de l’universalité perdue : Leçon inaugurale prononcée au Collège de France le jeudi 25 octobre 2018, Paris, Collège de France 2019, https://books.openedition.org/cdf/7612.
GUER2019.1
Cf. Guerraoui, L’algorithmique répartie : à la recherche de l’universalité perdue, op. cit. : Alan Turing a fait de l’informatique une science en créant un modèle d’ordinateur universel, appelé la “machine de Turing”. Tout ce qui peut être calculé par un algorithme peut l’être par cette machine. Depuis un demi-siècle, les ordinateurs sont construits suivant ce modèle universel. Cela permet, tout en profitant de la puissance d’un ordinateur, de s’affranchir des détails technologiques de son architecture pour apprivoiser les algorithmes. Ces algorithmes peuvent ainsi être conçus et analysés à partir de principes abstraits rigoureux, puis testés concrètement sur n’importe quelle machine universelle, avant d’être exécutés sur une autre. Cette universalité nous a permis d’espérer un monde algorithmique sûr. Malheureusement, cette universalité a été perdue dans une large mesure. Elle a été perdue sans qu’on le réalise parfois, lorsque l’on a voulu répartir les systèmes informatiques pour en faire des machines super-robustes et super-rapides. En cherchant la robustesse et la rapidité, nous avons perdu l’universalité. Alors que n’importe quel algorithme, conçu pour une machine de Turing, peut être déployé et exécuté tel quel sur n’importe quelle autre machine, cela devient impossible sur un réseau de machines. Cette impossibilité est intimement liée à l’impossibilité pour des machines d’atteindre un consensus lorsqu’elles sont connectées par un réseau asynchrone, c’est-à-dire sans hypothèse sur les temps de communication. Intuitivement, lorsque l’on dispose un algorithme sur un ensemble de machines, celles-ci ne peuvent pas toujours se mettre d’accord sur l’ordre d’exécution des instructions de cet algorithme, à cause de l’asynchronisme du réseau. Les machines exécutent alors un algorithme différent de l’original censé être exécuté, et le résultat est tout simplement faux. La perte de l’universalité de Turing implique que l’on ne peut pas déployer sur un réseau de machines un algorithme conçu à partir de principes abstraits issus de l’algorithmique classique – centralisée –, ou testé sur d’autres machines, et s’attendre à ce que l’algorithme fonctionne de la même manière. Les détails technologiques du réseau entrent en jeu : l’abstraction et la rigueur en pâtissent.
GUER2019.2
Cf. Guerraoui, L’algorithmique répartie : à la recherche de l’universalité perdue, op. cit. : Avant l’avènement des machines de calcul, l’algorithmique était une discipline purement mathématique. Le calculateur qui exécutait les algorithmes était un être humain supposé savoir exécuter des opérations simples, et en particulier des additions d’entiers. Le but de l’algorithmicien était de concevoir des solutions à des problèmes complexes sous forme d’algorithmes fondés uniquement sur ces opérations simples. Avec l’avènement des premières machines de calcul, comme la pascaline, l’algorithmique s’est partiellement confondue avec la technologie : le concret a pris le pas sur l’abstrait. On ne pouvait concevoir un algorithme sans se préoccuper des détails technologiques de la machine devant l’exécuter. L’algorithmique cessa ainsi d’être une discipline scientifique pendant quelques siècles. Mais l’universalité de Turing changea de nouveau la donne. L’invention de la machine universelle de Turing a permis de s’affranchir des détails technologiques dans la conception d’algorithmes, comme au temps d’Algorithmi [Al-Khawarizmi]. Sauf que deux choses avaient fondamentalement changé. D’une part, le concept d’“algorithme” a pu être défini de manière précise : une séquence d’instructions représentée par une table. Cela a permis de raisonner sur la sûreté et l’efficacité des algorithmes de manière abstraite. Concernant l’efficacité par exemple, on a pu déterminer le nombre d’instructions élémentaires qu’il faut exécuter, en fonction de la taille des données, pour en déduire une fonction : la complexité de l’algorithme. Cela permet de comparer, d’analyser, d’améliorer et de prédire les comportements des algorithmes. D’autre part, tous les algorithmes ont pu être exécutés sur n’importe quel ordinateur, car tous les ordinateurs développés depuis Turing obéissent au modèle de sa machine universelle. Sans cette universalité, nous aurions eu peut-être besoin d’une machine pour aller sur Internet, une autre pour écrire un texte, une autre pour les calculs, etc. L’architecture est fondamentalement la même. L’algorithme n’est pas soudé dans la machine, mais en constitue une donnée. On a pu distinguer le logiciel du matériel, ce qui a donné naissance à l’informatique, une discipline scientifique dotée de principes fondamentaux que nous pouvons aujourd’hui enseigner.
GUER2019.3
Cf. Guerraoui, L’algorithmique répartie : à la recherche de l’universalité perdue, op. cit. : Au-delà des considérations technologiques qui motivent l’étude de l’algorithmique répartie pour apprivoiser les inventions humaines que sont les ordinateurs et les réseaux, cette étude est tout aussi fondamentale à la compréhension de phénomènes naturels. La modélisation de la synchronisation du clignotement des lucioles, des mouvements coordonnés d’un banc de poissons, des formes géométriques dessinées par une nuée d’oiseaux, ou du comportement collaboratif d’un réseau de neurones, passent par des algorithmes répartis.
LERO2019
Le logiciel, entre l’esprit et la matière
Xavier LEROY, Le logiciel, entre l’esprit et la matière : Leçon inaugurale prononcée au Collège de France le jeudi 15 novembre 2018, Paris, Collège de France 2019, https://books.openedition.org/cdf/7681.
LERO2019.1
Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : Les premiers dispositifs mécaniques programmables apparaissent en Europe au cours du XVIIIe siècle : orgues de Barbarie et métiers à tisser de type Jacquard. C’est l’arrangement des pleins et des trous sur une carte perforée qui détermine l’air de musique ou le motif textile produits. Un même mécanisme – un même matériel – peut produire une infinité de résultats visuels ou sonores rien qu’en changeant les informations présentes sur la carte perforée – le logiciel. Les seules limites ici sont la longueur de la carte perforée et l’imagination de celles et ceux qui la préparent : les programmeurs et les programmeuses. Il y avait là une idée forte qui aurait pu donner à réfléchir. Pourtant, elle est passée largement inaperçue et restée cantonnée aux ateliers de tissage et aux fêtes foraines pendant près de deux siècles. La vague d’automatisation qui a balayé l’industrie dès le XIXe siècle puis la vie quotidienne après 1950 s’est appuyée sur des machines et des instruments d’abord mécaniques, ensuite électriques, puis électroniques, mais non programmables et construits pour exécuter une et une seule fonction. C’est aussi le cas du calcul numérique, pourtant indissociable de l’ordinateur moderne dans l’imagerie collective. La calculatrice programmable a beau accompagner les lycéens depuis 1980, il n’y a rien de programmable dans les instruments de calcul largement utilisés jusque bien après la Seconde Guerre mondiale : de la machine d’arithmétique de Blaise Pascal (1645) au calculateur mécanique de poche Curta cher à Gérard Berry ; des machines tabulatrices qui permirent les grands recensements du XXe siècle aux caisses enregistreuses de mon enfance ; des calculateurs de tir d’artillerie aux commandes de vol électriques des premiers avions supersoniques. Même le calculateur “bombe“, qui permit aux services secrets britanniques de casser le chiffre allemand Enigma pendant la Seconde Guerre mondiale, n’était pas programmable et devait être fréquemment recâblé. C’est d’autant plus étonnant que l’architecte en chef de ces “bombes“, Alan Turing, avait quelques années auparavant construit les bases théoriques du calculateur programmable – la célèbre machine universelle de Turing, dont nous reparlerons bientôt. Mais il y avait une guerre contre l’Allemagne nazie à gagner, et pas de temps pour réfléchir à la programmation des calculateurs. Une exception : en 1834, le mathématicien britannique Charles Babbage imagine son “moteur analytique“ (analytical engine), où une carte perforée à la manière des métiers Jacquard contrôle les opérations d’un calculateur mécanique complexe, le “moteur à différences“ (difference engine). Malgré un généreux financement du gouvernement britannique, la construction du “moteur“ de Babbage échoue, car il est trop complexe pour la technologie mécanique de l’époque. En revanche, son amie Ada Byron, comtesse de Lovelace, écrit sur papier quelques programmes pour le moteur analytique, notamment un programme qui calcule la suite de nombres de Bernoulli, faisant d’elle la première programmeuse informatique de l’histoire. Babbage a-t-il inventé l’ordinateur moderne ? Les avis sont partagés. En revanche, c’est bien le pionnier du projet de recherche moderne. Tout y est : un financement par une agence d’État, des objectifs trop ambitieux pour être réalisables, et un résultat accessoire (le premier programme de calcul numérique) qui se révélera de la plus haute importance – ledit résultat étant obtenu par une femme qui n’était même pas financée par le projet. C’est seulement à la fin de la Seconde Guerre mondiale que s’impose l’idée du calculateur universel parce que programmable. Les travaux fondateurs de John Presper Eckert et John Mauchly (1943) et de J. von Neumann (1945) établissent l’architecture des ordinateurs modernes : une unité de calcul communiquant avec une mémoire contenant à la fois le programme qui pilote les calculs et les données sur lesquelles ils opèrent. Plusieurs prototypes sont réalisés dans des universités à la fin des années 1940 (ENIAC, Manchester Mark 1, EDSAC, EDVAC…), et les premiers calculateurs électroniques programmables que nous appelons ordinateurs aujourd’hui sont commercialisés à partir de 1952 (Ferranti Mark 1, Univac 1, IBM 701…).
LERO2019.2
Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : À plusieurs reprises, les mathématiciens et les philosophes se sont tournés vers le calcul comme source de raisonnements incontestables et accessibles à tous. Dès les années 1670, Gottfried Wilhelm Leibniz rêve de représenter les concepts philosophiques par des symboles mathématiques, et d’identifier les règles de calcul symbolique qui permettent de raisonner sur ces concepts. Avec ce calculus ratiocinator, comme il l’appelle, les désaccords philosophiques pourraient se résoudre par simple calcul : “Quando orientur controversiae, non magis disputatione opus erit inter duos philosophus, quam inter duos computistas. Sufficiet enim calamos in manus sumere sedere que ad abacos, et sibimutuo (accito si placet amico) dicere : calculemus.” “Alors, il ne sera plus besoin entre deux philosophes de discussions plus longues qu’entre deux comptables, puisqu’il suffira qu’ils saisissent leur plume, qu’ils s’asseyent à leur table de calcul (en faisant appel, s’ils le souhaitent, à un ami) et qu’ils se disent l’un à l’autre : ‘Calculons !’” [G. W. Leibniz, Nova Methodus pro Maximis et Minimis, in : Acta Eruditorum, oct. 1684.] Le chemin est long de ce rêve de Leibniz à la logique mathématique moderne. Cependant, cet impératif, calculemus, est resté comme un cri de ralliement chez les informaticiens : c’est notamment le titre d’une série de congrès sur le calcul symbolique. Calculons, mes frères ! Calculons, mes sœurs ! Il en sortira des vérités ! Dans la seconde moitié du XIXe siècle, la logique fait d’énormes progrès, avec la formalisation du calcul propositionnel (George Boole, 1854) et du calcul des prédicats (Gottlob Frege, 1879), ainsi que la naissance de la théorie des ensembles (Georg Cantor, 1875-1884)11. Vers 1900, il devient envisageable de fonder l’intégralité des mathématiques sur la base d’une logique formelle. Cependant, des paradoxes logiques apparaissent, qui minent ce beau projet. Le plus célèbre est le paradoxe de Bertrand Russell (1903) : si on peut définir A = {x ∣ x ∉ x}, “l’ensemble de tous les ensembles n’appartenant pas à eux-mêmes”, alors A appartient à A en même temps que A n’appartient pas à A. Cette contradiction interne rend la théorie naïve des ensembles incohérente et donc inutilisable comme logique mathématique. Le bel édifice des mathématiques, qu’on s’imagine s’élançant vers le ciel, bien appuyé sur de solides fondations, semblable à la tour Eiffel, ressemblerait-il davantage à la tour de Pise, penchant dangereusement à cause de fondations défectueuses ? C’est la crise des fondements des mathématiques, qui va préoccuper quelques-uns des plus grands mathématiciens et philosophes au début du XXe siècle. En 1900, David Hilbert, dans sa liste de 23 grands problèmes mathématiques ouverts, mentionne en deuxième position le problème de la cohérence de l’arithmétique – un fragment important des mathématiques. Vingt ans plus tard, il formule ce que nous appelons aujourd’hui le “programme de Hilbert”. Il s’agit de formaliser l’arithmétique par un système déductif [Composé d’axiomes (par exemple “n + 0 = n pour tout n”) et de règles de déduction (par exemple le modus ponens, “de P ⇒ Q et de P je peux déduire Q”).] et de démontrer que ce système satisfait trois propriétés essentielles : cohérence : il n’existe pas de proposition P, telle qu’on puisse déduire P et sa négation non-P (la logique ne contient pas de paradoxes) ; complétude : pour toute proposition P on peut déduire P ou non-P (la logique n’a pas le droit de dire “je ne sais pas”) ; décidabilité (Entscheidungsproblem, “problème de la décision”) : il existe un procédé systématique – un algorithme, disons-nous aujourd’hui – qui, étant donnée une proposition P, décide si elle peut être déduite ou non. On voit ici que, tout comme Leibniz avec son calculus ratiocinator, Hilbert accorde une grande importance à la possibilité de calculer la véracité d’une proposition logique. Tel un professeur du Collège de France qui “passe” sur France Culture, Hilbert popularise ce programme via une célèbre allocution radiodiffusée en 1930, qui se conclut par “Wir müssen wissen ; wir werden wissen” : “nous devons savoir ; nous saurons”. Peu de temps après, nous sûmes… que le programme de Hilbert est irréalisable. En 1931, Kurt Gödel publie son célèbre premier théorème d’incomplétude, qui montre que toute axiomatisation cohérente de l’arithmétique contient un énoncé P tel qu’on ne peut déduire ni P ni non-P. En 1936, Alonzo Church et Alan Turing démontrent, indépendamment et suivant des approches différentes, les premiers résultats d’indécidabilité (du problème de l’arrêt d’un calcul), d’où il s’ensuit que le Entscheidungsproblem n’a pas de solution algorithmique. C’est la fin du programme de Hilbert mais le début d’un nouveau savoir. L’informatique fondamentale est née de cet échec du programme de Hilbert, telle une herbe sauvage qui pousse sur les ruines d’un temple effondré. Pour démontrer l’incomplétude, Gödel montre comment représenter toute formule logique par un nombre entier. Aujourd’hui, on utiliserait plutôt une suite de “bits”, 0 ou 1, et un codage plus compact que celui de Gödel, mais l’idée est bien là : toute information – nombre, texte, son, image, vidéo, formule logique, programme informatique, etc. – peut être codée par une suite de bits afin d’être transmise, ou stockée, ou manipulée par un ordinateur. Et pour montrer l’indécidabilité, Church et Turing caractérisent précisément ce qu’est un algorithme, créant ainsi la théorie de la calculabilité, chacun à sa manière. Turing formalise sa “machine universelle”, un petit robot imaginaire qui déplace une bande et y lit et écrit des symboles, capturant ainsi l’essence de l’ordinateur moderne : le calculateur programmable à programme enregistré. Church développe son “lambda calcul”, une notation algébrique centrée sur la notion de fonction, qui est le grand ancêtre des langages de programmation modernes. Cette naissance de la théorie de la calculabilité est un moment si important dans l’histoire de l’informatique qu’il mérite une métaphore culinaire. On dit souvent qu’un algorithme, c’est comme une recette de cuisine. Pour expliquer un algorithme résolvant un problème donné, comme pour communiquer une recette de cuisine produisant un plat donné, le langage naturel suffit : nul besoin de formaliser mathématiquement la recette. Ce n’est plus le cas s’il nous faut raisonner sur toutes les recettes possibles et tous les plats qu’elles produisent. Ainsi en est-il du problème de la recette (Rezeptproblem) : Toute nourriture peut-elle être produite par une recette de cuisine ? Pour répondre par la négative, il nous faut identifier une nourriture non “cuisinable”, comme l’ambroisie de la mythologie grecque, puis démontrer qu’aucune recette ne peut la produire. Pour cela, il est nécessaire d’avoir une définition mathématique de ce qu’est une recette. (Par exemple, “sonner à la porte de Zeus pour lui demander un reste d’ambroisie” n’est pas une recette.) Ainsi, nous allons développer une théorie de la “cuisinabilité” qui sera plus générale et plus intéressante que le Rezeptproblem initial. Mutatis mutandis et toutes proportions gardées, c’est une démarche similaire qu’ont suivie Church et Turing pour répondre négativement au Entscheidungsproblem. Qui plus est, les deux modèles de calcul qu’ils ont proposés, quoique d’inspirations bien différentes, sont équivalents entre eux, au sens où l’un peut simuler l’autre, et équivalents à un troisième modèle d’inspiration plus mathématique, les fonctions µ-récursives étudiées par Stephen Cole Kleene à la même époque. Une machine (la machine universelle de Turing), un langage (le lambda-calcul de Church), et une classe de fonctions mathématiques (les fonctions µ-récursives) s’accordent sur les fonctions qui sont calculables et les problèmes qui sont décidables. C’est la naissance d’une notion universelle de calcul, la complétude au sens de Turing. Des centaines de modèles de calculs sont connus aujourd’hui, des jeux mathématiques aux modèles inspirés du vivant en passant par l’ordinateur quantique, qui calculent tous les mêmes fonctions qu’une machine de Turing.
LERO2019.3
Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : Quelque chose manque encore pour que les rêves de Turing et les lambda-obsessions de Church débouchent sur l’informatique moderne : un aspect quantitatif, complètement absent de la théorie de la calculabilité. Ainsi, un problème peut être décidable simplement parce que l’espace des solutions est fini, en testant les 2N solutions possibles, même si cela épuiserait toute l’énergie de notre Soleil dès que N atteint 200 environ. De même, un modèle de calcul comme le jeu de la vie de Conway peut être Turing-complet et pourtant parfaitement inadapté à la programmation. La dernière étape qui mène à l’informatique fondamentale moderne est précisément la prise en compte de ces impératifs d’efficacité des algorithmes (efficiency) et de capacité à programmer ces algorithmes (effectiveness). D’un côté se développe l’algorithmique : la science de concevoir des algorithmes et d’en caractériser mathématiquement la consommation en temps, en espace, ou en énergie. De l’autre, la programmation de ces algorithmes – leur “implémentation” comme nous, informaticiens, disons – fait naître de nouveaux besoins : des principes de structuration et de composition des programmes ; des langages de programmation expressifs ; des sémantiques pour ces langages ; des techniques d’interprétation et de compilation pour rendre ces langages exécutables par le matériel ; des méthodes de vérification pour s’assurer de l’absence d’erreurs de programmation – le bug tant redouté. Ces savoirs, mi-empiriques, mi-mathématiques, sont autant de balises sur le long chemin menant de la spécification abstraite d’un logiciel à son implémentation effective. Ensemble, ils constituent le cœur des sciences du logiciel […]
LERO2019.4
Cf. Leroy, Le logiciel, entre l’esprit et la matière, op. cit. : Arrivé à la fin de cet exposé, la première chose que je voudrais souligner, c’est l’ampleur des progrès dans le monde du logiciel depuis l’apparition de l’ordinateur. Langages de programmation de haut niveau, compilateurs, sémantiques, systèmes de types, spécifications formelles, logiques de programmes, outils automatisant entièrement ou partiellement la vérification, vérification de ces outils ainsi que des compilateurs : autant d’étapes franchies au cours des soixante dernières années qui décuplent – voire multiplient par mille – nos capacités à créer du logiciel sûr et sécurisé. Allons-nous atteindre la perfection logicielle, cet idéal où le logiciel se comporte exactement comme prescrit par sa spécification, et où la programmation devient invisible ? Comme tout idéal, il s’éloigne à mesure que nous nous en approchons… La bien mal nommée “intelligence artificielle” réalise des tâches, de perception notamment, inimaginables il y a quelques années encore, mais fait apparaître des “boîtes noires” vulnérables aux biais, au bruit, et à la malveillance. En termes de fiabilité du logiciel, cela nous ramène vingt ans en arrière et nécessite de nouvelles méthodes de vérification et de validation. Le matériel se révèle moins infaillible que les auteurs de logiciels le supposaient. Les vulnérabilités de type “Spectre” montrent qu’il a décidément bien du mal à garder un secret. Les méthodes formelles restent difficiles à mettre en place et continuent à terrifier beaucoup de programmeurs. Un premier pas serait de rendre plus agréable l’écriture de spécifications, par exemple via de nouveaux langages de spécification. Enfin, il faut s’interroger sur la manière dont nous enseignons l’informatique et même les mathématiques. Nos étudiants confondent souvent les quantificateurs “pour tout” et “il existe”. Difficile d’écrire des spécifications sans maîtriser les notions de base de la logique… La logique ! On y revient encore et toujours ! C’est le leitmotiv de cette leçon : l’informatique fondamentale qui naît de l’hubris des logiciens du début du XXe siècle ; les langages de programmation et leurs sémantiques ; les spécifications et les logiques de programmes ; jusqu’aux systèmes de types qui suggèrent que programmer et démontrer, c’est la même chose… Finalement, le logiciel serait-il juste de la logique qui s’exécute ? Pas toujours (l’erreur est humaine !) ; pas seulement (il y a d’autres dimensions à considérer) ; mais si seulement ! Être l’incarnation de la logique est une des meilleures choses que l’on puisse souhaiter au logiciel. Au moment où nous confions de plus en plus de responsabilités aux logiciels et déléguons de plus en plus de décisions à des algorithmes, dans l’espoir naïf qu’ils feront moins d’erreurs que les humains, ou pour d’autres raisons moins avouables, nous avons plus que jamais besoin de rigueur mathématique pour exprimer ce qu’un programme doit faire, raisonner sur ce qu’il fait, et maîtriser les risques qu’il présente. C’est dans cet équilibre entre rigueur formelle et créativité débridée que s’inscrit le logiciel ; c’est à nous, informaticiens et citoyens, de construire cet équilibre.
MENG2017
Big data et traçabilité numérique, Introduction
Pierre-Michel MENGER, Introduction, in Big data et traçabilité numérique : Les sciences sociales face à la quantification massive des individus, Paris, Collège de France 2017, https://books.openedition.org/cdf/4990.
MENG2017.1
Cf. Menger, Big data et traçabilité numérique, Introduction, op. cit. : Les outils d’exploration de ces données bousculent non seulement l’analyse des comportements, mais encore les techniques d’influence et d’incitation. La détection à grande échelle de corrélations, la recherche automatisée de patterns, les algorithmes d’analyse sémantique prennent le pas sur les patients travaux d’enquête par échantillonnage et rivalisent avec l’expérimentation contrôlée. Profiler pour prédire les tendances et les usages, pour persuader les usagers et les consommateurs, et, ce faisant, pour obtenir que les anticipations issues des profilages se vérifient, voilà qui introduit de multiples boucles dans l’interaction avec les systèmes, boucles qui conduisent à ce dont le marketing a toujours rêvé : inventer une technologie silencieuse de la prophétie ou de la persuasion auto-réalisatrice, qui se substitue au bruit de la persuasion publicitaire traditionnelle.
MENG2017.2
Cf. Menger, Big data et traçabilité numérique, Introduction, op. cit. : les données émises par chaque individu constituent aussi un bien ou un service qui pourra lui être vendu pour lui permettre de connaître et de contrôler son environnement, sa santé, sa sécurité, ses déplacements, ses relations, ses transactions, ses interactions de sociabilité : c’est le quantified self. Or la qualité de ce service marchand de quantification individualisée dépend de l’exploitation à grande échelle des données recueillies, qu’il s’agisse de coordonner les comportements, d’analyser les risques collectifs, d’identifier les mécanismes de contagion ou encore d’augmenter le pouvoir prédictif des connaissances accumulées. Un ensemble de techniques et d’algorithmes qui nous renseignent sur notre état de santé, sur les qualités de notre nourriture, sur les variations de notre état physique au travail et sur toute autre dimension de notre comportement augmentent la puissance des services marchands qui nous sont vendus, mais ils peuvent alimenter aussi les bases de données qui sont exploitées par la recherche publique à des fins d’intérêt général. Comment établir une distinction stable et efficace entre ce qui sera extrait de nos données personnelles pour améliorer le bien public fondé sur la connaissance, et ce qui, à travers les multiples canaux de diffusion possibles des données, alimentera des usages commerciaux et servira des intérêts particuliers ? L’individu émetteur de données personnelles est face à une asymétrie sans solution : comment peut-il concevoir tous les usages possibles de la quantité et de la diversité considérables de données qui le concernent ou l’incluent, afin de décider d’être non seulement un consommateur souverain, mais aussi un producteur souverain d’informations exploitables ? Finalement, le contraste est grand entre l’histoire longue des hybridations mêlant la statistique et l’informatique, telle qu’elle est relatée par Dagiral et Parasie, d’une part, et la mise à l’agenda récente et spectaculaire de la question des données numériques de masse dans les organisations de recherche, les entreprises, les administrations et l’arène publique, d’autre part. Les attentes sont considérables, les injonctions à la modernisation sont lancées quotidiennement, les espoirs d’avancées scientifiques sont devenus omniprésents, mais les controverses et les critiques sont aussi très vives contre la transformation des individus en matrices d’informations exploitables sans limitations ni contrôles efficaces.
MENG2017.3
Cf. Menger, Big data et traçabilité numérique, Introduction, op. cit. : Progressivement, le jeu de la science fait face à des dilemmes radicaux : faut-il consolider le pouvoir marchand des éditeurs jusqu’à transformer l’évaluation scientifique en une somme de technologies métrologiques et indicielles qui alimentent un marché de services destinés aux chercheurs et à leurs institutions pour augmenter leur productivité et leur impact ? Ou faut-il libérer complètement l’accès aux productions scientifiques à travers des archives ouvertes, qui suspendent le pouvoir sélectif et le travail éditorial des pairs, quitte à pousser chaque scientifique à devenir le gestionnaire de sa propre visibilité et à activer à cette fin de multiples sources d’impact, d’audience, d’attention, d’usage ? Dans ce dernier cas, rechercher et mesurer l’attention des publics les plus variés revient-il à leur reconnaître une expertise profane légitime, qui complète l’expertise professionnelle des pairs, voire s’y substitue ?
ARON2018
Métaphore informatique, médialité hiérarchique et spectres de Dieu
Serge ARON, Métaphore informatique, médialité hiérarchique et spectres de Die : la rétroaction subjectivante, entre conversion informatique et relecture médiumnique, http://serge.aron.over-blog.com/2018/03/metaphore-informatique-medialite-hierarchique-et-spectres-de-dieu-la-retroaction-subjectivante-entre-conversion-informatique.
ARON2018.1
Cf. Aron, Métaphore informatique, médialité hiérarchique et spectres de Dieu, op. cit. : Dans la Pascaline, première machine à calculer mise au point par Pascal, une roue dentée permet d’automatiser la retenue lorsqu’on change de dizaine. Le premier ordinateur, la machine de Babbage, deux siècles plus tard, devait permettre la prévision des marées, et pour ce faire calculer des puissances en non plus seulement multiplier des suites d’additions à retenues. “En pratique, ce principe est mis en œuvre par une sorte de Pascaline dotée de roues rétroactives.” (Mark Alizart, Informatique céleste, p.34) Trop complexe à construire, elle tombe dans l’oubli, jusqu’à ce qu’Alan Turing, dans les années 1930, réinvente l’ordinateur. Son principe est simple, pour échapper à la crise de la logique formelle qui avec la théorie des ensembles, traite de formes et de contenus, et mène aux paradoxes insurmontables décrits par Russel selon lesquels l’ensemble de tous les ensembles ne s’appartenant pas eux-mêmes doit et ne doit pas s’appartenir à lui-même, Turing contourne l’incomplétude inhérente aux systèmes formels en substituant le couple discret / continu au couple forme / contenu. Ce faisant, il redécouvre la logique de la roue dentée de la Pascaline qui fait sauter une retenue de 0 à 1 et conçoit un système permettant de numériser en une suite discrète de 0 et 1 une courbe analogique continue.
SIMA2015
Puis Turing vint…
Jean-Claude Simard, Puis Turing vint…, https://www.acfas.ca/publications/magazine/2015/02/puis-turing-vint.
SIMA2015.1
Cf. Simard, Puis Turing vint…, op. cit. : Trois écoles mathématiques concurrentes virent alors le jour, toutes trois déterminées à tirer les conséquences de cette crise et à y apporter les correctifs nécessaires. En quoi consistent-elles ? Soit on tente de rabattre les mathématiques sur la logique, les faisant profiter de sa rigueur. C’est l’immense programme qu’entreprit de réaliser le philosophe et mathématicien britannique Russell (1872-1970), en collaboration avec son ancien professeur Whitehead (1861-1947). On appelle cette première avenue le logicisme parce que, pour elle, la nature du nombre est dérivée. Soit encore on rejette certains types classiques de raisonnement parce qu’ils mènent à des contradictions lorsqu’on les applique à des ensembles infinis, une des marques de commerce de la théorie de Cantor. C’est ainsi que le mathématicien néerlandais Brouwer (1881-1966) et son disciple, le logicien Heyting (1898-1980), en viennent à écarter le raisonnement par l’absurde et le tiers exclu comme principes universellement valides. Cette deuxième approche est appelée intuitionniste, parce que ses deux promoteurs appuyaient les mathématiques sur l’arithmétique, qu’ils considéraient comme une production de l’esprit humain reposant elle-même sur la liberté créatrice et une intuition primitive du temps [Sur ce point, Brouwer reconnaissait volontiers sa dette envers le philosophe idéaliste allemand Kant (1724-1804) et sa célèbre théorie du temps et de l’espace comme formes a priori de la sensibilité.]. Cette avenue a d’ailleurs ouvert la voie aux diverses variétés de constructivisme, une position actuellement assez répandue chez les mathématiciens et les philosophes des mathématiques. La troisième et dernière solution considère aussi les mathématiques comme une construction de l’esprit, mais à la différence de l’intuitionnisme, elle fait son deuil de la vérité. Pour le formalisme, en effet, les mathématiques constituent une sorte de jeu intellectuel, et dans la série d’opérations qu’il développe, le mathématicien ne doit pas se préoccuper de la nature des symboles ou des signes qu’il manipule : seules lui importent la non-contradiction de ses propositions et la cohérence de ses démonstrations. Il n’a donc pas à se demander si ses axiomes de départ sont vrais ou faux, mais seulement si son axiomatique est consistante et si elle est complète. Cette position a été élaborée par le mathématicien allemand David Hilbert (1862-1943).
SIMA2015.2
Cf. Simard, Puis Turing vint…, op. cit. : C’est ici que le Britannique Alan Turing (1912-1954) entre en scène. Formé en mathématiques et versé en logique, il pense d’abord s’attaquer à la question très débattue des fondements. Mais il rejette à la fois le logicisme et l’intuitionnisme. Le logicisme parce que, selon lui, le nombre est une donnée primitive qu’on ne peut réduire à des caractéristiques ensemblistes. Sur ce point, il abonde donc dans le sens de l’intuitionnisme, sauf qu’il ne peut cependant accepter l’amputation que cette école impose à l’univers mathématique. Au début, Turing va donc emprunter l’avenue ouverte par Hilbert. C’est dans cet esprit qu’il s’inscrit, au printemps 1935, à l’âge de 22 ans, au cours donné à Cambridge par Max Newman, un adepte du formalisme. Cependant, il doit très vite déchanter. En effet, il subit alors un choc qui va orienter toute sa future vie professionnelle et intellectuelle : c’est le fameux Entscheidungsproblem, le problème de la décision. Ici, un mot d’explication s’impose. Pour réaliser son ambitieux programme, Hilbert devait présumer l’existence d’un algorithme, une procédure universelle permettant de déterminer avec certitude quels théorèmes on peut déduire d’un système d’axiomes quelconques, bref, permettant à coup sûr l’entscheidung, la décision (1928). Prenant ce programme à la lettre, Kurt Gödel (1906-1978), un jeune logicien autrichien, décide de le tester. Or il se rend compte que tout système formel suffisamment puissant pour inclure l’arithmétique des entiers naturels comportera au moins une proposition qui n’est pas décidable, c’est-à-dire qui n’est ni démontrable, ni réfutable à l’intérieur du système. En outre, il prouve qu’une axiomatique, quel que soit par ailleurs le nombre de théorèmes qu’on en peut dériver, ne saurait faire la démonstration de sa propre cohérence. Ce sont les célèbres théorèmes d’incomplétude (1931). L’espoir de produire un système formel à la fois cohérent et complet s’évanouissait soudain, et cette limite entraînait en même temps la chute du rêve hilbertien.
SIMA2015.3
Cf. Simard, Puis Turing vint…, op. cit. : Perplexe, Turing décide alors d’aborder autrement la question. Fort originale, son optique marquera l’histoire. S’il existe, raisonne-t-il, l’algorithme recherché par Hilbert doit être purement mécanique et, par conséquent, une machine idéale serait en mesure de le mettre en application. Dans un article intitulé On computable numbers, with an application to the Entscheidungs problem, il établit d’abord un lien logique entre proposition décidable et nombre calculable. Ensuite, il imagine ce qu’on appelle, depuis lors, une machine de Turing, c’est-à-dire le modèle abstrait d’une machine universelle de calcul. C’est ce cerveau mécanique, capable en principe de traiter toute fonction mathématique, pourvu évidemment qu’elle soit calculable (computable, comme disent les anglophones), que matérialisera plus tard l’ordinateur, le computer. C’est pourquoi, aujourd’hui, on considère ce travail comme une étape décisive dans la naissance de l’informatique théorique.