dimanche 25 mai 2025

L'USAGE DES MACHINES SYMBOLIQUES


  
0. Introduction

Dernière innovation remarquée : « l’intelligence artificielle ». Cette innovation, comme toutes les précédentes, fait l’objet à la fois, et parfois en même temps, d’éloges et de critiques souvent démesurés. Ce qui semble inédit, cette fois, c’est qu’il s’agit d’une machine qui accomplit des travaux intellectuels et non plus manuels. Mais est-ce vraiment nouveau ? Et cette machine est-elle réellement intelligente ? Nous verrons... Nous nous demanderons également si les problèmes que soulève cette innovation ne sont pas, comme pour les précédentes, davantage éthiques et politiques que techniques.

 

1. Intelligences et résolution de problèmes

« L’intelligence » peut désigner la capacité à résoudre un problème : p. ex. trouver une issue, la solution d’une équation, répondre correctement à une question, comprendre un discours, gagner aux échecs (c’est une définition plus pragmatique que celle que l’on trouve dans le dictionnaire, telle que « fonction mentale d’organisation du réel en pensée »). « L’intelligence » peut être celle d’un humain, d’un collectif, d’un animal ou d’une machine.

Il y a différents types d’intelligences selon les êtres et aussi pour un même être. Un être humain peut avoir une intelligence relationnelle, pratique, créative, logique, etc. Enfin l’intelligence c’est aussi la capacité d’utiliser une variété de formes d’intelligences, c’est-à-dire d’alterner et combiner ces différentes formes d’intelligences.

Ensuite, dire d’une personne qu’elle est « intelligente », c’est porter un jugement de valeur positif. Et si l’on parle d’un objet « intelligent » (jeu, livre, accessoire, machine), cela valorise l’objet ainsi que son créateur, son utilisateur ou son possesseur. On leur attribue alors un pouvoir (même s’il peut être employé à mauvais escient).

 

2. L’artefact comme produit intentionnel de l’Homme

En revanche, dire d’un être ou d’une chose qu’ils sont « artificiels », peut avoir une connotation négative et signifier « faux », « surfait », « inauthentique », « inutile ». On considère alors qu’il s’agit d’une copie inférieure à son modèle (p. ex. une fleur ou un arôme artificiel).

Mais cette connotation n’est pas nécessaire. L’expression « intelligence artificielle » indique généralement une intelligence issue d’une machine et rien de plus (même si l’on peut remarquer après-coup l’opposition entre la connotation positive d’« intelligence » et négative d’« artificielle »). La connotation d’« artificielle » peut même devenir positive si l’on reconnaît, à travers ce mot, une prouesse du génie humain capable de créer une machine intelligente.

Le terme « artefact » permet d’éviter le parasitage connotatif attaché à « artifice ». « Artefact » désigne alors les produits de l’intelligence humaine : outils, instruments, machines, œuvres, institutions. Si l’artefact est un produit de l’intelligence humaine, et que cet artefact est en outre lui-même intelligent, alors on peut le considérer comme une extension de l’intelligence humaine, c’est-à-dire une manière indirecte pour l’humain d’être intelligent. Si l’intelligence artificielle devait être considérée comme plus intelligente que l’intelligence humaine, cela constituerait une remarquable prouesse de l’intelligence humaine.

Contrairement à l’artefact, le produit naturel existe indépendamment de l’homme, et plus précisément indépendamment de son action consciente et volontaire. P. ex. une empreinte de main sur un mur n’est pas un artefact si elle n’est pas intentionnelle. Les produits naturels sont les animaux, les végétaux, les solides, les liquides et tous les processus biologiques, chimiques et physiques qui existent par eux-mêmes et sans notre concours. On peut aussi compter d’une certaine façon l’homme parmi les produits naturels.

Ce qui constitue l’artefact, c’est donc le résultat de l’action intelligente humaine, c’est-à-dire la Nature intentionnellement transformée par l’Homme. Les effets secondaires de l’activité humaine, comme la pollution, les déchets, les accidents ou les « désalignements » (comportements imprévus de l’IA) ne peuvent alors pas être considérés comme des artefacts - même s’il paraît peu intuitif de les qualifier de « naturels ».

 

3. La différence entre l’intelligence humaine et artificielle

L’artefact devient « intelligent » quand il peut effectuer de manière autonome des opérations qui rappellent l’activité intelligente humaine : calculer, jouer de la musique ou à des jeux, détecter et alerter, se mettre en pause ou en marche, traduire, répondre à des ordres ou des questions, corriger ses erreurs etc. Parfois l’artifice est bien supérieur à l’homme (vitesse de calcul, stockage de mémoire). Mais il reste spécialisé dans des tâches précises, là où l’homme effectue un nombre incalculable d’opérations différentes.

L’artefact intelligent peut être considéré comme une machine symbolique par opposition à une machine instrumentale. La machine représente une évolution technologique basée sur l’utilisation d’un moteur à la place de la force musculaire. Les premières machines sont des évolutions des techniques instrumentales liées aux activités manuelles (p. ex. les machines-outils ou les véhicules). Les techniques symboliques, comme l’écriture, ont à leur tour évolué sous formes mécaniques (p. ex. imprimerie, machine à écrire, télécommunication, calculateurs, etc.). Les machines symboliques traitent, comme contenus, des symboles graphiques, sonores, numériques et alphabétiques. Mais elles ne pourraient le faire sans, comme extensions instrumentales, leurs interfaces réceptrices ou effectrices pour interagir avec le monde extérieur. Le développement de ces interfaces aboutit à la robotique, dès lors que les entrées et sorties du processeur deviennent plus élaborées qu’un clavier et un écran. On peut dire que le robot est le développement corporel de l’ordinateur.

Cela soulève la question de la continuité entre l’instrumental et le symbolique. Le symbolique est-il la miniaturisation de l’instrumental ? Peut-on réduire des opérations sur les symboles à des processus causaux ? Le processus entre le clavier et l’écran de la calculatrice n’est-il qu’une seule et même transmission mécanique continue ? Peut-on en dire autant de ce qu’il se passe entre l’œil et la main quand p. ex. on calcule sur un papier ? Si c’est le cas, comment expliquer la conscience, la liberté ou la créativité ?  

Ces questions renvoient à des analyses de philosophie de l’esprit qui ne seront pas traitées ici. Ce qu’on peut remarquer pour le moment, c’est qu’une évaluation technique de l’intelligence artificielle ou humaine consiste à mesurer leur performance d’un point de vue mécanique, en termes de puissance, de vitesse de calcul ou de quotient intellectuel. Sur ce plan, les machines peuvent être bien plus performantes que l’homme (tout comme les voitures, les trains ou les avions en matière de déplacement). On peut également établir, pour un traducteur automatique p. ex., s’il traduit correctement (sans pour autant faire preuve de la virtuosité et de la sensibilité propre aux humains), tout comme on peut déterminer si un avion vole correctement.

 

4. L’évaluation éthique et la neutralité des innovations

Si l’évaluation technique permet de dire si une chose accomplit efficacement ou correctement une action, l’évaluation éthique consiste à se demander si cette action est bonne. Un escroc peut agir « bien » techniquement, on ne dira pas pour autant qu’il agit « bien » éthiquement. Une action, pouvons-nous dire, est absolument éthique si elle est bonne pour tous les hommes et pour le monde en général. Mais cela n’est pas plus précis que si l’on disait qu’une action est bonne si elle est bonne. En disant p. ex. que le médicament est bon et le poison mauvais, on ne fait qu’expliciter leur définition. Cela n’est pas plus instructif que de dire que la santé, la joie, le bonheur, le bien être, l’amitié sont bons en soi.

Et s’il est question d’empoisonner un dangereux tyran, il ne s’agit alors en principe que de nier la négation, comme « punir le coupable », « éliminer le mal », « éradiquer la maladie », ce qui est tout aussi abstrait. Mais si l’on aborde cette fois l’éthique d’un point de vue concret, l’évaluation devient relative. Ce qui est bon pour quelqu’un ici peut être mauvais pour quelqu’un d’autre là ; ce qui est bon à cet instant peut être néfaste ultérieurement et vice versa.

D’un point de vue abstrait, indépendamment des situations particulières, l’existence de la plupart des innovations n’a rien de mauvais en soi. Ce qui revient à dire qu’elles sont neutres.  C’est le cas p. ex. de l’automobile, l’ordinateur, le téléphone, la télévision, le réfrigérateur, la pelleteuse, etc. Les problèmes éthiques apparaissent lorsqu’il est question de qualifier les inventions par rapport aux faits. Elles deviennent alors parfois bonnes, parfois mauvaises. L’automobile p. ex. ne garantit pas automatiquement le bonheur et le bien-être des Hommes.

Une façon radicale de résoudre le problème éthique est d’éliminer son objet, comme si l’on guérissait le malade en le faisant tout simplement disparaître. Si l’on se débarrassait de certaines technologies, on ferait disparaître, plus ou moins rapidement, leurs effets pervers (avec leurs effets salutaires). Ceci est comparable à ce que font les philosophes qui, au lieu de répondre à une question, disent qu’elle n’a pas de sens. Il faut alors s’assurer que c’est bien le cas, sans quoi ce ne serait qu’une parade rhétorique. Il y a bien des innovations qui ressemblent a priori à des problèmes sans solutions, celles qui sont négatives par définitions : les armes de destruction massives, les robots-tueurs, les instruments de torture, les pesticides, etc. Mais rejeter les ordinateurs, les téléphones ou les voitures comme fondamentalement mauvais paraît difficile à justifier (mais pas impossible pour autant). Tout comme l’on peut montrer qu’une question mal posée pourrait l’être autrement, on peut toutefois considérer certaines innovations comme mal engagées et devant être conçues autrement. C’est le cas de produits contenant de l’amiante, du plomb, du ddt, du radium p. ex.

 

5. La réponse éthique de la régulation

La plupart des problèmes éthiques auxquels nous sommes confrontés ne peuvent être ni complétement résolus ni totalement éliminés. Il paraît inconcevable que nous abandonnions délibérément la plupart des technologies que nous utilisons, ni que nous puissions écarter définitivement les risques qu’elles représentent. Il nous reste alors à tenter de les réguler tant bien que mal. Pour cela, il faut intervenir à plusieurs niveaux : en amont, comme lorsqu’on bride le moteur d’une auto ; en aval, avec des ralentisseurs sur les routes, des panneaux, des radars, des gendarmes et des juges. La régulation répond à un désir de sécurité afin d’endiguer le débordement (p. ex. l’excès de vitesse) ou d’empêcher l’apparition d’un phénomène redouté (p. ex. l’accident).

            La régulation suppose des règles, qui définissent des limites, et des moyens d’application : instruments, incitations, sanctions, contrôles, corrections etc. (certaines règles apparaissent pour réguler les règles précédentes, comme celles qui permettent de limiter les abus de pouvoir). La non-application d’une règle équivaut au plan d’architecte non réalisé ou à la partition du compositeur non interprétée.

           

6. La liberté comme régulation consentie

Une conception naïve ou malhonnête de la liberté consiste à l’assimiler à l’absence de règles, au lieu de distinguer les règles qu’on approuve et celles qu’on désapprouve et qui sont vécues comme oppressives. Il y a p. ex. les règles de grammaire sans lesquelles nous ne pourrions pas parler et les règles sociales qui peuvent être perçues comme une entrave à la liberté d’expression.

Sur le plan politique, une règle interfère légitimement avec notre action dès lors qu’elle garantit une protection contre des interférences arbitraires. Une règle est légitime si elle reconnaissable par tous comme bonne, ce qui suppose que nous soyons capables de reconnaître qu’elle peut être utile à n’importe qui. La règle s’applique à une personne quelconque, universelle et possible.

            La recherche d’un équilibre des intérêts et des compétences a comme motif la possibilité d’être lésé par un déséquilibre. Le but est d’écarter ce qui me fait ou ferait souffrir si cela m’arrivait. La morale est généralement qualifiée de désintéressée. Mais en un sens elle est hyper-intéressée : faire comme si ce qui arrive aux autres pouvait m’arriver aussi.

 

7. La régulation démocratique de l’humain et du non-humain

Les règles éthiques doivent permettre de minimiser, voire abolir, la domination, l’exploitation et l’ignorance ; ceci afin de réduire, voire éliminer, la souffrance. Elles sont d’essence démocratique dans la mesure où elles tiennent compte de l’expertise et de l’implication de chacun, plutôt que d’une autorité paternaliste. C’est ce qui différencie l’absence de souffrance, à travers le libre épanouissement de chacun, de l’anesthésie comme élimination de la sensibilité. La démocratie signifie le pouvoir pour et par tous, et devrait donc s’étendre à tous les niveaux de décisions, dans l’infrastructure et la superstructure, dans la société et l’Etat. Il s’agit d’équilibrer l’évaluation et la décision en tous lieux de manière optimale.

L’activité démocratique porte sur le rapport entre les hommes et leur relation à leur environnement naturel et artificiel. Autrement dit, le circuit de décision intègre les questions des pratiques à adopter vis-à-vis des humains, des animaux, des machines, des végétaux et de la terre. Et c’est à travers le discours humain que s’exprime le non humain, en tant que vulnérable ou menaçant.

 

8. Conclusions

            Nous inventons des instruments qui augmentent nos capacités à résoudre les problèmes et donc notre intelligence. A cet effet, les machines symboliques et les artefacts intelligents imitent et décuplent certains aspects de l’intelligence humaine. Il s’agit d’un cercle vertueux : l’intelligence humaine produit l’intelligence instrumentale pour se développer (p. ex. calculi, abaque, Pascaline, etc.). Ces techniques et machines destinées à résoudre les problèmes sont donc bonnes par définition. Juger péjorativement l’artificialité relève du préjugé. Un humain sans artifice n’est pas un humain. Cependant, l’attribution aux machines de qualités humaines comme la conscience, la liberté ou la créativité relève de la fiction.       

La régulation est une activité humaine de résolution de problèmes techniques et éthiques. Elle utilise des techniques instrumentales et symboliques qu’il faut à leur tour réguler. Le but de ces régulations est d’orienter les innovations vers le bien. Ainsi, l’intelligence humaine permet à la fois l’innovation et la régulation, afin d’écarter les dangers liés à ces innovations.

La régulation se présente comme une thérapie, à la suite d’un diagnostic critique des innovations et de leurs méfaits. Ceux-ci émergent de pratiques sociales liées aux usages des innovations et des cercles vicieux dans lesquels ils sont pris. Mais la question importante est celle de savoir qui produit le diagnostic et la thérapie. Car la critique des innovations peut répondre à différentes stratégies sous-jacentes. P. ex. certaines critiques des innovations, surtout lorsqu’elles émanent curieusement des instances intéressées à leur développement, peuvent servir en creux à démontrer leur efficacité. Ou alors, la critique des innovations peut avoir pour objet de masquer la responsabilité humaine de certaines autorités. Ce sont autant de raisons de défendre des approches démocratiques de diagnostics et de thérapeutiques des innovations.

Plus généralement, les procédures démocratiques doivent être en mesure de traiter la complexité des phénomènes et d’épouser la diversité des situations et leur modification dans le temps et l’espace. La régulation démocratique devrait s’effectuer à des échelles diverses : d’abord au niveau réflexif individuel, avec le gouvernement de soi ; dans la famille et la communauté, avec la discipline quotidienne ; dans l’organisation du travail et des collectifs ou associations ; dans les institutions et la fonction publique ; et dans les instances internationales. C’est la combinaison de ces différentes strates qui doit permettre d’endiguer les contre-finalités et les externalités négatives relatives aux innovations. Ajoutons, comme vertus inhérentes à la régulation démocratique, le fait que les décisions prises démocratiquement ont un caractère légitime, et que les pratiques démocratiques développent l’intelligence. L’évolution technologique seule ne peut contribuer à la construction de sociétés viables si elle ne s’accompagne pas du développement des pratiques démocratiques.

Raphaël Edelman, Nantes, Mai 2025

 

Aucun commentaire:

Enregistrer un commentaire