0. Introduction
Dernière
innovation remarquée : « l’intelligence artificielle ». Cette
innovation, comme toutes les précédentes, fait l’objet à la fois, et parfois en
même temps, d’éloges et de critiques souvent démesurés. Ce qui semble inédit,
cette fois, c’est qu’il s’agit d’une machine qui accomplit des travaux
intellectuels et non plus manuels. Mais est-ce vraiment nouveau ? Et cette
machine est-elle réellement intelligente ? Nous verrons... Nous nous
demanderons également si les problèmes que soulève cette innovation ne sont pas,
comme pour les précédentes, davantage éthiques et politiques que techniques.
1. Intelligences
et résolution de problèmes
« L’intelligence »
peut désigner la capacité à résoudre un problème : p. ex. trouver une
issue, la solution d’une équation, répondre correctement à une question,
comprendre un discours, gagner aux échecs (c’est une définition plus pragmatique
que celle que l’on trouve dans le dictionnaire, telle que « fonction
mentale d’organisation du réel en pensée »). « L’intelligence » peut
être celle d’un humain, d’un collectif, d’un animal ou d’une machine.
Il
y a différents types d’intelligences selon les êtres et aussi pour un même
être. Un être humain peut avoir une intelligence relationnelle, pratique,
créative, logique, etc. Enfin l’intelligence c’est aussi la capacité d’utiliser
une variété de formes d’intelligences, c’est-à-dire d’alterner et combiner ces différentes
formes d’intelligences.
Ensuite,
dire d’une personne qu’elle est « intelligente », c’est porter un
jugement de valeur positif. Et si l’on parle d’un objet
« intelligent » (jeu, livre, accessoire, machine), cela valorise
l’objet ainsi que son créateur, son utilisateur ou son possesseur. On leur
attribue alors un pouvoir (même s’il peut être employé à mauvais escient).
2. L’artefact
comme produit intentionnel de l’Homme
En
revanche, dire d’un être ou d’une chose qu’ils sont « artificiels »,
peut avoir une connotation négative et signifier « faux »,
« surfait », « inauthentique », « inutile ». On considère
alors qu’il s’agit d’une copie inférieure à son modèle (p. ex. une fleur ou un
arôme artificiel).
Mais
cette connotation n’est pas nécessaire. L’expression « intelligence
artificielle » indique généralement une intelligence issue d’une machine et
rien de plus (même si l’on peut remarquer après-coup l’opposition entre la
connotation positive d’« intelligence » et négative d’« artificielle »). La
connotation d’« artificielle » peut même devenir positive si l’on reconnaît, à
travers ce mot, une prouesse du génie humain capable de créer une machine intelligente.
Le
terme « artefact » permet d’éviter le parasitage connotatif attaché à
« artifice ». « Artefact » désigne alors les produits de
l’intelligence humaine : outils, instruments, machines, œuvres,
institutions. Si l’artefact est un produit de l’intelligence humaine, et que
cet artefact est en outre lui-même intelligent, alors on peut le considérer
comme une extension de l’intelligence humaine, c’est-à-dire une manière
indirecte pour l’humain d’être intelligent. Si l’intelligence artificielle
devait être considérée comme plus intelligente que l’intelligence humaine, cela
constituerait une remarquable prouesse de l’intelligence humaine.
Contrairement
à l’artefact, le produit naturel existe indépendamment de l’homme, et plus
précisément indépendamment de son action consciente et volontaire. P. ex. une
empreinte de main sur un mur n’est pas un artefact si elle n’est pas
intentionnelle. Les produits naturels sont les animaux, les végétaux, les
solides, les liquides et tous les processus biologiques, chimiques et physiques
qui existent par eux-mêmes et sans notre concours. On peut aussi compter d’une
certaine façon l’homme parmi les produits naturels.
Ce
qui constitue l’artefact, c’est donc le résultat de l’action intelligente
humaine, c’est-à-dire la Nature intentionnellement transformée par l’Homme. Les
effets secondaires de l’activité humaine, comme la pollution, les déchets, les accidents
ou les « désalignements » (comportements imprévus de l’IA) ne peuvent
alors pas être considérés comme des artefacts - même s’il paraît peu intuitif
de les qualifier de « naturels ».
3. La
différence entre l’intelligence humaine et artificielle
L’artefact
devient « intelligent » quand il peut effectuer de manière autonome des
opérations qui rappellent l’activité intelligente humaine : calculer,
jouer de la musique ou à des jeux, détecter et alerter, se mettre en pause ou
en marche, traduire, répondre à des ordres ou des questions, corriger ses
erreurs etc. Parfois l’artifice est bien supérieur à l’homme (vitesse de
calcul, stockage de mémoire). Mais il reste spécialisé dans des tâches précises,
là où l’homme effectue un nombre incalculable d’opérations différentes.
L’artefact
intelligent peut être considéré comme une machine symbolique par opposition à
une machine instrumentale. La machine représente une évolution technologique
basée sur l’utilisation d’un moteur à la place de la force musculaire. Les
premières machines sont des évolutions des techniques instrumentales liées aux
activités manuelles (p. ex. les machines-outils ou les véhicules). Les
techniques symboliques, comme l’écriture, ont à leur tour évolué sous formes
mécaniques (p. ex. imprimerie, machine à écrire, télécommunication,
calculateurs, etc.). Les machines symboliques traitent, comme contenus, des
symboles graphiques, sonores, numériques et alphabétiques. Mais elles ne
pourraient le faire sans, comme extensions instrumentales, leurs interfaces
réceptrices ou effectrices pour interagir avec le monde extérieur. Le
développement de ces interfaces aboutit à la robotique, dès lors que les
entrées et sorties du processeur deviennent plus élaborées qu’un clavier et un
écran. On peut dire que le robot est le développement corporel de l’ordinateur.
Cela
soulève la question de la continuité entre l’instrumental et le symbolique. Le
symbolique est-il la miniaturisation de l’instrumental ? Peut-on réduire
des opérations sur les symboles à des processus causaux ? Le processus
entre le clavier et l’écran de la calculatrice n’est-il qu’une seule et même
transmission mécanique continue ? Peut-on en dire autant de ce qu’il se
passe entre l’œil et la main quand p. ex. on calcule sur un papier ? Si
c’est le cas, comment expliquer la conscience, la liberté ou la
créativité ?
Ces
questions renvoient à des analyses de philosophie de l’esprit qui ne seront pas
traitées ici. Ce qu’on peut remarquer pour le moment, c’est qu’une évaluation technique
de l’intelligence artificielle ou humaine consiste à mesurer leur performance
d’un point de vue mécanique, en termes de puissance, de vitesse de calcul ou de
quotient intellectuel. Sur ce plan, les machines peuvent être bien plus
performantes que l’homme (tout comme les voitures, les trains ou les avions en
matière de déplacement). On peut également établir, pour un traducteur
automatique p. ex., s’il traduit correctement (sans pour autant faire preuve de
la virtuosité et de la sensibilité propre aux humains), tout comme on peut
déterminer si un avion vole correctement.
4. L’évaluation
éthique et la neutralité des innovations
Si
l’évaluation technique permet de dire si une chose accomplit efficacement ou
correctement une action, l’évaluation éthique consiste à se demander si cette
action est bonne. Un escroc peut agir « bien » techniquement, on ne
dira pas pour autant qu’il agit « bien » éthiquement. Une action,
pouvons-nous dire, est absolument éthique si elle est bonne pour tous les
hommes et pour le monde en général. Mais cela n’est pas plus précis que si l’on
disait qu’une action est bonne si elle est bonne. En disant p. ex. que le
médicament est bon et le poison mauvais, on ne fait qu’expliciter leur
définition. Cela n’est pas plus instructif que de dire que la santé, la joie,
le bonheur, le bien être, l’amitié sont bons en soi.
Et
s’il est question d’empoisonner un dangereux tyran, il ne s’agit alors en
principe que de nier la négation, comme « punir le coupable », « éliminer
le mal », « éradiquer la maladie », ce qui est tout aussi
abstrait. Mais si l’on aborde cette fois l’éthique d’un point de vue concret, l’évaluation
devient relative. Ce qui est bon pour quelqu’un ici peut être mauvais pour
quelqu’un d’autre là ; ce qui est bon à cet instant peut être néfaste
ultérieurement et vice versa.
D’un
point de vue abstrait, indépendamment des situations particulières, l’existence
de la plupart des innovations n’a rien de mauvais en soi. Ce qui revient à dire
qu’elles sont neutres. C’est le cas p.
ex. de l’automobile, l’ordinateur, le téléphone, la télévision, le
réfrigérateur, la pelleteuse, etc. Les problèmes éthiques apparaissent lorsqu’il
est question de qualifier les inventions par rapport aux faits. Elles
deviennent alors parfois bonnes, parfois mauvaises. L’automobile p. ex. ne
garantit pas automatiquement le bonheur et le bien-être des Hommes.
Une
façon radicale de résoudre le problème éthique est d’éliminer son objet, comme
si l’on guérissait le malade en le faisant tout simplement disparaître. Si l’on
se débarrassait de certaines technologies, on ferait disparaître, plus ou moins
rapidement, leurs effets pervers (avec leurs effets salutaires). Ceci est comparable
à ce que font les philosophes qui, au lieu de répondre à une question, disent
qu’elle n’a pas de sens. Il faut alors s’assurer que c’est bien le cas, sans
quoi ce ne serait qu’une parade rhétorique. Il y a bien des innovations qui
ressemblent a priori à des problèmes sans solutions, celles qui sont négatives
par définitions : les armes de destruction massives, les robots-tueurs,
les instruments de torture, les pesticides, etc. Mais rejeter les ordinateurs,
les téléphones ou les voitures comme fondamentalement mauvais paraît difficile
à justifier (mais pas impossible pour autant). Tout comme l’on peut montrer
qu’une question mal posée pourrait l’être autrement, on peut toutefois considérer
certaines innovations comme mal engagées et devant être conçues autrement. C’est
le cas de produits contenant de l’amiante, du plomb, du ddt, du radium p. ex.
5. La réponse
éthique de la régulation
La
plupart des problèmes éthiques auxquels nous sommes confrontés ne peuvent être
ni complétement résolus ni totalement éliminés. Il paraît inconcevable que nous
abandonnions délibérément la plupart des technologies que nous utilisons, ni
que nous puissions écarter définitivement les risques qu’elles représentent. Il
nous reste alors à tenter de les réguler tant bien que mal. Pour cela, il faut
intervenir à plusieurs niveaux : en amont, comme lorsqu’on bride le moteur
d’une auto ; en aval, avec des ralentisseurs sur les routes, des panneaux,
des radars, des gendarmes et des juges. La régulation répond à un désir de
sécurité afin d’endiguer le débordement (p. ex. l’excès de vitesse) ou
d’empêcher l’apparition d’un phénomène redouté (p. ex. l’accident).
La régulation suppose des règles,
qui définissent des limites, et des moyens d’application : instruments,
incitations, sanctions, contrôles, corrections etc. (certaines règles
apparaissent pour réguler les règles précédentes, comme celles qui permettent
de limiter les abus de pouvoir). La non-application d’une règle équivaut au plan
d’architecte non réalisé ou à la partition du compositeur non interprétée.
6. La liberté
comme régulation consentie
Une
conception naïve ou malhonnête de la liberté consiste à l’assimiler à l’absence
de règles, au lieu de distinguer les règles qu’on approuve et celles qu’on
désapprouve et qui sont vécues comme oppressives. Il y a p. ex. les règles de
grammaire sans lesquelles nous ne pourrions pas parler et les règles sociales
qui peuvent être perçues comme une entrave à la liberté d’expression.
Sur
le plan politique, une règle interfère légitimement avec notre action dès lors
qu’elle garantit une protection contre des interférences arbitraires. Une règle
est légitime si elle reconnaissable par tous comme bonne, ce qui suppose que
nous soyons capables de reconnaître qu’elle peut être utile à n’importe qui. La
règle s’applique à une personne quelconque, universelle et possible.
La recherche d’un équilibre des intérêts
et des compétences a comme motif la possibilité d’être lésé par un
déséquilibre. Le but est d’écarter ce qui me fait ou ferait souffrir si cela
m’arrivait. La morale est généralement qualifiée de désintéressée. Mais en un
sens elle est hyper-intéressée : faire comme si ce qui arrive aux autres pouvait
m’arriver aussi.
7. La
régulation démocratique de l’humain et du non-humain
Les
règles éthiques doivent permettre de minimiser, voire abolir, la domination,
l’exploitation et l’ignorance ; ceci afin de réduire, voire éliminer, la
souffrance. Elles sont d’essence démocratique dans la mesure où elles tiennent
compte de l’expertise et de l’implication de chacun, plutôt que d’une autorité
paternaliste. C’est ce qui différencie l’absence de souffrance, à travers le
libre épanouissement de chacun, de l’anesthésie comme élimination de la
sensibilité. La démocratie signifie le pouvoir pour et par tous, et devrait
donc s’étendre à tous les niveaux de décisions, dans l’infrastructure et la
superstructure, dans la société et l’Etat. Il s’agit d’équilibrer l’évaluation
et la décision en tous lieux de manière optimale.
L’activité
démocratique porte sur le rapport entre les hommes et leur relation à leur
environnement naturel et artificiel. Autrement dit, le circuit de décision
intègre les questions des pratiques à adopter vis-à-vis des humains, des
animaux, des machines, des végétaux et de la terre. Et c’est à travers le
discours humain que s’exprime le non humain, en tant que vulnérable ou
menaçant.
8. Conclusions
Nous inventons des
instruments qui augmentent nos capacités à résoudre les problèmes et donc notre
intelligence. A cet effet, les machines symboliques et les artefacts
intelligents imitent et décuplent certains aspects de l’intelligence humaine.
Il s’agit d’un cercle vertueux : l’intelligence humaine produit
l’intelligence instrumentale pour se développer (p. ex. calculi, abaque,
Pascaline, etc.). Ces techniques et machines destinées à résoudre les problèmes
sont donc bonnes par définition. Juger péjorativement l’artificialité relève du
préjugé. Un humain sans artifice n’est pas un humain. Cependant, l’attribution
aux machines de qualités humaines comme la conscience, la liberté ou la
créativité relève de la fiction.
La régulation est une
activité humaine de résolution de problèmes techniques et éthiques. Elle
utilise des techniques instrumentales et symboliques qu’il faut à leur tour
réguler. Le but de ces régulations est d’orienter les innovations vers le bien.
Ainsi, l’intelligence humaine permet à la fois l’innovation et la régulation,
afin d’écarter les dangers liés à ces innovations.
La régulation se
présente comme une thérapie, à la suite d’un diagnostic critique des
innovations et de leurs méfaits. Ceux-ci émergent de pratiques sociales liées
aux usages des innovations et des cercles vicieux dans lesquels ils sont pris.
Mais la question importante est celle de savoir qui produit le diagnostic et la
thérapie. Car la critique des innovations peut répondre à différentes
stratégies sous-jacentes. P. ex. certaines critiques des innovations, surtout
lorsqu’elles émanent curieusement des instances intéressées à leur
développement, peuvent servir en creux à démontrer leur efficacité. Ou alors,
la critique des innovations peut avoir pour objet de masquer la responsabilité
humaine de certaines autorités. Ce sont autant de raisons de défendre des
approches démocratiques de diagnostics et de thérapeutiques des innovations.
Plus généralement, les
procédures démocratiques doivent être en mesure de traiter la complexité des
phénomènes et d’épouser la diversité des situations et leur modification dans
le temps et l’espace. La régulation démocratique devrait s’effectuer à des échelles
diverses : d’abord au niveau réflexif individuel, avec le gouvernement de
soi ; dans la famille et la communauté, avec la discipline
quotidienne ; dans l’organisation du travail et des collectifs ou
associations ; dans les institutions et la fonction publique ; et
dans les instances internationales. C’est la combinaison de ces différentes
strates qui doit permettre d’endiguer les contre-finalités et les externalités
négatives relatives aux innovations. Ajoutons, comme vertus inhérentes à la régulation
démocratique, le fait que les décisions prises démocratiquement ont un
caractère légitime, et que les pratiques démocratiques développent
l’intelligence. L’évolution technologique seule ne peut contribuer à la
construction de sociétés viables si elle ne s’accompagne pas du développement
des pratiques démocratiques.
Raphaël Edelman, Nantes, Mai 2025
Aucun commentaire:
Enregistrer un commentaire