samedi 31 mai 2025

THE USE OF SYMBOLIC MACHINES

 

 


0. Introduction

The last remarkable innovation is “artificial intelligence”. This innovation, like all the previous ones, is subject to both, and sometimes at the same time, praise and criticism often out of proportion. What seems to be new today is that it is a machine that does intellectual work and no longer manual. But is it really new? And is this machine really smart? We’ll see... We will also ask whether the problems raised by this innovation are not, as with previous ones, more ethical and political than technical.

 

1. Intelligence and problem solving

“Intelligence” can mean the ability to solve a problem: e.g., finding a way out, solving an equation, correctly answering a question, understanding a speech, winning at chess (it is a more pragmatic definition than the one found in the dictionary, such as «mental function of organization of the real in thought»). “Intelligence” can be that of a human, collective, animal or machine.

There are different types of intelligences according to different beings and also for a same being. A human being can have a relational, practical, creative, logical intelligence, etc. Finally, intelligence is also the ability to use a variety of forms of intelligences, that is to say, to alternate and combine these different forms of intelligences.

Second, to say that someone is “intelligent” is to make a positive value judgment. And if we talk about an «intelligent» object (game, book, accessory, machine), this values the object as well as its creator, its user or its owner. Then they get a power (even if it can be misused).

 

2. Artifact as an intentional product of Man

On the other hand, to say that a being or thing is “artificial” can have a negative connotation and mean “false”, “overdone”, “unauthentic”, “useless”. It is considered to be an inferior copy of its model (e.g., a flower or artificial aroma).

But this connotation is not necessary. The expression “artificial intelligence” generally refers to machine-generated intelligence and nothing more (although the positive connotation of “artificial intelligence” can be contrasted with the negative connotation of “artificial intelligence”). The connotation of “artificial” can even become positive if one recognizes, through this word, a feat of human genius capable of creating an intelligent machine.

The term “artifact” avoids the connotative interference attached to “artifice”. «Artifact» refers to the products of human intelligence: tools, instruments, machines, works, institutions. If the artifact is a product of human intelligence, and if this artifact is also intelligent itself, then it can be considered as an extension of human intelligence, that is to say an indirect way for humans to be intelligent. If artificial intelligence were to be considered more intelligent than human intelligence, it would constitute a remarkable feat of human intelligence.

Unlike the artifact, the natural product exists independently of man, and more precisely independently of his conscious and voluntary action. E.g. a handprint on a wall is not an artifact if it is not intentional. Natural products are animals, plants, solids, liquids and all biological, chemical and physical processes that exist by themselves and without our assistance. Man can also be counted in some way among natural products.

What constitutes the artifact is therefore the result of human intelligent action, that is to say, Nature intentionally transformed by Man. Human side-effects such as pollution, waste, accidents or “misalignments” (AI’s unintended behaviors) cannot then be considered artifacts - even if it seems unintuitive to call them “natural”.

 

 

3. The difference between human and artificial intelligence

The artifact becomes “intelligent” when it can autonomously perform operations that recall human intelligent activity: calculating, playing music or games, detecting and alerting, pausing or running, translate, answer orders or questions, correct his errors etc. Sometimes the artifice is much superior to man (speed of calculation, memory storage). But it remains specialized in specific tasks, where man performs an incalculable number of different operations.

Intelligent artifact can be considered as a symbolic machine as opposed to an instrumental machine. Machine represents a technological evolution based on use of a motor instead of muscle strength. Machines are developments in instrumental techniques related to manual activities (e.g., machine tools or vehicles). Symbolic techniques, such as writing, have in turn evolved into mechanical forms (e.g., printing, typewriters, telecommunications, calculators, etc.). Symbolic machines process, as contents, graphic, sound, numerical and alphabetic symbols. But they could not do so without, as instrumental extensions, their receiving or effecting interfaces to interact with the outside world. The development of these interfaces leads to robotics, when inputs and outputs of the processor become more elaborate than a keyboard and a screen. We can say that robot is the body development of computer.

This raises the question of continuity between the instrumental and the symbolic. Is the symbolic miniaturization of the instrumental? Can we reduce operations on symbols to causal processes? Is the process between the keyboard and the calculator screen only one continuous mechanical transmission? Can we say the same about what happens between eye and hand when e.g. calculating on paper? If so, how do we explain consciousness, freedom or creativity? 

These questions refer to analyses of philosophy of mind which will not be dealt with here. What we can see now is that a technical evaluation of artificial or human intelligence consists in measuring their performance from a mechanical point of view, in terms of power, speed of calculation or intellectual quotient. In this respect, machines can be much more efficient than humans (just like cars, trains or planes when it comes to travel). For example, an automatic translator can also be estimate, to determine whether it is translating correctly (even if it’s done without skill and sensitivity of a human being), just as it can be used to determine if an aircraft is flying properly.

 

4. Ethical review and innovation neutrality

If the technical assessment tells us whether something is doing an action effectively or correctly, then the ethical assessment is about whether that action is good. A scammer can act “well” technically, but it will not be said that he acts “well” ethically. An action, we can say, is absolutely ethical if it is good for all men and for the world in general. But this is no more precise than saying that an action is good if it is good. Saying e.g. the medicine is good and the poison is bad only clarifies their definition. This is no more instructive than saying that health, joy, happiness, well-being and friendship are good in themselves.

And if we are talking about poisoning a dangerous tyrant, it is in principle only a question of denying the negation, as «punishing the guilty», «eliminating the evil», «eradicating the disease», which is equally abstract. But if we approach ethics from a concrete point of view, evaluation becomes relative. What is good for one here may be bad for another there; what is good at that moment can be bad later and vice versa.

From an abstract point of view, regardless of the particular situations, the existence of most innovations is not bad in itself. In other words, they are neutral.  This is the case for e.g. automobile, computer, telephone, television, refrigerator, backhoe, etc. Ethical issues arise when it comes to qualifying inventions against facts. They become sometimes good, sometimes bad. Automobile e.g. does not automatically guarantee the happiness and well-being of humans.

A radical way to solve ethical problem is to eliminate its object, as if one cured the patient by simply making him disappear. If we get rid of certain technologies, then will disappear, more or less quickly, their perverse effects (with their salutary effects). This is comparable to what philosophers do who, instead of answering a question, say that it has no meaning. We must then make sure that this is the case, otherwise it would only be a rhetorical parade. There are many innovations that look like problems without solutions, those that are negative by definition: weapons of mass destruction, robots-killers, torture instruments, pesticides, etc. But to reject computers, phones or cars, as fundamentally bad, seems difficult to justify (but not impossible). Nevertheless, just as it can be shown that a question may have been asked in the wrong way, some innovations can be regarded as having been misplaced and needing to be conceived differently. This is the case of products containing asbestos, lead, DDT, radium e.g. etc.

 

5. The ethical response of regulation

Most of the ethical problems we face cannot be completely solved or eliminated. It seems inconceivable that we would deliberately abandon most of the technologies we use, nor that we could permanently eliminate the risks they pose. We then have to try to regulate them as well as possible. For this, it is necessary to intervene on several levels: upstream, as when the motor of a car is derated; downstream, with retarders on roads, signs, radars, gendarmes and judges. The regulation responds to a desire for safety in order to contain the overflow (e.g. speeding) or prevent the occurrence of a feared phenomenon (e.g. accident).

            Regulation involves rules, which define limits, and means of application: instruments, incentives, sanctions, controls, corrections etc. (some rules appear to regulate the previous rules, such as those that limit abuse of power). Failure to apply a rule is equivalent to an unrealized architect’s plan or the composer’s score not performed.

 

6. Freedom as regulation

A naive or dishonest conception of freedom is to equate it with the absence of rules, instead of distinguishing between rules that are approved and those that are disapproved and experienced as oppressive. There are e.g. grammar rules without which we could not speak and social rules that can be perceived as a barrier to freedom of expression.

At the political level, a rule legitimately interferes with our action when it guarantees protection against arbitrary interference. A rule is legitimate if it can be recognized by all as good, which means that we must be able to recognize that it can be useful to anyone. The rule applies to any person, universal and possible.

            The motivation of the search for a balance of interests and skills is the possibility of being harmed by an imbalance. The aim is to set aside what makes me or would make me suffer if it happened to me. Morality is generally described as selfless. But in a sense it is hyper-interested: to act as if what happens to others could happen to me too.

 

7. The democratic regulation of human and non-human

The ethical rules must make it possible to minimize or even abolish domination, exploitation and ignorance; this in order to reduce or even eliminate suffering. They are democratic in essence insofar as they take into account the expertise and involvement of each person, rather than a paternalistic authority. This is what differentiates the absence of suffering, through the free development of each one, from anaesthesia as elimination of sensitivity. Democracy means power for and by all, and should therefore extend to all levels of decision-making, in infrastructure and superstructure, in society and the state. It is a matter of balancing evaluation and decision everywhere in an optimal way.

Democratic activity is about the relationship between humans and their relationship to their natural and artificial environment. In other words, the decision-making circuit integrates questions of practices to be adopted vis-à-vis humans, animals, machines, plants and land. And it is through human speech that the non-human expresses itself, as vulnerable or threatening.

 

8. Conclusions

            We invent tools that increase our problem-solving abilities and thus our intelligence. To this end, symbolic machines and intelligent artifacts imitate and multiply certain aspects of human intelligence. It is a virtuous circle: human intelligence produces instrumental intelligence to develop itself (e.g., calculi, abaque, pascaline, etc.). These techniques and machines designed to solve problems are therefore good by definition. Judging artificiality pejoratively is a matter of prejudice. A human without artifice is not a human. But attribution of human qualities to machines, such as consciousness, freedom or creativity, is fiction.

Regulation is a human activity of solving technical and ethical problems. It uses instrumental and symbolic techniques that need to be regulated too. The purpose of these regulations is to direct innovations towards the good. Thus, human intelligence allows both innovation and regulation to avoid the dangers associated with these innovations.

Regulation is presented as a therapy, following a critical diagnosis of innovations and their harms. These emerge from social practices linked to the uses of innovations and the vicious circles in which they are caught. But the important question is who makes the diagnosis and the therapy. Because innovation criticism can respond to different underlying strategies. For example, some criticism of innovations, especially when it comes from bodies curiously interested in their development, can be used to demonstrate their effectiveness. Or criticism of innovations may be aimed at masking the human responsibility of some authorities. These are all reasons to defend democratic approaches to the diagnosis and treatment of innovations.

More generally, democratic procedures must be able to deal with the complexity of phenomena and to accommodate the diversity of situations and their changes in time and space. Democratic regulation should be carried out on various scales: first, at the individual reflexive level, with self-government; in the family and community, with daily discipline; in the organization of work and collectives or associations; in institutions and civil service; and in international bodies. It is the combination of these different strata that should make it possible to contain the negative externalities and counter-objectives related to innovations. Let us add, as virtues inherent in democratic regulation, the fact that decisions taken democratically have a legitimate character, and that democratic practices develop intelligence. Technological change alone cannot contribute to the construction of viable societies if it is not accompanied by the development of democratic practices.

 Raphaël Edelman, Nantes, May 2025

 

dimanche 25 mai 2025

L'USAGE DES MACHINES SYMBOLIQUES


  
0. Introduction

Dernière innovation remarquée : « l’intelligence artificielle ». Cette innovation, comme toutes les précédentes, fait l’objet à la fois, et parfois en même temps, d’éloges et de critiques souvent démesurés. Ce qui semble inédit, cette fois, c’est qu’il s’agit d’une machine qui accomplit des travaux intellectuels et non plus manuels. Mais est-ce vraiment nouveau ? Et cette machine est-elle réellement intelligente ? Nous verrons... Nous nous demanderons également si les problèmes que soulève cette innovation ne sont pas, comme pour les précédentes, davantage éthiques et politiques que techniques.

 

1. Intelligences et résolution de problèmes

« L’intelligence » peut désigner la capacité à résoudre un problème : p. ex. trouver une issue, la solution d’une équation, répondre correctement à une question, comprendre un discours, gagner aux échecs (c’est une définition plus pragmatique que celle que l’on trouve dans le dictionnaire, telle que « fonction mentale d’organisation du réel en pensée »). « L’intelligence » peut être celle d’un humain, d’un collectif, d’un animal ou d’une machine.

Il y a différents types d’intelligences selon les êtres et aussi pour un même être. Un être humain peut avoir une intelligence relationnelle, pratique, créative, logique, etc. Enfin l’intelligence c’est aussi la capacité d’utiliser une variété de formes d’intelligences, c’est-à-dire d’alterner et combiner ces différentes formes d’intelligences.

Ensuite, dire d’une personne qu’elle est « intelligente », c’est porter un jugement de valeur positif. Et si l’on parle d’un objet « intelligent » (jeu, livre, accessoire, machine), cela valorise l’objet ainsi que son créateur, son utilisateur ou son possesseur. On leur attribue alors un pouvoir (même s’il peut être employé à mauvais escient).

 

2. L’artefact comme produit intentionnel de l’Homme

En revanche, dire d’un être ou d’une chose qu’ils sont « artificiels », peut avoir une connotation négative et signifier « faux », « surfait », « inauthentique », « inutile ». On considère alors qu’il s’agit d’une copie inférieure à son modèle (p. ex. une fleur ou un arôme artificiel).

Mais cette connotation n’est pas nécessaire. L’expression « intelligence artificielle » indique généralement une intelligence issue d’une machine et rien de plus (même si l’on peut remarquer après-coup l’opposition entre la connotation positive d’« intelligence » et négative d’« artificielle »). La connotation d’« artificielle » peut même devenir positive si l’on reconnaît, à travers ce mot, une prouesse du génie humain capable de créer une machine intelligente.

Le terme « artefact » permet d’éviter le parasitage connotatif attaché à « artifice ». « Artefact » désigne alors les produits de l’intelligence humaine : outils, instruments, machines, œuvres, institutions. Si l’artefact est un produit de l’intelligence humaine, et que cet artefact est en outre lui-même intelligent, alors on peut le considérer comme une extension de l’intelligence humaine, c’est-à-dire une manière indirecte pour l’humain d’être intelligent. Si l’intelligence artificielle devait être considérée comme plus intelligente que l’intelligence humaine, cela constituerait une remarquable prouesse de l’intelligence humaine.

Contrairement à l’artefact, le produit naturel existe indépendamment de l’homme, et plus précisément indépendamment de son action consciente et volontaire. P. ex. une empreinte de main sur un mur n’est pas un artefact si elle n’est pas intentionnelle. Les produits naturels sont les animaux, les végétaux, les solides, les liquides et tous les processus biologiques, chimiques et physiques qui existent par eux-mêmes et sans notre concours. On peut aussi compter d’une certaine façon l’homme parmi les produits naturels.

Ce qui constitue l’artefact, c’est donc le résultat de l’action intelligente humaine, c’est-à-dire la Nature intentionnellement transformée par l’Homme. Les effets secondaires de l’activité humaine, comme la pollution, les déchets, les accidents ou les « désalignements » (comportements imprévus de l’IA) ne peuvent alors pas être considérés comme des artefacts - même s’il paraît peu intuitif de les qualifier de « naturels ».

 

3. La différence entre l’intelligence humaine et artificielle

L’artefact devient « intelligent » quand il peut effectuer de manière autonome des opérations qui rappellent l’activité intelligente humaine : calculer, jouer de la musique ou à des jeux, détecter et alerter, se mettre en pause ou en marche, traduire, répondre à des ordres ou des questions, corriger ses erreurs etc. Parfois l’artifice est bien supérieur à l’homme (vitesse de calcul, stockage de mémoire). Mais il reste spécialisé dans des tâches précises, là où l’homme effectue un nombre incalculable d’opérations différentes.

L’artefact intelligent peut être considéré comme une machine symbolique par opposition à une machine instrumentale. La machine représente une évolution technologique basée sur l’utilisation d’un moteur à la place de la force musculaire. Les premières machines sont des évolutions des techniques instrumentales liées aux activités manuelles (p. ex. les machines-outils ou les véhicules). Les techniques symboliques, comme l’écriture, ont à leur tour évolué sous formes mécaniques (p. ex. imprimerie, machine à écrire, télécommunication, calculateurs, etc.). Les machines symboliques traitent, comme contenus, des symboles graphiques, sonores, numériques et alphabétiques. Mais elles ne pourraient le faire sans, comme extensions instrumentales, leurs interfaces réceptrices ou effectrices pour interagir avec le monde extérieur. Le développement de ces interfaces aboutit à la robotique, dès lors que les entrées et sorties du processeur deviennent plus élaborées qu’un clavier et un écran. On peut dire que le robot est le développement corporel de l’ordinateur.

Cela soulève la question de la continuité entre l’instrumental et le symbolique. Le symbolique est-il la miniaturisation de l’instrumental ? Peut-on réduire des opérations sur les symboles à des processus causaux ? Le processus entre le clavier et l’écran de la calculatrice n’est-il qu’une seule et même transmission mécanique continue ? Peut-on en dire autant de ce qu’il se passe entre l’œil et la main quand p. ex. on calcule sur un papier ? Si c’est le cas, comment expliquer la conscience, la liberté ou la créativité ?  

Ces questions renvoient à des analyses de philosophie de l’esprit qui ne seront pas traitées ici. Ce qu’on peut remarquer pour le moment, c’est qu’une évaluation technique de l’intelligence artificielle ou humaine consiste à mesurer leur performance d’un point de vue mécanique, en termes de puissance, de vitesse de calcul ou de quotient intellectuel. Sur ce plan, les machines peuvent être bien plus performantes que l’homme (tout comme les voitures, les trains ou les avions en matière de déplacement). On peut également établir, pour un traducteur automatique p. ex., s’il traduit correctement (sans pour autant faire preuve de la virtuosité et de la sensibilité propre aux humains), tout comme on peut déterminer si un avion vole correctement.

 

4. L’évaluation éthique et la neutralité des innovations

Si l’évaluation technique permet de dire si une chose accomplit efficacement ou correctement une action, l’évaluation éthique consiste à se demander si cette action est bonne. Un escroc peut agir « bien » techniquement, on ne dira pas pour autant qu’il agit « bien » éthiquement. Une action, pouvons-nous dire, est absolument éthique si elle est bonne pour tous les hommes et pour le monde en général. Mais cela n’est pas plus précis que si l’on disait qu’une action est bonne si elle est bonne. En disant p. ex. que le médicament est bon et le poison mauvais, on ne fait qu’expliciter leur définition. Cela n’est pas plus instructif que de dire que la santé, la joie, le bonheur, le bien être, l’amitié sont bons en soi.

Et s’il est question d’empoisonner un dangereux tyran, il ne s’agit alors en principe que de nier la négation, comme « punir le coupable », « éliminer le mal », « éradiquer la maladie », ce qui est tout aussi abstrait. Mais si l’on aborde cette fois l’éthique d’un point de vue concret, l’évaluation devient relative. Ce qui est bon pour quelqu’un ici peut être mauvais pour quelqu’un d’autre là ; ce qui est bon à cet instant peut être néfaste ultérieurement et vice versa.

D’un point de vue abstrait, indépendamment des situations particulières, l’existence de la plupart des innovations n’a rien de mauvais en soi. Ce qui revient à dire qu’elles sont neutres.  C’est le cas p. ex. de l’automobile, l’ordinateur, le téléphone, la télévision, le réfrigérateur, la pelleteuse, etc. Les problèmes éthiques apparaissent lorsqu’il est question de qualifier les inventions par rapport aux faits. Elles deviennent alors parfois bonnes, parfois mauvaises. L’automobile p. ex. ne garantit pas automatiquement le bonheur et le bien-être des Hommes.

Une façon radicale de résoudre le problème éthique est d’éliminer son objet, comme si l’on guérissait le malade en le faisant tout simplement disparaître. Si l’on se débarrassait de certaines technologies, on ferait disparaître, plus ou moins rapidement, leurs effets pervers (avec leurs effets salutaires). Ceci est comparable à ce que font les philosophes qui, au lieu de répondre à une question, disent qu’elle n’a pas de sens. Il faut alors s’assurer que c’est bien le cas, sans quoi ce ne serait qu’une parade rhétorique. Il y a bien des innovations qui ressemblent a priori à des problèmes sans solutions, celles qui sont négatives par définitions : les armes de destruction massives, les robots-tueurs, les instruments de torture, les pesticides, etc. Mais rejeter les ordinateurs, les téléphones ou les voitures comme fondamentalement mauvais paraît difficile à justifier (mais pas impossible pour autant). Tout comme l’on peut montrer qu’une question mal posée pourrait l’être autrement, on peut toutefois considérer certaines innovations comme mal engagées et devant être conçues autrement. C’est le cas de produits contenant de l’amiante, du plomb, du ddt, du radium p. ex.

 

5. La réponse éthique de la régulation

La plupart des problèmes éthiques auxquels nous sommes confrontés ne peuvent être ni complétement résolus ni totalement éliminés. Il paraît inconcevable que nous abandonnions délibérément la plupart des technologies que nous utilisons, ni que nous puissions écarter définitivement les risques qu’elles représentent. Il nous reste alors à tenter de les réguler tant bien que mal. Pour cela, il faut intervenir à plusieurs niveaux : en amont, comme lorsqu’on bride le moteur d’une auto ; en aval, avec des ralentisseurs sur les routes, des panneaux, des radars, des gendarmes et des juges. La régulation répond à un désir de sécurité afin d’endiguer le débordement (p. ex. l’excès de vitesse) ou d’empêcher l’apparition d’un phénomène redouté (p. ex. l’accident).

            La régulation suppose des règles, qui définissent des limites, et des moyens d’application : instruments, incitations, sanctions, contrôles, corrections etc. (certaines règles apparaissent pour réguler les règles précédentes, comme celles qui permettent de limiter les abus de pouvoir). La non-application d’une règle équivaut au plan d’architecte non réalisé ou à la partition du compositeur non interprétée.

           

6. La liberté comme régulation consentie

Une conception naïve ou malhonnête de la liberté consiste à l’assimiler à l’absence de règles, au lieu de distinguer les règles qu’on approuve et celles qu’on désapprouve et qui sont vécues comme oppressives. Il y a p. ex. les règles de grammaire sans lesquelles nous ne pourrions pas parler et les règles sociales qui peuvent être perçues comme une entrave à la liberté d’expression.

Sur le plan politique, une règle interfère légitimement avec notre action dès lors qu’elle garantit une protection contre des interférences arbitraires. Une règle est légitime si elle reconnaissable par tous comme bonne, ce qui suppose que nous soyons capables de reconnaître qu’elle peut être utile à n’importe qui. La règle s’applique à une personne quelconque, universelle et possible.

            La recherche d’un équilibre des intérêts et des compétences a comme motif la possibilité d’être lésé par un déséquilibre. Le but est d’écarter ce qui me fait ou ferait souffrir si cela m’arrivait. La morale est généralement qualifiée de désintéressée. Mais en un sens elle est hyper-intéressée : faire comme si ce qui arrive aux autres pouvait m’arriver aussi.

 

7. La régulation démocratique de l’humain et du non-humain

Les règles éthiques doivent permettre de minimiser, voire abolir, la domination, l’exploitation et l’ignorance ; ceci afin de réduire, voire éliminer, la souffrance. Elles sont d’essence démocratique dans la mesure où elles tiennent compte de l’expertise et de l’implication de chacun, plutôt que d’une autorité paternaliste. C’est ce qui différencie l’absence de souffrance, à travers le libre épanouissement de chacun, de l’anesthésie comme élimination de la sensibilité. La démocratie signifie le pouvoir pour et par tous, et devrait donc s’étendre à tous les niveaux de décisions, dans l’infrastructure et la superstructure, dans la société et l’Etat. Il s’agit d’équilibrer l’évaluation et la décision en tous lieux de manière optimale.

L’activité démocratique porte sur le rapport entre les hommes et leur relation à leur environnement naturel et artificiel. Autrement dit, le circuit de décision intègre les questions des pratiques à adopter vis-à-vis des humains, des animaux, des machines, des végétaux et de la terre. Et c’est à travers le discours humain que s’exprime le non humain, en tant que vulnérable ou menaçant.

 

8. Conclusions

            Nous inventons des instruments qui augmentent nos capacités à résoudre les problèmes et donc notre intelligence. A cet effet, les machines symboliques et les artefacts intelligents imitent et décuplent certains aspects de l’intelligence humaine. Il s’agit d’un cercle vertueux : l’intelligence humaine produit l’intelligence instrumentale pour se développer (p. ex. calculi, abaque, Pascaline, etc.). Ces techniques et machines destinées à résoudre les problèmes sont donc bonnes par définition. Juger péjorativement l’artificialité relève du préjugé. Un humain sans artifice n’est pas un humain. Cependant, l’attribution aux machines de qualités humaines comme la conscience, la liberté ou la créativité relève de la fiction.       

La régulation est une activité humaine de résolution de problèmes techniques et éthiques. Elle utilise des techniques instrumentales et symboliques qu’il faut à leur tour réguler. Le but de ces régulations est d’orienter les innovations vers le bien. Ainsi, l’intelligence humaine permet à la fois l’innovation et la régulation, afin d’écarter les dangers liés à ces innovations.

La régulation se présente comme une thérapie, à la suite d’un diagnostic critique des innovations et de leurs méfaits. Ceux-ci émergent de pratiques sociales liées aux usages des innovations et des cercles vicieux dans lesquels ils sont pris. Mais la question importante est celle de savoir qui produit le diagnostic et la thérapie. Car la critique des innovations peut répondre à différentes stratégies sous-jacentes. P. ex. certaines critiques des innovations, surtout lorsqu’elles émanent curieusement des instances intéressées à leur développement, peuvent servir en creux à démontrer leur efficacité. Ou alors, la critique des innovations peut avoir pour objet de masquer la responsabilité humaine de certaines autorités. Ce sont autant de raisons de défendre des approches démocratiques de diagnostics et de thérapeutiques des innovations.

Plus généralement, les procédures démocratiques doivent être en mesure de traiter la complexité des phénomènes et d’épouser la diversité des situations et leur modification dans le temps et l’espace. La régulation démocratique devrait s’effectuer à des échelles diverses : d’abord au niveau réflexif individuel, avec le gouvernement de soi ; dans la famille et la communauté, avec la discipline quotidienne ; dans l’organisation du travail et des collectifs ou associations ; dans les institutions et la fonction publique ; et dans les instances internationales. C’est la combinaison de ces différentes strates qui doit permettre d’endiguer les contre-finalités et les externalités négatives relatives aux innovations. Ajoutons, comme vertus inhérentes à la régulation démocratique, le fait que les décisions prises démocratiquement ont un caractère légitime, et que les pratiques démocratiques développent l’intelligence. L’évolution technologique seule ne peut contribuer à la construction de sociétés viables si elle ne s’accompagne pas du développement des pratiques démocratiques.

Raphaël Edelman, Nantes, Mai 2025

 

dimanche 6 avril 2025

DESIGN ET DEMOCRATIE

 

Si la technique a permis à l’humanité de se maintenir et de se développer jusqu’à aujourd’hui, son évolution a aussi produit un certain nombre d’effets pervers : pollution de l’environnement, diminution de la biodiversité, épuisement des ressources, réchauffement climatique, déshumanisation des conditions de travail, développement des technologies de propagande, de contrôle et de destruction, diminution des interactions sociales, etc. A moins d’imputer uniquement ces effets à une fatalité inhérente à l’essence de la technique, on peut espérer les corriger par de meilleures décisions politiques.

En réalité, il y a à la fois des environnements techniques plus ou moins vertueux et des décisions humaines plus ou moins sages. L’évolution des techniques, à la différence de l’évolution des espèces vivantes, est supposée rester soumise à la volonté humaine, laquelle soulève la question de la décision collective de l’humanité. Comme celle-ci est composée de groupes et d’individus en désaccords, cela ramène bien le problème du contrôle de la technique à un problème politique. Or nos modes de gouvernement et de décision actuels ne semblent pas permettre une telle maîtrise.

La thèse que nous souhaitons défendre ici est que le design peut apporter des réponses qui permettraient de réorganiser à cet effet nos systèmes techniques et sociaux. Plus précisément, c’est à un certain type de design, que nous qualifierons de « démocratique », qu’il faudra faire appel. Pour exposer cette thèse, nous rappellerons d’abord les liens existants entre le design et le progrès technique et social, en insistant sur les formes démocratiques de design. Puis nous montrerons en quoi la démocratie doit jouer un rôle central dans l’évolution à venir de l’organisation sociale.

 

 

I. Design et progrès

 

Pour souligner la relation qui existe entre le design et le progrès technique et social, nous allons parcourir quelques étapes de son développement à partir de la révolution industrielle jusqu’à aujourd’hui. Citons d’abord le mouvement Art and Craft et sa critique du modèle industriel naissant. D’un côté, il lui oppose le modèle corporatif de l’artisanat médiéval, comme symbole de l’autonomie ouvrière. D’un autre côté, il emprunte au mouvement ouvrier son idéal d’égalité, de progrès social et d’émancipation hérité des Lumières (William Morris). Cette tendance subsiste dans le design à travers son souci du progrès social et sa prudence vis-à-vis d’une société industrielle potentiellement déshumanisante.

Dans la première moitié du vingtième siècle, l’absorption de la forme par la fonction, et de l’esthétique et du style par l’efficacité, traduisit le règne de la raison instrumentale. La version du progrès qui fut alors proposée était marquée par une posture élitiste et paternaliste (Adolf Loos, Le Corbusier). Cette attitude technocratique s’accorde avec l’esprit de certaines philosophies positiviste (Auguste Comte) et utilitariste (Jeremy Bentham). Si le Bauhaus possédait également une dimension fonctionnaliste, sa conception du progrès comprenait en outre la volonté de lier l’art, l’artisanat et la vie, et de favoriser l’expérimentation et la collaboration entre étudiants et professeurs. Le philosophe pragmatiste Charles Morris y enseigna de 1937 à 1945.

Dans la deuxième moitié du vingtième siècle sont apparus le design radical (Superstudio, Archizoom) et l’anti-design (Ettore Sottsass, Archigram) qui héritèrent des tendances contestataires du surréalisme et inspirèrent le design critique (Fiona Raby, Anthony Dunne). Au sérieux fonctionnaliste, s’opposa le jeu des singularités, accompagné de la critique de la massification engendrée par la société de consommation. Ce type de design nous paraît favoriser une approche démocratique, à l’encontre d’une ingénierie sociale standardisée encourageant une forme passive d’hédonisme. La théorie critique en Allemagne et le post structuralisme en France défendirent des idées analogues.

Apparut également ce que nous appelons aujourd’hui le design durable, avec le diagnostic alarmant des menaces que la production industrielle fait peser sur les écosystèmes. Il s’agit d’inventer de nouvelles manières de produire et de consommer, et de sortir du modèle productiviste et consumériste dominant (Victor Papanek). De même, un design que nous qualifions aujourd’hui d’inclusif, propose une autre facette du progrès social en design. Son objectif est de repenser nos environnements en fonction des personnes en situation d’exclusion, grâce à l’aménagement des espaces et l’adaptation des objets.

 

 

II. Le design démocratique

 

Bien qu’il ait contribué au développement de la société industrielle, le design s’efforce d’en limiter les effets pervers. Parmi eux figure l’approche élitiste du progrès social, en vertu de laquelle la structure sociale est conçue pour le peuple et non par lui, par des « hommes d’exception » et non à travers la collaboration de divers acteurs. C’est pourquoi nous allons nous intéresser maintenant à ce que nous appelons le « design démocratique ».

Un premier exemple de design démocratique nous est donné par le cas norvégien d’Utopia, dans le contexte du développement d’outils informatiques pour l’imprimerie, l’hôpital et le bureau dans les années quatre-vingt, en vue d’adapter la conception aux utilisateurs (Kristen Nygaard). Il fallut pour cela des méthodes et des outils interactifs afin de favoriser l’apprentissage mutuel. Ainsi, les utilisateurs pouvaient énoncer leurs besoins et expliquer leurs difficultés ; tandis que les concepteurs pouvaient exposer le fonctionnement et les possibilités de leurs dispositifs, chacun étant à la fois novice et expert par rapport à l’autre.

On trouve une ressemblance de principes entre le design participatif scandinave et le design thinking (Rolf Faste), bien que les contextes soient différents. Nous retrouvons l’idée d’une démarche itérative, avec des corrections et des améliorations, la combinaison de diverses compétences dans un réseau interdisciplinaire, l’expérimentation sur le terrain, un positionnement pragmatique dépassant les anticipations théoriques et le développement de méthodes et outils facilitant la réflexion collective.

Il est couramment reproché aux démarches participatives de réclamer du temps du fait de leur nature itérative, exploratoire et délibérative. Mais parfois des initiatives collectives locales sont plus rapides que le cheminement d’une décision le long d’une chaîne hiérarchique. Il faut également tenir compte des pertes de temps à venir liées au rattrapage de mauvaises décisions éloignées du terrain. Enfin, une façon de compenser l’étalement dans le temps de la concertation est de favoriser le rapprochement dans l’espace. Ce peut être des espaces partagés concrets, comme les jardins collectifs ou les fablabs qui permettent l’échange des connaissances, la mutualisation des outils et des dépenses, et de raccourcir les circulations à des échelles soutenables.

L’utilisation du cyberespace permet également un gain de temps et le partage de ressources informationnelles et techniques (peer to peer, open source). Il s’y développe une économie contributive fondée sur l’entraide, le don et le contre-don. Ces îlots d’économie informelle s’intègrent au modèle marchand dominant tout en espérant étendre leur influence. Ils fonctionnent selon le principe de gestion collective des biens communs (Elinor Ostrom).

La production et le partage des informations et des analyses permet à l’intelligence collective de développer la connaissance en ligne (encyclopédies, tutoriels, cours, etc.). La manière dont les interactions produisent des croyances et des connaissances intéresse l’épistémologie sociale (Alvin Goldman, Philip Kitcher, Helen Longino). Plus généralement, la façon dont se forment les groupes à travers les représentations et les actions peut être analysée par l’ontologie sociale (John Searle, Margaret Gilbert, Ruth Millikan). Il est possible d’étudier les structures communicationnelles plus ou moins centralisées qui servent de forces de liaison aux collectifs humains. Nous avons montré ce que nous entendons par design démocratique à travers les exemples du design participatif scandinave, du design thinking et des espaces communs. Nous allons à présent explorer la question de la place de la démocratie dans le progrès technique et social d’un point de vue plus philosophique.

 

 

III. Démocratie et progrès

 

On distingue la démocratie participative de la démocratie représentative en ce qu’elle permet d’en approfondir la dimension démocratique (Jean Jacques Rousseau, Pierre Rosanvallon, Bernard Manin). La démocratie représentative est souvent considérée comme superficiellement démocratique et requalifiée comme aristocratie élective, puisque les prises de décision sont déléguées à des élus parmi l’élite au lieu que les citoyens participent directement aux décisions. Parmi les différentes théories de la démocratie participative, nous nous concentrerons sur la version pragmatiste de Dewey. Une objection courante qui est opposée à ce type de démocratie consiste à dénoncer l’incompétence et les préjugés des citoyens ordinaires et leur incapacité à prendre des décisions éclairées (Gabriel Almond, Walter Lippmann). La réponse de Dewey consiste à renverser l’argument. La compétence suppose l’accès à la délibération. Autrement dit, il faut créer un environnement favorable à la démocratie en organisant un meilleur accès à l’information, la formation des citoyens en encourageant l’implication de chacun. Par ailleurs, la démocratie participative n’exclut pas les différences de niveaux de qualification et défend la complémentarité des expertises. Par exemple, l’Empowered Participatory Governance permet de confronter les savoirs professionnels et profanes locaux dans les prises de décisions à l’aide d’experts facilitateurs (Archon Fung, Erik Wright).

Précisons les caractéristiques d’une ontologie sociale démocratique et pragmatique. Nous trouvons chez Herbert Mead et John Dewey l’idée d’une « individuation psychique et collective » (pour reprendre l’expression de Gilbert Simondon), selon laquelle l’individu ne peut se réaliser qu’en tant que membre de la société, en s’engageant dans un processus coopératif. Il ne s’agit pas simplement ici de s’intégrer et de s’ajuster à la société mais de se réaliser soi-même en participant au développement social. Cela comprend la socialisation de l’intelligence à travers la confrontation des expériences et la recherche d’une entente intersubjective. La résolution des problèmes doit avoir lieu en intégrant la multiplicité des points de vue des différents acteurs.

C’est également le principe défendu par la théorie de l’acteur-réseau (Madeleine Akrich, Michel Callon, Bruno Latour). Celle-ci est née de l’étude de la science en action, et non déjà faite, à travers les controverses entre différents acteurs sociaux. L’objectivité selon les auteurs dépend non plus d’un point de vue dominant unique mais du jeu complémentaire des différents cadres de références. Elle est kaléidoscopique plutôt que télescopique. Un aspect intéressant de la théorie de l’acteur-réseau pour le design est sa compréhension des êtres naturels et techniques comme des acteurs de la vie sociale. Ils s’expriment à travers les porte-paroles des différents groupes sociaux engagés dans des relations particulières avec des instruments ou des êtres naturels (ouvriers, agriculteurs, pêcheurs, éleveurs, scientifiques, écologistes, etc.). Les actants humains et non humains, généralement invisibles lorsqu’ils fonctionnent comme intermédiaires dans un réseau, deviennent des médiateurs visibles dans les controverses qui surgissent dans les situations exceptionnelles (recherche, crises, pannes, conflits, etc.).

La théorie de la rationalisation démocratique d’Andrew Feenberg appartient à la même famille constructiviste et pragmatique que la théorie de l’acteur-réseau. Selon elle, c’est moins l’efficacité technique intrinsèque qui détermine les choix d’innovation que les intérêts des divers groupes sociaux. Le choix entre des tailles de roues de vélo différentes ou identiques (John Starley, 1884) ou la hauteur des passerelles sur les autoroutes de New York (Robert Moses, 1922) est lié aux types d’acteurs et d’activités que l’on souhaite privilégier. Ce constat souligne l’importance des controverses autour des évolutions techniques : revendication des femmes concernant les méthodes d’accouchement, des malades du VIH concernant les traitements expérimentaux, des ouvriers pour les conditions de travail ou des écologistes concernant l’aménagement du territoire, etc. On peut également citer les cas d’appropriation techniques par les utilisateurs, lorsqu’ils adaptent eux-mêmes à leurs besoins les dispositifs prévus par les concepteurs (Michel de Certeau, Roger Silverstone, Eric Von Hippel, Pierre Rabardel). Andrew Feenberg défend donc un mode de développement technique inclusif encourageant les alliances entre les acteurs des différents réseaux de conception, de production et d’utilisation.

C’est également le modèle développé par les théoriciens de la planification démocratique. A ceux qui leur opposent que l’économie est trop complexe pour être démocratiquement planifiée, Pat Devine et Fikret Adaman estiment que c’est justement l’accès aux connaissances des producteurs et des consommateurs qui favorise les processus de décision complexes. Avec la « démocratie des personnes concernées », on peut donner plus de poids aux décisions des personnes directement affectées par certaines situations. La redistribution du pouvoir social permettrait à chacun d’accomplir des tâches d’exécution et de décision, mais aussi de répartir plus équitablement les tâches indésirables, afin de mieux distribuer en contrepartie celles qui favorisent le développement de l’individu. Michael Albert et Robin Hahnel proposent de reconvertir la publicité et le marketing dans la transmission d’informations claires, exactes et utiles, pour que des comités puissent s’en servir pour corriger les défauts de l’organisation sociale. Paul Cockshot et Allin Cottrell imaginent des modèles de planification démocratiques basés sur l’informatique. Ces propositions spéculatives de coordination négociée, d’économie participaliste, de planification ascendante, d’économie de communauté etc. sont imaginées à partir de l’analyse des problèmes de la société existante (Audrey-Laurin Lamothe, Frederic Legault, Simon Tremblay Pépin).

On trouvera cependant des précédents historiques correspondant à l’esprit de ces projets dans le mouvement coopératif qui fournit de nombreux exemples de partages des décisions, des données et des équipements (Anne Catherine Wagner). Son histoire remonte au dix-neuvième siècle : magasin coopératif New Lanark de Robert Owen en Ecosse, épicerie sociale de Michel-Marie Derrion à Lyon, société de tisserands Equitables Pionners en Angleterre, boulangerie coopérative Raiffeissen en Allemagne, etc. On comptait 4140 coopératives en France en 2024 selon la Confédération générale de SCOP. Les principes coopératifs déclarés par l’Alliance coopérative internationale en 1885 et revisités en 1995 sont : l’adhésion volontaire et sans discrimination ; le pouvoir démocratique exercé par les membres qui participent aux décisions à travers des représentants élus ; la participation économique avec la contribution équitable au capital et son contrôle ; l’indépendance de la coopérative par rapport aux accords avec d’autres organisations ou le gouvernement ; le développement de l’éducation, de la formation et de l’information, y compris auprès du grand public ; la coopération des coopératives entre elles ; et la contribution au développement durable.

Axel Honneth insiste sur l’importance du développement des pratiques démocratiques dans le cadre du travail. D’abord, elles permettent de résoudre les problèmes inhérents au travail lui-même : épuisement, chômage, sentiment d’impuissance, manque de reconnaissance, etc. Ensuite, au-delà de la transformation des conditions de travail, l’engagement dans la coopération sociale renforce les dispositions des citoyens à l’action démocratique. Il s’agit alors de réduire l’écart existant entre la sphère du travail et celle de la pratique démocratique. Pour cette raison d’ailleurs, Axel Honneth se montre critique à l’égard du revenu de base garanti. Il estime que l’engagement citoyen dépend de l’intégration dans la division du travail social auquel nous devons la garantie de notre existence.

Il faut se garder toutefois de toute idéalisation. Il reconnaît que dans les conditions actuelles de l’économie globale, les coopératives risquent la faillite ou l’édulcoration par rapport aux principes de base si elles ne bénéficient pas d’un soutien étatique. De plus, la réalité empirique des coopératives est loin d’être parfaite et les cas de frustration, de surtravail ou de reproduction de la domination existent comme partout ailleurs dans le monde du travail. Enfin, la définition claire du niveau de participation doit faire l’objet d’une vigilance particulière (Sherry Arnstein). Trois écueils souvent conjoints sont à éviter : la simulation de participation, lorsqu’elle se limite à des consultations sans réponses ; la diversion, qui détourne l’attention des participants des enjeux les plus importants pour faire porter la décision sur des points secondaires ; la récupération, dont Luc Boltanski et Eve Chiapello ont fourni une analyse avec l’exemple du détournement de la critique artiste de mai soixante-huit par le nouvel esprit du capitalisme. Ils décrivent la mutation post-fordiste des années soixante-dix, passant d’une structure hiérarchique à un modèle réticulaire favorisant l’initiative et l’autonomie relative des salariés mais sacrifiant leur sécurité matérielle et psychologique.

Johann Chapoutot fournit lui aussi un exemple de participation tronquée et dévoyée dans son analyse du management sous le troisième Reich. Dans l’armée, la tactique par la mission consistait à confier un objectif au soldat en le laissant libre des moyens d’y parvenir. Ce transfert de compétence délègue à l’exécutant la responsabilité d’un éventuel échec, sans nécessairement lui donner les moyens d’accomplir sa tâche correctement. Cette méthode de management par objectif augmente l’élasticité et la rapidité du travail en évitant toute inhibition bureaucratique. Mais si cette liberté aménagée permet à l’exécutant de goûter momentanément à l’enivrement du sentiment d’autonomie, il finit par laisser place à des symptômes d’anxiété, d’épuisement, d’ennui ou de culpabilité. Convaincu de participer à la cogestion de l’entreprise, le collaborateur n’a plus à contester sa hiérarchie.

 

 

Conclusion

 

Rappelons, avant de conclure, le chemin parcouru dans ce texte. Nous avons rappelé le rôle important joué par le design dans l’amélioration technique et sociale de notre environnement à l’ère industrielle, en évoquant l’Art and Craft, le fonctionnalisme, le Bauhaus, les designs radical, critique, durable et inclusif. Puis nous avons défini un design démocratique, contre une approche élitiste et paternaliste du progrès, en partant du design participatif scandinave, du design thinking, des jardins partagés, des fablabs de l’open source et du peer to peer. Ensuite, nous avons exploré plus en détail les interactions sociales démocratiques et leurs effets sur la connaissance et l’action, en partant de la conception pragmatiste de la participation et en la précisant relativement à la question de la technique et du design avec les théories de l’acteur-réseau et de la rationalisation démocratique. Nous avons également indiqué l’existence d’un courant prospectif de planification démocratique qui va dans la même direction. Enfin, nous avons trouvé dans le mouvement coopératif un ancrage concret correspondant à ces théories, ce qui a permis de mieux cerner l’articulation entre démocratie économique dans le travail et démocratie politique dans la sphère publique. Nous avons aussi relevé un ensemble d’écueils qui menacent les pratiques démocratiques.

Pour conclure, nous allons préciser le rapport que nous établissons entre design démocratique et démocratie économique. Le principe consiste à nourrir la démarche et le résultat de la conception de motifs démocratiques. La démarche doit intégrer les outils d’enquête, d’observation et de participation des utilisateurs. Le résultat doit fournir les conditions requises pour l’échange d’informations, l’accessibilité, l’adaptabilité constante aux besoins et l’interactions entre les utilisateurs. Cette orientation concerne aussi bien l’urbanisme et l’architecture que toutes les branches du design. Si nous appliquons par exemple cette logique démocratique à l’intelligence artificielle dans le cadre du design numérique, celle-ci doit être conçue pour faciliter l’accès à l’information et bien adaptée à chaque utilisateur. Elle doit permettre les interactions, l’analyse, la clarification, la hiérarchisation, la vérification des données et faciliter la codécision. Elle doit également être constamment corrigée pour protéger l’utilisateur contre la désinformation, la manipulation, la polarisation simplificatrice des idées, le harcèlement, la malveillance et les intrusions dans la vie privée. Enfin, l’intelligence artificielle ne doit pas simplement assister ou remplacer l’humain mais aussi le former et l’entraîner pour qu’il développe son propre esprit critique et les compétences qui lui permettront d’ouvrir les boites noires des technologies qui l’entourent pour en assurer le contrôle démocratique.

 

Je remercie Laurent Neyssensas, Responsable de la Cellule Innovation de l’Ecole de Design Nantes Atlantique, pour son expertise et ses suggestions pertinentes (Raphaël Edelman, Nantes le 02/02/2025).

 

Bibliographie

Bauwens, Michael & Lienvens, Jean, Sauver le monde, Les liens qui libèrent, 2015

Boltansky, Luc & Chiapello, Eve, Le nouvel esprit du capitalisme, 2011

Chapoutot, Johann, Libres d'obéir, Gallimard, 2020

Comte, Auguste, Cours de philosophie positive, Garnier, 2021

de Certeau, Michel, L'invention du quotidien, Folio, 1990

Feenberg, Andrew, Repenser la technique, La découverte, 2004

Lauria, Mickey & Schively Slotterback, Carissa, Learning from Arnstein's ladder, Routledge, 2020

Laurin-Lamothe, Audrey, Legault, Frederic & Tremblay-Pépin, Simon, Construire l'économie postcapitaliste, Lux, 2023

Le Goff, Alice, Pragmatisme et démocratie radicale, CNRS Edition, 2019

Le Corbusier, Vers une architecture, Flammarion, 2008

Levy, Pierre, L'Intelligence collective, La découverte, 2013

Longino, Helen, Science as Social Knowledge, Princeton University Press, 2020

Loos, Adolf, Ornement et crime, Rivages, 2015

Manin, Bernard, Principes du gouvernement représentatif, Flammarion, 2019

Menichinelli, Massimo, Fab Lab, Niggli Verlag, 2017

Morris, William, L’âge de l'ersatz, L'Encyclopédie des nuisances, 1996

Morris, William, L'art et l'artisanat, Rivage, 2015

Nef, Frédéric & Berlioz, Sophie, La nature du social, Edition le bord de l'eau, 2021

Ostrom, Elinor, Governing the Commons, Cambridge University Press, 2015

Papanek, Victor, Design pour un monde réel, Les presses du réel, 2021

Richard, Lionel, Comprendre le Bauhaus, Infolio, 2009

Silverstone, Roger & Hirsh, Eric, Consuming Technologies, Routledge, 1992

Wagner, Anne Catherine, Coopérer, CNRS édition, 2022

Wizinsky, Matthew, Design After Capitalism, The Mitt Press, 2022

Honneth, Axel, Le souverain laborieux, Gallimard, 2024

Latour, Bruno, Changer de société, La découverte, 2007