Le progré social

Comment l’intelligence artificielle produit du progrès social ? enjeux, limites et conditions d’un avenir plus juste

Comment l'intelligence artificielle produit du progrès social ? enjeux, limites et conditions d’un avenir plus juste

Comment l'intelligence artificielle produit du progrès social ? enjeux, limites et conditions d’un avenir plus juste

On parle de l’intelligence artificielle comme d’une révolution comparable à l’imprimerie ou à l’électricité. Certains promettent la fin du travail pénible, d’autres annoncent un chômage de masse et une surveillance généralisée. Entre ces deux extrêmes, une question simple mérite d’être posée : dans quelles conditions l’IA peut-elle réellement produire du progrès social ?

Autrement dit : non pas « que peut faire l’IA ? », mais « que voulons-nous qu’elle fasse, pour qui, et à quelles règles doit-elle obéir ? ».

Ce que l’IA change déjà dans nos vies (sans qu’on s’en rende toujours compte)

L’IA n’est plus une promesse floue de laboratoire. Elle tourne déjà derrière nos écrans et nos administrations. Quelques exemples très concrets :

Selon l’OCDE, plus de la moitié des grandes entreprises dans les pays développés utilisent déjà au moins un système d’IA ou d’automatisation avancée. Et derrière chaque usage, se jouent des questions de pouvoir : qui contrôle l’outil ? Qui bénéficie des gains de productivité ? Qui supporte les risques ?

C’est là que se joue le « progrès social » ou son absence. Car la technologie, seule, ne produit rien de socialement désirable. Ce sont les choix d’organisation, de règles, de répartition des bénéfices qui font la différence.

Les promesses de progrès social : quand l’IA peut réellement aider

L’IA peut être un outil de progrès social, à condition d’être orientée en ce sens. Plusieurs champs sont déjà parlants.

1. Alléger le travail pénible et répétitif

Dans l’industrie comme dans les bureaux, une partie du travail consiste à répéter des tâches quasi identiques. L’IA peut automatiser :

Une étude de la Banque de France estimait déjà en 2019 qu’environ 15 % des tâches réalisées en France pouvaient être automatisées à court ou moyen terme, sans supprimer nécessairement les emplois, mais en transformant leur contenu.

Utilisée intelligemment, l’IA peut donc permettre :

Mais ce n’est un progrès social que si les salariés gardent une prise sur l’organisation du travail, et si les gains de productivité ne servent pas uniquement à réduire les effectifs.

2. Améliorer l’accès à la santé et au soin

Dans le domaine médical, les exemples se multiplient :

L’OMS estime que les pays souffrent d’un déficit de près de 10 millions de professionnels de santé. Dans ce contexte, des outils qui font gagner du temps ou aident au diagnostic peuvent réellement améliorer l’accès aux soins, particulièrement dans les zones sous-dotées.

À condition que ces technologies ne soient pas utilisées comme prétexte pour compenser une politique de sous-investissement humain, et qu’elles restent sous contrôle des soignants, pas des seuls éditeurs de logiciels.

3. Réduire certaines inégalités d’accès à l’information

Traduction automatique, synthèse de documents, outils pédagogiques personnalisés : l’IA peut rendre plus accessible un savoir qui était auparavant réservé à ceux qui maîtrisaient un langage technique ou une langue dominante.

On le voit déjà dans l’éducation :

Pour des publics éloignés de l’école traditionnelle, ou pour des adultes en reconversion, ces outils peuvent constituer un véritable levier d’émancipation… à condition de ne pas remplacer le lien éducatif par un simple face-à-face avec une machine.

4. Rendre les services publics plus accessibles

Les démarches administratives sont souvent vécues comme un parcours d’obstacles. L’IA peut simplifier certains aspects :

Des expérimentations en Europe ont montré qu’on pouvait repérer ainsi des ménages éligibles à des aides sociales sans qu’ils aient à multiplier les démarches. C’est un vrai enjeu quand on sait qu’en France, selon la Drees, entre 30 % et 50 % des personnes éligibles à certaines prestations ne les demandent pas.

Encore faut-il que ces systèmes restent compréhensibles, contestables, et qu’ils n’excluent pas ceux qui maîtrisent mal le numérique.

Les risques et effets pervers : quand l’IA creuse les inégalités

Les promesses ne doivent pas masquer les risques, qui sont réels et déjà visibles.

1. Une polarisation accrue du marché du travail

L’automatisation par l’IA ne supprime pas « le travail » en bloc, elle remplace surtout certains types de tâches. Les plus fragiles sont souvent :

Résultat : on risque d’accentuer un phénomène déjà observé depuis les années 1990 : la disparition d’emplois moyens, au profit d’emplois très qualifiés bien payés et d’emplois de service peu qualifiés et précaires.

L’IA, sans politiques publiques fortes (formation, reconversion, sécurisation des parcours), peut donc aggraver les inégalités de revenus et de statut.

2. Une usine à biais et discriminations

Un algorithme n’est pas « neutre ». Il apprend à partir de données passées, donc de sociétés déjà inégalitaires. Si, dans le passé, les femmes ont été moins embauchées à des postes de management, un système de recrutement automatique risque de reproduire, voire d’amplifier ce biais.

On a déjà vu des cas documentés :

Dans ces cas, l’IA ne fait pas progresser la justice sociale, elle l’enterre sous un vernis de « science ». Qui va contester une décision quand on lui répond : « c’est l’algorithme » ?

3. Une nouvelle couche de surveillance au travail

Temps passé sur chaque tâche, frappes clavier, mouvements dans l’entrepôt, pauses, échanges avec les collègues : combinée à des outils d’IA, la collecte de données permet un niveau de surveillance inédit des salariés.

On le voit déjà dans certaines plateformes de livraison ou d’entreposage :

L’IA peut devenir un outil de taylorisme numérique. Non pas pour libérer du temps, mais pour serrer encore davantage les contraintes. Là encore, tout dépend des règles du jeu et de la capacité de négociation des travailleurs.

4. Une empreinte écologique loin d’être négligeable

Derrière l’illusion du « virtuel », l’IA consomme énormément :

Des estimations récentes suggèrent que l’entraînement de certains grands modèles de langage consomme autant d’électricité qu’une petite ville pendant plusieurs semaines. Et ce n’est que le début si l’usage se généralise.

Peut-on parler de progrès social si le coût écologique pèse d’abord sur les plus vulnérables, au Nord comme au Sud ?

Ce que nous apprend l’histoire des grandes révolutions techniques

L’IA est souvent présentée comme inédite. Elle l’est par certains aspects, mais l’histoire des grandes innovations peut nous aider à garder la tête froide.

Prenons trois exemples : la mécanisation au XIXe siècle, l’électrification, puis l’informatique dans la seconde moitié du XXe siècle.

À chaque fois, on observe plusieurs phénomènes récurrents :

La leçon principale : ce n’est pas la technologie en elle-même qui produit plus d’égalité ou de justice. Ce sont les rapports de force sociaux et politiques qui décident de l’usage qui en est fait.

Avec l’IA, la situation est compliquée par la concentration économique extrême : quelques grandes entreprises mondiales contrôlent une part écrasante des moyens techniques, des données et des infrastructures.

Sans règles publiques robustes, espérer que ces acteurs alignent spontanément leurs priorités sur le progrès social relève plus du pari que de la stratégie.

Les conditions d’un avenir plus juste avec l’IA

Si l’on veut que l’IA contribue réellement au progrès social, plusieurs conditions apparaissent comme non négociables.

1. Une régulation publique claire, dotée de moyens

L’Europe a commencé à s’y atteler avec l’AI Act, qui classe les usages de l’IA selon leur niveau de risque et impose des obligations renforcées en matière de transparence, de gouvernance des données, de droits des citoyens.

Encore faut-il que :

La régulation ne doit pas seulement « accompagner l’innovation », elle doit fixer des lignes rouges sociales et démocratiques.

2. Un droit effectif à la contestation des décisions automatisées

Le RGPD pose déjà quelques principes, mais ils restent souvent théoriques pour le citoyen moyen. Concrètement, il faudrait que chacun puisse :

Sans ce droit à la contestation, le risque est d’installer une bureaucratie algorithmique encore plus opaque que la bureaucratie traditionnelle.

3. Une gouvernance démocratique dans les organisations

Dans les entreprises comme dans les administrations, les choix d’outillage en IA devraient être discutés avec ceux qui vont les subir au quotidien : salariés, agents, usagers, représentants du personnel.

On pourrait imaginer, par exemple :

Sans cette dimension démocratique, l’IA risque d’être vécue comme un nouvel outil imposé « d’en haut », et non comme un moyen d’améliorer collectivement l’organisation.

4. Un investissement massif dans les compétences et la formation

On ne peut pas demander à des millions de travailleurs de « s’adapter » à l’IA sans leur donner les moyens concrets de le faire.

Cela implique :

Le risque, sinon, est de creuser encore plus l’écart entre ceux qui surfent sur l’IA (cadres, professions intellectuelles) et ceux qui la subissent (employés, ouvriers, travailleurs des plateformes).

5. Une stratégie publique sur les usages socialement utiles

On investit aujourd’hui des milliards dans l’IA générative pour produire des images, des textes, des publicités ciblées. Mais quels moyens sont consacrés aux IA pour la prévention sanitaire, l’adaptation au changement climatique, l’accompagnement des élèves en difficulté, la simplification des droits sociaux ?

Une politique industrielle de l’IA qui vise le progrès social pourrait :

Que peuvent faire concrètement les différents acteurs ?

L’IA n’est pas qu’une affaire d’ingénieurs ni de cabinets de conseil. Plusieurs niveaux d’action sont possibles.

Les pouvoirs publics peuvent :

Les entreprises peuvent :

Les syndicats et associations peuvent :

Les citoyens et usagers, enfin, peuvent :

Pour quoi voulons-nous l’IA ?

Derrière les débats techniques, une question politique simple demeure : à quoi voulons-nous que l’IA serve ?

À augmenter encore les profits de quelques acteurs déjà dominants, à optimiser des stratégies publicitaires, à surveiller plus finement des populations déjà précarisées ? Ou à libérer du temps humain, à améliorer l’accès aux droits, à renforcer les services publics, à rendre visibles des besoins aujourd’hui invisibilisés ?

L’IA n’impose pas ses usages. Elle les permet. C’est à nous d’en faire des choix explicites, débattus, contestables. Sans quoi le « progrès » risque surtout de profiter à ceux qui ont déjà la main sur les infrastructures, les données, les capitaux.

Poser les conditions d’un avenir plus juste avec l’IA, ce n’est pas freiner la technique. C’est rappeler une évidence que l’histoire n’a cessé de confirmer : il n’y a de progrès que s’il est socialement discuté, politiquement encadré, démocratiquement partagé.

Quitter la version mobile