On parle de l’intelligence artificielle comme d’une révolution comparable à l’imprimerie ou à l’électricité. Certains promettent la fin du travail pénible, d’autres annoncent un chômage de masse et une surveillance généralisée. Entre ces deux extrêmes, une question simple mérite d’être posée : dans quelles conditions l’IA peut-elle réellement produire du progrès social ?
Autrement dit : non pas « que peut faire l’IA ? », mais « que voulons-nous qu’elle fasse, pour qui, et à quelles règles doit-elle obéir ? ».
Ce que l’IA change déjà dans nos vies (sans qu’on s’en rende toujours compte)
L’IA n’est plus une promesse floue de laboratoire. Elle tourne déjà derrière nos écrans et nos administrations. Quelques exemples très concrets :
- Dans l’emploi, des logiciels de tri de CV éliminent des candidats en quelques millisecondes, souvent sans que les intéressés le sachent.
- Dans la consommation, les algorithmes décident des prix des billets d’avion, des délais de livraison, des recommandations de films ou de produits.
- Dans la santé, des systèmes d’IA analysent des images médicales pour repérer plus tôt certains cancers ou anomalies.
- Dans les services publics, des algorithmes priorisent les contrôles fiscaux, ciblent les fraudes potentielles ou orientent des bénéficiaires vers tel ou tel dispositif.
Selon l’OCDE, plus de la moitié des grandes entreprises dans les pays développés utilisent déjà au moins un système d’IA ou d’automatisation avancée. Et derrière chaque usage, se jouent des questions de pouvoir : qui contrôle l’outil ? Qui bénéficie des gains de productivité ? Qui supporte les risques ?
C’est là que se joue le « progrès social » ou son absence. Car la technologie, seule, ne produit rien de socialement désirable. Ce sont les choix d’organisation, de règles, de répartition des bénéfices qui font la différence.
Les promesses de progrès social : quand l’IA peut réellement aider
L’IA peut être un outil de progrès social, à condition d’être orientée en ce sens. Plusieurs champs sont déjà parlants.
1. Alléger le travail pénible et répétitif
Dans l’industrie comme dans les bureaux, une partie du travail consiste à répéter des tâches quasi identiques. L’IA peut automatiser :
- la saisie de données administratives ;
- le tri de dossiers simples ;
- le traitement d’emails standardisés ;
- certains contrôles qualité dans les usines.
Une étude de la Banque de France estimait déjà en 2019 qu’environ 15 % des tâches réalisées en France pouvaient être automatisées à court ou moyen terme, sans supprimer nécessairement les emplois, mais en transformant leur contenu.
Utilisée intelligemment, l’IA peut donc permettre :
- de réduire les tâches administratives qui saturent les métiers du soin, de l’éducation, du social ;
- de concentrer le temps humain sur la relation, l’écoute, la créativité ;
- de diminuer certains risques professionnels (manutention, surveillance de nuit, environnement dangereux).
Mais ce n’est un progrès social que si les salariés gardent une prise sur l’organisation du travail, et si les gains de productivité ne servent pas uniquement à réduire les effectifs.
2. Améliorer l’accès à la santé et au soin
Dans le domaine médical, les exemples se multiplient :
- des IA capables de détecter des tumeurs sur des scanners avec une précision parfois comparable à celle de radiologues expérimentés ;
- des outils de suivi des maladies chroniques qui alertent en cas de décompensation ;
- des assistants de rédaction de comptes rendus médicaux qui font gagner du temps aux soignants.
L’OMS estime que les pays souffrent d’un déficit de près de 10 millions de professionnels de santé. Dans ce contexte, des outils qui font gagner du temps ou aident au diagnostic peuvent réellement améliorer l’accès aux soins, particulièrement dans les zones sous-dotées.
À condition que ces technologies ne soient pas utilisées comme prétexte pour compenser une politique de sous-investissement humain, et qu’elles restent sous contrôle des soignants, pas des seuls éditeurs de logiciels.
3. Réduire certaines inégalités d’accès à l’information
Traduction automatique, synthèse de documents, outils pédagogiques personnalisés : l’IA peut rendre plus accessible un savoir qui était auparavant réservé à ceux qui maîtrisaient un langage technique ou une langue dominante.
On le voit déjà dans l’éducation :
- des plateformes adaptatives qui proposent des exercices en fonction du niveau réel de l’élève ;
- des aides à la rédaction pour des élèves en difficulté d’expression écrite ;
- des supports accessibles pour les personnes sourdes, malvoyantes ou dyslexiques.
Pour des publics éloignés de l’école traditionnelle, ou pour des adultes en reconversion, ces outils peuvent constituer un véritable levier d’émancipation… à condition de ne pas remplacer le lien éducatif par un simple face-à-face avec une machine.
4. Rendre les services publics plus accessibles
Les démarches administratives sont souvent vécues comme un parcours d’obstacles. L’IA peut simplifier certains aspects :
- chatbots d’information disponibles 24h/24 pour répondre à des questions simples ;
- pré-remplissage intelligent de formulaires ;
- détection automatique de droits non réclamés.
Des expérimentations en Europe ont montré qu’on pouvait repérer ainsi des ménages éligibles à des aides sociales sans qu’ils aient à multiplier les démarches. C’est un vrai enjeu quand on sait qu’en France, selon la Drees, entre 30 % et 50 % des personnes éligibles à certaines prestations ne les demandent pas.
Encore faut-il que ces systèmes restent compréhensibles, contestables, et qu’ils n’excluent pas ceux qui maîtrisent mal le numérique.
Les risques et effets pervers : quand l’IA creuse les inégalités
Les promesses ne doivent pas masquer les risques, qui sont réels et déjà visibles.
1. Une polarisation accrue du marché du travail
L’automatisation par l’IA ne supprime pas « le travail » en bloc, elle remplace surtout certains types de tâches. Les plus fragiles sont souvent :
- les emplois routiniers, peu qualifiés, facilement standardisables ;
- certains métiers intermédiaires (comptabilité simple, support client basique, saisie de données).
Résultat : on risque d’accentuer un phénomène déjà observé depuis les années 1990 : la disparition d’emplois moyens, au profit d’emplois très qualifiés bien payés et d’emplois de service peu qualifiés et précaires.
L’IA, sans politiques publiques fortes (formation, reconversion, sécurisation des parcours), peut donc aggraver les inégalités de revenus et de statut.
2. Une usine à biais et discriminations
Un algorithme n’est pas « neutre ». Il apprend à partir de données passées, donc de sociétés déjà inégalitaires. Si, dans le passé, les femmes ont été moins embauchées à des postes de management, un système de recrutement automatique risque de reproduire, voire d’amplifier ce biais.
On a déjà vu des cas documentés :
- des logiciels de notation de crédit défavorisant systématiquement certains quartiers ;
- des systèmes de reconnaissance faciale moins précis pour les femmes et les personnes racisées ;
- des algorithmes de maintien de l’ordre envoyant plus souvent la police dans les mêmes zones, au risque d’auto-alimenter les statistiques.
Dans ces cas, l’IA ne fait pas progresser la justice sociale, elle l’enterre sous un vernis de « science ». Qui va contester une décision quand on lui répond : « c’est l’algorithme » ?
3. Une nouvelle couche de surveillance au travail
Temps passé sur chaque tâche, frappes clavier, mouvements dans l’entrepôt, pauses, échanges avec les collègues : combinée à des outils d’IA, la collecte de données permet un niveau de surveillance inédit des salariés.
On le voit déjà dans certaines plateformes de livraison ou d’entreposage :
- notation en temps réel des livreurs ;
- optimisation des trajets minute par minute ;
- pression algorithmique pour accepter plus de courses.
L’IA peut devenir un outil de taylorisme numérique. Non pas pour libérer du temps, mais pour serrer encore davantage les contraintes. Là encore, tout dépend des règles du jeu et de la capacité de négociation des travailleurs.
4. Une empreinte écologique loin d’être négligeable
Derrière l’illusion du « virtuel », l’IA consomme énormément :
- énergie pour faire tourner les centres de données ;
- matières premières pour fabriquer les serveurs, puces, réseaux ;
- eau pour le refroidissement.
Des estimations récentes suggèrent que l’entraînement de certains grands modèles de langage consomme autant d’électricité qu’une petite ville pendant plusieurs semaines. Et ce n’est que le début si l’usage se généralise.
Peut-on parler de progrès social si le coût écologique pèse d’abord sur les plus vulnérables, au Nord comme au Sud ?
Ce que nous apprend l’histoire des grandes révolutions techniques
L’IA est souvent présentée comme inédite. Elle l’est par certains aspects, mais l’histoire des grandes innovations peut nous aider à garder la tête froide.
Prenons trois exemples : la mécanisation au XIXe siècle, l’électrification, puis l’informatique dans la seconde moitié du XXe siècle.
À chaque fois, on observe plusieurs phénomènes récurrents :
- une phase de peur massive (peur de la machine à tisser, de l’usine électrique, de l’ordinateur qui « vole le travail ») ;
- une réorganisation profonde du travail, avec destruction d’emplois anciens et création de nouveaux ;
- une période de fortes tensions sociales, parfois violentes, autour du partage des gains de productivité ;
- une intervention plus ou moins forte de l’État et des partenaires sociaux pour encadrer et redistribuer ces gains (protection sociale, droit du travail, formation, services publics).
La leçon principale : ce n’est pas la technologie en elle-même qui produit plus d’égalité ou de justice. Ce sont les rapports de force sociaux et politiques qui décident de l’usage qui en est fait.
Avec l’IA, la situation est compliquée par la concentration économique extrême : quelques grandes entreprises mondiales contrôlent une part écrasante des moyens techniques, des données et des infrastructures.
Sans règles publiques robustes, espérer que ces acteurs alignent spontanément leurs priorités sur le progrès social relève plus du pari que de la stratégie.
Les conditions d’un avenir plus juste avec l’IA
Si l’on veut que l’IA contribue réellement au progrès social, plusieurs conditions apparaissent comme non négociables.
1. Une régulation publique claire, dotée de moyens
L’Europe a commencé à s’y atteler avec l’AI Act, qui classe les usages de l’IA selon leur niveau de risque et impose des obligations renforcées en matière de transparence, de gouvernance des données, de droits des citoyens.
Encore faut-il que :
- les autorités de contrôle soient dotées de moyens techniques et humains à la hauteur ;
- les sanctions soient suffisamment dissuasives pour peser sur les grandes plateformes ;
- les associations, syndicats, chercheurs aient un droit de regard effectif sur les systèmes déployés.
La régulation ne doit pas seulement « accompagner l’innovation », elle doit fixer des lignes rouges sociales et démocratiques.
2. Un droit effectif à la contestation des décisions automatisées
Le RGPD pose déjà quelques principes, mais ils restent souvent théoriques pour le citoyen moyen. Concrètement, il faudrait que chacun puisse :
- savoir quand une décision le concernant a été automatisée (crédit, recrutement, allocation de ressources publiques) ;
- demander une explication compréhensible de cette décision ;
- obtenir une révision humaine de son cas.
Sans ce droit à la contestation, le risque est d’installer une bureaucratie algorithmique encore plus opaque que la bureaucratie traditionnelle.
3. Une gouvernance démocratique dans les organisations
Dans les entreprises comme dans les administrations, les choix d’outillage en IA devraient être discutés avec ceux qui vont les subir au quotidien : salariés, agents, usagers, représentants du personnel.
On pourrait imaginer, par exemple :
- un droit d’alerte spécifique des représentants du personnel sur les systèmes d’IA jugés dangereux ou déshumanisants ;
- des audits sociaux avant le déploiement de certains outils (impact sur la charge de travail, la santé, l’autonomie) ;
- des comités d’éthique incluant non seulement des experts techniques, mais aussi des représentants de la société civile.
Sans cette dimension démocratique, l’IA risque d’être vécue comme un nouvel outil imposé « d’en haut », et non comme un moyen d’améliorer collectivement l’organisation.
4. Un investissement massif dans les compétences et la formation
On ne peut pas demander à des millions de travailleurs de « s’adapter » à l’IA sans leur donner les moyens concrets de le faire.
Cela implique :
- des droits à la formation renforcés, sécurisés dans le temps ;
- une offre publique de formation de qualité, accessible aux moins diplômés ;
- une attention particulière aux métiers les plus exposés à l’automatisation.
Le risque, sinon, est de creuser encore plus l’écart entre ceux qui surfent sur l’IA (cadres, professions intellectuelles) et ceux qui la subissent (employés, ouvriers, travailleurs des plateformes).
5. Une stratégie publique sur les usages socialement utiles
On investit aujourd’hui des milliards dans l’IA générative pour produire des images, des textes, des publicités ciblées. Mais quels moyens sont consacrés aux IA pour la prévention sanitaire, l’adaptation au changement climatique, l’accompagnement des élèves en difficulté, la simplification des droits sociaux ?
Une politique industrielle de l’IA qui vise le progrès social pourrait :
- prioriser les financements vers les usages à forte valeur sociale ;
- favoriser des modèles ouverts, auditables, développés dans des structures publiques ou à lucrativité limitée ;
- exiger des retours sociaux en échange des aides publiques (emplois de qualité, partage du code, évaluations indépendantes).
Que peuvent faire concrètement les différents acteurs ?
L’IA n’est pas qu’une affaire d’ingénieurs ni de cabinets de conseil. Plusieurs niveaux d’action sont possibles.
Les pouvoirs publics peuvent :
- renforcer les autorités de contrôle (CNIL, régulateurs sectoriels) ;
- imposer des évaluations d’impact social et environnemental pour les grandes plateformes et les projets publics d’IA ;
- utiliser l’achat public comme levier pour imposer des critères sociaux (transparence, auditabilité, co-construction avec les usagers).
Les entreprises peuvent :
- associer les salariés très en amont aux projets d’IA ;
- mettre en place des chartes internes contraignantes sur les usages acceptables ;
- partager une partie des gains de productivité sous forme de temps libéré, de formation, de hausses de salaires.
Les syndicats et associations peuvent :
- se doter de compétences techniques pour analyser les outils proposés ;
- documenter les cas problématiques de surveillance, de discrimination, de dégradation du travail ;
- revendiquer des droits nouveaux (transparence, participation aux choix technologiques, droit à la déconnexion numérique).
Les citoyens et usagers, enfin, peuvent :
- exercer leurs droits d’accès et de rectification des données ;
- questionner les décisions automatisées qui les concernent ;
- soutenir des alternatives plus vertueuses (logiciels libres, services publics numériques, coopératives de données).
Pour quoi voulons-nous l’IA ?
Derrière les débats techniques, une question politique simple demeure : à quoi voulons-nous que l’IA serve ?
À augmenter encore les profits de quelques acteurs déjà dominants, à optimiser des stratégies publicitaires, à surveiller plus finement des populations déjà précarisées ? Ou à libérer du temps humain, à améliorer l’accès aux droits, à renforcer les services publics, à rendre visibles des besoins aujourd’hui invisibilisés ?
L’IA n’impose pas ses usages. Elle les permet. C’est à nous d’en faire des choix explicites, débattus, contestables. Sans quoi le « progrès » risque surtout de profiter à ceux qui ont déjà la main sur les infrastructures, les données, les capitaux.
Poser les conditions d’un avenir plus juste avec l’IA, ce n’est pas freiner la technique. C’est rappeler une évidence que l’histoire n’a cessé de confirmer : il n’y a de progrès que s’il est socialement discuté, politiquement encadré, démocratiquement partagé.