Invité à débattre de l’incidence de l’intelligence artificielle (IA) sur l’emploi des cadres, Éric Pérès, secrétaire général de la fédération FO Cadres, a exposé à quelles conditions cet outil pourrait contribuer à l’émancipation des salariés. Il estime que l’introduction de l’IA dans les entreprises devrait être conditionnée à une étude d’impact.
L’IA peut être une opportunité pour les salariés, déclarait Éric Pérès, secrétaire général de la fédération FO Cadres, lors d’une table ronde consacrée à l’incidence de l’intelligence artificielle (IA) sur l’emploi des cadres, organisée le 23 septembre 2024 par l’Association des journalistes de l’information sociale (Ajis). Une opportunité, mais à trois conditions.
Premièrement : connaître les finalités de l’outil. Pour le secrétaire général de FO Cadres, il ne fait aucun doute que le déploiement de l’IA par une direction ou une administration a pour objectif d’augmenter la productivité des salariés. Si l’IA générait effectivement de la productivité – les experts ne sont pas d’accord sur ce point –, cela pourrait se traduire par des suppressions d’emplois. Le repérage automatisé des piscines non-déclarées aux services fiscaux devrait ainsi entraîner 3 000 suppressions de postes à la direction générale des finances publiques, selon le syndicat FO des finances publiques, FO-DGFIP. (lire encadré).
Une IA émancipatrice ?
Mais s’agissant du travail lui-même et des conditions de sa réalisation, Éric Pérès est convaincu que l’IA peut être émancipatrice, parce qu’il n’y a pas de déterminisme technologique. Tout dépend, là encore, de la finalité de l’outil. L’IA a-t-elle pour but de dégager les salariés de tâches ingrates, de redonner des marges de manœuvres aux cadres, ou, au contraire, d’intensifier le travail, ou encore de faire du ranking (classement, Ndlr), par exemple un classement des ingénieurs en fonction de leur potentielle mobilité à l’international ?, interroge Éric Pérès.
Les usages de l’IA générative sont déjà nombreux. Elle permet d’automatiser des tâches simples (faire des comptes rendus, pré-rédiger des mails). Ou de rédiger des offres d’emploi. Les conseillers de l’Apec se servent de ChatGPT à cette fin, témoigne Éric Pérès, qui est également vice-président de l’Association pour l’emploi des cadres. Mais l’IA peut aussi être utilisée pour la recherche de salariés qu’une direction mal intentionnée estimera « toxiques », par exemple des militants syndicaux ou des salariés potentiellement démissionnaires…
Des CSE rarement consultés
Deuxième condition pour que l’IA soit réellement une opportunité pour les salariés : l’outil doit être proportionné à l’objectif recherché. Il y a des tâches qui peuvent être automatisées parce qu’elles ont une faible valeur ajoutée, mais qui, pour autant, ont un sens à être réalisée par un humain, explique le secrétaire général de FO Cadres. Enfin, dernière condition : la loyauté. Les entreprises et les administrations doivent présenter le nouveau dispositif aux salariés, déclare Éric Pérès.
Si ces trois conditions sont réunies, cela forme une éthique opérationnelle, estime-t-il. Or les conditions en question ne sont actuellement pas réunies.
Ainsi, lorsque les entreprises déploient des IA, les CSE ne sont pas souvent consultés, alors qu’il s’agit bien d’une nouvelle technologie, constate Claire Abate, avocate spécialiste en droit du travail, également invitée à la table ronde de l’Ajis. Le Code du travail prévoit en effet (L2312-8) que le CSE est consulté sur l’introduction de nouvelles technologies et peut recourir à un expert. Comme le rappelle Éric Pérès, le CSE n’a même plus besoin de démontrer l’impact de la nouvelle technologie sur les conditions de travail pour demander une expertise, son introduction justifiant à elle seule une expertise (tribunal judiciaire de Pontoise, jugement du 15 avril 2022).
Il n’en reste pas moins que les CSE sont rarement consultés lors du déploiement d’une IA. Les directions arguent qu’elles ne déploient pas une nouvelle technologie mais simplement une évolution ou une nouvelle solution de bureautique, relate Éric Pérès. Leur attitude peut souligner aussi qu’elles craignent des contentieux autour du respect de la vie privée. Sur cette thématique, note le militant, les syndicats ne sont pas toujours suffisamment formés.
Déploiement conditionné à une étude d’impact
Plus largement, les interlocuteurs sociaux sont convaincus que l’IA doit être cadrée. Éric Peres rappelle que cela avait été inscrit à l’agenda social autonome en 2021. Si on veut que l’IA ne suscite pas la défiance, il faut qu’elle fasse l’objet d’un dialogue social, estime-t-il. En outre, notre rôle de syndicaliste est de réduire l’asymétrie d’information entre les directions et les salariés. Peu surprenant, l’approche de FO et celle du patronat diffèrent. Le Medef renvoie au niveau de l’entreprise, explique Éric Pérès. Pour le secrétaire général de FO Cadres, le cadrage de l’IA doit au contraire être réalisé au niveau interprofessionnel ou à celui de la branche. Il faut une négociation interprofessionnelle ou un référentiel de branche garantissant la conformité des outils, afin de ne pas laisser entrer n’importe quoi dans les entreprises, explique-t-il.
Pour vérifier cette conformité, l’idée avancée par Éric Pérès et inspirée de son expérience de vice-président de la Cnil, est de réaliser une étude d’impact de l’IA. Et cette étude pourrait prendre modèle sur l’analyse d’impact relative à la protection des données (AIPD). L’AIPD garantit qu’un outil de traitement des données personnelles respecte la vie privée. Une AIPD doit ainsi obligatoirement être menée lorsque l’outil remplit certains critères : profilage, traitement massif de données, surveillance systématique…
L’IA fait rentrer un peu plus d’impôts et réduit beaucoup les emplois de contrôle
La direction générale des finances publiques (DGFiP) est la bonne élève du numérique. Cela se voit dans l’évolution de ses effectifs. Moins 30 000 emplois en quinze ans, soit 25 % des effectifs, rappelle Olivier Brunelle, secrétaire général du syndicat FO-DGFIP. Selon un rapport sénatorial publié en mai 2024 (« L’IA et l’avenir du service public »), la « révolution numérique » de la DGFiP a permis de réduire les effectifs dans les services en charge du calcul de l’impôt, du recouvrement, du contrôle, et dans les implantations territoriales.
La DGFiP recourt depuis 2016 à l’IA et au datamining – croisement de masses de données provenant de plusieurs sources – pour détecter les fraudes à la déclaration fiscale. 50 % des contrôles des professionnels et 36% des contrôles des particuliers sont aujourd’hui issus du datamining. Comme le remarquent les auteurs du rapport sénatorial, les gains de productivité sont évidents : une équipe d’une dizaine de data scientists suffit désormais à programmer près de la moitié des contrôles fiscaux. En revanche, la plus-value du datamining apparaît assez limitée pour détecter les fraudes, admettent-ils. Pour les agents chargés du contrôle, et contrairement à ce qui était annoncé, c’est un travail abrutissant, au point qu’il ne doit plus être exercé à temps plein, relève Olivier Brunelle.
La DGFiP utilise également l’IA depuis 2022 pour repérer les piscines non déclarées, à partir des images aériennes publiques de l’Institut géographique national (IGN) et grâce à un logiciel de Google. Succès incontestable en termes de recettes fiscales, selon le rapport. Beaucoup de déchets, relève de son côté Olivier Brunelle. Surtout, l’investissement [dans des outils informatiques] a pour contrepartie des baisses d’effectifs, explique-t-il, estimant que ce repérage automatisé des piscines non déclarées aux services des impôts supprimera 3 000 emplois. Surtout, Olivier Brunelle regrette que les gains de productivité générés par l’automatisation ne soient pas utilisés pour élargir le champ des contrôles en vue d’une plus grande égalité devant l’impôt.