Dernier exemple en date, une décision de référé rendue le 29 janvier 2026 par le Tribunal judiciaire de Nanterre (RG n° 25/02856), qui vient ordonner la suspension sous astreinte du déploiement d’un SIA de gestion algorithmique des ressources humaines, faute pour la Direction de l’entreprise d’avoir soumis le projet à une procédure d’information-consultation du CSE central.
Dans le sillage de précédentes décisions *, le juge des référés considère ici que le déploiement de ces outils sans avis préalable de l’instance constitue un trouble manifestement illicite.
*Cf. TJ Nanterre Référés, 14 février 2025, RG n° 24/01457 ; TJ Créteil Référés 15 juillet 2025, RG n° 25/00851
En débat, l’enjeu était d’apprécier dans quelle mesure ces outils étaient de nature à constituer une introduction de nouvelles technologies ou un aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail (cf. consultation obligatoire au titre de la marche générale de l’entreprise – L2312-8, 4° CT).
Se posait également la question de l’obligation d’information ponctuelle du CSE sur les traitements automatisés de gestion du personnel et sur toute modification de ceux-ci, et de consultation obligatoire sur les moyens ou les techniques permettant un contrôle de l'activité des salariés (cf. L2312-38 CT).
CQFR : le juge retient ici la thèse défendue par le CSE sur le caractère inédit du dispositif d’IA en raison du niveau de performance et du périmètre étendu à l’ensemble de la société, et rejette l’argument de continuité technologique lié au fait que certaines fonctionnalités d’IA existaient déjà dans les outils RH.
La puissance de ces outils influe alors directement sur l’appréciation de l’impact social, centrale dans l’analyse : même si les salariés restent libres d’utiliser les moyens d’IA mis à leur disposition, le juge retient la thèse des effets significatifs, durables et directs sur les conditions de travail, les perspectives professionnelles et la rémunération des salariés (plan de développement des compétences, entretiens d’évaluation, suivi managérial, affectations, formations, etc.).
Autant d’incidences non neutres et caractéristiques d’un projet « important », déclencheur de l’obligation d’information-consultation du CSE, voire d’une possibilité de recours à un expert habilité (L2315-94, 2° CT).
Même si cela relève d’une appréciation au cas par cas *, l’amélioration fulgurante des performances de calcul en matière d’IA risque de faire souvent pencher la balance en faveur de la qualification de projet important.
*Ainsi, en 2018, la Cour de cassation avait pu à l’époque valider l’analyse selon laquelle la mise en place d’un nouvel outil métier n’entraînait que des conséquences mineures dans les conditions de travail directes des salariés, dont les tâches seraient facilitées (Cass. Soc. 12 avril 2018, n° 16-27866). A noter que cette référence à la notion de conditions de travail « directes » est intéressante (nuance ajoutée et non prévue par le texte : faut-il pour autant en conclure aujourd’hui que la consultation du CSE ne serait pas obligatoire en cas de conséquences simplement indirectes ? Rien n’est moins sûr dans le contexte actuel où la prévention des RPS est un enjeu majeur … ).
L’amélioration des conditions de travail constitue ici un aspect central ; elle ne se présume pas et doit être démontrée concrètement.
***
Cette affaire illustre de manière générale l’importance de capitaliser sur le dialogue social pour réussir l’intégration de ces innovations technologiques, qui relèvent souvent des orientations stratégiques pour de nombreuses entreprises.
L’acceptabilité sociale et l’appropriation des outils nécessitent de mettre les utilisateurs au centre de la réflexion.
L’un des vecteurs est le dialogue social, qui présente plusieurs angles d’intérêt :
1/ Mobiliser le dialogue social en amont du déploiement des SIA
Au-delà de ses fonctionnalités en tant qu’outil, l’IA questionne en profondeur le travail et sa valeur, selon qu’on le considère comme un moyen ou une fin (remplacer le travail ?).
Un déploiement imposé sans concertation en profondeur risque à court ou moyen terme d’avoir des effets négatifs, y compris sur l’activité elle-même, d’autant plus difficiles à corriger si aucune réversibilité n’est possible.
*En sens inverse, le shadow AI (utilisation clandestine par les collaborateurs, sans supervision) constitue une pratique à risques pour les entreprises (transfert de données confidentielles, violation du RGPD ou de la propriété intellectuelle, hallucinations, etc.), et doit être encadrée via notamment la charte informatique.
Parallèlement à la mission du CSE, la négociation collective constitue un véhicule juridique pertinent pour construire le projet (périmètre, expérimentation et temporalité, régulation des usages, garanties, prévention des RPS, GEPP et formation d’adaptation, incidences sur les systèmes de rémunération, contrôle de l’activité, suivi, etc.), comme l’ont illustré de récents accords collectifs conclus entre direction et organisations syndicales représentatives (à froid comme à chaud – cf. accord METLIFE du 26 juin 2025 suite à l’affaire précitée jugée à Nanterre).
2/ Le dialogue social, pour utiliser l’IA au service de la prévention des risques professionnels
En lien avec ce qui précède, et dans l’attente du 5e Plan santé-travail (PST 2026-2030), il faut penser l’IA en termes d’amélioration des conditions de travail (tâche chronophages, optimisation de l’organisation et des plannings, … ), étant rappelé que l’objectif d’amélioration des conditions de travail participe de l’obligation de sécurité et de protection de la santé de l’employeur (cf. L4121-1 CT).
Dans cette recherche d’une « IA utile, pas futile », l’enjeu majeur sera de pouvoir déployer des outils vraiment adaptés aux besoins de l’entreprise et des travailleurs *. Or, force est de constater qu’il existe souvent un écart important entre les capacités et les « promesses » autour de l’outil, et la réalité d’usage et de plus-value dans le service. Typiquement, la concertation en CSE/ CSSCT a tout son sens ici, pour éviter notamment le syndrome de la « qualité empêchée » dans le travail.
*A noter que ne Conseil de l’IA et du numérique (CIANum) vient de publier un rapport d’étude (février 2026) sur les IA agentiques « Les intelligences artificielles à l’heure de la vague agentique : de quoi parle-t-on ? »
En matière de santé-sécurité au travail, l’IA présente un potentiel d’innovations immense au service de la prévention, avec de nombreux applicatifs d’analyse des datas dédiés permettant notamment de travailler les signaux faibles.
*A titre d’exemple, le Groupe Renault a récemment conclu un accord collectif dans lequel l’IA est utilisée au service de l’ergonomie.
Dans ce domaine, le marché est encore loin d’être mature ; the sky is the limit à condition d’offrir une efficacité opérationnelle et mesurable.
Mais attention également à la fiabilité des algorithmes d’IA (sachant que le codage peut s’avérer être une « boîte noire », de plus en plus opéré par de l’IA directement !), surtout lorsque l’IA est intégrée aux systèmes de sécurité ou de protection collective *.
* A noter que le nouveau règlement (UE) 2023/1230 du 14 juin 2023 « machines » est justement venu intégrer dans le corpus normatif des exigences minimales de sécurité par rapport aux nouveaux risques générés par les technologies numériques : IA, cybersécurité, robots collaboratifs, ...
3/ Le dialogue social, levier de réduction de l’empreinte environnementale du numérique
Même si le champ du reporting obligatoire de durabilité se réduit (cf. réforme de simplification : Directive OMNIBUS du 26 février 2026 et Projet de loi DDAUE), l’analyse de double matérialité permet ici de considérer :
- D’un côté, les incidences négatives diverses sur l’environnement liée au développement de l’IA générative grand public, qui sont aujourd’hui de plus en plus documentées et présentes dans le débat public (projets d’implantation des data centers, émissions et pollutions diffuses, consommation énergétique, etc.).
- De l’autre, les outils d’IA qui permettent dans de nombreux secteurs d’activité de travailler sur l’analyse des datas pour réduire efficacement leur empreinte environnementale (décarbonation, consommation d’énergies et de ressources, organisation de l’activité, etc.), ou améliorer leur résilience et leur anticipation des risques (veille climatique et météorologique, etc.).
Autant de sujets susceptibles d’intéresser utilement le dialogue social, et de le mobiliser à des fins constructives, étant rappelé que le CSE est dorénavant équipé d’attributions informatives et consultatives en matière d’environnement et de durabilité, de manière aussi bien récurrente (L2312-17 s. CT) que ponctuelle (L2312-8 III CT : le CSE doit être consulté pour avis sur les conséquences environnementales des projets de décisions et de mesures affectant la marche générale de l’entreprise).
4/ Le dialogue social, pour favoriser l’émergence et le soutien à des filières technologiques souveraines, responsables et durables ?
Avec les bouleversements géopolitiques qui sont à l’œuvre et une société de plus en plus polarisée (y compris au travail), les entreprises ne sont pas à l’abri de risques de contestation sociale concernant certains de leurs choix économiques ou organisationnels (comme cela a été vu récemment en France comme à l’étranger avec des projets de réorientation business vers des activités liées à l’industrie de Défense).
Le dialogue social peut jouer un rôle canalisateur.
Il pourrait aussi permettre la co-construction de solutions à visée souveraine.
En effet, face au risque structurel de captivité et de dépendance envers les solutions technologiques étrangères (quid d’un shutdown ?), l’Etat mais également les entreprises doivent réfléchir à protéger au mieux leurs intérêts, surtout s’il s’agit de choix d’ordre stratégiques.
Le RGPD en est un exemple puisqu’il a conduit en principe les responsables de traitement européens à privilégier des solutions d’hébergement des données personnelles implantées en territoire européen.
Si la souveraineté numérique européenne est de toute évidence un long chemin semé d’embûches, elle ne pourra émerger qu’avec l’effort collectif de tous les acteurs.
Ajoutons que la réglementation UE, tant décriée, a tout de même le mérite de poser des garde fous face aux risques de dérives de l’IA, dont il est difficile d’accepter que le potentiel disruptif pour notre société, voire pour l’humanité (cf. la course à une « superintelligence » artificielle), puisse être laissé au bon vouloir de quelques acteurs économiques plus puissants que des Etats.
Dans un contexte où les orientations technologiques semblent très marquées par des approches idéologiques, il est salutaire qu’une gouvernance mondiale s’organise (notons ici la création d‘un groupe scientifique international indépendant sur l’IA annoncé le 12 éfvrier 2026 sous l’égide de l’ONU, et qui sera chargé -à l’instar du GIEC- de fournir des évaluations indépendantes et impartiales des opportunités, des risques et des impacts de l’IA, notamment dans le cadre du nouveau Dialogue mondial sur la gouvernance de l’IA).