La RSE, une boussole pour les usages de l’intelligence artificielle ?

MANAGEMENT RH / QVT || Démarches RSE
/
29/09/2023 - Sébastien MILLET

Au-delà des applications conversationnelles et génératives, l’intégration de systèmes d’intelligence artificielle (SIA) s’accélère dans de nombreux domaines et devient un enjeu de questionnement sociétal et éthique.


De grandes mutations du travail s’annoncent, venant amplifier celles qui sont déjà à l’œuvre depuis la crise sanitaire de 2020.

Face à cette rupture technologique, une régulation est demandée pour adapter le cadre juridique et garder le contrôle.

Dans le cadre de sa stratégie numérique, l’UE se veut d’ailleurs pionnière -comme souvent- sur le plan de la réglementation au niveau international, avec le projet de règlement sur l’intelligence artificielle (AI Act) prévu pour fin 2023. Celui-ci viendrait classer les SIA par niveau de risque (schématiquement : risque inacceptable = régime d’interdiction / risque élevé = régime d’évaluation et d’enregistrement / risque limité et IA génératives = exigences de transparence).

*A noter que cela s’articule avec la réglementation UE sur la sécurité des produits, ainsi qu’avec le nouveau règlement « machines » n° 2023/1230 du 14 juin 2023 afin d’intégrer les nouveaux risques et contraintes technologiques liés notamment à l’IA.  

En attendant, l’approche sous l’angle de la responsabilité sociale et environnementale des entreprises (RSEE) doit permettre de trouver des équilibres pour éviter les dérives et usages irraisonnés :

  1. IA et RSE : réflexions sur le volet social

Parmi les bouleversements que se profilent, évoquons en tout premier lieu la crainte pour les travailleurs du « remplacement » par des robots, qui est relancée à chaque rupture technique.

Il est vrai que certains métiers paraissent particulièrement concernés (cf. finance, etc.), et que l’actualité médiatique ne peut qu’alimenter les inquiétudes avec l’annonce de premiers plans de licenciements collectifs …

Va-t-on d’ailleurs assister à une recrudescence du motif économique de « mutations technologiques » visé par l’article L1233-3 du Code du travail, et dont l’usage a toujours été réduit (cf. mutations liées à l’informatisation de services p. ex.) ? La question est ouverte, mais le choix d’un tel business model en-dehors de toute démonstration d’une nécessité économique pour l’entreprise ou le groupe ne manquera pas de se heurter à une jurisprudence protectrice de l’emploi des salariés ...

Le paradoxe est que c’est sans doute l’une des premières fois que les « cols blancs » risquent d’être plus impactés que les filières techniques …

Plus généralement, le recours à l’IA est ambivalent puisqu’il peut s’envisager selon le curseur, à la fois comme :

  • Un facteur de progrès (ex : aide à la prévention des risques professionnels, voire à leur prédiction (?) ; aide à la prise de décision ; réduction des tâches ingrates ; amélioration de la productivité ; détection des anomalies et correction d’erreurs ; robot d’assistance numérique des opérateurs, etc.) ;
  • Un facteur de risque pour les travailleurs (RPS ; surveillance ; prise de décision automatisée dans la relation de travail du recrutement au départ ; adaptation permanentes et accélérée aux évolutions d’outils ou d’usages ; etc.).

Quel est l’objectif recherché derrière l’intégration d’IA dans le travail ? Les études font apparaître des réalités diverses selon les entreprises, les secteurs d’activité et les tailles d’effectif : amélioration de la performance ; réduction des coûts de main-d’œuvre ; amélioration de la santé-sécurité ; manque de compétences ; etc.

Dans tous les cas, le déploiement de l’IA pose dès maintenant la question de l’anticipation et de l’accompagnement du changement organisationnel et technologique.

Il est susceptible de venir impacter lourdement des pans entiers du droit du travail en matière de relations individuelles et collectives de travail, et notamment : 

  • Les orientations stratégiques de l’entreprise ;
  • La formation ;
  • La gestion prévisionnelle des emplois et compétences et des parcours professionnels (quels seront notamment les besoins en termes de nouvelles compétences) ;
  • La fonction managériale et les méthodes de management (reporting, évaluation, contrôle, coordination, coopérations, etc.) ;
  • Les conditions de travail.

Sur ce dernier volet, rappelons que légalement, les principes généraux de prévention (PGP) imposent notamment à l’employeur d’« adapter le travail à l'homme, en particulier en ce qui concerne la conception des postes de travail ainsi que le choix des équipements de travail et des méthodes de travail et de production, en vue notamment de limiter le travail monotone et le travail cadencé et de réduire les effets de ceux-ci sur la santé » (C. Trav., L4121-2, 4°)

Dans de nombreux métiers on peut justement imaginer le risque de devoir s’adapter à la machine si le changement n’est pas suffisamment bien pensé en amont.

Pour les travailleurs concernés, les questionnements sont profonds autour de la « valeur travail » et la nécessité de se réinventer en termes de plus-value, de créativité, etc. 

Quelles seront les nouvelles attentes des entreprises dans ce cadre ?

Face à ces risques dits de transition et de « maladaptation », le rôle des professionnels RH paraît central, et il sera essentiel de les inclure dans la conduite des projets d’IA, qui ne doivent pas être envisagés que sous un prime uniquement technologique ou financier …

D’expérience, il faut s’attendre à ce que le déploiement de tels outils crée de la défiance, et soit en conséquence très surveillé par l’administration (notamment dans le cadre du contrôle des PSE – Conseil d’Etat 21 mars 2023, n° 460660 et n° 450012) ainsi que par les tribunaux en cas de contentieux.

Il existe ainsi de nombreux précédents jurisprudentiels autour de contentieux de la réorganisation en lien avec des projets de mise en place de nouveaux logiciels, pouvant confronter la direction à des risques de litiges avec les représentants du personnel :

  • Dans le cadre de consultations obligatoires du CSE en lien avec l’introduction de nouvelles technologies (ex. suspension d’un projet de logiciel « SmartRH » : Cass. Soc. 26 février 2020, n° 18-24758) ;
  • Sur le terrain d’expertises du CSE fondées sur l’existence d’un projet important modifiant les conditions de travail (ex. projet d’IA dédié à l’assistance de chargés de clientèle : Cass. Soc. 12 avril 2018, n° 16-27866), voire d’un risque grave constaté dans l’établissement.

    Dans ce registre, il conviendra de veiller à passer le projet de déploiement du SIA au crible de l’évaluation des risques professionnels (mise à jour du DUERP et pour les 50+, des mesures du PAPRIPACT si nécessaire – cf. C. Trav., R4121-2).
  • Cela peut même conduire à des actions visant à enjoindre l’arrêt d’un projet de nature à compromettre la santé (mentale notamment) des salariés (cf. Cass. Soc. 5 mars 2008, n° 06-45888, solution fondée à l’époque en référence à l’obligation de sécurité « de résultat », mais qui paraît toujours applicable dans son principe).

L’enjeu d’accompagnement RH sera aussi de rassurer pour lever certains freins de perception individuelles ou collectives, et de faire des salariés des acteurs à part entière de la transformation (par exemple au travers de démarches d’expérimentation, et de travail en amélioration autour de « l’expérience utilisateur »). 

Au fond, le sujet sera celui du sens donné au travail et du vécu (« grâce à l’IA » ou « à cause de l’IA » ?).

 

  1. IA et RSE : réflexions sur le volet environnemental

L’empreinte environnementale du numérique est connue, et les études montrent l’impact significatif des SIA en termes de consommation d’énergie et d’eau pour faire fonctionner les data centers.

Après le minage des cryptomonnaies, le grand public découvre avec un certain effarement le coût environnemental du prompt engineering et du machine learning … 

Tout cela milite pour une politique de sobriété dans les usages.

Mais il existe à l’inverse des usages pour lesquels l’IA présente un levier en termes de réduction d’impacts : par exemple, elle est indispensable pour piloter finement les besoins et optimiser les consommations de ressources ainsi que les émissions et rejets, dans une démarche de sobriété.

S’agissant de l’adaptation au changement climatique, l’IA est également incontournable pour les prévisions météorologiques et plus généralement pour la prévention des risques naturels.

A relier au domaine social, c’est aussi certainement un domaine où les greens skills vont pouvoir se développer et être créatrices sinon de nouveaux emplois, au moins de nouveaux besoins en compétences « vertes ».

  1. IA et RSE : réflexions sur le volet gouvernance des outils et des données

Plus que jamais, les données qui viennent alimenter les algorithmes d’IA présentent une valeur et un enjeu capital, mais aussi des risques pour les droits fondamentaux et libertés publiques. On pense notamment aux hypothèses d’interconnexion et de recoupement de données via des outils dotés de capacités de calcul démultipliées. Le futur règlement AI Act doit justement prévoir des « lignes rouges » dans ce domaine, en cohérence avec les principes du RGPD.

Sur le terrain de la protection des données à caractère personnel, rappelons que parmi ces principes figure le suivant : « la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire » (RGPD, art. 22).

* L’article 47 de la loi informatiques et libertés ajoute également qu’« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. »

Dit autrement, il faut de manière générale un « numérique responsable », ce qui n’est pas incompatible avec le fait de promouvoir les filières de recherche et de soutenir les acteurs dans ce domaine.

Bien au contraire, c’est la condition pour la légitimité et l’acceptabilité de ces évolutions disruptives.

A côtés des usages de l’IA, des garanties paraissent donc indispensables au stade de la conception et du développement de ces outils, afin d’éviter les biais, ainsi que les risques cyber.

Alors que le codage lui-même peut désormais être délégué à une IA, cela suppose plus que jamais une gouvernance des algorithmes.

L’humain doit pouvoir garder le contrôle, ce qui nécessite au plus haut niveau que les entités qui développent ou utilisent ces technologies se dotent d’une politique de vigilance et de moyens adaptés sur le plan organisationnel, humain, financier et technique.

La mise en place de chartes et de process internes contraignants peut s’avérer nécessaire.

Au final, l’enjeu est celui de la responsabilité pour les entreprises, aussi bien en termes d’image que sur le plan juridique (prenons par exemple le risque pour l’entreprise en cas de violation des droits de propriété intellectuelle via l’utilisation d’un SIA).

Ajoutons à ce panorama que dans le cadre du déploiement progressif de la Directive CSRD, les entreprises concernées par les nouvelles obligations en matière de reporting de durabilité, devront prendre en compte dans leur analyse de « double matérialité » d’impact les éventuelles stratégies d’IA au regard des nouveaux critères environnementaux, sociaux et de gouvernance (ESG – cf. notamment référentiel de normes ESRS S1 « main d’œuvre » et S2 « travailleurs de la chaîne de valeur »).