L’Intelligence Artificielle, qu’elle soit générative ou prédictive, percute tous les métiers et en connaître la mesure nous interroge. Mais depuis le 6 mars 2025 une nouvelle intelligence artificielle générative risque de tout révolutionner et par là même de nouveaux risques psychosociaux pourraient se répandre…
Le nom de cette IA : Manus AI. Ce robot développé par l'entreprise chinoise Butterfly Effet attire l'attention des professionnels de l’IA en se décrivant comme une "IA générale" capable de raisonner et de répondre sans supervision humaine aux tâches les plus complexes. Un cap semble être ainsi franchi car cette nouvelle IA ne se contente pas de répondre aux questions posées : elle fonctionne de façon autonome sans attendre d'instructions et elle est en capacité d'utiliser des logiciels comme un humain le ferait. Elle est par exemple capable d’effectuer seule une analyse financière poussée ou bien d’établir une stratégie d’entreprise à partir de l’analyse des données des magasins pour optimiser les opérations et maximiser les performances.
Pourquoi alors faire le lien entre cette IA et la QVCT ?
Si les trois niveaux de prévention ne sont pas remis en cause par l’IA, il me semble néanmoins envisageable qu’un nouveau risque puisse prendre de l’importance dans nos organisations et à sa suite en générer d’autres : l’état agentique. Le concept d’état agentique est indissociable des travaux de Stanley Milgram sur la soumission à l’autorité et peut se définir comme étant cet état qu’un individu développe dans une situation donnée quand il accepte qu’une personne qui possède une position statuaire légitime et plus élevée que la sienne prenne le contrôle de ses actes et l’amène à produire des actes qu’il ne produirait pas spontanément même s’ils sont extrêmes (comme torturer dans l’expérience de Milgram). Si le concept renvoie à de nombreuses réflexions scientifiques en psychologie sociale et philosophie impossibles à détailler ici (sur ce qu’est la soumission, l’autorité, la responsabilité, le conformisme social, etc.), l’arrivée de ce nouveau type d’IA autonome peut néanmoins interroger sur le développement, voire la généralisation, de cet état agentique et de ses conséquences.
Cette forme spécifique de déresponsabilisation issue du transfert de responsabilité à cette nouvelle autorité que pourrait représenter cette IA autonome (qui serait in fine contrôlée par qui ?) signifierait en effet d’un point de vue cognitif que l’individu s’en remette à cette IA nouvelle génération pour penser, réfléchir et décider à sa place et ainsi lui permettre de ne plus établir de lien entre ses actes et sa responsabilité personnelle. Ce risque est déjà grand et engendrerait des opportunités pour des comportements toxiques en tous genres mais poussé à son extrême, l’individu dans cet état agentique ne risque-t ’il pas de ne se percevoir plus que comme l’instrument de l’IA (et non plus d’autrui) qui devient le véritable responsable des actes qu’il exige. Comment une telle prise de conscience associée à celle d’être chosifié serait-elle alors gérable dans une logique de QVCT ?
Voilà de quoi remettre en lumière les résultats de l’« Enquête Great Insights 2025 » présentés récemment dont l'objectif était de comprendre les attentes et les préoccupations des salariés face aux transformations sociétales et professionnelles y compris en relation avec la QVCT.