Les outils d’IA générative (comme ChatGPT, Copilot de Microsoft, etc.) promettent des gains de productivité et de rapidité d’exécution qui justifient une utilisation dans les environnements professionnels de plus en plus répandue. Néanmoins, une récente enquête menée auprès de 319 travailleurs du savoir utilisant l’IA générative dans leur activité professionnelle au moins une fois par semaine a permis de dégager quelques constats alarmant des effets de l’utilisation de l’IA sur la pensée critique de ces utilisateurs familiers de l’IA que nous pouvons interroger : 

 

  • Les participants estiment que l’IA générative diminue l’effort cognitif requis pour collecter et organiser l’information. Concrètement, cela se traduit par une automatisation efficace de tâches répétitives, telles que la recherche d’informations et la production de brouillons. Mais il ne faut pas s’y tromper : cette facilité masque un transfert de charge cognitive d’une collecte facilitée vers une vérification et une intégration des résultats générés nécessitant plus d’efforts. La charge mentale est donc accrue.
     

  • Désormais, le processus de travail humain nécessite d’organiser sa pensée critique selon trois étapes clés. Il faut tout d’abord avoir une idée précise de ses besoins traduits dans des instructions détaillées transmises à l’IA pour que celle-ci puisse proposer des réponses. Puis vient l’étape de la vérification de la qualité, de la fiabilité et de la pertinence des réponses fournies. Enfin, une nécessaire adaptation du contenu généré au contexte particulier du travail et des objectifs professionnels poursuivis achève l’intervention humaine. Autrement dit, si l’IA permet de réduire l’effort de création initiale, elle impose de disposer de connaissances toujours actualisées et de fortes compétences pour s’assurer que le contenu correspond aux exigences et aux objectifs professionnels poursuivis car il n’est pas certain que la comparaison avec d’autres sources elles-mêmes générées par l’IA suffisent ! 
     

  • L’enquête montre aussi qu’une forte confiance dans les capacités de l’IA peut mener à une moindre implication dans le contrôle des résultats. Inversement, cette étude montre toutefois que les professionnels ayant confiance en leurs propres compétences et l’habitude de réfléchir à leur travail en général sont plus enclins à analyser, ajuster et corriger contenus générés par l’IA. Par conséquent l’automatisation ne devrait pas dispenser de l’intervention humaine - c’est même un gage de compétence – mais cela ne va pas de soi.
     

Pour éviter une dépendance excessive à l’IA qui pourrait compromettre l’analyse critique et la capacité à prendre des décisions éclairées de ses utilisateurs, l’étude propose enfin que ces outils d’IA intègrent des mécanismes incitatifs à la vérification : des alertes sur les incohérences ou des invitations à comparer avec des sources externes afin de préserver un niveau de contrôle et de renforcer l’expertise professionnelle des utilisateurs. On peut alors s’interroger sur la véracité elle-même de ce qui servira de base de comparaison... 
 

Bref, l’IA modifie profondément les rôles intellectuels : de créateur, l'utilisateur devient superviseur autrement dit responsable de l’adéquation, de la véracité et du ton des contenus produits par l'IA. Existera t-il alors des alertes mises en place pour sa nécessaire propre montée en compétences hors de l’IA, sur son identité professionnelle ainsi modifiée, sa charge mentale renforcée ou sa perte d’une capacité de réflexion critique et de savoir-faire au-delà de l’utilisation de l’IA ? 

 

Pour aller plus loin : 
 

  • Hao-Ping (Hank) Lee, Advait Sarkar, Lev Tankelevitch, Ian Drosos, Sean Rintel, Richard Banks, and Nicholas Wilson. 2025. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. In CHI Conference on Human Factors in Computing Systems (CHI ’25), April 26–May 01, 2025, Yokohama, Japan. ACM, New York, NY, USA, 23 pages.