Comment ChatGPT transforme l’expérience des postdocs

chatgpt-transforme-experience-postdocs-2
Image élaborée par vecstock sur Freepik

ChatGPT, le système d’IA générative développé par OpenAI, semble changer progressivement les pratiques de recherche des post-doctorants à travers le monde. C’est en effet ce que démontre une enquête internationale menée récemment par la revue scientifique Nature

Selon cette étude, environ un tiers des jeunes chercheurs sondés ont recours à l’IA générative pour peaufiner leurs écrits, générer ou éditer du code, ou explorer et analyser la littérature scientifique. 

En particulier, ChatGPT semble avoir transformé les pratiques de communication et de traduction des jeunes chercheurs, qui ont de plus en plus recours à l’IA pour faciliter leurs interactions et leurs échanges entre les langues et les cultures. 

Découvrons ces résultats de plus près !

Des « early adopters » et des réticents parmi les jeunes chercheurs

C’est indéniable, l’utilisation de ChatGPT a soulevé moultes discussions dans les milieux de la recherche, notamment autour de l’impact de l’IA sur la rigueur du processus scientifique et le risque de substitution de l’humain par la machine. Toutefois, en dépit de ces craintes, de nombreux jeunes chercheurs semblent avoir trouvé une valeur intrinsèque à l’IA, en pouvant rédiger plus efficacement des abstracts et des sections d’articles, ou en générant du code grâce à des applications connectant leurs systèmes existants à ChatGPT. 

Le sondage de Nature montre ainsi que 31% des répondants emploient règulièrement des chatbots dans le cadre de leur travail, tandis que 67% ne ressentent pas un impact concret de l’IA sur leurs pratiques. Les super-utilisateurs de l’IA générative sont en particulier ceux qui ont le plus besoin de soutien pour simplifier des concepts scientifiques, améliorer leurs modes de rédaction et traduire des textes lorsque l’anglais n’est pas leur langue maternelle. 

De façon intéressante, le sondage de Nature indique également une adoption plus élevée des outils d’IA générative parmi les ingénieurs et les chercheurs en sciences sociales, tandis que les secteurs biomédicaux affichent une utilisation plus faible. Les utilisateurs signalent ainsi que l’IA est opportune pour améliorer la qualité de la rédaction scientifique, un domaine souvent négligé dans la formation des chercheurs, en particulier en ingénierie. Néanmoins, plusieurs des jeunes chercheurs sondés expriment des préoccupations concernant l’IA, notamment du fait qu’elle puisse générer des citations fictives ou des textes erronés dont la source est souvent impossible à retracer. 

Une absence de guides de pratique pour l’IA en recherche

Bien qu’il présente plusieurs bénéfices associés à l’usage de l’IA en recherche, l’article de Nature n’est pas avare de détails quant aux erreurs commises par les chatbots lorsqu’il s’agit d’analyser des écrits ou de produire des textes. 

Parmi les types de fautes commises par ChatGPT on trouve : 

  • Des inexactitudes factuelles : Les systèmes comme ChatGPT font parfois des erreurs, soit en raison de données d’entraînement incorrectes, soit par des erreurs dans le traitement du langage. Cela peut être particulièrement problématique dans un cadre académique où l’exactitude des informations est primordiale.
  • Une absence de raisonnement critique : Ces modèles d’IA, bien qu’avancés, n’égalent pas le raisonnement humain, surtout en ce qui concerne la pensée critique et analytique. Ils peuvent générer des réponses basées sur des motifs dans les données d’entraînement, mais ils ne « comprennent » pas les informations de la manière dont les humains le font, ce qui peut conduire à des erreurs d’interprétation ou à des conclusions incorrectes.
  • Des réponses hors contexte : Parfois, les chatbots peuvent produire des réponses qui, bien que grammaticalement correctes, sont hors contexte ou ne répondent pas précisément à la question posée. Cette tendance est due à leur dépendance aux données d’entraînement et aux limitations dans la compréhension du contexte spécifique et de la nuance des questions.

Et pourtant, en dépit de tous ces risques associés à un usage non réflexif ou critique de ChatGPT, les universités et les instituts de recherche ont encore produit trop peu de lignes directrices formelles pour encadrer leur utilisation. Ceci soulève ainsi plusieurs enjeux, dont des questions de propriété intellectuelle et de protection des données intégrées par les chercheurs dans les systèmes d’IA. 

comment-chat-gpt-change-experience-postdoc
Facebook
Twitter
LinkedIn
Email

Dernières publications

Obrigado por entrar em contato conosco! Em breve entraremos em contato.

Um erro aconteceu

Usamos apenas suas informações pra entrar em contato contigo e nada mais.