Utiliser ChatGPT pour étudier, c’est tricher ?

Utiliser ChatGPT pour étudier, c'est tricher ?
Utiliser ChatGPT pour étudier, c'est tricher ? © Unsplash

Grâce à ses 100 millions d’utilisateurs actifs mensuels, ChatGPT est l’outil avec la croissance la plus rapide de tous les temps. En mars 2023 il a même atteint un total de 186 millions de comptes ayant utilisé le service au moins une fois dans le mois. Et parmi ces centaines de millions de comptes, les étudiants français ne sont pas en reste, nombre d’entre eux n’hésitant pas à l’utiliser en cours ou pour rédiger des devoirs. Mais est-ce qu’utiliser ChatGPT pour étudier, c’est tricher ? Eléments de réponse.

Comment rester actif face à cet outil révolutionnaire que sont les IA génératives ? Quels sont les avantages réels de ChatGPT pour les élèves ? ChatGTP pourra-t-il un jour remplacer les enseignants ? Quelles sont ses limites ? Comment garantir que tous les élèves ont accès à ces technologies et que certains ne sont pas laissés pour compte ? Comment intégrer de manière équilibrée l’utilisation de modèles de langages dans l’enseignement tout en maintenant un environnement d’apprentissage humain et interactif ? Autant de questions qui animent les débats des grandes écoles et universités au sujet de l’utilisation de ChatGPT dans le cadre de leurs formations. Car il ne faut pas se voiler la face : tous les étudiants utilisent ChatGPT aujourd’hui ! Rien de plus logique, puisque les IA génératives cochent toutes les cases des modèles classiques de comportement d’appropriation de la technologie. « Une technologie fonctionne lorsqu’elle présente deux caractéristiques : elle est facile d’usage et elle apporte un bénéfice personnel. De fait, ChatGPT est extrêmement simple d’usage et le bénéfice apporté est impressionnant sur un très grand nombre de taches. Il répond aussi à une troisième variable : la gratuité. Comme Google ou les réseaux sociaux avant lui, tout le monde s’est très vite emparé de ChatGPT » analyse Christine Balagué, Professeure en Sciences de Gestion du comportement du consommateur digital à IMT-BS et titulaire de la chaire Good in Tech.

Quelle attitude adopter face à une telle innovation de rupture ?

Face à cet engouement, certains établissements ont tranché la question de son utilisation de manière radicale. Parmi elles, Sciences Po, qui a décidé d’encadrer strictement son usage lors de la production de travaux écrits ou oraux, sous peine de sanction pouvant aller jusqu’à l’exclusion de l’établissement, voire de l’enseignement supérieur. Mais d’autres sont encore en pleine réflexion, pesant le pour et le contre de cet outil aussi fascinant que controversé. C’est notamment le cas des écoles d’ingénieurs, en particulier celles qui forment à l’IA. « Sans forcément être prescriptrices, les écoles d’ingénieurs ont un vrai rôle de suivi de l’évolution des techniques en la matière. Car l’IA générative est une vraie innovation de rupture, que je compare au moteur à vapeur. Alors que celui-ci a assisté l’Homme dans les travaux physiques, l’IA générative s’impose comme un assistant très performant dans la production intellectuelle » estime Manuel Clergue enseignant-chercheur en informatique et en intelligence artificielle à l’ESIEA.

Non, ChatGPT n’a pas réponse à tout !

Mais aussi performant soit-il, ChatGPT n’a pas réponse à tout. « L’IA générative est une innovation avec un impact potentiel considérable et comparable à celui des moteurs de recherche. Mais ce n’est pas pour autant qu’il faut lui faire une confiance aveugle. Par exemple, si ChatGPT sait assez bien répondre à des questions scientifiques de base, il n’est pas entrainé à la nuance de l’expertise » estime Amine Jaouadi, enseignant-chercheur à l’ECE et co-auteur avec Abderrahmane Maaradji de l’article ICT & Generative Artificial Intelligence – Powered Hybrid Model for Future Education publié dans le Cadmus Journal (le journal de la World Academy of Arts & Sciences). Il faut appréhender ChatGPT comme un bon assistant, un outil qu’il est nécessaire de guider. Quand il vous donne une réponse, il faut savoir lui dire non et le réorienter. De fait, il est utile pour les étudiants de voir ChatGPT comme le point de départ d’une réflexion ou un facteur de déblocage d’une situation. Certains l’utilisent même déjà pour s’autoévaluer ou se challenger en prévision d’un examen. » « C’est un outil, à l’instar un traitement de texte ou une calculatrice. On ne peut pas lui laisser entièrement la main : utiliser cet outil autrement que comme un assistant personnel peut s’avérer dangereux » prévient Manuel Clergue. Avant de rappeler que « la responsabilité ultime de ce qui est produit avec le concours de ChatGPT incombe à la personne qui met son nom dessus. »

Identifier les risques : un préalable indispensable à une utilisation responsable

Car au-delà de la peur du remplacement de l’humain par la machine, trois grandes catégories de risques liés à ChatGPT sont avérées par la science. C’est ce que détaille d’ailleurs le rapport de la chaire Good in Tech d’IMT-BS, menée par Christine Balagué. « Première catégorie de risques, ceux liés aux données. Dans les modèles d’IA génératives, ChatGPT se base sur des données extrêmement massives qui englobent, entre autres, des données personnelles, du matériel copyrighté et des données polluées par la mésinformation, la désinformation et les fake news. Des données qui peuvent être de mauvaise qualité ou même entrainer les utilisateurs dans l’illégalité. » ChatGPT induit aussi des risques sur le contenu généré. « Les réponses fournies par ChatGPT ne sont pas 100 % fiables. J’en veux pour preuve cet exemple désormais célèbre de cet avocat d’une compagnie aérienne américaine qui, après avoir rédigé sa plaidoirie avec ChatGPT, s’est retrouvé à plaider sur la base d’articles de loi qui n’existaient pas. Au-delà de sa capacité à générer de fausses informations, ChatGPT peut aussi générer du contenu dangereux. Par exemple, s’il ne répondra pas à la question Comment fabriquer une bombe ? il est possible de contourner le libellé de la question en lui demandant de fournir un modèle hypothétique de fabrication de bombe. Si l’outil est capable de corriger ses erreurs au fur et à mesure et évolue donc positivement, le danger reste réel. » Last but not least, ChatGPT engendre aussi des risques sociaux et environnementaux. « Il est évident que certaines fonctions, dans le marketing et les RH notamment, vont évoluer vers une sous-traitance à ChatGPT. Cela nécessite de repenser ces métiers et de former ceux qui les exercent, à d’autres métiers. Par ailleurs, l’impact environnemental des IA génératives est énorme et compte parmi les enjeux les plus cruciaux de leur utilisation. Entrainer un modèle d’IA générative produit l’équivalent de 502 tonnes de CO2, soit autant que plusieurs aller-retour New York – Sans Francisco ! » rappelle l’experte.

Si les risques engendrés par ChatGPT sont donc réels, la meilleure façon de s’en prémunir afin d’en assurer une utilisation sûre et à valeur ajoutée, reste la formation.« Les étudiants ont conscience que ChatGPT offre de très nombreuses opportunités mais il faut aussi les former et les éduquer aux risques. C’est la seule manière de leur apporter ce regard critique permettant une utilisation responsable » conclut Christine Balagué. ChatGPT, ce n’est donc pas tricher… dès lors qu’on y est bien formé !

>>>> Envie d’aller plus loin sur les enjeux de ChatGPT ? Découvrez les analyses exclusives de nos experts et profitez en pour utiliser ChatGPT pour étudier… sans tricher !

Imprimer

Articles qui pourraient vous intéresser également

Inscrivez-vous à notre newsletter !

Vous pouvez vous inscrire à notre newsletter en cliquant sur le lien suivant :

inscription à la newsletter