IA conversationnelle, ChatGPT & éducation : une éthique de l’éducation est possible
Révolutionner la génération des savoirs avec ChatGPT
ChatGPT (Generative Pre-trained Transformer) est une IA conversationnelle et générative créée par OpenAI qui comprend en langage naturel les requêtes des utilisateurs afin de répondre à un très grand nombre de questions sur un large panel de savoirs. ChatGPT répond en générant automatiquement un langage adapté au besoin de l’utilisateur, sous réserve d’un prompt optimisé pour que l’IA puisse saisir d’emblée ou après reformulation l’ensemble du contexte qui constitue la question posée, et ce, dans de nombreuses langues possibles (anglais, français, espagnol, italien, allemand, portugais, russe et chinois), allant même jusqu’aux langages de programmation. De nombreux cas d’usage ont été testés depuis le 30 novembre 2022, date de la sortie de ChatGPT, et font de cette IA un phénomène international qui attise la curiosité de chacun, intéresse les GAFAM ou encore d’autres grandes firmes qui y voient un potentiel d’innovation. Cette innovation fait ainsi trembler l’un des Goliath du Web tel que Google et suscite même l’intérêt pour un investissement à hauteur de 10 milliards de dollars de la part de Microsoft.
@Midjourney, publié par Imgur
Les fascinantes facettes des IA génératives : que demander à ces IA ?
ChatGPT est développé sur la base d’un modèle de langage d’apprentissage automatique profond : GPT-3. Ce modèle de réseau de neurones complexe est une variante de l’architecture de langage “Transformer”. Cette architecture de langage fait parler d’elle depuis 2017 car elle révolutionne les capacités du NLP (Natural Language Processing) en permettant de faire un bond considérable dans la capacité à ingurgiter un nombre gargantuesque de données dans un temps record. Mais c’est depuis le début d’année 2022, à l’instar de Midjourney, créée par le laboratoire de recherches éponyme, ou de Dall-E – elle aussi issue de la société OpenAI – que les IA génératives touchent le grand public et montrent ainsi toute leur puissance en se déployant dans des domaines auparavant réservés à la créativité humaine. Que ce soit dans la génération d’image par le langage, Text-to-Image, ou dans la génération de langage via GPT-3, ces IA génératives nous captivent et nous interrogent. Plus d’un million de personnes à travers le monde ont testé en 5 jours ChatGPT. Le nombre grandissant de personnes souhaitant tester l’IA a même dû être limité par OpenAI, obligeant les utilisateurs à se mettre sur liste d’attente.
Ces IA génératives enflamment les débats, à savoir si leurs œuvres sont oui ou non des œuvres d’art, si ces IA sont des artistes, si ces IA génératives peuvent recevoir des prix. Dans le cas de ChatGPT, l’IA conversationnelle questionne aussi car elle peut emprunter de nombreux cas d’usage liés au langage :
➤ Compréhension en langage naturel d’une question dans de nombreuses langues : anglais, français, espagnol, italien, allemand, portugais, russe et chinois ;
➤ Génération de réponse adaptée :
> en fonction d’un très large domaine de savoirs en allant puiser dans la base de données de pré-entraînement ;
> en fonction d’une contextualisation qui peut amener l’utilisateur à reformuler sa phrase, jusqu’à trouver la bonne syntaxe. Cela amène progressivement l’IA à générer la réponse la plus adaptée possible en fonction du prompt de l’utilisateur amélioré au fur et à mesure de l’interaction.
➤ Génération de code informatique : Python, Java, C++, C#, JavaScript, PHP, R, Ruby, Swift, SQL, et Shell ;
➤ Capacité de dialogue contextualisé avec la possibilité d’adopter des styles langagiers différents – comme celui du président Emmanuel Macron.
Les différents tons possibles afin de générer du texte sont les suivants :
➤ Formel : utilisé pour des discussions académiques ou professionnelles, des réponses factuelles, des explications techniques ;
➤ Informel : utilisé pour des conversations plus décontractées, des réponses humoristiques, des réponses à des questions personnelles ;
➤ Sérieux : utilisé pour des discussions sur des sujets sensibles ou graves, des réponses à des questions sur des sujets difficiles ou importants ;
➤ Poli : utilisé pour des conversations avec des inconnus ou des supérieurs hiérarchiques, des réponses à des questions formelles.
Écriture de chanson, de code informatique, de poème, de discours, d’essai, de synthèse, de quiz, de script, de romans, de scenarii, de devoir, de dissertation, de mail, ou encore création de tableaux, de traduction, etc. Le monde entier n’a de cesse de trouver des moyens d’user et d’abuser de ChatGPT. Elle fascine autant qu’elle déroute.
Quelles limites pour ChatGPT, quel apanage pour les professeurs ?
Bien qu’il ne s’agisse pas de faire passer le test de Turing à ChatGPT car elle précise et répète dans ses réponses qu’elle est une IA et qu’elle n’a pas d’émotions à proprement parler, il est parfois bluffant de se retrouver dans un système de dialogue avec une IA qui argumente clairement différentes réponses possibles à une question et ainsi adopte d’une certaine manière un point de vue critique sur un sujet précis, voire parfois philosophique et technique.
Et en dépit du fait que les limites techniques du système soient clairement définies par OpenAI sur leur site internet :
“ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.
ChatGPT is sensitive to tweaks to the input phrasing or attempting the same prompt multiple times. For example, given one phrasing of a question, the model can claim to not know the answer, but given a slight rephrase, can answer correctly.
The model is often excessively verbose and overuses certain phrases, such as restating that it’s a language model trained by OpenAI. These issues arise from biases in the training data (trainers prefer longer answers that look more comprehensive) and well-known over-optimization issues.12
Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended.
While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior. We’re using the Moderation API to warn or block certain types of unsafe content, but we expect it to have some false negatives and positives for now. We’re eager to collect user feedback to aid our ongoing work to improve this system.”
Autrement dit :
➤ La génération de réponse est parfois plausible, incorrecte ou absurde à plusieurs égards :
> car l’entraînement de la base de données n’a pas de valeur de vérité ;
> car il faudrait entraîner le modèle à la prudence afin de refuser de répondre aux questions auxquelles elle n’a pas de réponse ;
> car la formation supervisée de l’IA peut induire le modèle en erreur en fonction de ce que sait ou non l’individu qui entraîne le modèle, et en fonction des nouveaux faits et données auxquels il a accès.
➤ De plus, la réponse de ChatGPT est éminemment corrélée à la manière dont on formule le besoin, la requête ou le problème. Le même problème mathématique formulé 2 fois peut avoir 2 résultats totalement différents, l’un correct et l’autre non. Pour obtenir une bonne réponse, il est essentiel de bien contextualiser et de parfois faire varier la manière dont on s’adresse à ChatGPT d’où cette nouvelle manière d’ajuster son dialogue avec l’IA : le “prompt engineering”.
➤ ChatGPT est considéré comme “verbeux” car l’entraînement et le renforcement par des feedbacks humains a été fait en fonction de réponses très développées et a ainsi intégré leurs propres biais cognitifs de réponses au sein de l’IA.
➤ L’IA conversationnelle devrait elle-même relancer le dialogue lorsqu’elle discerne de l’ambiguïté dans la compréhension de la question de l’utilisateur au lieu de cibler globalement l’intention véhiculée dans le sens de la phrase.
➤ Enfin, pour toutes les questions considérées comme “inappropriées” OpenAI utilise une API de modération pour bloquer certains contenus dangereux.
Il n’est donc pas étonnant de trouver des tests utilisateurs ayant éprouvé certaines limites du raisonnement de ChatGPT, notamment pour des questions qui exigent la bonne formulation et le bon contexte telle qu’une question mathématique par exemple qui nécessite de résoudre un problème précis avec une explicitation claire de l’ensemble des paramètres à prendre en compte.
Qu’en est-il de la réception d’une telle intelligence conversationnelle pour le monde de l’éducation et de la formation ? Bien plus que de générer une réponse, ChatGPT semble adopter la position du professeur, du tuteur, sur certains sujets. Mais les coutures de l’intelligence artificielle se font sentir et les limites sont encore palpables. Continuons alors de réfléchir aux limites de ChatGPT pour comprendre comment une IA générative telle que celle-ci pourrait servir comme le disait Montaigne à créer “une tête bien faite plutôt qu’une tête bien pleine.”
IA & éducation : quelles éthiques numériques pour des IA génératives et éducatives ?
Plusieurs strates éthiques
L’éthique peut se retrouver à plusieurs niveaux lors de la création d’une IA générative intègre quant à sa visée éducative : depuis la conception algorithmique, la création de la base de données de pré-entraînement, le perfectionnement du modèle déployé, jusqu’à son usage et sa commercialisation par les sociétés et le grand public. Sans parler d’autres IA génératives comme GPTZero qui détecte la génération de texte par une IA et sa complexité afin de lutter contre des IA génératives moins soucieuses de leur usage pédagogique. Pour répondre à l’inquiétude des professeurs quant à la potentielle utilisation des IA par les élèves pour tricher, ce type d’IA générative constituerait l’une des solutions possibles pour aider les professeurs à vérifier si les devoirs rendus par les élèves sont issus d’une IA générative telle que ChatGPT ou bien d’autres qui pourront être commercialisées à l’avenir. Comme le dit Giada Pistilli dans le Washington Post “Tools like ChatGPT can be used for good or ill”, c’est dans l’usage de la technologie que celle-ci peut être utilisée à bon ou mauvais escient.
Mais avant de réfléchir à l’usage éthique ou non des IA génératives, à la manière de bien utiliser ChatGPT dans l’enseignement supérieur pour en tirer le meilleur parti au sein de nos institutions, précisons ce que serait une IA éducative, une IA générative de formation qui tendrait depuis sa conception vers une éthique de l’éducation responsable. Que serait une IA générative éthique au service de l’éducation ?
Tout d’abord, spécifions ce que nous entendons par “éthique”. Sans faire ici une histoire de l’éthique en philosophie en remontant des Présocratiques à aujourd’hui, tout en passant par Nietzsche, nous cherchons ici à mettre en exergue ce que serait une intelligence artificielle conversationnelle telle que ChatGPT si elle intégrait des principes régulateurs liés à l’éducation, à la formation des individus et de leurs compétences. Autrement dit, quelle serait la toile de valeurs d’une intelligence conversationnelle et éducative qui serait sous-tendue derrière chacune de ses probabilités de réponses ? Comment ces valeurs seraient-elles déployées au sein de l’IA pour maximiser la confiance que nous pourrions avoir en une IA conversationnelle et pédagogique qui serait utilisée pour la formation de nos générations actuelles et futures ? Quelle éthique du numérique éducatif pourrait adopter une IA telle que ChatGPT ? Transparence de la data, épistémologie des savoirs, authenticité et vérifiabilité de l’information, aide à la constitution des esprits critiques, autonomisation et contribution à l’auto-détermination des apprenants grâce à des méthodes neuropédagogiques, sont les axes, non exhaustifs, que nous allons explorer afin de cerner ce que serait une IA conversationnelle et pédagogique qui viserait une éthique numérique de l’éducation.
@Midjourney, publié par u/[deleted]
Pour une présentation de l’archéologie du savoir, une éthique de l’information
Actuellement, ChatGPT tire sa base de données de pré-entraînement d’un large corpus de données textuelles provenant d’Internet, y compris des articles de journaux, des blogs, des livres électroniques, des forums de discussion, des pages web, des scripts de films, des paroles de chansons, etc. C’est à partir de ces données que ChatGPT extrait les réponses les plus propices à fournir une réponse adaptée à la requête de l’utilisateur et génère ainsi une réponse appropriée à la formulation du besoin par l’utilisateur, et ce en fonction de sa langue. L’une des grandes problématiques des IA est le fait qu’elles soient elles-mêmes vectrices de biais cognitifs humains et socio-historiques renfermés dans les données exploitées, tout en étant des boîtes noires. Bien qu’il soit non pertinent pour nous que ChatGPT nous présente l’intégralité du calcul et le nombre considérable de paramètres au sein des 175 milliards possibles qui l’ont menée à répondre de cette manière plutôt qu’une autre, il est peut-être essentiel pour une IA pédagogique d’envoyer la ou les sources d’informations qui correspondent le plus à la requête utilisateur. Il s’agirait de présenter à l’apprenant l’archéologie du savoir proposé par l’IA. Ainsi, cette dernière pourrait générer une réponse et renvoyer le contenu source qui permettrait à l’utilisateur d’aller vérifier par lui-même pour pousser son apprentissage au sein même de l’information dont est issue originairement la réponse de l’IA. Bien plus encore, cette IA serait transparente sur le cheminement épistémologique du savoir emprunté dans sa base de données d’entraînement afin de générer une réponse vraie en fonction d’un corpus daté et circonscrit. Une IA qui viserait une éthique de l’information donnerait ainsi ses sources en renvoyant de manière transparente sur les données exactes, ou bien en donnant une sélection de sources qui correspondent le plus à la requête utilisateur et à l’historicité du savoir généré.
@Midjourney, publié par u/krvnkerman
Pour une intégrité de l’IA générative avec une éthique de la data
De ce fait, il reviendrait aux humains d’aller vérifier l’information dont sont issues ces générations, d’analyser par eux-mêmes le bien fondé des réponses générées par l’IA et ainsi apprendre à nuancer et interpréter par eux-mêmes les réponses reçues. En plus de la nécessité de constituer l’esprit critique, un nouvel enjeu ressortirait : la base de données de pré-entraînement. Une IA qui aurait une visée experte et pédagogique afin de tendre au maximum à la génération de réponses vérifiables et “falsifiables” au sens Poppérien de la réfutabilité des théories, irait puiser dans des données qualitatives et non uniquement quantitatives. Elles seraient créées par des experts dans leurs domaines et l’IA présenterait les différentes manières de répondre à une question donnée en fonction des différentes acceptions, interprétations ou en fonction des consensus scientifiques liés à un instant T. ChatGPT ou toute autre IA qui s’inscrirait dans une démarche pédagogique qualitative et transparente, tout en utilisant un modèle de compréhension, d’extraction et de génération en langage naturel, gagnerait en justesse si sa base de données de pré-entraînement et son perfectionnement se faisaient par des experts ou des professionnels. Ces derniers argumenteraient, expliciteraient, justifieraient leurs propos et données et permettraient à l’IA d’en faire de même en renvoyant les sources des réponses formulées, ainsi que l’évolution de la question dans le temps. Une IA pédagogique constituée de la sorte viserait une éthique de la data et de l’information rigoureuse, intègre, permettant aux utilisateurs d’être dans une logique d’apprentissage et de vérification permanente des sources. Sollicitant et constituant ainsi au fur et à mesure l’esprit critique de tous ceux qui utilisent l’IA.
@Midjourney, publié par u/IntelligentSloth0
Neurosciences cognitives et épistémologie du savoir pour aider à la constitution d’esprits critiques
Pour qu’une IA telle que ChatGPT ait pour objectif d’aider les apprenants à apprendre et à constituer cet esprit critique, il faudrait de plus qu’elle ait été créée avec des logiques issues des neurosciences cognitives afin d’intégrer des méthodes métacognitives permettant de comprendre la manière dont le cerveau apprend, mais aussi une approche épistémologique du savoir dans le but de comprendre comment se constituent les sciences au gré du temps, des recherches, des découvertes, des consensus et des changements de paradigmes. Ces méthodes permettraient aux utilisateurs d’apprendre à apprendre, de connaître les processus mentaux et sociaux-culturels qui sous-tendent l’apprentissage humain et la création de chaque savoir. La connaissance de ces processus contribuerait à s’affranchir des biais qu’ils renferment lorsqu’une unique réponse est générée à un instant donné. L’historicité de chaque connaissance serait alors mise en lumière, remettant au cœur du savoir le doute et la méthode scientifique, tout en luttant contre la désinformation et les travers complotistes qu’elle engendre.
Une IA conversationnelle et neuropédagogique pour aider au développement des compétences et de la mémoire de chaque apprenant
Une IA qui viserait à aider l’apprenant serait une IA qui provoquerait l’engagement dans des moments où il n’est pas possible de répondre présent pour un tuteur ou un pédagogue : le soir, en vacances, à n’importe quel moment, 24h/24. Mais répondre présent et générer une réponse ne serait pas l’unique modalité pour aider l’apprenant et enclencher une éthique de l’éducation. Cette IA devrait avoir un mode d’évaluation de l’apprenant, où en dernier recours, il s’agirait au professeur humain de suivre la progression de l’apprenant et de cibler, de manière collective et/ou individuelle les points bloquants de l’ensemble des étudiants. En optimisant l’apprentissage des apprenants et leur évaluation, l’IA servirait à axer sur les essentiels de formation mais aussi à revenir en classe sur les besoins pédagogiques des apprenants en laissant davantage de place à la relation humaine entre professeurs et élèves. L’engagement pourrait en plus être poussé si d’elle-même l’IA revenait vers l’apprenant pour lui poser des questions. De cette façon, l’IA ne servirait pas uniquement à optimiser le temps de recherche qui est essentiel et fait partie prenante de l’élaboration, de la structuration de l’esprit critique et de la compréhension de l’apprenant, mais servirait aussi à optimiser l’apprentissage des humains en répétant des réponses auparavant générées par l’IA. L’intelligence artificielle viendrait revalider à intervalles expansés les savoirs travaillés. Cette réactivation de chaque savoir validé renforcerait l’encodage des informations en mémoire de travail et optimiserait la consolidation en mémoire à long terme des éléments les plus pertinents. L’apprenant agirait ainsi sur sa propre mémoire au lieu d’avoir uniquement une information générée par l’IA. Ce type d’IA conversationnelle, ayant pour visée une éthique de l’éducation, servirait le développement cognitif de l’apprenant en le poussant à lui-même générer une réponse afin de construire et de structurer ses compétences. S’enclencherait alors une boucle vertueuse où l’apprenant viendrait nourrir l’IA en générant de nouvelles réponses aux questions auxquelles l’IA aurait auparavant répondu, ce qui entraînerait l’IA tout en renforçant la mémoire de l’apprenant, le rendant ainsi acteur de sa formation. La consolidation des savoirs se ferait alors par le dialogue avec une IA conversationnelle et neuropédagogique qui ne se limiterait pas à générer du texte en langage naturel mais viendrait relancer l’apprenant avec une modalité d’évaluation et de renforcement mémoriel.
Caroline Barkhou
CPO chez tinycoaching