Cet article a été réalisé pour la rubrique "Enjeux" du magazine Omalius #28 de mars 2023.

Il est vrai que ce chatbot qui semble réfléchir et écrire en temps réel – comme un ami avec qui vous converseriez sur Messenger ou Whatsapp – est aussi intuitif que surprenant. Entièrement gratuit et accessible avec une simple adresse email, il est capable de calculer, de produire une recette de cuisine, d’écrire des articles et de composer des poésies (Oh ChatGPT, source de savoir infini,/Tu es notre guide dans le monde numérique,/Nous offrant tes connaissances sans fin,/Tu es la source de notre intelligence logique). Capable aussi de vous expliquer avec un aplomb sans failles que les vaches sont ovipares ou d’avancer des références bibliographiques qu’on jurerait authentiques et cependant inexactes. L’outil, en effet, repose sur le principe de la vraisemblance et non de la vérité. « ChatGPT fonctionne sur base d’une équation probabiliste », explique Bruno Dumas, professeur à la Faculté d’informatique de l’UNamur et coprésident de l’Institut de recherche NaDI. « Il va tricoter la suite de mots la plus probable suivant ce que vous lui avez donné comme question. Cette suite de mots va former des phrases qui ont un sens et un intérêt car ChatGPT a été entraîné sur une quantité de données, en partie connues : tout Wikipédia en anglais, l’intégralité du réseau social Reddit, deux grosses bases de données de livres soit l’équivalent d’une gigantesque bibliothèque, ainsi que le reste d’Internet, en ce compris Twitter. »

Assistant personnel

Dans un monde où le rapport à la vérité est déjà très malmené, les craintes liées au plagiat, à la tricherie, à la fabrique de fausses preuves et de fausses sources mais aussi à l’uniformisation de la pensée sont légion. Mais comme la peur n’éloigne pas le danger, les enseignants de l’UNamur ont rapidement réfléchi à la meilleure manière d’intégrer le robot conversationnel dans leurs cours. « Il y a toujours un enthousiasme face à un nouvel outil mais il faut évidemment rester critique » commente Guillaume Mele, chercheur et assistant au Département éducation et technologie de l’université et membre de l'Institut de recherche IRDENa. « On est passés par une phase d’analyse pour se rendre compte des possibilités offertes par ChatGPT mais aussi de ses limites. C'est un outil formidable, mais qui doit rester un outil, et non le cœur d'un dispositif pédagogique. »

"Personnellement, je crois beaucoup à l’idée de compagnonnage dans l’enseignement, à la relation one to one : dans cette optique, ChatGPT peut être envisagé comme l’opportunité pour l’étudiant d’avoir un assistant personnel, numérique, à la maison", suggère Michaël Lobet, professeur au Département de physique de l’UNamur et chercheur qualifié FNRS au sein de l’Institut de recherche NISM. « Bien sûr, on n’en est pas encore là, mais si nos étudiants parviennent à utiliser l’outil correctement, ne fût-ce que pour débroussailler une partie de la matière, ce sera déjà très bien. On peut envisager différents scénarios pédagogiques : ils pourraient s’en servir pour un résumé de cours, du mindmapping, la redéfinition de certains concepts... Maintenant, je reste quand même sceptique et prudent car nous sommes dans la phase initiale. J’ai soumis à ChatGPT trois problèmes de physique et il s’est planté sur deux d’entre eux... » L’objectif n’est cependant pas de « piéger » ChatGPT : ce serait en faire un rival et oublier qu’il n’est qu’une machine promise à se perfectionner. « Si je me sers d’un marteau, je ne me mets pas en compétition avec le marteau », résume Michaël Lobet. Par contre, rien de tel pour enfoncer un clou.

Il faut sortir des stéréotypes selon lesquels les profs seraient nécessairement des vieux ringards déconnectés et les étudiants nécessairement des fraudeurs... Notre job est d’apprendre aux étudiants à évoluer avec les outils qui existent.

Elise Degrave Rpfesseure à la Faculté de Droit de l'UNamur et Membre de l'Institut NADI

Esprit critique

Bien sût ChatGPT va introduire du changement, de même que ses concurrents, en tête desquels Bard, l’outil conversationnel de Google. Mais comme l’enseignement et la recherche ont survécu à Wikipédia, ils pourraient survivre à ces chatbots intelligents. « Avec le Covid, on a dû introduire Teams en urgence, ce qui a sorti tout le monde de sa zone de confort et a changé la manière de donner cours, mais pas seulement en négatif. Cela a également amené plus de réflexion pédagogique et a contribué à faire évoluer les compétences numériques des enseignants, avec à la clef des dispositifs pédagogiques parfois impressionnants. Il y a eu des craintes, puis une phase d’apprivoisement jusqu’à ce que chacun l’utilise (ou pas) selon ses besoins. C’est probablement ce qui va se passer avec ChatGPT », estime Guillaume Mele.

Si beaucoup de professeurs s’y intéressent déjà, ChatGPT demeure d’ailleurs méconnu de nombreux étudiants. Marie Lobet, assistante au Département éducation et technologie (DET) de l’UNamur, a ainsi réalisé une première étude qui montre que seul un tiers d’entre eux en a déjà entendu parler. L’heure est donc propice aux présentations. « ChatGPT peut mettre les étudiants assez rapidement en défaut s’ils ne l’utilisent pas de manière critique », commente Olivier Sartenaer, philosophe des sciences à l’UNamur. « C’est pourquoi je leur propose de l’utiliser et de le citer comme une source, au même titre qu’une source classique, en mettant les résultats obtenus dans les annexes. C’est une manière d’utiliser l’outil en toute honnêteté, en montrant où il a raison et où il a tort. Comme dans tout travail d’investigation, il faut évidemment le considérer comme une source parmi d’autres et comme une source non fiable puisqu’elle fonctionne sur le principe de la probabilité et non de la vérité... »  De son côté, ChatGPT ne source d’ailleurs aucune des informations qu’il donne, ce qui pourrait poser des problèmes de propriété intellectuelle. Surtout, les résultats qu’il propose ont tout intérêt à être perçus comme une matière première impure : une glaise qu’il faudra modeler et remodeler si l’on veut s’approcher du juste, du vrai, voire du beau (Oh ChatGPT,/tu es un joyau technologique,/Une merveille qui nous facilite la vie,/Tu nous fais gagner du temps précieux,/Et nous guides vers la réussite).

Élise Degrave, professeure à la Faculté de droit de l’UNamur et membre de l’Institut NaDI, estime elle aussi qu’il est nécessaire d’initier les étudiants à cet outil et qu’il serait même « dangereux de l’interdire » : « Il faut sortir des stéréotypes selon lesquels les profs seraient nécessairement des vieux ringards déconnectés et les étudiants nécessairement des fraudeurs... Notre job est d’apprendre aux étudiants à évoluer avec les outils qui existent car ce sont eux qui vont faire évoluer les métiers plus tard. C’est d’autant plus important que beaucoup d’étudiants, même s’ils sont très à l’aise avec les réseaux sociaux, n’ont pas la culture de l’outil numérique : beaucoup ne savent pas ce qu’est une bulle de filtre (ndrl : système de personnalisation des résultats de recherche) ni que sur Tinder, l’algorithme associe les beaux avec les beaux... » Des savoirs d’autant plus nécessaires que les intelligences artificielles sont probablement appelées à s’imposer de plus en plus dans nos vies. Autant donc s’en faire des alliées. Car comme ChatGPT se l’écrit à lui-même dans la dernière strophe : « Nous t'adressons cette ode avec amour,/Toi, notre ami virtuel si cher,/Tu es une partie de notre quotidien,/Et nous ne pourrions pas te remplacer. »

ChatGPT : un outil normatif ?

ChatGPT a réponse à tout et ne s’énerve jamais. Impossible de le faire sortir de ses gonds ou de le plonger dans les abîmes du doute. « Les réponses de ChatGPT présentent un aspect stéréotypé. Et c’est quand même une boîte noire : on sait que l’outil a ‘mangé’ l’intégralité de Wikipédia mais en anglais, ce qui n’est pas neutre », commente Olivier Sartenaer. La question au fondement des sciences sociales – d’où je parle ? –, le robot conversationnel n’en a cure. « D’habitude, on peut essayer de voir pourquoi une source nous dit telle ou telle chose, mais ici ce n’est pas le cas puisque le propos n’a pas d’auteur. Il devient donc impossible de contextualiser le propos. » Tout au plus sait-on, suite à une enquête du Time, que OpenAI a travaillé, par l’intermédiaire de la société Sama, avec des travailleurs kenyans pour éliminer les contenus racistes, sexistes, haineux dont ChatGPT aurait pu se nourrir... « Ces travailleurs étaient rémunérés deux dollars de l’heure pour se confronter à la lie de l’humanité. Cela pose évidemment question », commente Bruno Dumas.

Ni empathie ni transgression

« ChatGPT encapsule des normes », explique Élise Degrave « Par exemple, si vous lui demandez comment on construit des bombes, il vous répondra que si vous avez un problème, vous pouvez consulter un professionnel de la santé... Mais qui définit ces normes ? Du point de vue du droit, c’est intéressant. » À son sens, ChatGPT se caractérise surtout par son incapacité à transgresser ces normes. « En droit, la notion de bonnes mœurs est définie par le même article du code civil depuis 1830 sauf qu’avant, ce qui était contraire aux bonnes mœurs, c’était le concubinage et maintenant, pour caricaturer, c’est de vendre ses ovules sur internet... La société tourne, mais ChatGPT, lui, est incapable d’interpréter et de faire évoluer les normes. Il est aussi incapable de penser le cas de force majeure. En droit, il est par exemple interdit de faire un excès de vitesse sauf si c’est pour porter secours à une personne en danger. » Royalement psychorigide, ChatGPT méconnaît l’exception et l’empathie. En ce sens, il serait selon Élise Degrave « un magnifique plaidoyer pour le rôle de l’humain ». Car incapable du pire, ChatGPT est aussi incapable du meilleur.

Interview de Laurent Schumacher, vice-recteur à la formation

Fin janvier, l’UNamur organisait une session PUNCh (Pédagogie Universitaire Namuroise en Changement) dédiée à ChatGPT qui a rencontré un vrai succès, avec quelque 260 participants...

Laurent Schumacher : Oui, sur 600 ou 700 personnes concernées, c’est significatif. Nous avons eu des forces vives qui ont développé une approche résolument positive de l’outil, en partant du postulat qu’il s’intégrait dans les pratiques des futurs professionnels et qu’il convenait de voir dans quelle mesure on pouvait l’utiliser à des fins d’apprentissage et de carrière. Les différents intervenants ont présenté l’outil mais aussi ses limites et les scénarios qui permettaient de le mettre en œuvre. L’objectif était la mutualisation et le partage des bonnes pratiques.

Que pourrait apporter ChatGPT au monde universitaire ?

L.S. : Typiquement, quand on fait une recherche, ChatGPT facilite la création d’un premier état de l’art. La première limite, c’est qu’il ne peut restituer que ce qu’il sait déjà, autrement dit les connaissances disponibles au moment où il a collecté des informations, en l’occurrence fin 2021, début 2022. On ne peut pas non plus prendre ce que dit ChatGPT pour argent comptant : cela nécessite un regard critique de la part de l’étudiant. Le fait qu’il se présente comme un outil conversationnel donne aussi un autre regard sur les réponses qu’il fournit : on a l’impression d’avoir réellement quelqu’un en face de soi alors que sa réponse n’est rien d’autre qu’un cheminement entre des mots. Donc le cheminement pourrait être différent et le texte qui en résulte pourrait dire radicalement le contraire.

Avez-vous des craintes concernant le risque de plagiat et de fraude ?

L.S. : Ce serait excessif de dire que nous n’avons aucune crainte. Mais nous sommes à présent dans un autre rapport à la disponibilité au savoir. Bien sûr, nous ne pouvons pas imaginer former des médecins qui n’auraient aucune connaissance sur le corps humain, mais on peut imaginer un scénario dans lequel le médecin agirait dans une alliance entre son savoir propre et ce qu’il peut glaner dans les ressources numériques : il s’agit alors davantage de réalité augmentée, d’une augmentation et non d’une substitution.

Omalius

Cet article est tiré du magazine Omalius #28 (mars 2023).