Si ces écarts ont pu faire sourire les étudiants, ils ont cependant trouvé moins drôle que les élans d’inventivité non contrôlés de ChatGPT, ou « hallucinations », comme les désigne le jargon de l’IA par un anthropomorphisme abusif, s’étendent aux références bibliographiques.
L’étudiant qui travaillait sur le physicien Louis Néel avait peiné à collecter des sources pour documenter son travail. Il fut donc surpris de constater que la biographie produite par ChatGPT renvoyait à plusieurs ouvrages universitaires qu’il avait été incapable de trouver, avant d’être encore plus étonné de découvrir que ces références étaient en fait inventées de toutes pièces.
Une étudiante ayant choisi d’explorer la carrière du médecin Ignace Philippe Semmelweis a non seulement découvert que ChatGPT lui avait suggéré des références inexistantes, bien qu’elles parussent à première vue plausibles, mais que même les vraies références qu’il avait fournies ne mentionnaient Semmelweis que de façon anecdotique.
Fait intéressant : un des ouvrages mentionnés par ChatGPT était même considéré comme une référence de qualité médiocre par les historiens sérieux du médecin austro-hongrois. Deuxième constat, méthodologique cette fois, l’agent conversationnel était non seulement susceptible d’enrichir l’historiographie d’oeuvres imaginaires, mais même lorsqu’il proposait des références réelles, la qualité de sa revue de littérature pouvait s’avérer faible et peu pertinente.
D’un point de vue pédagogique, j’aurais pu exploiter ces références bibliographiques inventées pour expliquer aux étudiants la « mécanique » derrière le fonctionnement de ChatGPT. Ses « hallucinations » ne sont pas uniquement dues, comme on l’entend souvent, au fait que les données sur lesquelles il a été entraîné (en gros, le contenu d’Internet jusqu’en 2021) contiennent elles-mêmes des erreurs factuelles ou des informations contradictoires et biaisées, puisque les références erronées qu’il produit n’existent tout simplement pas sur Internet.
Ces « hallucinations » sont en réalité indissociables de l’outil lui-même, qui reste un très puissant générateur de textes… probabilistes, formant des phrases à partir de la probabilité que des mots apparaissent dans des phrases et des contextes similaires. Autrement dit, ni intelligent ni créatif, ChatGPT est un algorithme qui s’appuie sur des méthodes statistiques de calcul de probabilités et une quantité massive de données d’apprentissage pour générer le texte ayant les chances les plus élevées de répondre « correctement » à une question qui lui est posée.
Même s’il était entraîné sur un corpus de données « parfaites », la probabilité qu’il génère des erreurs ne serait pas nulle. ChatGPT répond donc en termes probabilistes et non en fonction de critères de vérité ; son « intelligence » n’est par conséquent qu’apparente, comme l’est celle de tous les algorithmes.