Apocalypse Google - Par Thibault Prévost | Arrêt sur images
▻https://www.arretsurimages.net/chroniques/clic-gauche/apocalypse-google
Traçons d’abord à travers le brouillard du bullshit. Google, comme le reste de la Silicon Valley, nous vend constamment une IA qui n’existe pas, une IA mensongère et fictive devenue la routine marketing. En 2018, la firme dévoilait un assistant vocal phénoménal, Duplex, capable de passer des coups de fil à votre place. La démo était probablement fausse, et le service était en réalité... un call-center. En guise d’IA, trois humains sous un imperméable. Rebelote en décembre 2023 avec la démo extraordinaire de son IA Gemini, qui était au moins partiellement scriptée. OpenAI, Microsoft et les autres font la même chose. L’IA n’est pas une course aux armements, c’est un concours de prestidigitateurs, face auquel le scepticisme par défaut devient la seule attitude saine. Il n’y a absolument aucune raison de croire que ce que Google nous montre reflète l’état de l’art de ses produits, et toute raison de penser que nous venons de voir un court-métrage d’anticipation publicitaire. Pourquoi ? Parce que la démo promet les deux choses que les logiciels d’IA générative sont structurellement incapables de fournir : la fiabilité et l’exhaustivité.
L’IA Duplex, trois humains sous un imperméableJe sais que je me répète de chronique en chronique, mais je le rabâcherai jusqu’à ce que la bulle de l’IA explose : la-technique-ne-fonctionne-pas. Selon les critères d’évaluation, le taux d’erreur du meilleur logiciel actuel, GPT-4, se situe entre 2,5% et 25%. Ces erreurs sont extrêmement plausibles, assénées avec autorité, et par conséquent plus dangereuses encore que les fake news classiques. L’industrie appelle ça des hallucinations. Le terme, à la fois magique, mignon et puissamment neutralisant, a surtout pour fonction de dissimuler la réalité politique et sociale aux régulateurs : l’IA générative est une arme de désinformation massive. Et c’est donc le pire outil possible à déployer comme portail d’informations en ligne. Si un taux d’erreur de 2,5% vous paraît faible, dites-vous que le moteur de recherche Google répond à 8,5 milliards de requêtes... par jour. Ça en fait, de la fake news.
Les hallucinations sont inévitables. Elles sont une propriété structurelle de ces systèmes. Ça-ne-se-répare-pas. L’industrie le sait très bien. Elle a tellement compris qu’elle est bloquée avec ses machines mythomanes qu’elle a déjà modifié son récit publicitaire. En 2023, à en croire le clergé de l’IA, nous foncions tout droit vers la superintelligence cosmique. En 2024, Sam Altman nous dit que les mensonges font partie de la « magie » de la technique, et le PDG de Google nous explique qu’il faudrait même qu’on s’émerveille lorsque les logiciels racontent n’importe quoi, comme devant des enfants de maternelle qui nous rendent des dessins qui ne ressemblent à rien ou des tables de multiplication fausses– bravo Gemini, c’est super, continue comme ça ! Après des décennies à nous affirmer que les programmes informatiques sont des machines froides, neutres, objectives et parfaitement infaillibles (alors que ça a toujours été parfaitement faux), la Silicon Valley veut maintenant nous persuader qu’il faudrait traiter ses logiciels mal foutus comme des enfants Montessori, en troquant l’évaluation des compétences contre l’encouragement et la bienveillance. Une autre manière de s’extirper du champ de la critique politique, en instrumentalisant notre tendance innée à l’anthropomorphisation.