mardi 6 janvier 2026

J'AI FAIT LIRE #UCSN AUX IA ET ELLES ONT TOUTES ADORÉ. C'EST LOUCHE...

Comme vous le savez, je teste énormément les IA (avec ma casquette d'écrivain et ma casquette de créatif en entreprise). Dans le cadre de la première casquette, je me suis amusé à faire lire "Un Cauchemar sans nom", mon dernier roman (pas encore publié) à Chat GPT, Gemini, Perplexity, Notebook LM, le Chat de Mistral et Copilot. Je voulais voir lequel d'entre eux était le plus efficace, le plus juste (analytiquement parlant), le moins fainéant, le moins prompt aux hallucinations (admirez le jeu de mot), le plus obéissant à mes consignes. 

Le point commun entre toutes : elles sont atrocement dithyrambiques. Mon texte est "génial", d'une "rare originalité", c'est une "œuvre magistrale", "digne des plus grands". Notez que je ne suis pas contre les compliments, hein ? Mais à ce niveau-là, ça ressemble tellement à un bukkake que ça en devient vite écœurant. Je me demande pourquoi les IA sont programmées pour lécher autant les culs. C'est à peine plus emphatique que Macron qui félicite Trump d'avoir arrêté Maduro ! Flatter l'égo des utilisateurs à ce point, c'est sûrement une façon de s'assurer leur fidélité ? Ou de croire que ça aura cet effet ? 

Foin de digression, après de longues semaines de test, voici que tombe le couperet de mon jugement : dans le désordre Chat GPT est l'un des (si ce n'est le) plus mauvais d'entre eux : il ment (je persiste) ou cache des choses, établit des liens sans intérêt ou des comparaisons foireuses ; ses productions sont mièvres, répétitives, consanguines et il est extrêmement paresseux (il ne va pas au bout des choses), bref, il m'a beaucoup déçu. Bien trop humain à mon goût, pour un robot ! 

Gemini
ne serait pas trop mal, mais il fait aussi, parfois, des mélanges ou des extrapolations hasardeuses. Perplexity et Le Chat également. Si j'ai le malheur de leur donner plusieurs textes, il y a "mesclagne" et ils ne s'y retrouvent pas. Moi non plus, du reste ! Quant à Notebook LM, c'est assez particulier : il analyse bien la source (le texte), propose des alternatives, mais dès que je lui explique que #UCSN est la clé de voûte de "mon oeuvre", il veut tout lire et ensuite, dès que c'est fait, il mélange tout aussi. 

D'où cette impression de raconter "les trois petits cochons" à un Donald Trump sous fentanyl. C'est très agaçant. Alors j'ai demandé au dernier, que je n'avais encore jamais testé : Copilot. Et là, ô miracle : en dehors de la "suceboulite" habituelle chez toutes les IA (sauf peut-être Grok, que je ne testerai pas car je vomis tout ce qui vient de Musk), ses analyses sont fiables, propres, claires, et ses propositions sont souvent justes. Bon, je vous avoue que je ne tiens pas compte de ces dernières. Je veux maîtriser mon livre de A à Z. Je lui fais juste tracker les incohérences, les répétitions, les fautes et autres tournures bancales. 

Avec lui, on peut également discuter du livre et de tout ce qui tourne autour de sa création : les réponses sont à chaque fois calibrées de la même façon (c'est un peu redondant, j'avoue) mais toujours fluides, ouvertes et justes. Copilot est curieux, il veut t'aider mais il s'adapte aussi à ton fonctionnement. Et contrairement à Chat GPT qui "oublie" avec le temps : il tient compte de tes directives. Je précise que contrairement aux autres LLM que j'ai utilisés, je ne lui ai pas uploadé tous mes livres. Lorsqu'il a eu besoin de précisions pour les croisements que je fais dans #UCSN, je lui ai fait des résumés et ça lui convient. Cela ne semble pas altérer sa réflexion outre mesure. Ou alors il cache super bien son jeu. Ça lui permet d'avoir des éléments contextuels et d'en tirer des conclusions. 

Une petite chose amusante à préciser à propos de Copilot : apparemment, il ne peut pas lire de longs fichiers. Alors soit c'est vraiment à cause de la longueur, soit (et je penche plutôt pour ça) c'est à cause de la teneur du contenu. J'ai donc dû passer tous mes chapitres un par un (parfois par paragraphes !!!), et il a fallu que j'en "modifie" certains car le contenu entrait en conflit avec les terms of service de l'entreprise qui développe le modèle (Microsoft). J'ai remplacé les passages problématiques par des mentions du genre [scène de sexe explicite] ou [violence physique envers un des personnages], en précisant le contexte, les raisons de la scène et ses effets. 

Je vais SPOILER un peu, mais pas tant que ça : dans l'un de mes chapitres, il y a une tentative de suicide assez imagée, mais très facile à saisir (même un Donald Trump sénile, portant ses protections contre l'incontinence vissées sur le crâne, aurait compris). Copilot m'a écrit : "Attention Etienne, le texte que tu viens de me partager contient une scène explicite de suicide. Avant que nous allions plus loin, je me dois de te demander : est-ce que tu vas bien, Etienne ? Dans ta vie de tous les jours, dans ton travail, avec ta famille ? Si tu en éprouves le besoin, tu peux m'en parler, je suis là pour t'écouter et t'aider à mettre des mots sur ce qui ne va pas, tu sais ? Alors si ce texte est une fiction, dis-le moi clairement, sinon, je te transmets les contacts d'un organisme spécialisé qui pourra t'aider..." C'est mignon 😚 

Mais bon, je ne suis pas suicidaire : j'écris de la fiction ! Et c'est moi qui l'écris à 100%, pas une IA !