La clé du véritable assistant IA: l’infrastructure IA personnelle (PAI) [en]

Même si je ne suis pas en train de vibe-coder à tour de bras, j’ai bien sauté dans le train côté IA. Depuis deux ans environ, je dis que ce que je ressens concernant l’importance et le potentiel de l’IA générative est quelque chose que je n’ai pas senti depuis ma découverte d’internet il y a 20-25 ans.

Et là mes amis, j’ai l’impression de m’être pris un train en pleine figure. Enfin, je le vois arriver depuis un moment, le train, mais là il est sur moi. Mon vieux pote Jens-Christian vient de me montrer, en live (bon, par visio) à quoi ressemblait son assistant IA et l’infrastructure (PAI) qui le rendait possible. Je vais vous expliquer tout ça en français, ne vous en faites pas, mais sachez déjà qu’en gros, le fameux “assistant IA” qui est véritablement capable de nous aider à organiser nos vacances, choisir un menu pour ce soir, nous briefer pour préparer notre journée, garder le fil de nos multiples projets et évidemment, automatiser notre administratif récurrent, sans juste faire semblant qu’il en est capable – eh bien on y est.

Je précise d’emblée, parce que le dégueulis d’IA – je sais pas comment traduire mieux “AI slop” – envahit non seulement le web, les réseaux, nos conversations WhatsApp et les blogs, que j’écris ce texte avec mes dix petits doigts sur mon clavier. Le jour où je vous refile un truc “écrit avec IA”, je vous le dirai, et je vous dirai aussi “combien écrit avec l’IA” c’est.

OK. Maintenant j’explique pourquoi je suis en train de vous dire que l’ordinateur de Star Trek, c’est déjà aujourd’hui. Enfin avant, un petite digression préalable.

On le sait bien: ce qu’on appelle aujourd’hui “une IA”, c’est en fait un “LLM” (Large Language Model). C’est une intelligence artificielle (un type de programme) qui produit des mots. En très simplifié, c’est du texte prédictif dopé. Le LLM, il ne fait qu’une chose, à la base: il regarde le “contexte” (le texte déjà écrit) et fait une prédiction statistique sur le prochain mot. Et le prochain. Et le prochain. L’IA (le LLM) ne “sait” rien. C’est juste une machine à aligner des mots. Mais ce qui est dingue, c’est que cette machine est capable de produire du texte que l’on reconnaît comme “discours”, et qui nous donne le sentiment d’être en train de parler à une vraie personne. C’est le côté “chatbot” ou “interface conversationnelle”. Ça veut dire que pour faire faire des choses à une machine, aujourd’hui, on peut simplement lui expliquer avec nos mots – pas besoin de cliquer sur tel bouton, donner telle commande, utiliser un langage de programmation. On dit quelque chose, et quelque chose se passe.

Si vous avez déjà l’habitude de fréquenter Claude ou ChatGPT, vous savez comme ça va. On chatte avec, et on est tour à tour bluffé (quand ça marche) et désespéré (quand ça marche pas). On se casse vite le nez sur les limites du truc, il nous dit un truc qui est faux, et on se dit qu’il est bien con et que l’IA, ça ne marche pas si bien que ça. On pense aux rêves qu’on avait de pouvoir dire à notre IA “fais ma déclaration d’impôts” ou “planifie mon projet” (pourquoi pas “fais mon job”, pendant qu’on y est), ou plus modestement, “envoie les factures vétérinaires à l’assurance pour qu’ils remboursent”. L’IA nous promet monts et merveilles mais ne livre pas toujours – d’autant plus si on se contente de lui parler dans une conversation qui s’allonge à l’infini, qu’on ne comprend comment travailler avec la fenêtre de contexte, que les skills ça nous dépasse, qu’on ne maîtrise pas les subtilités du prompting et qu’on n’a pas encore fait le pas d’organiser nos interactions en projets ou d’essayer Cowork. On entend bien ceux qui développent des trucs incroyables à l’aide de l’IA, mais bon, on n’est pas tous développeurs, et franchement les résultats médiocres qu’on obtient nous laissent penser que c’est beaucoup de hype, toute cette histoire. On est d’accord?

Et là au milieu, je suis en train de vous dire (je vous promets j’ai pas fumé) qu’en fait oui, l’IA est bien capable de nous offrir cet “assistant digital” dont on rêve. Je crois franchement qu’on y est. Mais c’est pas “en chattant avec Claude”. Et il n’y a pas besoin non plus d’apprendre à programmer pour y arriver.

La clé, c’est cette infrastructure mentionnée en début d’article: PAI. C’est pas une “alternative” à Claude ou ChatGPT ou Gemini. C’est un système qui se construit dessus. Une collection d’instructions pour IA et de scripts (comme des mini-programmes) qui vont tourner sur l’ordinateur.

Comme dit plus haut, une IA ne “sait” rien. On peut lui donner une liste de tâches en début de conversation, en rajouter 3 nouvelles, parler de la pluie et du beau temps, et lui redemander les tâches 10 minutes plus tard, et il y a fort à parier qu’il y aura une erreur dans la liste. Qu’elle reconnaîtra de bonne grâce quand on la lui fera remarquer. Par contre, si au début de la conversation on lui demande de créer un fichier contenant cette liste, et que deux jours plus tard on lui demande nous lire la liste qui est sur le fichier, là, ça marche. Suivant quelle est votre expérience dans l’utilisation de l’IA, vous avez peut-être fait ce constat de vous-même: c’est vachement plus fiable de faire mettre des infos dans des fichiers, de faire écrire des scripts pour extraire de l’information d’un document ou d’un tableau de données. Et d’ailleurs, aujourd’hui, votre “Claude chatbot” le fera spontanément ou vous le proposera, suivant ce que vous lui demandez.

Donc: l’assistant IA de nos rêves, c’est pas “juste” une IA, c’est surtout des tas de scripts et des fichiers contenant des informations. Et bien sûr quand même une IA, pour interagir avec nous (la fameuse “interface conversationnelle”) et faire évoluer le système en fonction de nos besoins.

Vous êtes encore là? Soyons un peu concrets. PAI c’est donc un truc qu’on télécharge sur son ordi et qui une fois lancé, va premièrement installer ce dont il a besoin (y compris Claude Code si on ne l’a pas déjà). Ensuite, quand on le lance, il va nous prendre par la main (via l’interface conversationnelle, donc en discutant déjà avec l’IA) pour le configurer et démarrer avec. Oui, il faut taper un truc dans la ligne de commande, il y a un premier pas ou deux un peu geek, mais après, c’est “juste du blabla” comme on a l’habitude de faire normalement avec une IA.

Ce qui fait que PAI c’est pas “juste une IA”, c’est que c’est un système prévu pour créer ce dont vous avez besoin de votre assistant. On ne vous livre pas une voiture: on met à votre disposition tout ce qu’il faut pour concevoir et produire la voiture qui correspond exactement à vos besoins – les ingénieurs, les designers, les mécanos, l’usine de production, et aussi le chef de projet qui va vous prendre par la main pour vous aider à décrire la voiture dont vous avez besoin. PAI c’est ça.

L’infrastructure comprend un système et une structure pour stocker des infos de contexte vous concernant – pas juste la façon dont vous aimez que l’IA vous parle, mais aussi vos valeurs, vos domaines d’expertise, vos préoccupations et buts dans la vie. Et pas sous forme de laborieux champs texte à remplir. L’IA va vous interviewer, ou dans mon cas, avaler mon blog, et en tirer les informations pertinentes. Ou pas, si on veut pas. L’infrastructure comprend aussi des processus: en particulier, comment développer un système dont vous avez besoin.

Un exemple en guise de démo (on a fait ça en direct avec Jens-Christian et son assistant pendant notre visio): un truc dont je rêve, perso, ce serait un système qui est au courant de ce que j’ai dans mon frigo et mes armoires, de ce que j’aime manger et cuisiner, et qui puisse me dire “ah ben ce soir, tu pourrais te faire ceci ou cela”. Pour de vrai, c’est une grosse charge mentale chez moi ce genre de truc. Donc hop, on soumet cette idée à l’assistant. J’ai deux ou trois idées en plus: si je donne à l’assistant mes tickets de caisse de courses, il pourrait savoir ce que j’ai acheté comme nourriture. Et si je lui montre ce que je mange ou me cuisine, il pourrait en déduire ce que j’ai utilisé. Peut-être de temps en temps il faut lui faire une photo du frigo ou de l’armoire pour vérifier si son inventaire est à jour. Et il pourrait aussi avoir à dispo une collection de recettes que j’ai faites, et d’idées-repas (j’ai commencé à compiler ça, manuellement). On donne donc ces infos à l’assistant, et on observe. Honnêtement, c’est là que je me suis retrouvée sur le cul.

PAI comprend donc un processus, ou une méthode, pour approcher ce genre de demande: clarifier à quoi ressemblerait le système fini, puis, selon une logique similaire au “rétro-planning” (du reverse-engineering, en fait) il produit un concept, les différentes parties du système à créer, évalue de quelle façon les créer (scripts, IA, quels outils sont à disposition, parce que bien sûr il sait quels outils on a sur l’ordi et ce qu’on a l’habitude d’utiliser), à quoi ressemblerait une version minimale fonctionnelle du système (le “MVP”=minimum viable product du jargon dev/business), et (après feu vert bien entendu) produit un prototype. En dix minutes, on avait un prototype interactif à qui je pouvais demander quoi manger ce soir, après avoir rempli une liste bidon de ce qui était dans mon frigo – et surtout, un plan pour développer le reste du système.

Avant aujourd’hui, j’avais prévu d’écrire un article sur ce que j’étais en train de faire avec l’IA en ce moment. Je me suis mise à Cowork, et je suis en train de créer un système qui m’aide à garder le fil de mes multiples projets en cours. Pas juste à savoir où j’en étais et quelle était la prochaine chose à faire quand je reprends un dossier trois semaines après l’avoir laissé en plan, mais aussi à avoir une vue d’ensemble du “portfolio de projets”. Dans mon système, il y a un fichier dans lequel je note les unes derrières les autres toutes les idées qui me passent par la tête, et ensuite il y a un script (et un peu d’IA) qui avale ce fichier et qui dispatche chaque idée ou info dans une sorte de boîte de réception pour le projet en question.

Exemple (parce que c’est mieux les exemples). J’ai trois tonnes de fichiers d’archives pas mal en bordel sur deux disques durs externes. Ça prend beaucoup de place, et je sais qu’il y a du contenu dupliqué, mais pas où et lequel. Je suis donc en train d’utiliser Claude pour m’aider à faire ça de façon méthodique. Donc ça c’est un de mes projets avec Claude. Mettons que pendant qu’on est en train d’avancer dans ce projet, je me retrouve dans le dossier qui contient les sauvegardes des vidéos live que j’ai faites sur Facebook. Il y a celles des chats diabétiques, mais aussi des vidéos sur d’autres sujets et dont je voudrais faire un article dans le blog. Comme je suis en grande conversation avec Claude, je mentionne ça, et peut-être que j’évoque les 3-4 articles que j’ai en tête, pour qu’il en prenne note. Il va noter ça (parce que je lui ai donné des instructions dans ce sens à l’aide d’un skill) dans le fichier “de sortie” du projet, prêt à être importé dans le fichier d’entrée du projet “idées pour le blog”. Ou alors, je suis en train de faire à manger et une idée de génie pour l’aménagement de mon balcon me traverse le cerveau: je la note rapidement dans mon fichier central, sachant que Claude rangera cette info au bon endroit.

Donc créer ce genre de système, avec Cowork, c’est possible, mais je fais beaucoup manuellement. Je micro-manage beaucoup. Je dois être directive, parce que sinon Claude me dit “ouais ouais c’est bon je m’en charge, c’est super simple” et en fait… non.

Avec PAI, il y a déjà des instructions et des “compétences” (skills) dans l’infrastructure exprès pour que créer ce genre de système se fasse bien et simplement. C’est donc une boîte à outils, accessible via le chat, qui nous permet de “forger” le système dont nous avons besoin – créer l’assistant qui va simplifier les tâches à peu de valeur ajoutée de notre quotidien, ou celles qui sont difficiles pour nous, qui va nous permettre d’avoir plus d’énergie à disposition pour les choses qui comptent pour nous.

Je vais gentiment prendre congé de vous pour aujourd’hui, parce que ça devient un article-fleuve (qui plus est pas super bien structuré et clair peut-être) et que mon cerveau n’a plus beaucoup de batterie. On va en reparler quand je sauterai le pas (dès que j’ai un peu de temps à dispo) pour installer PAI chez moi.

Juste deux mots de prudence avant de clore:

  • Claude Code, Cowork, PAI: des outils puissants mais qui présentent également des risques côté sécurité. Ce n’est pas une bonne idée, aujourd’hui, de laisser votre IA contrôler votre navigateur web, de lui donner libre accès à vos fichiers ou à votre e-mail, surtout si vous ne comprenez pas bien les enjeux sécuritaires
  • faire tourner quelque chose comme PAI “coûte” en termes d’utilisation d’IA – tout comme ça coûte de faire produire des images par l’IA, des pages de code, de manipuler des fichiers sur un disque dur, de lire des PDFs de 500 pages… sur un plan gratuit, oubliez; même un plan à 20.-, c’est probablement bien chaud

Quelques liens (en vrac parce que je suis trop raide):

The Wild Magical World of AI (LLMs) [en]

End 2024 is when I really started to get going with “AI” (or LLMs – I know saying “AI” is kinda wrong, but there seems to be no good way to escape it right now). I’d been dabbling a bit before that: as a search engine, to help me with my excel formulas at work, or translating an e-mail here or there. But over that Christmas break, I realised it went further than that: helping me manage my tasks; keep lists updated; make sense of my investment portfolio; troubleshooting technical stuff that’s above my pay-grade; and build actual systems to do stuff. I didn’t really know what I was doing, but I saw enough to find it really exciting. I was quite busy with work and life during that period, and not finding time to blog much.

And then I had a skiing accident. Everything stopped, but in time, as I started becoming more functional, I turned back to playing with AI some more, doing a little more vibe-coding too. Excitement grew. But I was also hitting limitations, fed up with the sycophancy, context bloat, hallucinations and endless rabbit-holes. Oh, and really sick of AI slop. (Really: nobody wants to read your AI slop, people.) But the exciting was still there, I was just biding my time. Integrations, agents and AI-powered browsers showed up, with the security risks that are bundled in. I was tempted but stopped myself. And a few loved ones.

Three articles amongst many that tell cautionary tales. I have more to say, particularly about the brain fry one, but not today.

Recently, like many others, I jumped ship from ChatGPT to Claude. I’d been thinking about it for a while, because I have been working hard on migrating my diabetic cat community from Facebook to Discourse, and had come to the conclusion I would have to code a plugin or component or two, and it seemed obvious that Claude was the better AI assistant for that. Around that time, I read this article:

In it, the author describes one key aspect of working with AI that I had understood to be important, but that I didn’t know how to put into practice: using different conversations for different “roles” or aspects of the project. And here I had a real example.

I put that in practice (a bit as an exercise) in applying these instructions to migrate my personal context from ChatGPT to Claude. It was extremely satisfying and a great learning experience. I was itching to get going with Claude Cowork and Claude Code, but still a bit anxious. As I see it, Cowork is like being handed a powerboat when all you’re used to are the free permitless motorboats you can rent by the hour on a sunny Sunday afternoon like this one. You can really get in trouble if you’re not careful. And probably, even if you are.

I asked around a bit and Claire pointed me to this wonderful guide to Cowork. What she also explained to me is that Cowork is sandboxed, so it only has access to the folders you give it access to. That’s reassuring. And just a few days ago, Matt shipped Taxonomist, an AI-app (? what do we call these things?) that he used to cleanly recategorise all his blog posts. Unsurprisingly, categories here on CTTS have been a mess since time immemorial, and one of the things that has been clear for some time for me is that AI can help me clean things up a bit around here – in general, not just the categories. But that felt like a great way to get started seeing what the powerboat can do, with a trusted friend on board to keep me from crashing on the rocks.

So earlier today I installed Claude Desktop, downloaded the guide, and started it in Cowork. And wow. Honestly. It’s wild. My 3TB of archived files going back nearly three decades are now hopeful they will one day be deduplicated and cleaned up. Of course, I hit my usage limit (which is why I’m writing this instead of playing with my new AI friend), so I went to have a look at what something like Taxonomist really looks like under the hood. You know, open the files and read them. And it’s starting to come together in my mind. The powerboat is starting to feel like something I will be able to manage in time.

Of course, I’m not going to point Cowork at my external hard drive right now. There are still a lot of steps until I feel comfortable enough with the powerboat to attempt that. But doors are opening. My diabetic cat community migration feels more manageable. I’m hopeful I can tidy my files and clean up my blog. Come up with a system to make sharing links to the open web as easy as on Facebook. Reboot the blogosphere. And I’m sure other ideas will come along the way. I am also trying to be very, very careful about AI brain fry, as I already have my own concussion brain fry to deal with.

If you haven’t yet started learning how to use AI beyond as a proxy for Google or Wikipedia, really, it’s time to get cracking. I’m going back to Lesson 5 (honestly, just read through that page for starters if you don’t know what to do first), making a note to check out Cursor (I’m using Visual Studio Code for now) and read this article on Teaching AI to Design.

First, however: a nap.

Pour une « nétiquette » de l’IA générative [en]

L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.

Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.

Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:

  1. Laisser l’IA parler à notre place, tel Christian avec Cyrano
  2. Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM

L’IA-Cyrano

Voici quelques exemples du premier cas de figure:

  • quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
  • je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
  • dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
  • je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.

Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.

Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.

C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.

Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?

Je pense qu’il y a deux aspects à prendre en compte.

Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?

Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)

Et la zone grise? Peut-on collaborer avec une IA?

Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!

La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.

Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?

Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.

Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.

Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.

Si c’est joli, où est le mal?

Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)

Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”

Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.

Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.

On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.

L’IA-RTFM

Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:

  • dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
  • dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
  • en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.

Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?

Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.

Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.

Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.

(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)

C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.

Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.

C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.

La version courte?

ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:

  • C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
  • Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
  • Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.

Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.

Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.

La version encore plus courte:

  1. transparence concernant l’implication de l’IA dans le contenu proposé
  2. vérification et adaptation du contenu généré (forme et fond)
  3. respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.

The LLMification of Everything [en]

I find LLMs (“AI”) fascinating. I haven’t been this excited about new technology since I discovered the internet. I am super interested in how they are changing the way we access information – admittedly, not necessarily for the better. I love the interactive interfaces.

But one thing I love less is the way LLM productions creep up all over the place, somewhat uncontrollably. “AI summaries” of search results are one thing. I actually quite like that, it’s clearly marked, usually quite synthetic and a good “overview” before diving into the search results themselves. But do I need a Quora AI-bot answer to the question I clicked on to look at? (Not that Quora is the highest-quality content on earth these days, it’s clearly fallen into the chasm of infotainment.) And of course, page after web page filled with AI slop, and invitations in pretty much all the tools we use to let “AI” do the job for us.

Which brings us to what irks me the most: humans passing off unedited and unreviewed LLM productions as their own. You know what I mean. That facebook comment that clearly was not composed by the person posting it. The answer to your WhatsApp or Messenger message that suddenly gives you the feeling you’re in a discussion with ChatGPT. This is another level from getting Claude to write your job application letter or craft a polite and astute response to a tricky e-mail. Or using whichever is your current LLM of choice to assist you in “creating content”. Slipping “AI stuff” into conversation without labelling it as such, is, in my opinion, a big no-no. Like copy-pasting without attribution.

As we use LLMs to create content for us and also summarise and digest the same content for our consumption, we’re quickly ending up in a rather bland “AI echo chamber”. I have to hope that enough of us will not be satisfied with the fluffiness of knowledge this leads to. That writing our own words and reading those of others will remain something that we value when it comes to making sense of the world and expressing what it means to be human.