Pour une « nétiquette » de l’IA générative [en]

L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.

Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.

Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:

  1. Laisser l’IA parler à notre place, tel Christian avec Cyrano
  2. Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM

L’IA-Cyrano

Voici quelques exemples du premier cas de figure:

  • quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
  • je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
  • dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
  • je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.

Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.

Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.

C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.

Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?

Je pense qu’il y a deux aspects à prendre en compte.

Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?

Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)

Et la zone grise? Peut-on collaborer avec une IA?

Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!

La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.

Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?

Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.

Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.

Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.

Si c’est joli, où est le mal?

Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)

Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”

Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.

Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.

On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.

L’IA-RTFM

Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:

  • dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
  • dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
  • en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.

Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?

Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.

Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.

Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.

(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)

C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.

Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.

C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.

La version courte?

ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:

  • C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
  • Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
  • Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.

Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.

Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.

La version encore plus courte:

  1. transparence concernant l’implication de l’IA dans le contenu proposé
  2. vérification et adaptation du contenu généré (forme et fond)
  3. respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.

The LLMification of Everything [en]

I find LLMs (“AI”) fascinating. I haven’t been this excited about new technology since I discovered the internet. I am super interested in how they are changing the way we access information – admittedly, not necessarily for the better. I love the interactive interfaces.

But one thing I love less is the way LLM productions creep up all over the place, somewhat uncontrollably. “AI summaries” of search results are one thing. I actually quite like that, it’s clearly marked, usually quite synthetic and a good “overview” before diving into the search results themselves. But do I need a Quora AI-bot answer to the question I clicked on to look at? (Not that Quora is the highest-quality content on earth these days, it’s clearly fallen into the chasm of infotainment.) And of course, page after web page filled with AI slop, and invitations in pretty much all the tools we use to let “AI” do the job for us.

Which brings us to what irks me the most: humans passing off unedited and unreviewed LLM productions as their own. You know what I mean. That facebook comment that clearly was not composed by the person posting it. The answer to your WhatsApp or Messenger message that suddenly gives you the feeling you’re in a discussion with ChatGPT. This is another level from getting Claude to write your job application letter or craft a polite and astute response to a tricky e-mail. Or using whichever is your current LLM of choice to assist you in “creating content”. Slipping “AI stuff” into conversation without labelling it as such, is, in my opinion, a big no-no. Like copy-pasting without attribution.

As we use LLMs to create content for us and also summarise and digest the same content for our consumption, we’re quickly ending up in a rather bland “AI echo chamber”. I have to hope that enough of us will not be satisfied with the fluffiness of knowledge this leads to. That writing our own words and reading those of others will remain something that we value when it comes to making sense of the world and expressing what it means to be human.

Disturbed About Reactions to Kathy Sierra's Post [en]

[fr] Comme cela avait été le cas lors de l'affaire SarkoWeb3, la blosophère s'est maintenant emparée de la triste histoire des menaces reçues par Kathy Sierra, telle une meute affamée et sans cervelle. Hypothèses présentées pour faits, coupable car non prouvé innocents, noms, déformation d'information, téléphone arabe, réactions émotionnelles trop vite bloguées et sans penser... tout y est.

Encore une fois, je suis déçue des gens.

Since I read and posted about Kathy Sierra’s latest post, and stayed up until 3am looking at blog post after blog post pop up on Technorati and Google Blogsearch, I’ve been growing increasingly uneasy about what I was reading in the blogosphere.

Like many other people I suppose, I was hit with this “tell me it ain’t so” feeling (denial!) that makes one sick in the stomach upon reading that Kathy had cancelled her ETech appearance out of fear for her safety. My heart went out to her. Of course, I felt angry at the people who had cause her such fear, and I also felt quite a bit of concern at seeing known blogger names appear in the context of this ugly affair.

And then, of course, there was the matter of getting the word out there. I blogged it (and blogged it soon — I’ll be candid about this: I realised it was breaking news, heck, I even twittered it before Arrington did!), and although I did use words like “horrible” and “unacceptable” (which are pretty strong in my dictionary, if you are familiar with my blogging habits), I refrained from repeating the names mentioned in Kathy’s post or demanding that the culprits be lynched.

One of the reasons for this is that I had to re-read some parts of Kathy’s post a couple of times to be quite certain to what extent she was reporting these people to be involved. Upon first reading, I was just shocked, and stunned, and I knew I’d read some bits a bit fast. I also knew that I had Kathy’s side of the story here, and though I have no reasons to doubt her honesty, I know that reality, what really happened, usually lies somewhere in between the different accounts of a story one can gather from the various parties involved. So I took care not to point fingers, and not to name names in a situation I had no first-hand information about, to the point of not knowing any of the actors in it personally.

In doing this, and taking these precautions, I consider that I am trying to do my job as a responsible blogger.

Unfortunately, one quick look at most of the posts coming out of Technorati or Google Blogsearch shows (still now, over 15 hours after Kathy posted) a collection of knee-jerk reactions, side-taking, verbal lynching, and rising up to the defense of noble causes. There are inaccurate facts in blog posts, conjectures presented as fact, calls to arms of various types, and catchy, often misleading, headlines. I tend to despise the mainstream press increasingly for their use of manipulative headlines, but honestly, what I see some bloggers doing here is no better.

Welcome to the blogmob.

The blogmob is nothing new, of course. My first real encounter with the mob was in May 2001, when Kaycee Nicole Swenson died (or so it seemed) and somebody dared suggest she might not have existed. The mob was mainly on MetaFilter at that time, but there were very violent reactions towards the early proponents of the “hoax” hypothesis. Finally, it was demonstrated that Kaycee was indeed a hoax. This was also my first encounter with somebody who was sick and twisted enough to make up a fictional character, Kaycee, a cancer victim, and keep her alive online for over two years, mixing lies and reality to a point barely imaginable. I — and many others — fell for it.

Much more recently, I’ve seen the larger, proper blogmob at work in two episodes I had “first-hand knowledge” about. The first, after the LeWeb3-Sarkozy debacle, when bad judgement, unclear agendas, politics and clumsy communication came together and pissed off a non-trivial number of bloggers who were attending LeWeb3. There were angry posts, there were constructive ones and those which were less, and then the blogmob came in, with hundreds of bloggers who asked for Loïc’s head on a plate based on personal, second-hand accounts of what had happened, without digging a bit to try to get to the bottom of the story. Loïc had messed up, oh yes he had, but that didn’t justify painting him flat-out evil as the blogmob did. In Francophonia it got so bad that this episode and its aftermath was (in my analysis) the death stroke for comments on Loïc’s blog, and he decided to shut them down.

The second (and last episode I’ll recount here) is when the whole blogosphere went a-buzz about how Wikipedia was going to shut down three months from now. Words spoken at LIFT’07 went through many chinese whisper (UK) / Telephone (US) filters to turn into a rather dramatic announcement, which was then relayed by just about anybody who had a blog. Read about how the misinformation spread and what the facts were.

So, what’s happening right now? The first comments I read on Kathy’s post were reactions of shock, and expressions of support. Lots of them. Over the blogosphere, people were busy getting the news out there by relaying the information on their blogs. Some (like me) shared stories. As the hours went by, I began to see trends:

  • this is awful, shocking, unacceptable
  • the guilty must be punished
  • women are oppressed, unsafe
  • the blogosphere is becoming unsafe!

Where it gets disturbing, and where really, really, I’m disappointed and think bloggers should know better, is when I read headlines or statements like this (and I’m not going to link to all these but you’ll find them easily enough):

  • “Kathy Sierra v. Chris Locke”
  • “Kathy Sierra to Stop Blogging!”
  • “Kathy Sierra hate campaign”
  • throwing around names like “psychopath” and “terrorist” to describe the people involved
  • “Personally I am disgusted with myself for buying and recommending Chris Locke’s book…” and the like
  • the assumption that there is a unique person behind the various incidents Kathy describes
  • taking for fact that Chris Locke, Jeneane Sessum, Alan Herrell or Frank Paynter are involved, directly, and in an evil way (which is taking Kathy’s post a step further than what it actually says, for the least)

In my previous post, I’ve tried to link to blog posts which actually bring some added value. Most of the others are just helping the echo chamber echo louder, at this point. Kathy’s post is (understandably) a little emotional (whether it is by design as

I’d like to end this post with a recap of what I’ve understood so far. (“What I’ve understood” means that there might be mistakes here, but I’m giving an honest account of what I managed to piece together.) I’m working under the assumption that the people involved are giving honest accounts of their side of the story, and hoping that this will not unravel like the Kaycee story did to reveal the presence of a sick, twisted liar somewhere.

Please, Blogosphere. Keep your wits. This is a messy ugly story, and oversimplications will help nobody. Holding people guilty until proven innocent doesn’t either. (Trust me, I’ve been on the receiving end of unfounded accusations because somebody didn’t hear my side of the story, and it sucks.)

The problem with bullying is that perceived meanness isn’t the same on both sides. Often, to the bully, the act is “just harsh” or “not to be taken seriously” (to what extent that is really believed, or is some kind of twisted rationalisation is not clear to me). To the bullied, however, the threats are very real, even if they were not really intended so. Bullying is also a combination of small things which add up to being intolerable. People in groups also tend to behave quite differently than what they would taken isolately, the identity of the individual tending to dissolve into the group identity. Anonymity (I’ve blogged about this many times, try a search) encourages people to not take responsibility for what they say, and therefore gives them more freedom to be mean. Has something like this happened here?

If you have something thoughtful to say, then say it. But if all you have to say has already been said out there ten times, or if you won’t take the trouble to check your sources, read carefully, calm down before blogging, avoid over-generalisations, and thus avoid feeding the already bloated echo-chamber — just go out for a walk in the sun and let the people involved sort themselves out.

The word is out there, way enough, and I trust that we’ll get to the bottom of the story in time.

Update: I’m adding new links which actually add something to this story to my first post as I find them, so check over there for updates.