Pour une « nétiquette » de l’IA générative [en]

L’IA générative, c’est ChatGPT, Claude et consorts. Ce sont des outils à qui on donne des instructions, et qui produisent en réponse du texte. Il y en a également à qui l’on donne des instructions, et qui produisent des images, du son, voir de la vidéo.

Je n’ai pas pour objectif ici d’essayer de discuter de l’éthique lié à leur utilisation ou à leur entraînement. Il s’agit d’un tout autre sujet, dont il vaut par ailleurs la peine de discuter. D’un point de vue pragmatique, je les trouve suffisamment utiles pour les utiliser régulièrement. Mais ce dont je veux parler ici c’est comment éviter de gros faux-pas en matière de communication et de relationnel.

Voici deux usages très problématiques et que l’on voit malheureusement trop fréquemment:

  1. Laisser l’IA parler à notre place, tel Christian avec Cyrano
  2. Assommer les gens de copier-coller verbeux produits par une IA, version 2025 de RTFM

L’IA-Cyrano

Voici quelques exemples du premier cas de figure:

  • quelqu’un me pose une question, je la pose à ChatGPT et je réponds à mon interlocuteur avec la réponse que m’a donnée ChatGPT, comme si c’était moi qui parlais
  • je produis des visuels avec Midjourney ou autre et je les partage sur instagram sans préciser qu’il s’agit de productions d’IA générative
  • dans une discussion où je ne sais plus trop quoi répondre ou quoi dire, je demande la réplique suivante à mon chatbot préféré et je colle sa proposition
  • je demande à Claude de m’écrire un poème sur tel ou tel sujet, pour exprimer ceci ou cela, et je partage ce poème, sans préciser que ce n’est pas moi qui l’ai écrit.

Pourquoi est-ce que ces exemples posent souci? Ils posent souci d’une part parce qu’ils rompent le contrat social tacite des échanges sur les réseaux sociaux, ou par Messenger, ou des publications sur les blogs ou sites web personnels, que la personne avec qui on interagit est celle qui écrit les mots qu’on lit, ou produit l’art qu’on admire.

Ça s’apparente en fait à une forme de plagiat, au sens où l’on s’approprie une production qui n’est pas la nôtre, mais qu’on fait passer pour la nôtre. A la différence du plagiat classique qu’on a en tête, la source du contenu d’origine (l’IA) n’est pas le·la lésé·e, mais l’interlocuteur.

C’est avec toi que j’échange, que ce soit par messagerie ou dans les commentaires, ou c’est toi que je lis, et dans cette interaction entre toi et moi il y a des enjeux relationnels. Si tout d’un coup tu passes le clavier à quelqu’un d’autre sans me dire (humain ou machine), je suis trompée sur la marchandise.

Vous me répondrez qu’utiliser ChatGPT comme assistant pour écrire un e-mail délicat est un usage légitime de cet outil – et je suis d’accord. Où est la limite, alors, et pourquoi est-ce que l’e-mail ou la lettre ça peut passer, mais pas la réponse sur Messenger ou WhatsApp?

Je pense qu’il y a deux aspects à prendre en compte.

Le premier, c’est l’implication du locuteur perçu dans les productions de l’IA. Est-que c’est une vraie “collaboration”, je retouche, je retravaille, je “m’approprie” le texte produit pour que ce soit plausible que ce soit moi (si c’est moi qui suis supposé·e l’avoir écrit) – tout comme on le ferait en demandant de l’aide rédactionnelle à un autre humain, à un assistant en chair et en os, à un écrivain public? Ou est-ce que j’ai juste donné une instruction simple et pris le résultat tel quel, sans même le relire?

Le deuxième, c’est le contexte et le type de production. Un e-mail administratif, c’est souvent plus un exercice de style qu’une réplique dans une véritable interaction. L’e-mail administratif, c’est pas grave si je ne l’ai pas écrit toute seule comme une grande, si je l’ai fait écrire à ma cousine – tant que je signe. Un poème que je partage sur mon compte Facebook, par contre, s’il n’y a pas d’auteur indiqué, c’est implicite que c’est moi. Ou une discussion Messenger, un échange dans les commentaires: c’est une forme de discussion, très clairement, dans laquelle l’attente est que notre interlocuteur est un humain. (On adore tous les services clients qui vous proposent de “chatter avec un agent” qui se présente comme un être humain mais dont on sent bien que c’est à moitié un chatbot, n’est-ce pas?)

Et la zone grise? Peut-on collaborer avec une IA?

Je pense que pour sentir ce qui va poser problème ou pas, on peut simplement se demander si le rôle de l’IA dans notre histoire était tenu par un humain, si ça passerait. J’échange des messages avec une copine et je passe mon téléphone à mon voisin pour qu’il réponde, parce qu’il fait ça mieux que moi. Oui ou non? Je demande à mon voisin d’écrire un poème ou un récit pour moi, et je le colle sur mon profil sans préciser que c’est lui qui l’a écrit? Je pense qu’on sent bien que ça ne passe pas. Par contre: j’échange des messages et je ne sais pas trop comment tourner ma réponse, et mon collègue m’aide pour trouver la bonne tournure et me conseille – ça peut passer. Mais gare aux conséquences si en faisant ce genre de chose, la personne en face “sent” qu’on s’est fait aider!

La pente glissante avec l’IA c’est que celle-ci va produire rapidement et facilement des textes à la forme séduisante, rendant grande la tentation de simplement copier-coller sans autre forme de procès.

Faut-il pour autant renoncer à se “faire aider” par l’IA pour nos productions, quelles qu’elles soient?

Pour moi, il y a zéro souci de se faire aider par ChatGPT pour rédiger quelque chose, mais la transparence est importante. “Poème généré par ChatGPT sur mes instructions”, ou “Texte écrit avec l’assistance d’une IA”, ou “illustration générée par IA”, ça évite des malentendus. On évite de rompre le « contrat social », sur les réseaux sociaux en particulier, qui dit quand quelqu’un publie quelque chose, il l’a produit directement. On voit d’ailleurs de plus en plus que les plates-formes demandent à leurs utilisateurs de préciser si le contenu qu’ils publient est fait “avec IA”.

Un exemple personnel: j’adorerais composer des chansons mais je ne sais pas faire (enfin je peux, mais c’est nul, je n’y connais pas grand chose en musique). Aujourd’hui, grâce aux IAs génératives, je pourrais enfin composer/créer une chanson. Mais si je la partage ensuite avec d’autres, ça me semblerait normal de préciser que je l’ai faite en m’aidant d’une IA, et pas toute seule, à la force de mon talent et de mes compétences musicales.

Parlant de chansons, une histoire qui me vient en tête pour exprimer ce qu’on peut ressentir en lisant un texte qu’on pense avoir été produit directement par un humain, pour réaliser ensuite que l’IA est impliquée: Milli Vanilli. Quand on voit quelqu’un chanter au micro, dans un clip ou sur scène, c’est implicite qu’il s’agit de sa voix, à moins que la mise en scène nous fasse comprendre qu’il s’agit d’un acteur ou d’une actrice. Donc dans le cas de Milli Vanilli, quand on a découvert qu’en fait non, c’était quelqu’un d’autre dans le studio, ça a très mal passe.

Si c’est joli, où est le mal?

Un mot encore concernant en particulier les images. Sur les réseaux, on partage des tas d’images qu’on n’a pas forcément produites, donc le problème n’est pas tant là. A moins que je sois connue pour mes talents de photographe, si je partage une photo absolument splendide de quelque part au bout du monde, on peut imaginer assez aisément que ce n’est pas moi qui l’ai produite. (Bon, j’avoue que pour ma part, si je partage une image qui n’est pas de moi, il m’importe de le préciser. Mais l’écrasante majorité des gens ne le font pas, donc: norme sociale.)

Souvent, quand je fais remarquer aux gens que l’image qu’ils partagent est une image générée artificiellement, on me dit “oh c’est pas grave, c’est joli quand même!”

Le problème avec ce raisonnement est le suivant: en inondant notre quotidien de productions visuelles générées qui ne s’assument pas, on véhicule des représentations déformées du monde. Les images marquent. On voit quelque chose, ça nous reste. On part du principe que c’est vrai (“seeing is believing”, “le voir pour le croire”). Et donc on avale tout rond des informations visuelles fausses sur le monde dans lequel on vit.

Et si c’est de l’art? Le problème est le même. Etre exposé systématiquement à des productions mécaniques en pensant qu’elles sont humaines, ça finit par nous faire perdre la notion de ce qu’est ou peut être une production humaine.

On connaît tous l’impact catastrophique qu’a eu la généralisation de l’utilisation de Photoshop pour retoucher les photos de célébrités, donnant à des générations de femmes et d’hommes des attentes complètement irréalistes concernant le corps des femmes (et des hommes aussi, dans un deuxième temps). Ne tombons pas dans le même piège, et ne soyons pas complices de l’effacement de la frontière entre le vrai et le faux. La guerre cognitive ce n’est pas juste la “désinformation”. Il s’agit de nous faire perdre nos repères, au point de n’être plus capables de nous orienter dans le monde et de le comprendre. On est en plein dedans, là. Il faut se battre.

L’IA-RTFM

Le deuxième cas de figure consiste à copier-coller, brut de décoffrage, l’output d’une IA générative sur un sujet donné, le plus souvent dans un contexte conversationnel (messagerie instantanée ou commentaires). Exemples:

  • dans une discussion avec un collègue, on se demande s’il vaut mieux utiliser telle approche ou telle autre pour gérer une situation au travail; ni une, ni deux, je pose la question à ChatGPT, qui me fait une réponse joliment structurée d’un écran ou deux avec des listes à puces et du gras où il faut, je copie et je balance dans la conversation, en disant: “j’ai demandé à ChatGPT”
  • dans un groupe facebook, quelqu’un pose une question – je la soumets à l’IA de mon choix, puis je laisse un commentaire en copiant-collant la réponse, qui par sa forme et son ton, ne trompe personne sur son origine (ce n’est pas le but)
  • en séance de troubleshooting technique par Messenger, un des interlocuteurs colle dix étapes d’instructions générées par ChatGPT, qui supposément (!) contiennent la solution au problème.

Ici, il n’y a pas de volonté (ou de négligence…) de faire passer pour sienne une production non humaine. Explicitement ou non, on est bien transparent sur le fait que le texte en question est produit par un LLM. Où donc est le problème?

Le problème est que ce genre de procédé (un peu comme le message vocal non sollicité/consenti – il faut d’ailleurs que j’écrive à nouveau à ce sujet) charge l’interlocuteur d’un travail que le locuteur souhaite s’épargner. Le texte ainsi copié-collé est rarement concis, n’a généralement pas été vérifié par la personne qui l’amène dans la discussion, et même pas toujours lu! Il est jeté en pâture à l’auditoire, qui devra lui-même déterminer ce qui est à prendre et ce qui est à laisser dans cette réponse générée qu’il n’a pas demandée.

Pourquoi “RTFM“? En anglais, “Read The Fucking Manual” est une réponse généralement passive-agressive à une question, genre “demande à Google”, mais moins poli. Lis le manuel et démerde-toi.

Quand une réflexion commune (une discussion) est interrompue par un déversement de réponses IA brutes, c’est un peu comme si on copiait-collait la page Wikipedia du sujet dans la discussion. C’est au mieux maladroit, au pire extrêmement malpoli et condescendant.

(Tiens, ça me fait penser aux entreprises qui collaient des communiqués de presse tout secs des des articles de blog, à la belle époque. Ou qui répondaient dans les commentaires avec la langue de bois des chargés de comm.)

C’est très différent, évidemment, si les interlocuteurs se disent “oh, demandons à ChatGPT pour voir” et se penchent ensuite sur la réponse ensemble, qu’il s’agit donc d’une stratégie commune pour traiter le sujet en cours.

Mais la plupart du temps, ce qu’on voit, c’est un interlocuteur qui s’économise l’effort de véritablement prendre part à la réflexion en l’outsourçant d’une part à l’IA, et d’autre part aux autres interlocuteurs. Bien souvent sans penser à mal, cette introduction dans l’échange d’une quantité parfois écrasante d’informations de qualité inégale (voire carrément douteuse) peut faire l’effet d’un “Gish Gallop” involontaire, bloquant la discussion par surcharge informationnelle.

C’est une chose de donner un lien vers un article pertinent – qu’on espère de bonne qualité, et idéalement lu (on a d’ailleurs naturellement tendance à le préciser quand ce n’est pas le cas, dans le contexte d’une discussion), d’aller en aparté consulter l’Oracle-IA et de revenir enrichir la discussion avec ce qu’on en a retiré, ou de changer complètement la dynamique et l’équilibre de l’échange en imposant la présence d’un interlocuteur supplémentaire (l’IA) qui parle plus qu’il n’écoute.

La version courte?

ChatGPT n’a pas le monopole de la verbosité, j’en conviens. Je vous jure que j’ai écrit les plus de 2500 mots de ce billet toute seule. Donc, pour faire court:

  • C’est OK d’utiliser l’IA comme outil-assistant pour ses propres productions, et même dans certains cas de lui déléguer une production entière, mais il convient d’être explicitement transparent, particulièrement sur les réseaux sociaux et dans les interactions personnelles, sur le fait qu’il s’agit d’une production “IA” ou “avec IA” (certains réseaux recommandent d’ailleurs un étiquetage dans ce sens).
  • Il y a des situations où l’attente d’une production “100% authentique” par le locuteur est moins forte (certains e-mails, lettres, articles); dans ce cas-là, on peut certes s’aider d’une IA comme on s’aiderait d’une autre personne douée des mots, mais attention à ce que d’une part la “collaboration” en soit suffisamment une pour que cela reste “notre” production (à l’opposition d’une “délégation”) et que le résultat puisse passer pour tel.
  • Si on se retrouve à copier-coller des productions d’IA pour nos interlocuteurs au lieu de leur parler, que ce soit pour “donner des infos” (“regarde, ChatGPT a dit ça!”) ou “parler à notre place”, attention, ça va mal finir! Personne n’aime se retrouver à “discuter avec un robot” sans son accord, et encore moins sans être prévenu.

Et au risque de répéter une fois de trop: les LLMs sont des outils puissants, utiles et intéressants (excitants même) mais ils ne sont pas “intelligents”, ils ne “savent” rien, ils ne font que générer du contenu en fonction de modèles statistiques qui les guident vers le prochain élément le plus probable (un mot par exemple). Parfois, ils produisent de belles conneries sur un ton parfaitement sérieux et assuré.

Donc, si on demande à un LLM un résumé, une synthèse, une transcription, une version “à la sauce de”, il faut traiter sa production comme celle d’un stagiaire brillant pour certaines choses mais complètement à la ramasse pour d’autres: il faut passer derrière, relire, corriger, adapter. Les IA c’est bien pour débroussailler, pour faire le premier jet, pour réfléchir ou jouer avec des idées, pour débloquer des situations qui nous résistent, mais pas pour cracher le produit final.

La version encore plus courte:

  1. transparence concernant l’implication de l’IA dans le contenu proposé
  2. vérification et adaptation du contenu généré (forme et fond)
  3. respect de l’interlocuteur en assumant soi-même le coût (cognitif, social, temps…) lié aux deux premiers points.

The LLMification of Everything [en]

I find LLMs (“AI”) fascinating. I haven’t been this excited about new technology since I discovered the internet. I am super interested in how they are changing the way we access information – admittedly, not necessarily for the better. I love the interactive interfaces.

But one thing I love less is the way LLM productions creep up all over the place, somewhat uncontrollably. “AI summaries” of search results are one thing. I actually quite like that, it’s clearly marked, usually quite synthetic and a good “overview” before diving into the search results themselves. But do I need a Quora AI-bot answer to the question I clicked on to look at? (Not that Quora is the highest-quality content on earth these days, it’s clearly fallen into the chasm of infotainment.) And of course, page after web page filled with AI slop, and invitations in pretty much all the tools we use to let “AI” do the job for us.

Which brings us to what irks me the most: humans passing off unedited and unreviewed LLM productions as their own. You know what I mean. That facebook comment that clearly was not composed by the person posting it. The answer to your WhatsApp or Messenger message that suddenly gives you the feeling you’re in a discussion with ChatGPT. This is another level from getting Claude to write your job application letter or craft a polite and astute response to a tricky e-mail. Or using whichever is your current LLM of choice to assist you in “creating content”. Slipping “AI stuff” into conversation without labelling it as such, is, in my opinion, a big no-no. Like copy-pasting without attribution.

As we use LLMs to create content for us and also summarise and digest the same content for our consumption, we’re quickly ending up in a rather bland “AI echo chamber”. I have to hope that enough of us will not be satisfied with the fluffiness of knowledge this leads to. That writing our own words and reading those of others will remain something that we value when it comes to making sense of the world and expressing what it means to be human.

Apple Photos to Lightroom Classic CC: Step 2 [en]

[fr] Le suite de mes misères pour revenir à Lightroom après mon passage dans Apple Photos...

Here’s where I left things in March:

  • I had a catalog of my exported Apple Photos
  • I was hoping to merge them into my Lightroom master catalog.

One little problem: importing from catalog didn’t recognize any of the photos in the temporary catalog full of photos from Apple as duplicates of those already in the master catalog. So my bright idea of using this system to update the metadata of photos in the master catalog came crashing to the ground.

I figure it has something to do with the hash Lightroom uses to identify photos. Anyway… off to find another idea.

My next hope had to do with using the Syncomatic plugin to sync metadata between files with similar names or capture times. A little scary to run on the whole catalog, and I haven’t managed to get it working predictably enough to trust it. Might still come, thought?

So I ended up looking at Photosweeper and LR/Transporter. There was my solution, though it was tedious, and the result is not perfect.

Here’s a bunch of thing I did, best I remember.

I used Photosweeper to weed out duplicates from my Apple Photos. I tried various settings and experimented quite a bit. This also allowed me to get rid of “Edited in Apple Photos” photos which were so close to the original photos it wasn’t worth importing a duplicate bloated JPG just for fun.

LR/Transporter allows you to import metadata to a photo based on a filename or a capture date.

That meant that if I could export a list of keywords of my Apple Photos (with LR/Transporter) and import it onto photos that were already in the catalog, matching the keywords to files with the same name, I could avoid importing duplicate files and having to hunt them down afterwards.

I would have to find a way, however, to flag the photos in the Apple Photos folders from which I had extracted and imported the metadata — because those that remained, “non-duplicates”, would need to be moved to the main folder. Thankfully, LR/Transporter flags photos that have last been modified by it. So once I had imported the keywords from Apple Photos, I had only to:

  • use the metadata filter on my master folders to select all photos that had just been modified by LR/Transporter
  • export a list of those filenames
  • edit it in Google Sheets and add a “delete” flag column
  • import that metadata back to the Apple Photos folders, matching the delete flag column on the “job identifier” field (for example)
  • select those photos through a filter or smart collection and delete them

I did this on the Apple “original” photos I had in my collection.

You’ll not that it’s totally uninteresting to go through this exercise with Apple Photos that don’t have keywords. As I had previously keyworded all apple photos to identify if they were master photos, edited photos, master photo of an edited version, HDR, panorama, etc, I couldn’t easily filter out photos with no “real” keywords. I started out by replacing all those “status” keywords by flags in the “job identifier” field. For exemple

  • I selected all apple edited photos
  • added “apple edited” in the job identifier field
  • removed the “apple edited” keyword
  • used the “job identifier” filter to display those photos again
  • now I could see which ones had no keywords
  • selected those and gave them a slightly different job identifier, etc.

So when doing the LR/Tranporter export above, I was able to select only the photos that actually had keywords to work with.

What about those that had a different name? I used a similar process, counting on the capture time. Her’s what I did, year by year (to avoid having unending tables to open in Google Sheets — max 10k photos, roughly).

  • I selected a year of photos with keywords both in the “master” and “Apple Photos” folders
  • I exported them with LR/Transporter. Fields: size, filename, path, keywords, capture time
  • I opened the CSV in Google Sheets and added four columns to help me “sort” them and generate for the correct file in each matching pair either the updated list of keywords or a delete flag (see example spreadsheet here)
  • I replaced the path for all the files in the Apple Photos part of my directory structure with “apple” for readability’s sake (useful when scanning to check things)
  • Ordered the photos by capture date (with Apple folder photos first, so sort them A-Z by that column first) to let the formulas do their magic
  • Duplicate the sheet, then copy-“paste special” (values only) the columns containing the formulas
  • I went through the list checking that the formulas worked correctly (this is where filename and size come in handy, as well as conditional formatting in the spreadsheet to create a visual pattern that is easy to scan for anomalies), corrected manually when necessary
  • Once that was done, used some A-Z sorting to delete the lines of all the photos that did not match anything
  • Duplicated the sheet once more (trying to be safe) and removed all unnecessary columns
  • Duplicated it one last time so I could have to clean “export” sheets: one to update the keywords, one to set the delete flags
  • Import the “keywords” metadata sheet onto the photos in the master folder
  • Import the delete flags metadata sheet onto the apple photos folder photos.

Once I had done that for each year, it meant that all the Apple Photo original photos with keywords had been processed to see if they had a “twin” already in my Lightroom photos, and keywords imported accordingly (and source file removed).

I then was able to import the remaining Apple Photos files into my main folders, knowing there should be no obvious “same time” or “same name” duplicates — except of course for edited photos. (For that, I deleted them from the main catalog and imported/moved them using the standard “import”, so that they would sit in the right monthly folders.)

The saga continues, as my reduced list (12k from 20k!) of Apple Photos is now integrated with my main catalog, but there are still duplicates in there.

Ideally, I’d get syncomatic to work how I want it to, sync keywords, then use Find Duplicates 2 to delete duplicates. But that’s not going well for the moment.

In addition to this, somewhere in the process a pile of my photos have lost their capture date, or seen their capture date replaced by “today’s” date (the day I was obviously doing whatever caused them to lose their capture date). So I have about 2k badly dated (or undated) photos I need to find a solution for. Many of my videos seem not to be read correctly by Lightroom anymore, and have metadata/date issues. My catalog is also sprouting metadata conflicts, and Lightroom very helpfully (not) asks you whether you want to import metadata from the file or write Lightroom metadata to the file without showing you what the conflict is made of. Not much chance of troubleshooting what is going on in there.

So, what’s left to do?

  1. Identify duplicates with FD2 and figure out a way to be systematic about which versions I keep (I’m doing a test on a month of photos to see how it goes). The key seems to be smart collections, and using color labels like I remember doing in March: for example, color all the “most edited” duplicates identified by the plugin green, then go and look at the full list and figure out if that is a good criteria or not.
    But for that to work I need Syncomatic to work, or to mess around with LR/Transporter again, because many of these duplicates do not have synced keywords. *sigh*
  2. See what’s going on with those videos. Not too sure where to start, but I was pointed to this, and need to dig into it. Reminder, there are three problems: systematic metadata being flagged as up-to-date though in a smart collection it’s indicated as changed; mess-ups with capture times; unreadable videos.
  3. Look at the photos with a bad capture date (or none) and see what I can salvage. One idea is to find a back up of my master catalog before all this mess started happening, use LR/Transporter to match those “lost” photos to their “ancestors” in the old vers of the catalog, and use a process similar to the one described above to fix their capture times. But I’d still like to know what created this situation so I can avoid it in future.

    I’m not sure how understandable all this is, these are mainly notes for myself for when I pick this up again, but if it’s useful for you, all the better! Feel free to ask questions if certain parts are unclear and you would like explanations.

LR/Transporter: Renaming Files With Excess Whitespace in Lightroom CC Classic [en]

I’ve spent a large chunk of my leisurely holiday in Pune trying to continue my “return to Lightroom“. Amongst the various problems I’ve had to solve, one of them was that many of the filenames in my library had one or two leading spaces. How, why? I don’t know. But it creates problems when you want to match files by filenames to weed out duplicates (with Photosweeper for example).

Here’s how I did things, using a plugin called LR/Transporter, and messing with .csv files. Warning: don’t do this if you don’t understand what you’re doing — you can really mess things up!

Adapted from my post on the Lightroom Queen forum:

  1. I sorted my whole catalog by file name so that those with the leading spaces would be listed first, and selected them.
  2. I used LR Transporter to export File name + file name base to a file
  3. I edited this file in Numbers (Excel messed up the encoding, some of my file names have accented characters in them, Google Sheets removed the leading whitespace)
  4. Copied the column containing the base file name to another table, did a search and replace for two spaces to remove them
  5. Trickier: what about one leading whitespace? Some of my filenames have spaces in them, so I can’t just “remove spaces”. I used the “concatenate” function to add a second leading whitespace to those files, then did another search and replace for two spaces, then copied the formula results back onto the original cells.
  6. I now have a two-column spreadsheet with the filenames (whitespace included) in the first column, and the second column has the base filename with leading whitespace stripped off.
  7. I export as CSV after having removed extra columns and empty cells
  8. In Lightroom, I go back to my selected photos, and Import metadata with LR Transporter: I map the “file base name” field to a metadata field that I don’t use, but that can be used as an “ingredient” in a file renaming preset. I chose “Instructions”.
  9. After import, these files should all have their future filename base listed in the “Instructions” field.
  10. Rename the files, composing the new name with the metadata field that has been used to store the whitespace-stripped base filename (in my example, “Instructions”)
  11. After that, just empty the “Instructions” metadata field if you wish!

Hope this might come in handy to someone!

The Future of Fake News [en]

[fr] Ce n'est pas souvent que la technologie me fait peur. Ça doit être que j'ai plus de 35 ans, maintenant. On peut maintenant, à partir de 20 à 40 minutes d'échantllons vocaux, faire dire ce qu'on veut à quelqu'un en tapant le texte en question. On peut également "animer" un visage dans une vidéo avec ses propres expressions. Ce n'est pas encore parfait, certes, mais on y sera très vite. Les "fake news" ont encore de beaux jours devant eux...

I’ve listened to the first half of Radiolab’s “Breaking News” episode and I’m terrified. Or maybe I’m just over 35. In a nutshell, the time where you can easily produce convincingly real “fake audio” and “fake video” (and mash the two together) is just around the corner.

This is the future of fake news. If people can be fooled by fact-less text, fake quotes stuck next to photos, photoshopped pictures and memes, even though we know all these things exist… What is going to happen when pretty much anybody can make anybody else (including 45 or other political figures) say anything?

At one point in the distant future we might get over it. We may learn not to trust anything recorded anymore, because it might be fake. We might fall back on face-to-face presence, being there in meatspace, seeing and hearing unmediated.

I have no concern that forensic scientists will be able to tell doctored media from undoctored media. But that will not help the court of public opinion much.

I’m worried that we, as a society, a culture, will not be able to learn fast enough to stay ahead of how technology is changing our access to information, and that this will be the end of the world as we know it.

Hopefully, it’s just that I’m over 35.

 

 

Geekeries du front [fr]

[en] Spent a lot of time fixing various server and device annoyances. Thanks to everyone who helped me for one thing or another! Everything seems to be running fine now, except for MySQL on the web server which continues to choke pretty regularly. Lesson learned in all these adventures: sometimes a clean reinstall is a better strategy than lengthy troubleshooting.

Ouh là, il faut vraiment que j’écrive un article. Je crois qu’un article sur deux de mon blog commence comme ça, ces temps.

Le temps.

Arbre et mauvais temps

Je suis perdue dedans. Les journées filent les unes après les autres. Déjà mi-janvier. Déjà six semaines depuis mon retour d’Inde. L’absence de structure, ça ne me réussit pas. Alors je suis en train de restructurer, mais c’est long, c’est long.

Je n’ai pas chômé, pourtant. J’ai passé des heures et des heures devant des écrans de machines récalcitrantes: mon petit serveur lubuntu qui sert surtout à recevoir des sauvegardes Crashplan, le NAS, dont les volumes partagés doivent être visibles par au moins trois machines avec des OS différents (la machine lubuntu, mon MacBook Air, et l’Android TV), l’Android TV Box, justement, dont le Kodi refusait de jouer quoi que ce soit, et pour finir mon serveur web, qui plante toujours allègrement.

Qu’est-ce que j’ai appris?

La principale leçon, vraiment la plus importante, c’est que c’est souvent moins de travail de réinstaller ou faire une mise à jour que de troubleshooter.

Sur l’Android TV Box, supprimer puis réinstaller Kodi a réglé le problème. Oui, il a fallu reconfigurer et reinstaller les extensions, mais c’est mieux de passer du temps à faire quelque chose qu’on a déjà fait et qui est du “terrain connu” que de rajouter encore des changements non maîtrisés dans le système.

Pour lubuntu, un problème de déconnexion du réseau local a été résolu par une mise à jour foireuse, qui a introduit d’autres problèmes, mais qui, après quelques commandes de réparation, de mise à jour partielle, de redémarrages, et de re-mise à jour, semblent avoir disparu.

Côté présence web, je bosse en priorité à terminer la migration de mon site web professionnel. Pas terrible, quand on désire de nouveaux mandats et développer des nouvelles offres, d’avoir un site web professionnel pas à jour et qui redirige une fois sur deux sur ce blog, suivant comment on en tape l’adresse.

Là, je me heurte à la difficulté suivante: un vieux WordPress et un vieux WPML, qu’il faut transférer dans un WordPress multisite à jour. L’importation toute bête ne marche pas. Il faut d’abord mettre à jour l’installation sur le vieux serveur avant de faire le transfert. Un post sur le forum de WPML me donne l’ordre pour les updates à faire. Je passe une demi-journée à faire tout ça, backups y compris. La home page se charge bien, je vérifie à chaque pas. Mais à la fin, misère, je réalise que tous les contenus “traduits” on disparu.

Le site contient une trentaine de pages. Au lieu de replonger pour tenter de voir quelle mise à jour “casse” l’installation, je vais copier-coller à la main les contenus. Ça me prendre quelques heures mais au moins je sais que ce sera réglé à la fin.

Côté serveur web qui se casse la figure, malgré quelques réglages à la configuration Apache faits déjà il y a un moment, puis l’installation de WordFence pour mettre un stop à d’éventuelles requêtes malicieuses (il y en a, mais pas de quoi en faire tout un fromage), ça continue. La dernière expédition spéléo a permis de mettre à jour une base de données WordPress de 250Mb (même pour 15 ans de blog et 8 “site” ça fait beaucoup).

En y regardant de plus près, c’est la table commentmeta qui pèse le plus lourd: près de 100Mb, si ma mémoire est bonne. 150’000 lignes. Cure d’amaigrissement grâce à un peu de googlage, ici et , déjà. Je remarque aussi que Antispam Bee, un plugin anti-spam que j’avais essayé à un moment donné et que je croyais avoir supprimé, est encore actif et a aussi laissé tout un tas de chenit. Bref, après nettoyage, et vidage du spam, la table est vide.

Bon, c’est visiblement pas ce qui causait les problèmes avec le serveur, puisque c’est à nouveau arrivé depuis le nettoyage, mais ça fait plaisir d’avoir une base de données qui fait moins de 100Mb. Merci au passage à PhpMyAdmin, qui malgré toutes les critiques qu’on peut lui faire, est quand même un outil vachement pratique pour repérer et régler ce genre de chose. Les informations sur le status du serveur MySQL, ainsi que les stats, sont aussi présentées de façon accessibles et me donnent des idées pour la suite: peut-être une histoire de taille de cache pour les tables qui n’est pas optimale.

Etape suivante, donc, du coup, avant de faire l’apprenti-sorcière, c’est de voir ce que raconte l’utilitaire mysqltuner. Je vous ferai un rapport si je trouve ce que c’est!

Un petit tuyau pour le clavier de l'iPhone [fr]

[en] Did you know that autocorrect on the iPhone adds apostrophes for you? Type "im" and you'll get "I'm", "youre" and you'll get "you're".

Il m’arrive encore trop souvent de recevoir des SMS sans apostrophes. C’est vrai que l’apostrophe est énervante, sur le clavier de l’iPhone: il faut activer le clavier “chiffres et ponctuation”…

Mais il y a plus simple: tapez vos mots sans apostrophe, collés. Par exemple “dhabitude” ou “jai” ou encore “lidee”. La correction automatique (vous l’avez activée, n’est-ce pas?) va automatiquement (!) glisser les apostrophes là où elles vont: “j’ai”, “l’idée”, “d’habitude” — ajoutant également les accents au passage!

Ça marche aussi avec les traits d’union: “peutetre” devient “peut-être”.

Moralité: écrivez sans accents, ni traits d’union, ni apostrophes, le correcteur se charge de les mettre pour vous.

Bien entendu, il faut vérifier qu’il fasse juste et corriger au besoin. Mais neuf fois sur dix, c’est bon. Et on apprend vite pour quels mots ou expressions on peut se reposer sur le correcteur, et pour lesquels il faut tout taper.

Ménage numérique [fr]

[en] Musings on backups (my first real hard drive failure) and on trying to keep digital stuff (smartphone photos, anyone?) under control. Oh, and Hazel. Try Hazel if you haven't yet.

Entre hier et aujourd’hui, ménage numérique. Il faut que je vous parle du workshop que j’ai donné hier au Swiss Creative Center, mais d’abord, le ménage.

En rentrant de Neuchâtel, j’ai branché Time Machine, parce que ça faisait 2 semaines que je n’avais pas fait de backup, me disait mon ordi, mais surtout, parce que j’avais vu passer un petit tweet de Matt Gemmell un peu plus tôt dans la journée:

Oups, me suis-je dit. Avec toute l’énergie que je mets à encourager mon entourage à faire des sauvegardes, ce serait bête que je ne suive pas mes propres préceptes. Bon, ce ne serait pas la première fois, non plus.

Je branche aussi mon disque dur externe, celui qui contient plus de 10 ans de photos et bien d’autres choses. 600Gb de données. Au bout d’un moment, je me rends compte qu’il couine. Et qu’il n’est toujours pas visible dans le Finder. Re-oups.

Je vous passe les étapes pour vérifier qu’il était bien mort (il l’était). Le coeur battant un peu, je vérifie où en était ma dernière sauvegarde Crashplan (2 jours, ouf). Celle de Time Machine date d’il y a deux semaines… j’ai fait un peu de ménage dans mes photos depuis là. Je lance le “restore”:

  • Crashplan: 10 jours (la sauvegarde est sur mon serveur à l’eclau)
  • Time Machine: 10 heures (la sauvegarde est sur un disque dur externe que je peux brancher direct dans mon ordi)

Je récupère les fichiers dans Time Machine, et ceux “qui manquent” dans Crashplan.  Ça tourne toute la nuit. Aujourd’hui je vais chez STEG pour rendre le disque dur cassé et en ramasser un nouveau (3 mois de durée de vie… heureusement il y a une garantie).

Bref, cette histoire aurait pu être un désastre si mes sauvegardes n’avaient pas été plus ou moins à jour! C’est la première fois de ma vie qu’un disque dur me claque entre les mains. Heureusement ça arrive à une période où j’ai un système de sauvegardes qui roule. Il y a quelques années, j’aurais pu perdre des choses irremplaçables.

Ne jouez pas avec le feu, faites des sauvegardes, et dites-moi si vous voulez mon code Crashplan pour avoir une sauvegarde distante sur mon serveur. Quand on se fait cambrioler ou que notre logement brûle (Dieu nous en garde), c’est déjà assez horrible comme ça sans qu’on ait en plus perdu toutes les photos de nos chats ou de nos enfants.

En parallèle de tout ça, j’ai remis le nez dans IFTTT et Google Plus. Avec iOS7 (ou peut-être même avant mais je dormais), il y a plein de portes intéressantes qui s’ouvrent. Par exemple, Auto Backup uploade automatiquement vos photos de smartphone dans Google Plus (elles sont privées bien sûr, mais on peut ensuite les partager d’un simple clic). J’ai joué donc du coup avec les albums et les photos dans Google Plus. J’aime bien, sauf que j’ai la sale impression que Google Plus duplique les photos quand je les partage, et je n’aime pas sa manie de faire des albums sans me demander quand je partage plusieurs photos d’un coup. Je suis peut-être un peu formattée “Facebook”, mais j’ai l’impression que c’est un peu plus le pétchi.

Autre chose testée, le partage de photos dans Facebook directement depuis l’album photos d’iOS7. J’aime bien, en passant, comment iOS7 regroupe les photos en “moments”. J’aimerais bien que Lightroom en prenne de la graine. (Tiens, peut-être temps de passer à la version 5.)

Le problème récurrent que j’ai avec les photos que je prends sur mon smartphone, c’est que je les partage (Facebook, Google Plus maintenant, et même Flickr) sans qu’elles ne transitent par mon ordinateur. Et mon ordinateur — enfin le fameux disque dur externe qui est mort, là — c’est quand même ma “master copy” de toutes mes photos. Je gère le tout avec Lightroom, qui gère également la publication sur Flickr, Facebook, et Google Plus. Vu que Auto Backup met automatiquement toutes mes photos sur Google Plus, je préférerais par exemple que Lightroom aille les “chercher” là-bas pour les importer dans son catalogue.

L’autre souci, c’est que beaucoup des photos que je prends avec mon iPhone sont vouées à finir leur vie dans Evernote. Photos de tickets, de documents, de livres que je lis… Pas besoin que ça finisse dans Lightroom ni que ça y passe. Jusqu’à maintenant, j’importais de temps en temps les photos de mon téléphone dans Lightroom (avec le câble), puis je triais celles qui allaient dans Evernote, les glissais-déposais dans l’application, et déplaçais les fichiers originaux dans un dossier “dans Evernote”. Comme ça, la prochaine fois que j’importe les photos de mon iPhone dans Lightroom, celui-ci ne me propose pas de les réimporter.

En zieutant les nouveautés de IFTTT (depuis la dernière fois que j’avais regardé), je me dis que je pourrais avoir sur mon iPhone un album Evernote, et une règle IFTTT qui envoie dans Evernote toute photo mise dans cet album. Malheureusement, ma recette ne semble pas fonctionner. Problème d’IFTTT? d’Evernote? d’iOS7? Allez savoir.

Bref, après toutes ces explorations je me dis que je vais rester à mon ancien système un peu manuel, même s’il provoque des doublons de photos partagées sur Facebook et Google Plus.

Alors que je réfléchis à ces questions sur Facebook, un ami m’aiguille sur Hazel. Hazel vous permet d’établir des règles pour votre Mac afin de faire un peu d’ordre dans vos fichiers. Par exemple, toute image qui se trouve dans le dossier téléchargements depuis plus d’un jour sera déplacée dans mon dossier photos. Tout .dmg trainant là depuis plus d’une semaine sera balancé. Vous pouvez tester gratuitement Hazel pendant 14 jours avant de l’acheter (et le prix est raisonnable). Moi, une heure après, je l’aime déjà.

10 Years With RSI [en]

[fr] Plus de 10 ans que mes mains ont commencé à faire mal. Bilan: c'est sous contrôle, même s'il y a certaines choses que je ne peux plus faire. J'ai aussi procédé à des aménagements pour certaines activités.

In September 2002 my hands started hurting really badly at the computer. I had to take three breaks while writing this article. I took some time off, and when I got back to work, within half a day, things were back where they were. I panicked for a few days. A lot of my life revolved around computers. How would I finish my studies? I discovered it was possible to use a computer with speech recognition, and that reassured me a bit. I saw the doctor, spent 5 weeks off work and computers (well, at work but not allowed to type, it was dreadful, actually), the neurologist confirmed my nerves were all right, I got Dragon NaturallySpeaking (version 5 at the time) and started speaking to my computer.

Life resumed, at home and work. I practically stopped using my hands with my computer and dictated for pretty much a whole year, including my university dissertation and my last written exam (they stuck me in my teacher’s office for that).

When I left my job at Orange, I got an iBook, which meant I said goodbye to speech recognition. By then the rest had done its job, and I had also made some changes which certainly helped improve things:

  • I got rid of my old clunky keyboard and moved the computer away from the drafty window
  • I got a laptop, actually, which meant I started varying the positions in which I typed
  • I started paying attention to my hands: was I in pain? was I uncomfortable?
  • I used a break timer to force myself to learn to stop and take breaks
  • I learned to say “no” a bit more, and give a higher priority to myself over others (ie, taking care of my hands became top priority, whereas others’ needs used to be what came first)
  • In general, I started listening to myself more: how was I feeling? was I stressed? was I tired? did I want to do what I was doing? etc.
  • I made sure I continued to get (gentle) exercise; I went easy on my hands at judo for a couple of years.

Where am I at now, 10 years later? Well, I still say I have RSI, because it’s just around the corner, but most of the time it doesn’t bother me. It’s “under control”. Many years ago my osteopath actually managed to do something to make my hands hurt less. Something to do with my arteries, it seems. No guarantee it will be the same for everyone with RSI, but it does it for me. So when my hands start feeling painful again, I head off to my osteo. With the years, I’ve learnt to recognize my hands hurting as a warning sign rather than a problem in itself. They don’t normally hurt. If they hurt and I go to my osteo, she’ll usually find a whole bunch of things that are, let’s say, “out of balance”.

Here’s what my life with RSI is, 10 years later:

  • I type on my Macbook in all sorts of non-ergonomic positions: I vary
  • At my desk though, I make sure that I am sitting high enough that my elbow makes a 90°+ angle (for me the most comfortable place to type is on my knees => laptop)
  • I never use a mouse, and know tons of keyboard shortcuts
  • I have Dragon Dictate but don’t use it enough — I haven’t invested the time to be comfortable with it
  • I have discovered speech recognition on my iPhone and use it whenever I can
  • I cannot carry my groceries very far without taking a break, even though I have plenty of upper-body strength (I have a rollie-bag)
  • I avoid repetitive hand movements: chopping lots of hard stuff, screwing with a manual screwdriver, polishing by hand… if I have to I take breaks, but if possible I’ll let somebody else do that kind of job
  • I’m still doing judo, and can fight “normally”, though it hurts “more than it should” when people rip their sleeves out of my hands or when I’ve been strangling somebody really hard 😉
  • If I feel RSI coming back, I run to the osteo
  • In general, I take much better care of myself than I used to, and I am much “softer” on myself (I used to be the “tough it out” type, RSI cured me from that)
  • I cannot write by hand more than a few lines anymore; this is a combination of lack of practice (I always type) and some loss of fine motor control probably due to RSI. If I try to write, I become illegible after a few lines, and it hurts. So I don’t.

Over the years, I have seen so many people develop RSI in some form or other. Don’t overwork yourself. Take care of your hands before they start hurting.

3rd #back2blog challenge
(7/10), with: Brigitte Djajasasmita (@bibiweb), Baudouin Van Humbeeck (@somebaudy), Mlle Cassis (@mlle_cassis), Luca Palli (@lpalli), Yann Kerveno (@justaboutvelo), Annemarie Fuschetto (@libellula_free), Ewan Spence (@ewan), Kantu (@kantutita), Jean-François Genoud (@jfgpro), Michelle Carrupt (@cmic), Sally O’Brien (@swissingaround), Adam Tinworth (@adders), Mathieu Laferrière (@mlaferriere), Graham Holliday (@noodlepie), Denis Dogvopoliy (@dennydov), Christine Cavalier (@purplecar), Emmanuel Clément (@emmanuelc), Xavier Bertschy (@xavier83). Follow #back2blog.

Synchronisez vos smartphones, sauvegardez vos données! [fr]

[en] Backups, backups.

Je suis régulièrement un peu estomaquée de réaliser combien mon entourage est vulnérable à la perte de données. Quelques suggestions.

Smartphone

Tout d’abord, synchronisez votre smartphone avec votre ordinateur. C’est trop con de perdre ses contacts avec son téléphone quand on pourrait en avoir une copie sur son ordinateur.

iCloud c’est bien joli (et c’est déjà ça) mais à moins de payer, ça ne suffit pas à sauvegarder toutes vos données. 5Gb d’espace sur iCloud… maintenant tout le monde ou presque a bien plus de données mobiles que ça. Sauvegardez donc votre smartphone sur votre ordinateur. Voici comment le faire sur un disque externe si c’est nécessaire (ça l’est pour moi, avec un iPhone de 64Gb bien plein et un disque dur de MacBook Air de 256Gb bien plein également).

Ça peut aussi vraiment valoir la peine (pour un iPhone) d’activer Find my iPhone, qui permet de le bloquer à distance en cas de perte. Attention cependant, ne l’activez pas sans réfléchir pour votre ordinateur, c’est un peu plus délicat côté conséquences possibles.

Ordinateur

Il vous faut des sauvegardes tant locales que distantes. Si vous en êtes encore à vous envoyer vos documents par e-mail ou bien à les mettre sur une clé USB, c’est le moment de vous mettre à la page. Avec Mac, il y a un truc qui s’appelle Time Machine. Achetez un disque dur externe, et utilisez-le Ça marche assez tout seul, faut juste penser à brancher le disque externe de temps en temps.

Une sauvegarde locale c’est déjà bien, mais ce n’est pas suffisant. Si quelqu’un vous cambriole et prend tout ce qu’il y a d’électronique chez vous, vous êtes mal. Ou si une autre catastrophe touche votre domicile… Bref, sans être catastrophiste, c’est relativement facile de se prémunir contre la perte de toutes ses données si ça devait arriver.

Pour vos documents, une solution assez simple peut être de tous les mettre dans Google Drive. J’ai fait ça récemment. Du coup je paie pour avoir un peu plus de stockage. Ça veut aussi dire que mes documents me sont accessibles depuis n’importe où. On peut aussi utiliser Dropbox pour ça. Ou Copy. Ou…

Mais il y a mieux. En plus de ça, utilisez CrashPlan. CrashPlan vous permet de faire une sauvegarde distante sur leurs serveurs (c’est payant) ou bien chez des amis. C’est là que c’est intéressant. Mettez-vous à deux ou à trois, achetez chacun un gros disque dur externe, et faites vos sauvegardes (encryptées bien sûr) les uns chez les autres avec Crashplan.

C’est vraiment trop bête de risquer de perdre ses données parce qu’on se fait voler son téléphone ou que son disque dur meurt.

3e #back2blog challenge (6/10), avec: Brigitte Djajasasmita (@bibiweb), Baudouin Van Humbeeck (@somebaudy), Mlle Cassis (@mlle_cassis), Luca Palli (@lpalli), Yann Kerveno (@justaboutvelo), Annemarie Fuschetto (@libellula_free), Ewan Spence (@ewan), Kantu (@kantutita), Jean-François Genoud (@jfgpro), Michelle Carrupt (@cmic), Sally O’Brien (@swissingaround), Adam Tinworth (@adders), Mathieu Laferrière (@mlaferriere), Graham Holliday (@noodlepie), Denis Dogvopoliy (@dennydov), Christine Cavalier (@purplecar), Emmanuel Clément (@emmanuelc), Xavier Bertschy (@xavier83). Follow #back2blog.