Apple Photos to Lightroom Classic CC: Step 2 [en]

[fr] Le suite de mes misères pour revenir à Lightroom après mon passage dans Apple Photos...

Here’s where I left things in March:

  • I had a catalog of my exported Apple Photos
  • I was hoping to merge them into my Lightroom master catalog.

One little problem: importing from catalog didn’t recognize any of the photos in the temporary catalog full of photos from Apple as duplicates of those already in the master catalog. So my bright idea of using this system to update the metadata of photos in the master catalog came crashing to the ground.

I figure it has something to do with the hash Lightroom uses to identify photos. Anyway… off to find another idea.

My next hope had to do with using the Syncomatic plugin to sync metadata between files with similar names or capture times. A little scary to run on the whole catalog, and I haven’t managed to get it working predictably enough to trust it. Might still come, thought?

So I ended up looking at Photosweeper and LR/Transporter. There was my solution, though it was tedious, and the result is not perfect.

Here’s a bunch of thing I did, best I remember.

I used Photosweeper to weed out duplicates from my Apple Photos. I tried various settings and experimented quite a bit. This also allowed me to get rid of “Edited in Apple Photos” photos which were so close to the original photos it wasn’t worth importing a duplicate bloated JPG just for fun.

LR/Transporter allows you to import metadata to a photo based on a filename or a capture date.

That meant that if I could export a list of keywords of my Apple Photos (with LR/Transporter) and import it onto photos that were already in the catalog, matching the keywords to files with the same name, I could avoid importing duplicate files and having to hunt them down afterwards.

I would have to find a way, however, to flag the photos in the Apple Photos folders from which I had extracted and imported the metadata — because those that remained, “non-duplicates”, would need to be moved to the main folder. Thankfully, LR/Transporter flags photos that have last been modified by it. So once I had imported the keywords from Apple Photos, I had only to:

  • use the metadata filter on my master folders to select all photos that had just been modified by LR/Transporter
  • export a list of those filenames
  • edit it in Google Sheets and add a “delete” flag column
  • import that metadata back to the Apple Photos folders, matching the delete flag column on the “job identifier” field (for example)
  • select those photos through a filter or smart collection and delete them

I did this on the Apple “original” photos I had in my collection.

You’ll not that it’s totally uninteresting to go through this exercise with Apple Photos that don’t have keywords. As I had previously keyworded all apple photos to identify if they were master photos, edited photos, master photo of an edited version, HDR, panorama, etc, I couldn’t easily filter out photos with no “real” keywords. I started out by replacing all those “status” keywords by flags in the “job identifier” field. For exemple

  • I selected all apple edited photos
  • added “apple edited” in the job identifier field
  • removed the “apple edited” keyword
  • used the “job identifier” filter to display those photos again
  • now I could see which ones had no keywords
  • selected those and gave them a slightly different job identifier, etc.

So when doing the LR/Tranporter export above, I was able to select only the photos that actually had keywords to work with.

What about those that had a different name? I used a similar process, counting on the capture time. Her’s what I did, year by year (to avoid having unending tables to open in Google Sheets — max 10k photos, roughly).

  • I selected a year of photos with keywords both in the “master” and “Apple Photos” folders
  • I exported them with LR/Transporter. Fields: size, filename, path, keywords, capture time
  • I opened the CSV in Google Sheets and added four columns to help me “sort” them and generate for the correct file in each matching pair either the updated list of keywords or a delete flag (see example spreadsheet here)
  • I replaced the path for all the files in the Apple Photos part of my directory structure with “apple” for readability’s sake (useful when scanning to check things)
  • Ordered the photos by capture date (with Apple folder photos first, so sort them A-Z by that column first) to let the formulas do their magic
  • Duplicate the sheet, then copy-“paste special” (values only) the columns containing the formulas
  • I went through the list checking that the formulas worked correctly (this is where filename and size come in handy, as well as conditional formatting in the spreadsheet to create a visual pattern that is easy to scan for anomalies), corrected manually when necessary
  • Once that was done, used some A-Z sorting to delete the lines of all the photos that did not match anything
  • Duplicated the sheet once more (trying to be safe) and removed all unnecessary columns
  • Duplicated it one last time so I could have to clean “export” sheets: one to update the keywords, one to set the delete flags
  • Import the “keywords” metadata sheet onto the photos in the master folder
  • Import the delete flags metadata sheet onto the apple photos folder photos.

Once I had done that for each year, it meant that all the Apple Photo original photos with keywords had been processed to see if they had a “twin” already in my Lightroom photos, and keywords imported accordingly (and source file removed).

I then was able to import the remaining Apple Photos files into my main folders, knowing there should be no obvious “same time” or “same name” duplicates — except of course for edited photos. (For that, I deleted them from the main catalog and imported/moved them using the standard “import”, so that they would sit in the right monthly folders.)

The saga continues, as my reduced list (12k from 20k!) of Apple Photos is now integrated with my main catalog, but there are still duplicates in there.

Ideally, I’d get syncomatic to work how I want it to, sync keywords, then use Find Duplicates 2 to delete duplicates. But that’s not going well for the moment.

In addition to this, somewhere in the process a pile of my photos have lost their capture date, or seen their capture date replaced by “today’s” date (the day I was obviously doing whatever caused them to lose their capture date). So I have about 2k badly dated (or undated) photos I need to find a solution for. Many of my videos seem not to be read correctly by Lightroom anymore, and have metadata/date issues. My catalog is also sprouting metadata conflicts, and Lightroom very helpfully (not) asks you whether you want to import metadata from the file or write Lightroom metadata to the file without showing you what the conflict is made of. Not much chance of troubleshooting what is going on in there.

So, what’s left to do?

  1. Identify duplicates with FD2 and figure out a way to be systematic about which versions I keep (I’m doing a test on a month of photos to see how it goes). The key seems to be smart collections, and using color labels like I remember doing in March: for example, color all the “most edited” duplicates identified by the plugin green, then go and look at the full list and figure out if that is a good criteria or not.
    But for that to work I need Syncomatic to work, or to mess around with LR/Transporter again, because many of these duplicates do not have synced keywords. *sigh*
  2. See what’s going on with those videos. Not too sure where to start, but I was pointed to this, and need to dig into it. Reminder, there are three problems: systematic metadata being flagged as up-to-date though in a smart collection it’s indicated as changed; mess-ups with capture times; unreadable videos.
  3. Look at the photos with a bad capture date (or none) and see what I can salvage. One idea is to find a back up of my master catalog before all this mess started happening, use LR/Transporter to match those “lost” photos to their “ancestors” in the old vers of the catalog, and use a process similar to the one described above to fix their capture times. But I’d still like to know what created this situation so I can avoid it in future.

    I’m not sure how understandable all this is, these are mainly notes for myself for when I pick this up again, but if it’s useful for you, all the better! Feel free to ask questions if certain parts are unclear and you would like explanations.

LR/Transporter: Renaming Files With Excess Whitespace in Lightroom CC Classic [en]

I’ve spent a large chunk of my leisurely holiday in Pune trying to continue my “return to Lightroom“. Amongst the various problems I’ve had to solve, one of them was that many of the filenames in my library had one or two leading spaces. How, why? I don’t know. But it creates problems when you want to match files by filenames to weed out duplicates (with Photosweeper for example).

Here’s how I did things, using a plugin called LR/Transporter, and messing with .csv files. Warning: don’t do this if you don’t understand what you’re doing — you can really mess things up!

Adapted from my post on the Lightroom Queen forum:

  1. I sorted my whole catalog by file name so that those with the leading spaces would be listed first, and selected them.
  2. I used LR Transporter to export File name + file name base to a file
  3. I edited this file in Numbers (Excel messed up the encoding, some of my file names have accented characters in them, Google Sheets removed the leading whitespace)
  4. Copied the column containing the base file name to another table, did a search and replace for two spaces to remove them
  5. Trickier: what about one leading whitespace? Some of my filenames have spaces in them, so I can’t just “remove spaces”. I used the “concatenate” function to add a second leading whitespace to those files, then did another search and replace for two spaces, then copied the formula results back onto the original cells.
  6. I now have a two-column spreadsheet with the filenames (whitespace included) in the first column, and the second column has the base filename with leading whitespace stripped off.
  7. I export as CSV after having removed extra columns and empty cells
  8. In Lightroom, I go back to my selected photos, and Import metadata with LR Transporter: I map the “file base name” field to a metadata field that I don’t use, but that can be used as an “ingredient” in a file renaming preset. I chose “Instructions”.
  9. After import, these files should all have their future filename base listed in the “Instructions” field.
  10. Rename the files, composing the new name with the metadata field that has been used to store the whitespace-stripped base filename (in my example, “Instructions”)
  11. After that, just empty the “Instructions” metadata field if you wish!

Hope this might come in handy to someone!

The Future of Fake News [en]

[fr] Ce n'est pas souvent que la technologie me fait peur. Ça doit être que j'ai plus de 35 ans, maintenant. On peut maintenant, à partir de 20 à 40 minutes d'échantllons vocaux, faire dire ce qu'on veut à quelqu'un en tapant le texte en question. On peut également "animer" un visage dans une vidéo avec ses propres expressions. Ce n'est pas encore parfait, certes, mais on y sera très vite. Les "fake news" ont encore de beaux jours devant eux...

I’ve listened to the first half of Radiolab’s “Breaking News” episode and I’m terrified. Or maybe I’m just over 35. In a nutshell, the time where you can easily produce convincingly real “fake audio” and “fake video” (and mash the two together) is just around the corner.

This is the future of fake news. If people can be fooled by fact-less text, fake quotes stuck next to photos, photoshopped pictures and memes, even though we know all these things exist… What is going to happen when pretty much anybody can make anybody else (including 45 or other political figures) say anything?

At one point in the distant future we might get over it. We may learn not to trust anything recorded anymore, because it might be fake. We might fall back on face-to-face presence, being there in meatspace, seeing and hearing unmediated.

I have no concern that forensic scientists will be able to tell doctored media from undoctored media. But that will not help the court of public opinion much.

I’m worried that we, as a society, a culture, will not be able to learn fast enough to stay ahead of how technology is changing our access to information, and that this will be the end of the world as we know it.

Hopefully, it’s just that I’m over 35.

 

 

Geekeries du front [fr]

[en] Spent a lot of time fixing various server and device annoyances. Thanks to everyone who helped me for one thing or another! Everything seems to be running fine now, except for MySQL on the web server which continues to choke pretty regularly. Lesson learned in all these adventures: sometimes a clean reinstall is a better strategy than lengthy troubleshooting.

Ouh là, il faut vraiment que j’écrive un article. Je crois qu’un article sur deux de mon blog commence comme ça, ces temps.

Le temps.

Arbre et mauvais temps

Je suis perdue dedans. Les journées filent les unes après les autres. Déjà mi-janvier. Déjà six semaines depuis mon retour d’Inde. L’absence de structure, ça ne me réussit pas. Alors je suis en train de restructurer, mais c’est long, c’est long.

Je n’ai pas chômé, pourtant. J’ai passé des heures et des heures devant des écrans de machines récalcitrantes: mon petit serveur lubuntu qui sert surtout à recevoir des sauvegardes Crashplan, le NAS, dont les volumes partagés doivent être visibles par au moins trois machines avec des OS différents (la machine lubuntu, mon MacBook Air, et l’Android TV), l’Android TV Box, justement, dont le Kodi refusait de jouer quoi que ce soit, et pour finir mon serveur web, qui plante toujours allègrement.

Qu’est-ce que j’ai appris?

La principale leçon, vraiment la plus importante, c’est que c’est souvent moins de travail de réinstaller ou faire une mise à jour que de troubleshooter.

Sur l’Android TV Box, supprimer puis réinstaller Kodi a réglé le problème. Oui, il a fallu reconfigurer et reinstaller les extensions, mais c’est mieux de passer du temps à faire quelque chose qu’on a déjà fait et qui est du “terrain connu” que de rajouter encore des changements non maîtrisés dans le système.

Pour lubuntu, un problème de déconnexion du réseau local a été résolu par une mise à jour foireuse, qui a introduit d’autres problèmes, mais qui, après quelques commandes de réparation, de mise à jour partielle, de redémarrages, et de re-mise à jour, semblent avoir disparu.

Côté présence web, je bosse en priorité à terminer la migration de mon site web professionnel. Pas terrible, quand on désire de nouveaux mandats et développer des nouvelles offres, d’avoir un site web professionnel pas à jour et qui redirige une fois sur deux sur ce blog, suivant comment on en tape l’adresse.

Là, je me heurte à la difficulté suivante: un vieux WordPress et un vieux WPML, qu’il faut transférer dans un WordPress multisite à jour. L’importation toute bête ne marche pas. Il faut d’abord mettre à jour l’installation sur le vieux serveur avant de faire le transfert. Un post sur le forum de WPML me donne l’ordre pour les updates à faire. Je passe une demi-journée à faire tout ça, backups y compris. La home page se charge bien, je vérifie à chaque pas. Mais à la fin, misère, je réalise que tous les contenus “traduits” on disparu.

Le site contient une trentaine de pages. Au lieu de replonger pour tenter de voir quelle mise à jour “casse” l’installation, je vais copier-coller à la main les contenus. Ça me prendre quelques heures mais au moins je sais que ce sera réglé à la fin.

Côté serveur web qui se casse la figure, malgré quelques réglages à la configuration Apache faits déjà il y a un moment, puis l’installation de WordFence pour mettre un stop à d’éventuelles requêtes malicieuses (il y en a, mais pas de quoi en faire tout un fromage), ça continue. La dernière expédition spéléo a permis de mettre à jour une base de données WordPress de 250Mb (même pour 15 ans de blog et 8 “site” ça fait beaucoup).

En y regardant de plus près, c’est la table commentmeta qui pèse le plus lourd: près de 100Mb, si ma mémoire est bonne. 150’000 lignes. Cure d’amaigrissement grâce à un peu de googlage, ici et , déjà. Je remarque aussi que Antispam Bee, un plugin anti-spam que j’avais essayé à un moment donné et que je croyais avoir supprimé, est encore actif et a aussi laissé tout un tas de chenit. Bref, après nettoyage, et vidage du spam, la table est vide.

Bon, c’est visiblement pas ce qui causait les problèmes avec le serveur, puisque c’est à nouveau arrivé depuis le nettoyage, mais ça fait plaisir d’avoir une base de données qui fait moins de 100Mb. Merci au passage à PhpMyAdmin, qui malgré toutes les critiques qu’on peut lui faire, est quand même un outil vachement pratique pour repérer et régler ce genre de chose. Les informations sur le status du serveur MySQL, ainsi que les stats, sont aussi présentées de façon accessibles et me donnent des idées pour la suite: peut-être une histoire de taille de cache pour les tables qui n’est pas optimale.

Etape suivante, donc, du coup, avant de faire l’apprenti-sorcière, c’est de voir ce que raconte l’utilitaire mysqltuner. Je vous ferai un rapport si je trouve ce que c’est!

Un petit tuyau pour le clavier de l'iPhone [fr]

[en] Did you know that autocorrect on the iPhone adds apostrophes for you? Type "im" and you'll get "I'm", "youre" and you'll get "you're".

Il m’arrive encore trop souvent de recevoir des SMS sans apostrophes. C’est vrai que l’apostrophe est énervante, sur le clavier de l’iPhone: il faut activer le clavier “chiffres et ponctuation”…

Mais il y a plus simple: tapez vos mots sans apostrophe, collés. Par exemple “dhabitude” ou “jai” ou encore “lidee”. La correction automatique (vous l’avez activée, n’est-ce pas?) va automatiquement (!) glisser les apostrophes là où elles vont: “j’ai”, “l’idée”, “d’habitude” — ajoutant également les accents au passage!

Ça marche aussi avec les traits d’union: “peutetre” devient “peut-être”.

Moralité: écrivez sans accents, ni traits d’union, ni apostrophes, le correcteur se charge de les mettre pour vous.

Bien entendu, il faut vérifier qu’il fasse juste et corriger au besoin. Mais neuf fois sur dix, c’est bon. Et on apprend vite pour quels mots ou expressions on peut se reposer sur le correcteur, et pour lesquels il faut tout taper.

Ménage numérique [fr]

[en] Musings on backups (my first real hard drive failure) and on trying to keep digital stuff (smartphone photos, anyone?) under control. Oh, and Hazel. Try Hazel if you haven't yet.

Entre hier et aujourd’hui, ménage numérique. Il faut que je vous parle du workshop que j’ai donné hier au Swiss Creative Center, mais d’abord, le ménage.

En rentrant de Neuchâtel, j’ai branché Time Machine, parce que ça faisait 2 semaines que je n’avais pas fait de backup, me disait mon ordi, mais surtout, parce que j’avais vu passer un petit tweet de Matt Gemmell un peu plus tôt dans la journée:

Oups, me suis-je dit. Avec toute l’énergie que je mets à encourager mon entourage à faire des sauvegardes, ce serait bête que je ne suive pas mes propres préceptes. Bon, ce ne serait pas la première fois, non plus.

Je branche aussi mon disque dur externe, celui qui contient plus de 10 ans de photos et bien d’autres choses. 600Gb de données. Au bout d’un moment, je me rends compte qu’il couine. Et qu’il n’est toujours pas visible dans le Finder. Re-oups.

Je vous passe les étapes pour vérifier qu’il était bien mort (il l’était). Le coeur battant un peu, je vérifie où en était ma dernière sauvegarde Crashplan (2 jours, ouf). Celle de Time Machine date d’il y a deux semaines… j’ai fait un peu de ménage dans mes photos depuis là. Je lance le “restore”:

  • Crashplan: 10 jours (la sauvegarde est sur mon serveur à l’eclau)
  • Time Machine: 10 heures (la sauvegarde est sur un disque dur externe que je peux brancher direct dans mon ordi)

Je récupère les fichiers dans Time Machine, et ceux “qui manquent” dans Crashplan.  Ça tourne toute la nuit. Aujourd’hui je vais chez STEG pour rendre le disque dur cassé et en ramasser un nouveau (3 mois de durée de vie… heureusement il y a une garantie).

Bref, cette histoire aurait pu être un désastre si mes sauvegardes n’avaient pas été plus ou moins à jour! C’est la première fois de ma vie qu’un disque dur me claque entre les mains. Heureusement ça arrive à une période où j’ai un système de sauvegardes qui roule. Il y a quelques années, j’aurais pu perdre des choses irremplaçables.

Ne jouez pas avec le feu, faites des sauvegardes, et dites-moi si vous voulez mon code Crashplan pour avoir une sauvegarde distante sur mon serveur. Quand on se fait cambrioler ou que notre logement brûle (Dieu nous en garde), c’est déjà assez horrible comme ça sans qu’on ait en plus perdu toutes les photos de nos chats ou de nos enfants.

En parallèle de tout ça, j’ai remis le nez dans IFTTT et Google Plus. Avec iOS7 (ou peut-être même avant mais je dormais), il y a plein de portes intéressantes qui s’ouvrent. Par exemple, Auto Backup uploade automatiquement vos photos de smartphone dans Google Plus (elles sont privées bien sûr, mais on peut ensuite les partager d’un simple clic). J’ai joué donc du coup avec les albums et les photos dans Google Plus. J’aime bien, sauf que j’ai la sale impression que Google Plus duplique les photos quand je les partage, et je n’aime pas sa manie de faire des albums sans me demander quand je partage plusieurs photos d’un coup. Je suis peut-être un peu formattée “Facebook”, mais j’ai l’impression que c’est un peu plus le pétchi.

Autre chose testée, le partage de photos dans Facebook directement depuis l’album photos d’iOS7. J’aime bien, en passant, comment iOS7 regroupe les photos en “moments”. J’aimerais bien que Lightroom en prenne de la graine. (Tiens, peut-être temps de passer à la version 5.)

Le problème récurrent que j’ai avec les photos que je prends sur mon smartphone, c’est que je les partage (Facebook, Google Plus maintenant, et même Flickr) sans qu’elles ne transitent par mon ordinateur. Et mon ordinateur — enfin le fameux disque dur externe qui est mort, là — c’est quand même ma “master copy” de toutes mes photos. Je gère le tout avec Lightroom, qui gère également la publication sur Flickr, Facebook, et Google Plus. Vu que Auto Backup met automatiquement toutes mes photos sur Google Plus, je préférerais par exemple que Lightroom aille les “chercher” là-bas pour les importer dans son catalogue.

L’autre souci, c’est que beaucoup des photos que je prends avec mon iPhone sont vouées à finir leur vie dans Evernote. Photos de tickets, de documents, de livres que je lis… Pas besoin que ça finisse dans Lightroom ni que ça y passe. Jusqu’à maintenant, j’importais de temps en temps les photos de mon téléphone dans Lightroom (avec le câble), puis je triais celles qui allaient dans Evernote, les glissais-déposais dans l’application, et déplaçais les fichiers originaux dans un dossier “dans Evernote”. Comme ça, la prochaine fois que j’importe les photos de mon iPhone dans Lightroom, celui-ci ne me propose pas de les réimporter.

En zieutant les nouveautés de IFTTT (depuis la dernière fois que j’avais regardé), je me dis que je pourrais avoir sur mon iPhone un album Evernote, et une règle IFTTT qui envoie dans Evernote toute photo mise dans cet album. Malheureusement, ma recette ne semble pas fonctionner. Problème d’IFTTT? d’Evernote? d’iOS7? Allez savoir.

Bref, après toutes ces explorations je me dis que je vais rester à mon ancien système un peu manuel, même s’il provoque des doublons de photos partagées sur Facebook et Google Plus.

Alors que je réfléchis à ces questions sur Facebook, un ami m’aiguille sur Hazel. Hazel vous permet d’établir des règles pour votre Mac afin de faire un peu d’ordre dans vos fichiers. Par exemple, toute image qui se trouve dans le dossier téléchargements depuis plus d’un jour sera déplacée dans mon dossier photos. Tout .dmg trainant là depuis plus d’une semaine sera balancé. Vous pouvez tester gratuitement Hazel pendant 14 jours avant de l’acheter (et le prix est raisonnable). Moi, une heure après, je l’aime déjà.

10 Years With RSI [en]

[fr] Plus de 10 ans que mes mains ont commencé à faire mal. Bilan: c'est sous contrôle, même s'il y a certaines choses que je ne peux plus faire. J'ai aussi procédé à des aménagements pour certaines activités.

In September 2002 my hands started hurting really badly at the computer. I had to take three breaks while writing this article. I took some time off, and when I got back to work, within half a day, things were back where they were. I panicked for a few days. A lot of my life revolved around computers. How would I finish my studies? I discovered it was possible to use a computer with speech recognition, and that reassured me a bit. I saw the doctor, spent 5 weeks off work and computers (well, at work but not allowed to type, it was dreadful, actually), the neurologist confirmed my nerves were all right, I got Dragon NaturallySpeaking (version 5 at the time) and started speaking to my computer.

Life resumed, at home and work. I practically stopped using my hands with my computer and dictated for pretty much a whole year, including my university dissertation and my last written exam (they stuck me in my teacher’s office for that).

When I left my job at Orange, I got an iBook, which meant I said goodbye to speech recognition. By then the rest had done its job, and I had also made some changes which certainly helped improve things:

  • I got rid of my old clunky keyboard and moved the computer away from the drafty window
  • I got a laptop, actually, which meant I started varying the positions in which I typed
  • I started paying attention to my hands: was I in pain? was I uncomfortable?
  • I used a break timer to force myself to learn to stop and take breaks
  • I learned to say “no” a bit more, and give a higher priority to myself over others (ie, taking care of my hands became top priority, whereas others’ needs used to be what came first)
  • In general, I started listening to myself more: how was I feeling? was I stressed? was I tired? did I want to do what I was doing? etc.
  • I made sure I continued to get (gentle) exercise; I went easy on my hands at judo for a couple of years.

Where am I at now, 10 years later? Well, I still say I have RSI, because it’s just around the corner, but most of the time it doesn’t bother me. It’s “under control”. Many years ago my osteopath actually managed to do something to make my hands hurt less. Something to do with my arteries, it seems. No guarantee it will be the same for everyone with RSI, but it does it for me. So when my hands start feeling painful again, I head off to my osteo. With the years, I’ve learnt to recognize my hands hurting as a warning sign rather than a problem in itself. They don’t normally hurt. If they hurt and I go to my osteo, she’ll usually find a whole bunch of things that are, let’s say, “out of balance”.

Here’s what my life with RSI is, 10 years later:

  • I type on my Macbook in all sorts of non-ergonomic positions: I vary
  • At my desk though, I make sure that I am sitting high enough that my elbow makes a 90°+ angle (for me the most comfortable place to type is on my knees => laptop)
  • I never use a mouse, and know tons of keyboard shortcuts
  • I have Dragon Dictate but don’t use it enough — I haven’t invested the time to be comfortable with it
  • I have discovered speech recognition on my iPhone and use it whenever I can
  • I cannot carry my groceries very far without taking a break, even though I have plenty of upper-body strength (I have a rollie-bag)
  • I avoid repetitive hand movements: chopping lots of hard stuff, screwing with a manual screwdriver, polishing by hand… if I have to I take breaks, but if possible I’ll let somebody else do that kind of job
  • I’m still doing judo, and can fight “normally”, though it hurts “more than it should” when people rip their sleeves out of my hands or when I’ve been strangling somebody really hard 😉
  • If I feel RSI coming back, I run to the osteo
  • In general, I take much better care of myself than I used to, and I am much “softer” on myself (I used to be the “tough it out” type, RSI cured me from that)
  • I cannot write by hand more than a few lines anymore; this is a combination of lack of practice (I always type) and some loss of fine motor control probably due to RSI. If I try to write, I become illegible after a few lines, and it hurts. So I don’t.

Over the years, I have seen so many people develop RSI in some form or other. Don’t overwork yourself. Take care of your hands before they start hurting.

3rd #back2blog challenge
(7/10), with: Brigitte Djajasasmita (@bibiweb), Baudouin Van Humbeeck (@somebaudy), Mlle Cassis (@mlle_cassis), Luca Palli (@lpalli), Yann Kerveno (@justaboutvelo), Annemarie Fuschetto (@libellula_free), Ewan Spence (@ewan), Kantu (@kantutita), Jean-François Genoud (@jfgpro), Michelle Carrupt (@cmic), Sally O’Brien (@swissingaround), Adam Tinworth (@adders), Mathieu Laferrière (@mlaferriere), Graham Holliday (@noodlepie), Denis Dogvopoliy (@dennydov), Christine Cavalier (@purplecar), Emmanuel Clément (@emmanuelc), Xavier Bertschy (@xavier83). Follow #back2blog.

Synchronisez vos smartphones, sauvegardez vos données! [fr]

[en] Backups, backups.

Je suis régulièrement un peu estomaquée de réaliser combien mon entourage est vulnérable à la perte de données. Quelques suggestions.

Smartphone

Tout d’abord, synchronisez votre smartphone avec votre ordinateur. C’est trop con de perdre ses contacts avec son téléphone quand on pourrait en avoir une copie sur son ordinateur.

iCloud c’est bien joli (et c’est déjà ça) mais à moins de payer, ça ne suffit pas à sauvegarder toutes vos données. 5Gb d’espace sur iCloud… maintenant tout le monde ou presque a bien plus de données mobiles que ça. Sauvegardez donc votre smartphone sur votre ordinateur. Voici comment le faire sur un disque externe si c’est nécessaire (ça l’est pour moi, avec un iPhone de 64Gb bien plein et un disque dur de MacBook Air de 256Gb bien plein également).

Ça peut aussi vraiment valoir la peine (pour un iPhone) d’activer Find my iPhone, qui permet de le bloquer à distance en cas de perte. Attention cependant, ne l’activez pas sans réfléchir pour votre ordinateur, c’est un peu plus délicat côté conséquences possibles.

Ordinateur

Il vous faut des sauvegardes tant locales que distantes. Si vous en êtes encore à vous envoyer vos documents par e-mail ou bien à les mettre sur une clé USB, c’est le moment de vous mettre à la page. Avec Mac, il y a un truc qui s’appelle Time Machine. Achetez un disque dur externe, et utilisez-le Ça marche assez tout seul, faut juste penser à brancher le disque externe de temps en temps.

Une sauvegarde locale c’est déjà bien, mais ce n’est pas suffisant. Si quelqu’un vous cambriole et prend tout ce qu’il y a d’électronique chez vous, vous êtes mal. Ou si une autre catastrophe touche votre domicile… Bref, sans être catastrophiste, c’est relativement facile de se prémunir contre la perte de toutes ses données si ça devait arriver.

Pour vos documents, une solution assez simple peut être de tous les mettre dans Google Drive. J’ai fait ça récemment. Du coup je paie pour avoir un peu plus de stockage. Ça veut aussi dire que mes documents me sont accessibles depuis n’importe où. On peut aussi utiliser Dropbox pour ça. Ou Copy. Ou…

Mais il y a mieux. En plus de ça, utilisez CrashPlan. CrashPlan vous permet de faire une sauvegarde distante sur leurs serveurs (c’est payant) ou bien chez des amis. C’est là que c’est intéressant. Mettez-vous à deux ou à trois, achetez chacun un gros disque dur externe, et faites vos sauvegardes (encryptées bien sûr) les uns chez les autres avec Crashplan.

C’est vraiment trop bête de risquer de perdre ses données parce qu’on se fait voler son téléphone ou que son disque dur meurt.

3e #back2blog challenge (6/10), avec: Brigitte Djajasasmita (@bibiweb), Baudouin Van Humbeeck (@somebaudy), Mlle Cassis (@mlle_cassis), Luca Palli (@lpalli), Yann Kerveno (@justaboutvelo), Annemarie Fuschetto (@libellula_free), Ewan Spence (@ewan), Kantu (@kantutita), Jean-François Genoud (@jfgpro), Michelle Carrupt (@cmic), Sally O’Brien (@swissingaround), Adam Tinworth (@adders), Mathieu Laferrière (@mlaferriere), Graham Holliday (@noodlepie), Denis Dogvopoliy (@dennydov), Christine Cavalier (@purplecar), Emmanuel Clément (@emmanuelc), Xavier Bertschy (@xavier83). Follow #back2blog.

Histoires d'oreilles [fr]

[en] Sharing my hearing and hearing aid story -- and opening a francophone facebook group for people who don't hear that well, whether with or without hearing aids.

L’autre soir, comme souvent dans des situations acoustiquement difficiles, je parle de mes oreilles et de mes appareils. En face de moi, le hasard veut qu’il y ait deux personnes à l’ouïe “pas top”. On a donc parlé longtemps, et j’ai raconté toute mon histoire.

J’ai toujours été un peu sourde. C’est familial. Mon frère aussi. Mon père aussi, probablement. Bref, dans la famille on est durs de la feuille.

Première tentative d’appareillage quand j’avais 14 ans. Fin des années huitante, gros appareils “intra” couleur chair qui se voyaient bien, inconfortables, réglage pour mon gain “idéal” très probablement, filles de la classe qui se fichent de moi: j’essaie deux jours puis ils vont finir leur vie dans leur boîte.

Je m’en sors très bien sans. Je sais que j’entends “pas très bien” et je le dis — mais je me rends compte aujourd’hui que je n’avais aucune idée à quel point j’étais sourde. Il a fallu que mon frère fasse le pas d’un appareillage, qu’il me parle un peu du processus et de la différence que ça faisait pour lui, de “bien entendre”, pour que j’y pense à nouveau. Aussi, je commence à me rendre compte dans mes activités professionnelles que mon ouïe m’handicape. Je n’entends souvent pas les questions des étudiants ou du public quand je donne une conférence. Je dois faire répéter. Ça devient un peu lassant.

Il me faudra encore quelques années pour passer à l’action. Je trouve le côté geek des appareils auditifs et accessoires fascinant. Je pose des questions à mon audioprothésiste dont il doit chercher la réponse. Ça lui change du quotidien…

Mes appareils sont roses. Ils sont derrière l’oreille, assez petits pour ne pas être très visibles (enfin quasi invisible sauf quand je relève mes cheveux, ce que je ne fais pas normalement car ils sont courts). Le micro est dans l’oreille, avec un embout “ouvert” plus confortable que le moulage fermé que j’ai quand même testé. Un “compromis”, dit mon audioprothésiste (parce que la qualité audio est censée être meilleure avec le moulage), mais je peux vivre avec ça.

Ils ont deux micros chacun et ils communiquent entre eux. Ça leur permet de savoir d’où vient le son et d’introduire cette variable dans la façon dont ils le traitent, de répercuter dans mes oreilles les décalages qu’on entendrait normalement et qui nous permettent de localiser un son.

J’ai choisi la taille “pas mini-mini” pour avoir un bouton “programme”. J’ai quatre programmes différents: un normal, un pour environnements bruyants, un pour les situations calmes avec légère suramplification, et un “silence” pour quand je suis dans le train avec les gosses qui crient à côté 😉

Il y a des tas de choses à raconter sur mon aventure auditive: comment ça a changé ma vie, comment se passe l’adaptation, comment on minimise toujours l’importance de sa surdité (“j’entends pas bien mais c’est pas si grave, je m’en sors sans appareils”), le look des appareils en 2013 (et leur taille!), les situations “impossibles” comme les restaurants, l’absence de communauté de hackers dans ce domaine (on a besoin de nos appareils, et à 6500 balles la paire on va pas s’amuser à les démonter “pour voir”), les anti-larsens, l’habituation, les acouphènes…

Bref, de quoi écrire une bonne demi-douzaines d’articles de blog, ou d’ouvrir un groupe facebook — ce que j’ai fait.

Pour le moment c’est un groupe secret, mais je pense que ce sera pour finir un groupe fermé: contenu inaccessible aux non-membres, mais listing des membres et descriptif du groupe visibles. Si ça vous intéresse de rejoindre le groupe pour partager vos histoires d’oreilles (avec ou sans appareils) ou écouter celles des autres, faites-moi signe et je vous y invite!

3e #back2blog challenge (1/10), avec: Brigitte Djajasasmita (@bibiweb), Baudouin Van Humbeeck (@somebaudy), Mlle Cassis (@mlle_cassis), Luca Palli (@lpalli), Yann Kerveno (@justaboutvelo), Annemarie Fuschetto (@libellula_free), Ewan Spence (@ewan), Kantu (@kantutita), Jean-François Genoud (@jfgpro), Michelle Carrupt (@cmic), Sally O’Brien (@swissingaround), Adam Tinworth (@adders), Mathieu Laferrière (@mlaferriere), Graham Holliday (@noodlepie), Denis Dogvopoliy (@dennydov), Christine Cavalier (@purplecar), Emmanuel Clément (@emmanuelc), Xavier Bertschy (@xavier83). Follow #back2blog.

Bilingual Frustrations, Still in 2013 (With Siri and Dragon Dictate) [en]

[fr] J'adore Siri, mais qu'est-ce que j'aimerais que les logiciels à "intelligence linguistique" puisse fonctionner en mode multilingue. En tant que bilingue, je trouve extrêmement frustrant de devoir (a) m'en tenir à une seule langue (b) me souvenir dans quelle langue j'ai "configuré" le logiciel en question!

Before leaving for India last year, my earbuds died, which I took as a sign to head out and upgrade my iPhone, something I was due for sooner or later (in Switzerland, your mobile phone is tied to your subscription, and you get a discounted phone every one or two years).

This means I got an iPhone 5, and was finally able to play about with Siri. I love Siri and voice commands/dictation in general. But as a bilingual person, I find it really sad that there is no voice command to switch languages. I do it many many times a day! Bilingual mode would be the best. Sure, it would double Siri’s vocabulary, but I’m sure with today’s technology and if Siri knows which two languages I’m speaking it’s doable.

Plus I read in a forum (link lost since then) that changing languages resets all the “learning” aspect of Siri? That really sucks and should qualify as a bug.

When will people making software that has language intelligence understand that there are bilingual people out there who juggle with two (ore more!) languages constantly throughout their day? I have exactly the same grief with Dragon Dictate.

Remember: most people are multilingual. And if you’re interested in bilingualism, you should be reading François Grosjean‘s “Life as a Bilingual” blog.

2nd Back to Blogging Challenge, day 3. Others: Nathalie Hamidi(@nathaliehamidi), Evren Kiefer (@evrenk), Claude Vedovini (@cvedovini), Luca Palli (@lpalli), Fleur Marty (@flaoua), Xavier Borderie (@xibe), Rémy Bigot (@remybigot),Jean-François Genoud (@jfgpro), Sally O’Brien (@swissingaround), Marie-Aude Koiransky (@mezgarne), Anne Pastori Zumbach (@anna_zap), Martin Röll (@martinroell), Gabriela Avram (@gabig58), Manuel Schmalstieg (@16kbit), Jan Van Mol (@janvanmol). Hashtag:#back2blog.