iPhone: chercher n’importe quoi sur son smartphone [fr]

[en] Archive of my weekly French-language "technology advice column".

Ma newsletter hebdomadaire “Demande à Steph” est archivée ici pour la postérité. Chaque semaine, un tuyau ou une explication touchant à la technologie numérique, ou une réponse à vos questions! Inscrivez-vous pour recevoir directement la prochaine édition. Voici l’archive originale.

Cette semaine, un petit truc pour les propriétaires d’iPhone.

Plutôt que de chercher une application dans son téléphone à travers tous nos écrans, il y a un moyen beaucoup plus direct de trouver quelque chose sur son téléphone: la recherche.

On y accède d’un coup de doigt descendant sur l’écran d’accueil, comme ça:

Et il suffit de taper ce qu’on cherche:

Ça marche pour les applications, mais aussi pour:

  • une chanson
  • un contact
  • un podcast
  • des photos sur Flickr
  • un calcul
  • un site web…

Et peut-être même d’autres choses!

Voici quelques exemples. Une chanson que j’aime bien ces temps:

Un contact:

Mon chat:

Vous voyez que comme j’utilise Flickr pour mes photos, il me sort directement les bons albums! Et il va même chercher le texte de mes messages:

Le podcast que j’ai envie d’écouter en faisant la vaisselle:

Zut, où ai-je rangé cette application Photos?

Un calcul rapide à faire, pas besoin de sortir la calculatrice:

C’est un petit coup à prendre. Exercez-vous! Cherchez maintenant:

  • une application que vous avez cachée quelque part
  • une chanson que vous avez envie d’écouter
  • un contact que vous auriez plaisir à voir
  • “restaurant”

Pensez-y la prochaine fois que vous avez besoin de quelque chose qui est dans votre téléphone. Et si vous avez trouvé utile, transmettez ce mail à une de vos connaissances!

PS: certains d’entres vous auront découvert qu’un coup de doigt vers la droite à travers l’écran fait aussi apparaître un écran de recherche — il est un peu moins bien car il faut toucher le champ de recherche avant de pouvoir y taper, alors qu’avec ce coup de doigt vers le bas, on peut taper direct!

Similar Posts:

Hangouts: Watch Me Run Screaming From Dark Green Conversation Bubbles [en]

[fr] Vous avez vu la nouvelle version de Hangouts pour iOS? Texte blanc sur fond vert, donc lisibilité décrue, pour le texte de votre interlocuteur. Révolte! Je reviens à la version précédente...

I’m generally pretty good at dealing with my internal resistance to change when it comes to upgrading software. I know that we get used to a lot of things.

But Google have crossed the line with their new iOS version of hangouts. So, for the first time in my life, I’m actually downgrading the recently upgraded apps on both my iPhone and my iPad. I know it’s not a permanent solution, but maybe somebody at Google will realise that reading white text in a dark green bubble set against a light background makes for a rather unpleasant reading experience.

A picture is worth a thousand words, so head over to this review with screenshots to see what I mean (the one below is lifted from there). Sure, it’s pretty, but what about readable?

old vs new Hangouts

The old version of hangouts served similarly contrasted text for the whole conversation:

  • your interlocutor’s words on a white/light background, with dark text
  • your words in the same text colour but on a light green background, so slightly less contrast (you don’t read your words that much… right?)

Compare to now:

  • your interlocutor’s words are white text on a dark green background, set against the light background of the app (reminder: this is the text you’ll be reading all the time)
  • your text is dark on a light background

WTF?!

Inverted color schemes are less legible.

Too much contrast hurts legibility as much as not enough can. (Yes, the page is old and ugly.)

Check out some research:

From these results, one can say that contrast affects legibility, but unfortunately, it does not seem to be as simple as high contrast being better than low contrast. In the main experiment, GN/Y had the fastest RT’s, and in the control experiment, medium gray, and dark gray had the fastest RT’s. In neither experiment did the BK/W condition show the fastest RT’s. These results show that these participants had faster response times when more median contrasts were used. These results supported Powell (1990), who suggested avoiding sharp contrasts, but did not fully support Rivlen et al. (1990), who suggested maintaining high contrast.

According to a manual by AT&T; (1989), the direction of the contrast (dark on light, or light on dark) might also affect legibility. When light text is placed on a dark background the text may seem to glow and become blurred; this is referred to as halation, and it may make the text harder to read. Some evidence for an effect of halation was found in the current experiment.

(via Coding Horror)

You’d think they would have paid more attention to readability for an app many people (myself included) spend pretty much all day using. How did this get out of the door? And why is it still out there?

Give me a sec while I go grab my pitchfork, I’ll meet you down in the street.

Mood: horrified.

Similar Posts:

Bon alors, Ingress? [fr]

[en] A brief introduction to Ingress. Join the Enlightened!

Cela fait un peu plus de deux mois que je bassine mon entourage avec Ingress. C’est quoi, ce jeu?

Ingress, c’est un jeu multi-joueurs sur smartphone (Android/iOS) en espace réel.

C’est la partie “espace réel” qui m’a fait tilter, et crocher.

Ingress scannerCe que vous voyez ici c’est le “scanner” d’Ingress. En gros, imaginez Google Maps (c’est vraiment Google Maps, les routes que vous voyez). Ça c’est l’espace réel. Et au-dessus, comme en superposition, il y a une “couche” du jeu, ce que vous voyez en vert, bleu, et même gris: des “portails”. Le jeu consiste à interagir avec ces portails (j’explique tout de suite comment) mais le truc c’est que pour faire quelque chose à un portail on doit se déplacer physiquement avec son téléphone pour arriver au lieu où il est implanté. Le portail doit être dans le petit cercle jaune que vous voyez (une quarantaine de mètres) sur l’image.

Donc oui, faut s’habiller (en hiver) et aller marcher dehors. Et ça fait marcher des kilomètres, je rigole pas. On se prend vite au jeu.

Ce qu’on fait avec ces portails c’est en prendre possession et les relier entre eux. Ils nous fournissent aussi du matériel utile à les “déployer” (= en prendre possession et les préparer), à les connecter, et à les détruire quand ils appartiennent à la faction adverse (les deux portails bleus que vous voyez au fond).

Quand on relie trois portails entre eux, ça fait un “champ” (le coloriage vert que vous voyez), et la zone enfermée dans ce champ est sous le contrôle de votre équipe: verte ou bleue.

Vert ou bleu? La faction que vous rejoignez ne change pas grand-chose au jeu pour vous, une fois sur le terrain. Ce à quoi il faut prendre garde avant de choisir, cependant:

  • dans quelle faction jouent vos amis? (c’est mieux d’être dans la même, vraiment, sinon on ne peut pas jouer ensemble)
  • quelle est la faction dominante dans votre région? (suivant que vous aimez être en position de force ou non pour commencer)

Le choix de la faction est définitif, attention! Si vous jouez en Suisse Romande, vous devez impérativement choisir la faction verte. On a besoin de vous!

J’ai commencé à jouer mi-novembre. Depuis, j’ai rencontré plein de gens sympa (assez vite on comprend qu’il faut jouer à plusieurs), gravi 10 niveaux (presque 11), marché plus de 500km à pieds et trainé ma vieille voiture jusqu’au Locle pour une grande opération impliquant une trentaine de personnes.

Chronophage? Disons que mon temps à marcher dehors en jouant à Ingress, seule ou accompagnée, est du temps que je ne passe pas vissée devant ma télé, par exemple. Tout est relatif!

Similar Posts:

Mimi Is Making Me Dream [en]

As the founding editor of Phonak’s community blog “Open Ears” (now part of “Hearing Like Me“) I contributed a series of articles on hearing loss between 2014 and 2015. Here they are.

When I did my frustrating trial of the M-DEX two years ago, I kind of gave up on using my hearing aids with my phone. I have a mute programme for when I need to put the phone to my ear (I have open tips), but most of the time, I take my hearing aids out, put my earbuds in, and crank up the volume.

Here’s what I wished for at the time:

I can’t believe there isn’t a simple “equalizer” software or application for my phone which I could feed my audiogram to and which would then amplify the frequencies I need. Clearly it wouldn’t be as good as a proper hearing aid, but I’m sure it would help a bit. If you know more about why this isn’t done, I’m all ears (!).

A few weeks ago, Vincent sent me a link to the Mimi launch announcement. It’s worth taking a few minutes to watch the video below:

I was almost jumping up and down with excitement. If they pull this off, I think it could be pretty cool. Let’s unpack a bit.

Mimi announces it’ll do exactly what I was wishing for two years ago! A lot of my “sound input” in life comes from my phone (conversations, music, podcasts). I’m impatiently waiting for Mimi to be available through the Swiss iTunes store, but if you live in the US, you can already get an early version of Mimi. I’m not sure it does the “equalizing” bit yet though, but works already as an application to measure hearing loss. Those already exist (remember Anna’s post about them?), so that’s not really new, but Mimi will be able to do much more.

These last days I’ve been reading through some of the results of MarkeTrack, a global US survey around hearing loss and the hearing aid market. One of the things the survey tries to figure out is what the obstacles are to hearing aid use. It’s complex, as you can imagine (and that reading would have come in handy as I was thinking about why we underestimate hearing loss) but one of the elements that stayed with me is that getting an objective measure of your hearing loss is one step towards getting fitted. If you never get tested, you never get fitted.

This actually fits with my story: during those years where I was “coping” and thinking that maybe I’d give hearing aids another go at some point, one pivotal moment was when I walked past the “hearing bus” and decided to drop in for a test. I’d already had an audiogram made, quite a few times, but it had been a while and I was in this phase of thinking that my “hearing problem” wasn’t very serious. The bus guy changed that perception for me: at most frequencies, I couldn’t hear two out of the four sounds, and he told me that when only one was missing he referred people to an audiologist. This is the moment when I started taking my hearing loss more seriously.

So, couple a “hearing test” app with a feature that will already let you benefit from adapted amplification when you’re using the phone, or use your phone as an amplifier: that might give some people a preview of what it is like to hear more sounds — and for people like me, who don’t want to deal with cumbersome intermediaries between phone and ears, and “get by” removing their hearing aids to use the phone, well, it might just be the little magic app we have been waiting for.

There is certainly much more to say about Mimi: the cheap subscription model they are working on for a Bluetooth “hearing enhancer”, or the fact that these are players who are approaching the hearing tech market using the smartphone as a starting-point, and thus tackling some long-standing issues from scratch again. But that sounds like material for another post.

Similar Posts:

Un petit tuyau pour le clavier de l'iPhone [fr]

[en] Did you know that autocorrect on the iPhone adds apostrophes for you? Type "im" and you'll get "I'm", "youre" and you'll get "you're".

Il m’arrive encore trop souvent de recevoir des SMS sans apostrophes. C’est vrai que l’apostrophe est énervante, sur le clavier de l’iPhone: il faut activer le clavier “chiffres et ponctuation”…

Mais il y a plus simple: tapez vos mots sans apostrophe, collés. Par exemple “dhabitude” ou “jai” ou encore “lidee”. La correction automatique (vous l’avez activée, n’est-ce pas?) va automatiquement (!) glisser les apostrophes là où elles vont: “j’ai”, “l’idée”, “d’habitude” — ajoutant également les accents au passage!

Ça marche aussi avec les traits d’union: “peutetre” devient “peut-être”.

Moralité: écrivez sans accents, ni traits d’union, ni apostrophes, le correcteur se charge de les mettre pour vous.

Bien entendu, il faut vérifier qu’il fasse juste et corriger au besoin. Mais neuf fois sur dix, c’est bon. Et on apprend vite pour quels mots ou expressions on peut se reposer sur le correcteur, et pour lesquels il faut tout taper.

Similar Posts:

Ménage numérique [fr]

[en] Musings on backups (my first real hard drive failure) and on trying to keep digital stuff (smartphone photos, anyone?) under control. Oh, and Hazel. Try Hazel if you haven't yet.

Entre hier et aujourd’hui, ménage numérique. Il faut que je vous parle du workshop que j’ai donné hier au Swiss Creative Center, mais d’abord, le ménage.

En rentrant de Neuchâtel, j’ai branché Time Machine, parce que ça faisait 2 semaines que je n’avais pas fait de backup, me disait mon ordi, mais surtout, parce que j’avais vu passer un petit tweet de Matt Gemmell un peu plus tôt dans la journée:

Oups, me suis-je dit. Avec toute l’énergie que je mets à encourager mon entourage à faire des sauvegardes, ce serait bête que je ne suive pas mes propres préceptes. Bon, ce ne serait pas la première fois, non plus.

Je branche aussi mon disque dur externe, celui qui contient plus de 10 ans de photos et bien d’autres choses. 600Gb de données. Au bout d’un moment, je me rends compte qu’il couine. Et qu’il n’est toujours pas visible dans le Finder. Re-oups.

Je vous passe les étapes pour vérifier qu’il était bien mort (il l’était). Le coeur battant un peu, je vérifie où en était ma dernière sauvegarde Crashplan (2 jours, ouf). Celle de Time Machine date d’il y a deux semaines… j’ai fait un peu de ménage dans mes photos depuis là. Je lance le “restore”:

  • Crashplan: 10 jours (la sauvegarde est sur mon serveur à l’eclau)
  • Time Machine: 10 heures (la sauvegarde est sur un disque dur externe que je peux brancher direct dans mon ordi)

Je récupère les fichiers dans Time Machine, et ceux “qui manquent” dans Crashplan.  Ça tourne toute la nuit. Aujourd’hui je vais chez STEG pour rendre le disque dur cassé et en ramasser un nouveau (3 mois de durée de vie… heureusement il y a une garantie).

Bref, cette histoire aurait pu être un désastre si mes sauvegardes n’avaient pas été plus ou moins à jour! C’est la première fois de ma vie qu’un disque dur me claque entre les mains. Heureusement ça arrive à une période où j’ai un système de sauvegardes qui roule. Il y a quelques années, j’aurais pu perdre des choses irremplaçables.

Ne jouez pas avec le feu, faites des sauvegardes, et dites-moi si vous voulez mon code Crashplan pour avoir une sauvegarde distante sur mon serveur. Quand on se fait cambrioler ou que notre logement brûle (Dieu nous en garde), c’est déjà assez horrible comme ça sans qu’on ait en plus perdu toutes les photos de nos chats ou de nos enfants.

En parallèle de tout ça, j’ai remis le nez dans IFTTT et Google Plus. Avec iOS7 (ou peut-être même avant mais je dormais), il y a plein de portes intéressantes qui s’ouvrent. Par exemple, Auto Backup uploade automatiquement vos photos de smartphone dans Google Plus (elles sont privées bien sûr, mais on peut ensuite les partager d’un simple clic). J’ai joué donc du coup avec les albums et les photos dans Google Plus. J’aime bien, sauf que j’ai la sale impression que Google Plus duplique les photos quand je les partage, et je n’aime pas sa manie de faire des albums sans me demander quand je partage plusieurs photos d’un coup. Je suis peut-être un peu formattée “Facebook”, mais j’ai l’impression que c’est un peu plus le pétchi.

Autre chose testée, le partage de photos dans Facebook directement depuis l’album photos d’iOS7. J’aime bien, en passant, comment iOS7 regroupe les photos en “moments”. J’aimerais bien que Lightroom en prenne de la graine. (Tiens, peut-être temps de passer à la version 5.)

Le problème récurrent que j’ai avec les photos que je prends sur mon smartphone, c’est que je les partage (Facebook, Google Plus maintenant, et même Flickr) sans qu’elles ne transitent par mon ordinateur. Et mon ordinateur — enfin le fameux disque dur externe qui est mort, là — c’est quand même ma “master copy” de toutes mes photos. Je gère le tout avec Lightroom, qui gère également la publication sur Flickr, Facebook, et Google Plus. Vu que Auto Backup met automatiquement toutes mes photos sur Google Plus, je préférerais par exemple que Lightroom aille les “chercher” là-bas pour les importer dans son catalogue.

L’autre souci, c’est que beaucoup des photos que je prends avec mon iPhone sont vouées à finir leur vie dans Evernote. Photos de tickets, de documents, de livres que je lis… Pas besoin que ça finisse dans Lightroom ni que ça y passe. Jusqu’à maintenant, j’importais de temps en temps les photos de mon téléphone dans Lightroom (avec le câble), puis je triais celles qui allaient dans Evernote, les glissais-déposais dans l’application, et déplaçais les fichiers originaux dans un dossier “dans Evernote”. Comme ça, la prochaine fois que j’importe les photos de mon iPhone dans Lightroom, celui-ci ne me propose pas de les réimporter.

En zieutant les nouveautés de IFTTT (depuis la dernière fois que j’avais regardé), je me dis que je pourrais avoir sur mon iPhone un album Evernote, et une règle IFTTT qui envoie dans Evernote toute photo mise dans cet album. Malheureusement, ma recette ne semble pas fonctionner. Problème d’IFTTT? d’Evernote? d’iOS7? Allez savoir.

Bref, après toutes ces explorations je me dis que je vais rester à mon ancien système un peu manuel, même s’il provoque des doublons de photos partagées sur Facebook et Google Plus.

Alors que je réfléchis à ces questions sur Facebook, un ami m’aiguille sur Hazel. Hazel vous permet d’établir des règles pour votre Mac afin de faire un peu d’ordre dans vos fichiers. Par exemple, toute image qui se trouve dans le dossier téléchargements depuis plus d’un jour sera déplacée dans mon dossier photos. Tout .dmg trainant là depuis plus d’une semaine sera balancé. Vous pouvez tester gratuitement Hazel pendant 14 jours avant de l’acheter (et le prix est raisonnable). Moi, une heure après, je l’aime déjà.

Similar Posts:

Fiddling With Video: Lightroom, YouTube, and iMovie [en]

[fr] Je m'amuse avec iMovie. Ça donne une vidéo de chats, bien sûr.

In November, I had Thierry Weber come and give my SAWI students a short practical course about YouTube and online video. It gave me a kick in the pants to (1) accept that YouTube has grown up a lot since its early days and is now a nice platform and (2) decide to put more video material out there.

I still have issues with video: either you edit heavily, and it takes hours of work to get a few minutes out of the door, or you share raw, unedited clips and it takes a long time to consume, requiring the viewer’s undivided attention. Also, like audio, there is no way to really speed through video: if it’s an hour long, that’s the time it’ll take you to watch it. You have way less freedom than with text regarding which bits you skip, pay attention to, go back to, or pay little attention to.

I have hours of video shot in India in 2004 that I have not yet done anything with. And that’s just one example.

So, between the kick in the pants, the HD iPhone always at hands, and cats (the primary source of all online content), I’ve been doing more video these last months. Some of them have ended up on my YouTube channel, but not many (can you imagine I actually have the username “steph” on YouTube? yeah.) But most of them are sitting on my hard drive due to logistical difficulties in turning them into something. (Ugly sentence, sorry.)

Today I had made enough progress sorting my photographs that I felt it was time to tackle my videos. Here’s a peek at how I’m doing things.

  • Firstly, I import all videos into Lightroom with my photos, be they from the iPhone or my proper camera.
  • I use Lightroom to organise them in a separate folder than the photos (per month) and topical subfolders if needed. This means that in my 2013/03/ photos folder, in addition to the various photos subfolders I may have (2013/03/Cats at the chalet or 2013/03/Mountains) I will have a folder named 2013/03/videos 03.2013 which might contain 2013/03/videos 03.2013/Cats in chalet garden and a few others, feline-themed or not.
  • If anything needs trashing, I do it in Lightroom, ditto for renaming. Clips can also be trimmed in Lightroom if I haven’t done it before on my iPhone (oh, a note about that: a clip trimmed on the iPhone isn’t recognised for import by Lightroom; it seems that restarting the phone gets rid of the issue.) If I’m going to upload individual clips to YouTube I keyword them “YouTube” and upload them directly to YouTube from the website.
  • For stuff I want to edit: I import the clips I need into iMovie (hopefully I will have collected the clips needed for one project into one single directory in Lightroom, like 2013/01/videos 01.2013/India snippets and keyword them with “iMovie” in Lightroom. This means they exist twice on my hard drive, but I don’t think there is a good way to avoid that (except maybe trash the Lightroom versions, which I’m loathe to do because I like the idea of having all my video stuff organised somewhere, and I like the way Lightroom does it better than iMovie).
  • My video editing skills are extremely limited: today I figured out (without access to iMovie help, which is online!) how to add a title and credits to my little series of clips stuck together end-to-end to create a mini-movie. Head over to YouTube to see my cats explore the big outdoors are the chalet for the first time.

There we go, more cat videos on the internets from my part!

Similar Posts:

More About Hearing Aids (And Geeking Out a Bit) [en]

[fr] Des nouvelles de mes aventures au pays des appareils auditifs: réflexions pour geeks et moins geeks, tant l'expérience humaine que la technologique sont passionnantes!

I got my hearing aids a month and a half ago, and I thought I’d write a bit more about some of the techy aspects as well as what it means to (a) be wearing hearing aids and (b) be hearing better.

Past the initial shock of “OMG do people really hear sounds this loud?!”, I’m really appreciating how relaxing it is to understand pretty much every word people say to me. Even in “good/easy” situations, I realize how much of my hearing is actually “deducing” — specially on the rare occasions nowadays when I talk to people without ma aids in.

As my brother aptly put it when we compared notes as I was coming out of the audiologist’s, it’s “as if sound were coming to me, rather than having to go and fetch the sound”.

Physically, my hearing aids are really comfy now, and I am generally not aware that I’m wearing them. Like a pair of glasses (or a bra!) — you know they’re there if you think of it, but they’re not drawing your attention to them all the time.

The model I’m trying now (I’ll be moving on to my second trial when I get back from holiday, more about that below) is the Widex Clear220 C2-PA (here’s the Widex product page, but it’s not nicely linkable, you’ll have to click around to see the once I have). It’s a mini-BTE (“behind the ear”) with the receiver in the canal (RIC). I’m still learning the terminology, and I have to say “receiver” sounds like a very illogical word for what is in fact the “loundspeaker”.

There are two microphones on the top of the piece that lies behind the ear. My audiologist told me that in noisy environments, the second one kicks in and the aid then reduces the sound coming from the sides and back to focus mainly on what comes in from the front microphone (theoretically: the person I’m speaking with).

The two hearing aids also communicate wirelessly with each other, and do fancy stuff to help with sound spatialisation (ears do fancy stuff too, but with RIC the hearing aid is sticking sound directly in your ear canal, so it needs to mimic what your ear does to sound before that).

The aids also clip loud sounds so that they don’t go above (a) potentially damaging volume (b) the volume above which sound becomes uncomfortable for me (I think).

2012-05-05-IMG_2910.jpg

If you look at the line around 80-100dB, that’s where my discomfort to sound is. It’s quite common that people with hearing loss also have a low tolerance to noise. That means there is less “bandwidth” for the audiologist to work with.

Oh, and you know one of the things associated with hearing aids? The Larsen effect? You don’t really get that with digital hearing aids, because they’re programmed to detect that kind of sound and remove it.

So, what about the less exciting stuff? Well, I was lucky enough to have a car on loan during the first weeks I had my aids. That gave me a chance to test their reaction to loud singing (!) at different frequencies ;-).

Here’s where it gets interesting: my left hearing aid (in theory the one with slightly less amplification) would clip or chirp at certain frequencies (understand: me singing at the top of my voice as high as I can go — only in the car, people). It’s annoying enough to hear sound that seems to be coming out of a saturated loudspeaker, but when it’s only in one ear, it’s quite maddening.

Other than that, during my first few weeks of test, I had one or two occurrences of chirping. Chirp! You’re walking around in town, and suddenly one of your ears chirp. It happens so fast it leaves you wondering if you dreamed or if it really happened. I’ve actually managed to produce some frequencies (in the car, not reproducible elsewhere ;-)) that reasonably reliably make it chirp, but other than that I’ve had trouble reproducing the problem.

Early on, another problem I had was that I had the impression my left hearing aid wasn’t amplifying some frequencies. The symptom was I felt as if I had a blocked ear, or cotton in my ear — but it was very mild. It felt as if the receiver was maybe not in the right place (but it was, my audiologist checked). So we did a few tests, and during one of those, one of the frequencies we tried sent the aid into a long continuous beep that didn’t stop until we opened the battery casing to turn it off. I had to pull it out of my ear, and my audiologist was able to witness the sound himself (he has a stethoscope with a special attachment that allows him to listen to what is coming out of a hearing aid). Bug, he said! That hearing aid will be going back to the manufacturer at some point…

We never did completely pinpoint what it was that caused this “muffled” sound, but spatial orientation tests showed that I was slightly disoriented towards the left. So we boosted the right ear by 1dB (counterintuitive… but oh well, audiology is an experimental science). I suspect that the “muffled” feeling could in fact be due to the pressure of the tip in my ear (my left canal is smaller than the right) or something like that. Later on, I discovered that the top of the BTE casing was a tiny bit loose, and we changed it. Right now I have to say I feel this “muffled” problem has completely gone away. Either I got used to it, or something we did made it go… Don’t know.

A couple of weeks back I got an extra 2dB (I started at -8dB, and my audiologist usually starts people at -4dB). It was loud, but bearable. However, the clipping got worse, and worse than that, I found myself having trouble understanding people in situations where it seemed to me I should not be having so much trouble. Restaurants, hallways, noisy places. Back in the office, we actually tested this: word recognition in noisy environments. And the verdict seems to confirm my experience: I understand more words with less amplification. One more reason to try another hearing aid before making any final decision.

I walked out of the office with an extra toy: the M-DEX. The M-DEX does a bunch of things:

  • it connects to your phone by bluetooth and allows your hearing aids to function like a bluetooth headset, streaming sound directly into your aids
  • it’s a remote for the hearing aids (sound up, down, left, right, zoom, mute, music/voice programmes).

M-DEX

As far as I’m concerned, the phone bit (what makes it so expensive) is a complete fail. Pairing with the phone is not a problem, and I manage to get sound into my hearing aids, but the sound quality is much much worse than if I simply put the phone to my ear or stick in my earbuds. This reminds me to mention that I can actually fit my earbuds in my earn “over” the hearing aids. They’re a bit loose and fall out easier, and the sound doesn’t really get amplified by the hearing aid, but it works. For the moment my preferred option is still “earbuds and no hearing-aid” for the phone.

I tried with music rather than phone, and I have the same problem: a huge amount of static background noise, and volume so low that even at maximum setting I have trouble recognizing the song that is playing.

The M-DEX comes with a jack cable, so I tried connecting my phone to it with the cable rather than bluetooth. There is much less static, the sound is much better, but it’s still not really loud enough or clear enough to be an interesting alternative to simply wearing the earbuds, even over the hearing aids.

I have to say I’m pretty disappointed about this bit: I use the phone quite regularly, and listen to a lot of music and podcasts. I can’t believe there isn’t a simple “equalizer” software or application for my phone which I could feed my audiogram to and which would then amplify the frequencies I need. Clearly it wouldn’t be as good as a proper hearing aid, but I’m sure it would help a bit. If you know more about why this isn’t done, I’m all ears (!).

One thing I’m really happy with, though, is the remote function of the M-DEX. Given the problems described above in noisy places, it really helps to be able to bring amplification down a notch (both for troubleshooting and better hearing). I’ve toyed about with the zoom function a bit (selectively amplify sound from behind, left, right, in front) but for the moment I haven’t found a real use for it. Same for selectively amplifying left/right ear.

I absolutely love the “mute” button. Even though I’m trying to wear my aids as much as possible to train my brain to adapt to my new sound environment, it’s quite a relief to be able to just switch them off when it gets too noisy, or when I want to concentrate on something (reading on the train, working in the office), without having to physically remove the hearing aids.

One other annoying thing about the M-DEX (this is a comment I saw somewhere, can’t remember where) is this idea that the M-DEX is going to be the device you interact with rather than your phone. You can dial from it, pick up calls, hang up. Well, OK, maybe this makes sense for technology-confused people, but as far as I’m concerned I’d rather have, as the author of that same comment suggested, an app on my iPhone to control my M-DEX. Leave it to phone manufacturers (or Apple) to make phones.

Leaving aside the tech, one of the effects of wearing hearing aids is that I hear my tinnitus more. Luckily, it’s not bothersome: “white noise” type, not too loud, and not an annoying sound to me. It’s a normal phenomenon: while wearing hearing aids, I’m training my brain to tune out other ambient sounds which are louder than I’m used to, and as everything is louder, my brain doesn’t spend the whole day tuning out my tinnitus so I can hear stuff. It’s relaxing, but it means I’m “out of practice” tuning out the tinnitus, so I hear it more when I remove the hearing aids. No biggie, but I thought I’d mention it, because it’s an interesting phenomenon.

And as far as sharing online goes, I stumbled upon the Hearing Aid Forums — a lively online community of hearing aid users and professionals.

So, where am I, overall? I’m now pretty much “habituated” to hearing better (still -6dB from my “ideal” settings), and if you give me the choice between giving back my hearing aids and keeping them, with the glitches, I am definitely keeping them. But maybe the next trial will give me something even better!

Similar Posts:

Sync Multiple Google Calendars on iPhone: Finally Figured it Out! [en]

[fr] Instructions pour synchroniser plus d'un calendrier Google avec son iPhone.

This is something that has been annoying the hell out of me for some time, now. I use at least half a dozen different Google calendars to keep track of my stuff, but when adding a Google account to iCal, all it does is add the main calendar.

I had come upon a hack which consisted in adding each Google calendar in iCal on the computer separately, rather than using delegation. A few weeks ago I was doing some digital housekeeping, and forgot why I had initially done that, and switched back to normal delegation. There went all my lovely syncing.

Let me explain things a bit more clearly:

  1. I have a bunch of Google calendars.
  2. I prefer using the iCal application on the computer and on my iPhone rather than the web interface.
  3. I want everything to sync.

Now, getting Google calendar to sync with iCal on the computer is quite straightforward: add a Google calendar account to iCal following these instructions, and under the “delegation” tab, include any secondary calendars you may have.

It gets tricky with the iPhone. You might think that now that you have your Google calendars in iCal, you will find them on your iPhone if you configure your iPhone to sync calendars with your computer. But no. iCloud or no iCloud, that’s not how it works.

So, you can add a Google account to your iPhone under Settings > Mail, Contacts, Calendars > Add Account… > Google Mail. That’s fine if you have only one calendar, but not if you have more than one, because there isn’t anything like the “delegation” function you had in iCal.

So, if you have more than one like I do, here’s what you need to do:

  1. Add your Google account as a Microsoft Exchange account as described here.
  2. Head over to https://m.google.com/sync/settings/iconfig/, select your iPhone (or other device), and choose which calendars you want to sync.

It’s pretty straightforward, but (a) you have to know about it and (b) do not forget the trailing slash in the URL above. I kept getting “device not supported” and 404 errors which were driving me batty until I figured out what was the cause. Almost gave up!

Thanks a lot to @zecege who patiently tweeted to and fro with me while I figured out all this!

Similar Posts:

Quelques idées pour améliorer l'application iPhone des CFF [fr]

[en] Some ideas to improve the iPhone application for CFF/SBB.

Et hop, un article dans la catégorie “consulting gratuit parce que j’en ai envie” — on verra ce que les CFF ont mis en place comme canaux remontants pour ce genre de chose. Et en passant, ça m’intéresse de savoir ce que vous pensez de vos idées!

Donc, je suis une grande fan de l’application iPhone des CFF. Je l’utilise pour consulter les horaires et pour acheter presque tous mes billets de train. Cependant, il y a un certain nombre de grosses maladresses dans la conception de cette application (je parle stratégie/fonctionnalités ici, et non pas réalisation).

Prenons le plus évident: j’ai un abonnement demi-tarif. Chaque fois que je montre mon billet au contrôleur, je dois également sortir mon porte-monnaie et mon abonnement demi-tarif, en plus de l’iPhone. Au fond, quand j’y pense, c’est presque moins pratique qu’avoir un billet en papier qui serait aussi dans le porte-monnaie! Tous les billets électroniques ont mon nom dessus. Ils sont achetés via un compte créé sur le site CFF. Ne pourrait-on donc pas imaginer la chose suivante:

– j’enregistre mon abonnement demi-tarif auprès de l’application (ou mieux, l’application le fait toute seule car elle sait déjà qui je suis, et ce sont les CFF eux-mêmes (!) qui m’ont vendu le demi-tarif)
– lorsque je présente mon billet au contrôleur, le demi-tarif est “inclus” dans le billet (probablement une fonctionnalité de son lecteur — je ne sais pas exactement quel retour le lecteur fait au contrôleur)

On pourrait aussi imaginer, du coup, que lorsque je cherche à acheter un billet, l’application me propose directement le demi-tarif (ça, c’est implémentable même sans enregistrement du demi-tarif, en passant: une simple préférence “je voyage normalement en deuxième classe demi-tarif” ferait déjà l’affaire).

Alors, je suis sûre qu’il y a un tas de raisons (sécurité, protection des données) qui rendent difficiles “iPhonisation” du demi-tarif. Il faut voir la photo, par exemple. Mais le billet électronique pourrait très bien intégrer la photo de la personne en plus du nom — du coup, serait-il vraiment nécessaire d’exiger alors une pièce d’identité? Il suffit de sécuriser suffisamment le système d’achat et de génération de billets électroniques pour que le système de contrôle puisse avoir la certitude que chacun est unique.

Très probablement qu’on trouverait des solutions à ces problèmes si l’objectif devenait “le voyageur avec un billet iPhone n’a rien d’autre à sortir que son iPhone lorsqu’il est contrôlé”.

Dans le même ordre d’idée: j’ai un abonnement Mobilis zones 11 et 12. Cela veut dire que suivant où je vais, je peux prendre des billets de prolongement de parcours (zones supplémentaires) ou des billets de train partant d’une gare autre que Lausanne.

Exemple: si je vais à Vevey et que mon train s’arrête à Lutry (encore en zone 12), je peux prendre un billet de train depuis Lutry.

Cela demande toutefois une certain gymnastique: si je vais à Genève et que mon train ne s’arrête pas à Renens, par exemple, je n’ai pas le droit de prendre un billet à partir de Renens.

Je m’étais d’ailleurs plainte de cette règle très peu intuitive pour le voyageur auprès de @RailService, qui m’avait expliqué que c’était plus pratique pour eux. Soit. Mais, attendez — on essaie d’être orienté clientèle ou non? Je ne compte pas le nombre de fois où j’ai vu des voyageurs se faire (gentiment, parce qu’ils doivent avoir l’habitude) remettre à l’ordre par le contrôleur parce qu’ils avaient un billet “partiel” pour leur course, un abonnement pour le reste, et que le train ne s’arrêtait pas à la bonne gare intermédiaire. (Moi aussi, d’ailleurs, c’est comme ça que j’ai appris le fonctionnement du système!)

Franchement, “plus pratique pour l’entreprise et complètement contre-intuitif pour le client” n’est pas une bonne stratégie pour vos produits. Mais passons.

Donc, qu’est-ce que ce serait pratique si je pouvais signifier à mon application iPhone CFF que je possède un abonnement Mobilis pour les zones 11 et 12, et s’il pouvait en tenir compte dans les billets qu’il me proposerait? Si je veux aller à St-Prex, l’application me proposerait automatiquement les bonnes zones pour un billet de prolongement de parcours (et non pas, comme elle le fait maintenant, cinq zones dont deux qui me sont inutiles car je les ai déjà payées via mon abonnement).

Si je veux acheter uniquement les bonnes zones, c’est très difficile via l’iPhone, car l’application ne permet pas de sélectionner des zones spécifiques (on peut comprendre, vu le nombre de communautés tarifaires, mais quand même). C’est donc une des rares situations où je me retrouve à acheter mon billet à l’automate.

Maintenant, avec l’extension du réseau Mobilis, je suis confrontée à cette difficulté de plus en plus souvent: je suis dans le train pour Gland (eh oui, l’impulsion pour écrire cet article!) pour lequel j’ai acheté un prolongement de sept zones pour compléter mon abonnement Mobilis, alors que l’application m’en proposait au moins une ou deux de plus. Je pouvais uniquement spécifier que je voulais un billet à partir de Renens, et dans ce cas là, le système tient à me faire acheter la zone 12 également (dans laquelle se situe Renens). J’avais donc le choix entre payer plus (trop!) cher avec l’iPhone, ou payer le prix juste via l’automate.

Je trouve un peu ironique — en y pensant maintenant — que l’application iPhone soit plus maladroite à gérer les situations des voyageurs avec demi-tarif et abonnements préexistants (et donc des gens qui voyagent régulièrement en transports publics) que les gens qui n’ont aucun abonnement (et qui donc voyagent moins, et qui donc… n’ont peut-être pas pris la peine d’installer l’application CFF et de créer un compte lié à leur carte de crédit pour pouvoir acheter des billets en ligne…).

(Tiens, trois jeunes faux sourds dans mon train. Je viens de prévenir @RailService, y a-t-il mieux à faire? Edit 08.03.2011: Alors, dixit @RailService, appeler la Police Ferrovière CFF au 0800 117 117, sans oublier de préciser le train — et hop, numéro enregistré pour la prochaine fois.)

Dernier grief concernant l’application iPhone (que j’adore quand même, je le précise à nouveau): elle est fondamentalement stupide en ce qui concerne les transports publics locaux (en tous cas lausannois). L’application semble un peu idiotement considérer qu’on est incapables de marcher entre deux arrêts de bus s’ils ne portent pas le même nom. Ou en tous cas, sa base de données en la matière n’est pas à jour.

Exemple: pour me rendre à la gare, je prends le 4 jusqu’à Bel-Air, puis je marche une minute (bon, deux) pour prendre le M2 au Flon. Je pourrais aussi changer à St-Roch et prendre le 3 ou le 21, si la correspondance est bonne. Ou bien je peux marcher une minute jusqu’au LEB — de nouveau, si le timing est bon. Je peux aussi marcher jusqu’aux Bergières pour prendre le 21, qui descend directement à la gare. Pour finir, je pourrais aussi prendre le 4 jusqu’à St-François et marcher depuis là (mais ça arrive rarement que je le fasse, j’avoue, le M2 est assez fréquent pour que ça ne vaille pas vraiment la peine).

Si je demande à l’application iPhone CFF un itinéraire depuis mon arrêt de bus, il ne me propose pas la solution la plus rapide pour la gare (le M2) — mais uniquement celle avec changement à St-Roch. Les bus étant un peu moins précis que les trains niveau horaire, j’avoue généralement ne pas vouloir courir le risque de rester coincée à St-Roch parce que mon bus avait une minute de retard.

Ce qui est étonnant avec cette apparente stupidité de l’application, c’est qu’elle est tout à fait capable de me proposer d’aller prendre le train à Renens plutôt que Lausanne (ce qui peut être plein de bon sens vu où j’habite). Par contre, elle me fait passer par le centre-ville, au lieu de marcher 5-10 minutes pour prendre le 7 directement.

J’ai le même problème quand je vais faire du bateau. Mon bateau est au Port de Vidy, accessible via le 6 et le 1 (Maladière ou Figuiers), le 2 (Maladière-Lac), etc. Pour trouver le meilleur parcours, je dois regarder manuellement toutes les possibilités et les comparer “offline”.

En somme:

– j’aimerais pouvoir dire à l’application que je n’ai pas peur de marcher une dizaine de minutes
– j’aimerais que l’application puisse, à partir d’une adresse, ou pour une adresse donnée, choisir l’arrêt de bus qui donnera la meilleure correspondance, tenant compte du temps de marche
– on peut aussi imagine que je puisse avoir des options: minimiser le temps de marche, minimiser les correspondances, chemin le plus rapide porte-à-porte, etc.
– l’application pourrait être nettement plus agile dans ses correspondances (clair, Bel-Air et Flon ce n’est pas le même nom, mais c’est à une minute de marche!)

Voilà, je crois que j’ai fait le tour. Pour ces messieurs-dames des CFF (et éventuellement des TL) qui passeraient par ici, je fais une petite liste-résumé:

– intégrer d’une façon ou une autre mes abonnements existants à l’application, afin que
(a) je ne doive pas sortir iPhone et demi-tarif et abonnement Mobilis pour le contrôleur (oui, parfois c’est les trois!)
(b) l’application me propose des billets qui tiennent compte de mes abonnements existants (particulièrement pour les billets de prolongement de parcours des zones tarifaires)
– améliorer l’intelligence de l’application pour les parcours avec transports publics locaux, en particulier
(a) les correspondances entre arrêts proches portant des noms différents
(b) les alternatives de parcours à partir/à destination d’une adresse donnée, avec des arrêts de départ/arrivée différents

Merci 🙂

Similar Posts: