Академический Документы
Профессиональный Документы
Культура Документы
Le tactile introduit une dimension physique dans des designs qui étaient jusqu’à présent
strictement virtuels et pose un nouveau défi : comment ce design se prend-il en main ?
Web designers, il vous faut désormais penser autrement, et Josh Clark est là pour vous
guider dans le Far West des écrans tactiles. Apprenez des principes d’ergonomie, de mise
en page et de dimensionnement pour tous les écrans, découvrez une boîte à outils gestuelle
émergente, ainsi que des tactiques pour accélérer les interactions et améliorer la «
découvrabilité » des gestes. Au final, concevez des interfaces qui permettront de toucher –
étirer, froisser, déplacer, retourner – les informations elles-mêmes. Le futur est entre vos
mains…
DESIGN
TACTILE
ÉDITIONS EYROLLES
61, bld Saint-Germain
75240 Paris Cedex 05
www.editions-eyrolles.com
Attention : la version originale de cet ebook est en couleur, lire ce livre numérique sur un support de lecture noir
et blanc peut en réduire la pertinence et la compréhension.
Traduction autorisée de l’ouvrage en langue anglaise intitulé Designing for touch de Josh Clark (ISBN : 978-1-9375572-
9-4), publié par A Book Apart LLC
Adapté de l’anglais par Charles Robert
© 2015 Josh Clark pour l’édition en langue anglaise
© Groupe Eyrolles, 2016, pour la présente édition, ISBN : 978-2-212-14391-1
Dans la même collection
HTML5 pour les web designers - n°1, Jeremy Keith, 2010, 96 pages.
CSS3 pour les web designers - n°2, Dan Cederholm, 2011, 128 pages.
Stratégie de contenu web - n°3, Erin Kissane, 2011, 96 pages.
Responsive web design - n°4, Ethan Marcotte, 2011, 160 pages.
Design émotionnel - n°5, Aarron Walter, 2012, 118 pages.
Mobile first - n°6, Luke Wroblewski, 2012, 144 pages.
Métier web designer - n°7, Mike Monteiro, 2012, 156 pages.
Stratégie de contenu mobile - n°8, Karen McGrane, 2013, 164 pages.
La phase de recherche en web design - n°9, Erika Hall, 2015, 176 pages.
Sass pour les web designers - n°10, Dan Cederholm, 2015, 96 pages.
Typographie web - n°11, Jason Santa Maria, 2015, 160 pages.
Web designer cherche client idéal - n°12, Mike Monteiro, 2015, 152 pages.
Design web responsive et responsable - n°13, Scott Jehl, 2015, 206 pages.
Le code de la propriété intellectuelle du 1er juillet 1992 interdit en effet expressément la photocopie à usage collectif
sans autorisation des ayants droit. Or, cette pratique s’est généralisée notamment dans les établissements
d’enseignement, provoquant une baisse brutale des achats de livres, au point que la possibilité même pour les auteurs de
créer des œuvres nouvelles et de les faire éditer correctement est aujourd’hui menacée. En application de la loi du 11
mars 1957, il est interdit de reproduire intégralement ou partiellement le présent ouvrage, sur quelque support que ce
soit, sans autorisation de l’éditeur ou du Centre Français d’Exploitation du Droit de Copie, 20, rue des Grands
Augustins, 75006 Paris.
TABLE DES MATIÈRES
Avant-propos
Introduction
CHAPITRE 1
Une interface physique
CHAPITRE 2
Un écran peu fiable
CHAPITRE 3
Des doigts plus rapides
CHAPITRE 4
Gestes
CHAPITRE 5
Découverte
Ressources
Remerciements
Références
Index
Pour la Team Awesome
AVANT-PROPOS
SANS CRIER GARE, le barrage a cédé, déversant un torrent apparemment infini de rectangles
de verre de différentes tailles sur un public incrédule. Nous autres, designers de ce monde,
n’avions pas d’autre choix que d’agiter les bras pour essayer de rester à flot dans cet océan
de nouveaux appareils.
Mais nous sommes parvenus à garder la tête hors de l’eau, et nous avons lentement
mais sûrement commencé à intégrer ces nouveaux supports mobiles. Les designers natifs
ont mordu à pleines dents et se sont mis à explorer les capacités uniques de ces appareils,
créant des expériences qui ont repoussé les limites du support vers des contrées encore
plus extraordinaires. Et sur le front du Web, nous avons vu apparaître le responsive design,
qui permet aux designers de réorganiser les mises en page de sorte qu’elles s’adaptent et
fonctionnent parfaitement sur n’importe quel appareil, quelle que soit la taille de son
écran. De nos jours, ces sites malléables abondent sur le Web, et les designers ont un
arsenal d’outils à leur disposition pour s’assurer que leurs mises en page marchent sur les
téléphones, les tablettes et tous les appareils intermédiaires. Mission accomplie, non ?
Si seulement c’était aussi simple… Car voyez-vous, les mises en page adaptatives ne
sont qu’une pièce de ce puzzle géant. Le fait est que nous utilisons également ces
nouvelles interfaces avec ces » saucisses » que sont nos doigts. En tant que designers, cela
nous » pouce » (ha ha…) à créer des interfaces qui sont non seulement visualisables sur
des écrans de tailles différentes, mais également utilisables du bout du doigt.
L’ergonomie, la posture, le contexte et la nature tactile de ces interactions ont des
conséquences réelles sur la façon dont nos utilisateurs ressentent nos designs. Un design
peut s’afficher correctement sur un smartphone, mais quelle sensation procure-t-il ? Il est
d’une importance capitale de prendre en compte les interactions tactiles, car de plus en
plus d’écrans présents dans nos vies offrent des capacités tactiles, mais où peut-on
apprendre à réaliser des designs qui répondent au doigt et à l’œil ?
Vous avez de la chance, car Josh est précisément là pour apporter sa touche concernant
ces sujets.
Josh Clark est une véritable mine d’informations sur le design tactile, et il a la capacité
inouïe de pouvoir aborder les principes généraux comme les détails les plus précis avec
clarté et franchise. Dans ce livre, Josh vous aide à comprendre les principes fondamentaux
du design tactile, ainsi que les contraintes et les opportunités qu’offrent les plateformes
natives et le Web. Il vous donne des règles d’ordre général, mais également des conseils
plus pragmatiques quand il est préférable de transgresser ces règles.
Josh ne se contente pas de vous impartir ses années d’expérience pratique durement
acquise en matière de design tactile ; il vous les offre avec un esprit et un enthousiasme
pour le sujet qui est tout simplement contagieux. Je suis certain que, quand vous aurez fini
ce livre, votre cerveau foisonnera d’idées pour atteindre le nirvana du design à grand
renfort de tap, de pinch, de swipe et de scroll. Bonne lecture !
Brad Frost
INTRODUCTION
PENDANT DES DÉCENNIES, nous avons exploré le monde numérique avec des prothèses que
l’on nommait souris, clavier et curseur. Nous appuyions sur des petites briques en
plastique, assis à notre bureau. Nous déplacions des curseurs à l’écran pour activer des
boutons à distance. Nous cliquions sur des icônes. Nous pointions des pixels.
Mais soudain, nous avons eu ces pixels entre les mains. Grâce aux smartphones, des
milliards de personnes se servent d’écrans tactiles chaque jour. Aujourd’hui, nous
touchons les informations elles-mêmes : nous les élargissons, nous les réduisons, nous les
déplaçons, nous les feuilletons. Ce sentiment d’interaction directe change notre façon de
faire face au monde numérique, et il exige des designers qu’ils adoptent de nouvelles
techniques et de nouvelles perspectives. Le toucher introduit la perception physique dans
des designs qui étaient autrefois strictement virtuels ; pour la première fois, les designers
numériques doivent se poser la question : comment ce design peut-il être pris en main ?
C’est à ce sujet que ce livre est consacré. Les écrans tactiles sont partout : dans les
taxis, sur les distributeurs de boissons, les montres, les sièges d’avion, les miroirs des
vestiaires, et bien sûr tous les gadgets que nous » trimballons » dans nos poches et nos
sacs à main. Près de la moitié des Américains ont acheté une tablette à écran tactile entre
2010 et 2014 ; en 2011, Apple a vendu plus d’iPad en une seule année que de Mac au
cours des vingt-huit années précédentes (http://bkaprt.com/dft/00-01/,
http://bkaprt.com/dft/00-02/). Et le tactile est parvenu jusqu’au bureau, avec des appareils
hybrides tablette/ordinateur portable qui combinent clavier, pointeur et écran tactile.
Malgré ce déluge d’appareils tactiles, la plupart des sites web restent obstinément
optimisés pour la souris et le curseur, et il est grand temps que les designers rattrapent leur
retard en la matière. Le responsive design a provoqué une onde de choc sur le Web en
établissant cette simple vérité : le Web ne se limite pas à un seul format de sortie (l’écran
de bureau). Et maintenant, voilà une autre révélation : le Web ne se limite pas à un seul
format d’entrée. L’écran tactile n’est qu’un élément d’une chorégraphie complexe de
modes de saisie pouvant inclure le clavier, la souris, le pavé tactile, les gestes naturels à la
Kinect, la commande vocale, le stylet ou les boutons de tableau de bord, ainsi que les
capteurs embarqués tels que la caméra, le micro, le GPS et bien d’autres. Ce savant
mélange affecte non seulement la mise en page, mais également le concept fondamental de
votre design. Le design tactile ne se limite pas à créer de plus gros boutons pour les doigts
boudinés.
Ce petit volume vous donnera de solides bases pour la plupart de vos projets tactiles,
détaillant les facteurs de forme les plus populaires : téléphones, tablettes, phablettes et
ordinateurs hybrides. Je décrirai de quelle façon les impératifs de design changent en
fonction de l’environnement logiciel, et comment les designs doivent s’adapter pour
prendre en compte les modes de saisie non tactiles.
Cela nécessitera de revoir – et dans bien des cas de faire passer à la trappe – les
solutions courantes des trente dernières années de design d’interface traditionnel. Vous
découvrirez des méthodes entièrement nouvelles, notamment des modèles de design, des
indicateurs tactiles, des conseils d’ergonomie et des métaphores d’interaction que vous
pourrez utiliser dès à présent dans vos sites web et vos applications. L’héritage et les
sources de ces techniques vous surprendront peut-être. Nous emploierons des modèles de
design inspirés d’appareils vintage. Nous décortiquerons des jeux vidéo et des tableaux de
bord pour en tirer des leçons d’interaction. Au fil de ces pages, vous apprendrez à faire
connaître des gestes invisibles, vous découvrirez le pouvoir subtil de l’animation, et vous
verrez pourquoi un enfant peut potentiellement être votre meilleur bêta-testeur. Alors,
faites craquer vos doigts, retroussez vos manches, et mettons-nous au travail.
LE NOUVEAU TÉLÉPHONE était une vraie merveille, le produit d’une entreprise
technologique renommée. Il fonctionnait d’une tout autre façon que ses prédécesseurs,
mais il charmait les novices comme les technophiles. Les observateurs de l’industrie le
qualifièrent d’intuitif, d’efficace, d’amusant même. Le gadget devint rapidement un
symbole de prestige que peu de gens avaient les moyens de s’offrir. Au fil du temps, tout
le monde s’en est acheté un, et son fonctionnement est devenu si naturel que nous avons
aujourd’hui du mal à imaginer qu’un téléphone puisse marcher autrement.
Nous étions en 1963, et l’appareil en question était le téléphone à clavier de Bell
Telephone.
Une interface à boutons poussoirs remplaçait le cadran rotatif, et des millions de
personnes découvrirent les joies du clavier numérique. Il nous paraît aujourd’hui si
familier, et pourtant son agencement n’avait rien d’évident à l’époque. Pour en arriver là,
les chercheurs de Bell ont testé seize variantes du clavier, à la recherche du design qui
permettait la numérotation la plus rapide et la plus fiable.
FIG 1.1 : Les chercheurs de Bell ont testé seize agencements différents, trois par trois, répartis dans six groupes, pour
leur nouveau » poste téléphonique à boutons poussoirs ».
FIG 1.2 : L’usage des smartphones est défini par trois prises de base, et nous passons souvent de l’une à l’autre.
Cette étude confirme également ce que bon nombre d’entre nous peuvent déduire de
nos propres habitudes : nous changeons de prise fréquemment, en fonction du contexte et
des besoins de l’instant. Nous passons d’une prise à une main à une prise à deux mains, ou
de la main droite à la main gauche ; parfois, nous tapotons distraitement en faisant autre
chose, avant de nous arrêter pour consacrer toute notre attention à l’écran. Et par ailleurs,
nous sommes aussi habiles des deux mains. Hoober s’est aperçu que deux tiers des prises
à une main se faisaient de la main droite : c’est la majorité, mais cette proportion reste
inférieure à celle du nombre de droitiers (90 %). Cela signifie que bon nombre d’entre
nous privilégient notre main faible, tout en utilisant l’autre main pour écrire, boire du café,
tenir un bébé ou lire un livre sur le design tactile.
Ainsi, si nous sommes peu nombreux à garder tout le temps la même prise, nous avons
une claire préférence pour l’usage à une main. Et c’est là que notre pouce entre en jeu.
Quand nous tenons notre téléphone d’une seule main, le pouce est le seul doigt disponible
pour tapoter confortablement. Même lorsque nous utilisons nos deux mains, nous
préférons souvent tripatouiller notre écran avec le pouce. Chez les personnes qui tiennent
leur téléphone d’une main et touchent l’écran de l’autre, Hoober a découvert que la plupart
utilisaient leur pouce. Si l’on combine toutes ces personnes, le résultat est sans appel :
75 % des interactions sont effectuées avec le pouce (FIG 1.3).
FIG 1.3 : On parle souvent de design » finger-friendly », mais c’est le pouce qui fait l’essentiel du travail.
La zone du pouce
Si le pouce peut atteindre la quasi-totalité de l’écran sur les téléphones, sauf les plus
surdimensionnés, le territoire demandant le moins d’effort ne représente qu’un tiers de
l’écran. Par exemple, si vous tenez un téléphone dans la main droite, votre pouce tombe
naturellement dans un arc partant du coin inférieur gauche de l’écran, sans qu’il soit
nécessaire d’étirer le pouce ou d’incliner votre téléphone. Ce même arc s’applique à la
prise à deux mains, mais l’arc est plus grand car le pouce peut effectuer des mouvements
d’une plus grande amplitude.
Confort et précision ne concordent toutefois pas parfaitement. Au sein de cette zone de
confort, un deuxième arc en forme d’éventail recouvre les cibles les plus précises à portée
de pouce, comme relevé par une étude de Qian Fei d’Alibaba (http://bkaprt.com/dft/01-
04/, souscription requise). Celle-ci a également découvert que pour les utilisateurs
droitiers, le bas de l’écran et le coin inférieur droit étaient les zones les moins précises
pour un usage au pouce (FIG 1.4).
FIG 1.4 : La zone en vert est la région la plus confortable et la plus précise pour les personnes utilisant leur téléphone
d’une main. Évitez la zone en rouge, ou compensez au moins en utilisant des cibles de plus grande taille.
Et qu’en est-il des gauchers ? La zone couverte par le pouce passe de gauche à droite,
mais cette distinction n’est pas vraiment cruciale, puisque la plupart d’entre nous alternent
entre la main gauche et la main droite facilement (et fréquemment) selon le contexte. Et de
toute façon, en optimisant pour une main, on risque de pénaliser l’autre : la meilleure
solution consiste à placer les fonctionnalités principales au centre de l’écran, là où les
zones des pouces de droite et de gauche se superposent. Au final, la distinction entre le
haut et le bas est plus importante que la distinction entre la gauche et la droite. Quelle que
soit la main que vous utilisez, le bas de l’écran est plus confortable, alors que le haut
demande un effort. Cette règle vaut pour tous les écrans, petits et grands, mais sur les
téléphones de plus grande taille, la partie supérieure de l’écran est encore plus ardue.
LA PHABULEUSE PHABLETTE
La première génération d’appareils post-iPhone comportait systématiquement des écrans
de moins de quatre pouces de diagonale, une taille pratique pour un usage à une main.
Vers la mi-2014, cependant, un tiers des usages du Web mobile s’effectuait sur des écrans
de plus grande taille, avec l’arrivée de téléphones plus grands sur le marché
(http://bkaprt.com/dft/01-05/). Ces téléphones géants venaient combler le vide entre
téléphone et tablette, catégorie affublée du nom douteux de » phablette », avec des écrans
pouvant atteindre sept pouces de diagonale (FIG 1.5). Mon Dieu, qu’est-ce qu’ils
grandissent vite nos petits téléphones ! Et s’élargissent. Et s’épaississent.
FIG 1.5 : Le Galaxy W 7” de Samsung et autres portables de grande taille brouillent la démarcation entre téléphone et
tablette. Photo reproduite avec l’aimable permission de Samsung (http://bkaprt.com/dft/01-06/).
FIG 1.6 : Si aucune des prises faisant usage du pouce n’est aussi courante que l’usage de l’index sur les phablettes, elles
représentent conjointement beaucoup plus d’activité.
Malgré les proportions gargantuesques des phablettes, les gens les manipulent
généralement comme des téléphones, et les trois prises de base s’appliquent toujours.
Cependant, contrairement aux téléphones plus petits, les utilisateurs de phablettes
changent de prise bien plus souvent pour couvrir l’intégralité de l’écran, et il est presque
toujours nécessaire d’utiliser les deux mains. Dans une autre étude, Hoober et Patti Shank
ont observé que les propriétaires de phablettes utilisaient les deux mains 70 % du temps,
indépendamment de la prise utilisée (http://bkaprt.com/dft/01-07/, inscription requise). La
prise la plus populaire, utilisée 35 % du temps, consiste à tenir la phablette dans une main
tout en touchant l’écran avec l’index de l’autre main. Mais le pouce reste le pointeur
principal : 60 % du temps, les utilisateurs de phablettes touchent l’écran avec un pouce ou
avec les deux.
FIG 1.7 : La taille et la forme de la zone du pouce changent lorsque les dimensions du téléphone nécessitent le support du
petit doigt.
FIG 1.8 : En agrippant la phablette plus haut, la zone du pouce s’élargit, mais la partie inférieure de l’écran devient hors
de portée.
TABLETTES : PLUS D’ÉCRAN, PLUS DE PRISES
Si les téléphones et les phablettes se limitent à trois prises de base, c’est peine perdue avec
les tablettes. Un écran plus grand implique davantage de façons de les prendre en main, ce
qui rend leur usage imprévisible. Les mêmes règles de base s’appliquent, mais avec un
casse-tête supplémentaire : la zone couverte par le pouce n’est pas constante, y compris
sur un même appareil ; elle varie selon la position et la posture.
Lorsque nous nous tenons debout, nous utilisons généralement les deux mains pour
tenir une grande tablette telle que l’iPad : nous l’agrippons sur les côtés, vers le milieu
pour une meilleure prise (si on le tient trop bas, il bascule). Certains l’enveloppent dans
leur bras comme un porte-bloc et s’en servent avec l’autre main. Mais le plus souvent,
nous l’utilisons assis : 88 % du temps, selon Hoober et Shank, contre 19 % pour le
téléphone. Lorsque nous sommes assis à une table, nous avons tendance à reposer la
tablette sur une main en soutenant le tiers inférieur, et à nous en servir de l’autre main.
Allongé sur un canapé, nous la posons généralement sur notre ventre ou la calons à l’aide
d’un coussin et nous en servons d’une seule main. Outre ces changements de prise en
main, la posture affecte également la distance à laquelle nous tenons l’appareil : nous
tenons généralement les tablettes plus près lorsque nous sommes debout, et plus loin
lorsque nous nous allongeons. L’orientation de l’appareil (portrait ou paysage) est
également très partagée, à 60 % en faveur d’une orientation verticale.
Plus l’écran est grand et plus l’appareil est lourd ; nous finissons donc souvent par le
poser, tout simplement. Hoober et Shank ont observé que les gens posaient les tablettes
plus grandes dans quasiment deux sessions sur trois : à plat sur une surface (qu’il s’agisse
d’une table ou de nos genoux) 40 % du temps, et à la verticale sur un stand dans 22 % des
cas. (Notons qu les tablettes plus petites, de 7 ou 8 pouces, sont bien plus simples à
manipuler, et nous les tenons en main dans 69 % des cas.) Ces positions suggèrent que
nous utilisons les grandes tablettes plus comme des écrans d’ordinateur traditionnels – ou
plutôt comme ces ordinateurs hybrides à clavier et écran tactile, que nous aborderons dans
un moment – que comme des appareils portatifs.
Il nous arrive souvent de devoir toucher le centre de l’écran ; et à mesure que l’écran
grandit, nos mains doivent couvrir une surface de plus en plus importante. Cependant,
contrairement au curseur d’une souris qui balaye sans effort toute l’étendue de l’écran, nos
doigts sont alourdis par cette chose que l’on nomme » bras ». Ce pointeur charnu remonte
jusqu’à notre épaule, et il en coûte un effort de parcourir tout l’écran. Une interface ne doit
pas être un exercice de musculation : regroupez les commandes les plus fréquentes à
portée de pouce. Nul ne s’est jamais foulé en se tournant les pouces.
ORDINATEURS HYBRIDES ET PORTABLES : AJOUTEZ-MOI UN
CLAVIER
Si la taille de l’écran a un effet si spectaculaire sur notre façon de tenir l’appareil, il ne
devrait pas vous surprendre que l’ajout d’un clavier bouscule encore plus les choses. Nos
postures, de même que nos bras et nos mains, bougent à nouveau pour faire place au
clavier. Jusqu’à récemment, il était rare d’apercevoir cette combinaison hybride clavier-
écran tactile dans la nature. Et puis Windows 8 est arrivé.
En 2012, Windows a introduit l’interaction tactile sur les ordinateurs, révolutionnant
complètement le système d’exploitation le plus utilisé au monde. Ce bouleversement a
amené une nouvelle catégorie d’appareils tactiles – ordinateurs tactiles et combinaisons
tablette-clavier – à inonder le marché grand public… ainsi que de nouvelles exigences
pour les designers.
Le souci, c’est que les hybrides imposent à nos mains des déplacements constants entre
le clavier et l’écran tactile. Avant l’arrivée de cette génération d’appareils, de nombreuses
personnes avaient qualifié ce concept d’ergonomiquement indéfendable : le va-et-vient
constant des mains demanderait trop d’efforts, provoquant ce que l’on appelle le syndrome
du » bras de gorille » (gorilla arm). La même critique a été formulée à l’encontre des
interfaces de Minority Report et d’Iron Man : qui a envie de travailler avec les bras
constamment dans les airs ? » Les interfaces tactiles ne veulent pas être verticales », a
déclaré avec dédain Steve Jobs en 2010 (http://bkaprt.com/dft/01-08/). » C’est super à titre
de démonstration, mais ça devient très rapidement fatigant, et au bout d’un certain temps,
votre bras voudra se détacher de votre corps. »
Des études suggèrent en fait que ces inquiétudes étaient infondées. Un rapport d’Intel a
démontré que les gens avaient rapidement adopté l’interaction tactile sur ces nouveaux
appareils, optant pour l’écran tactile 77 % du temps au lieu de la souris ou du clavier
(http://bkaprt.com/dft/01-09/). En dépit de la disponibilité et de la précision du bon vieux
curseur, les utilisateurs déclaraient que l’écran tactile leur semblait plus intime et plus
direct. D’autres études ont également documenté cette résonnance émotionnelle. L’une
d’entre elles a révélé que les gens accordaient davantage de valeur aux produits
qu’ils » touchaient » sur un site web par rapport à une sélection à la souris
(http://bkaprt.com/dft/01-10/). Lorsque l’on introduit l’inter- action tactile, ces pixels
froids acquièrent la convivialité et l’investissement émotionnel d’objets physiques. Nous
examinerons cette idée plus en détail lorsque nous aborderons les interfaces gestuelles au
chapitre 4.
Outre cet attrait, l’écran tactile ne remplace pas complètement la souris, mais constitue
plutôt un ajout bienvenu, » comme d’avoir un ordinateur portable avec une vitesse
supplémentaire », a confié un testeur à Intel. Avec ces appareils hybrides, les gens
basculent facilement entre l’écran tactile, le clavier, la souris et le pavé tactile, selon le
mode de saisie qui leur semble le plus pratique. Cela représente pourtant beaucoup de va-
et-vient, et l’on pourrait penser que cela ne ferait qu’aggraver le syndrome du » bras de
gorille ». Pourquoi les gens ne perdent-ils pas l’usage de leur bras ? Il s’avère qu’ils
comprennent rapidement comment utiliser l’écran tactile sans lever le bras. Une étude du
chercheur John Whalen a permis de constater que lorsque nous utilisons des ordinateurs à
écran tactile, nous reposons nos bras le long du clavier, en tenant légèrement les coins
inférieurs de l’écran (http://bkaprt.com/dft/01-11/).
FIG 1.10 : La zone optimale pour les pouces sur les appareils hybrides se situe dans les coins inférieurs, pratiquement le
contraire de la zone optimale pour l’index.
Cependant, tout le monde n’adopte pas cette prise. D’autres (surtout les débutants)
s’expriment sous une forme libre, touchant l’écran de l’index pour parcourir toute
l’interface. Pour les designers, voilà qui est problématique : la zone optimale pour l’index
est l’exact inverse de la zone couverte par les pouces. Pour l’index, le centre de l’écran est
facile à atteindre, et les coins posent problème.
En optimisant pour les pouces, on risque d’offrir une expérience moins performante
pour l’index, et vice-versa. Un agencement doit pourtant primer sur l’autre, et comme
avec tous les autres appareils tactiles, les études tendent à donner les pouces vainqueurs.
Dès qu’ils ont acquis un minimum d’expérience, les utilisateurs d’appareils hybrides
privilégient le pouce pour toutes les interactions et reposent leurs bras sur les côtés afin
d’éviter le syndrome du » bras de gorille » (FIG 1.11).
FIG 1.11 : Les utilisateurs confirmés d’appareils hybrides privilégient l’usage au pouce, même pour atteindre des cibles
vers le centre de l’écran. Photographies d’Intel Free Press (http://bkaprt.com/dft/01-12/, http://bkaprt.com/dft/01-13/).
Et c’est là la similitude la plus frappante entre les différents facteurs de forme que nous
avons examinés : les pouces font le gros du travail, quelle que soit la taille de l’écran. Le
pouce offre la meilleure amplitude de mouvement avec le moins d’effort possible. C’est
justement cette aisance physique que les chercheurs de Bell Lab – ainsi que tous les hauts
designers industriels – ont dû prendre en compte pour concevoir leur interface. Ces
considérations ergonomiques détermineront également l’agencement de vos interfaces
numériques. Nous allons commencer par quelques principes d’ordre général valables pour
tous les designs tactiles, puis nous évoquerons des directives plus spécifiques pour chaque
appareil.
CONCEVOIR DES MISES EN PAGE POUR APPAREILS PORTABLES
Bravo ! Vous avez désormais une image claire de l’usage des doigts et des pouces sur les
gadgets de notre quotidien. Il est temps de transformer ce savoir en savoir-faire. La
position de la main – et en particulier la zone couverte par les pouces – vous indique les
meilleurs emplacements pour placer les commandes et le contenu. Quelques principes
fondamentaux valent pour tous les appareils.
Le règne du pouce
Les pouces étant les pointeurs principaux, on peut déjà déterminer une règle évidente :
regroupez les commandes les plus fréquemment utilisées dans les zones couvertes par les
pouces que nous avons identifiées précédemment. Vient ensuite un point peut-être moins
évident : il est essentiel de songer à ce que vous allez placer en dehors de cette zone.
Placez certaines cibles tactiles – par exemple les commandes qui permettent de modifier
des données – à l’abri, afin de les rendre un peu moins accessibles. Quelles actions doivent
être attractives, et lesquelles doivent être un tant soit peu difficiles d’accès ?
Au-delà de ces questions de commodité et de confort, les mains posent toutefois un
autre problème d’ordre physique : elles ne sont pas transparentes.
FIG 1.12 : Si les commandes de l’un de ces appareils classiques apparaissaient au-dessus du » contenu », vos pieds, votre
main ou votre bras vous empêcheraient de l’utiliser.
FIG 1.13 : La plupart des claviers tactiles font apparaître la lettre sélectionnée au-dessus de la touche, afin de contourner
le doigt posé sur l’écran.
Partez du principe que les gens perdront de vue tout le contenu situé en dessous d’un
objet lorsqu’ils le toucheront – ainsi que l’objet lui-même. Ce principe doit affecter votre
façon d’indiquer les contrôles et de confirmer les interactions tactiles. Au pays du curseur,
un bouton peut être mis en surbrillance lorsqu’on clique dessus. Sur un écran tactile, ce
changement de couleur n’est d’aucune utilité lorsqu’il se produit dans l’ombre d’un doigt.
Présentez plutôt cette confirmation rétroactive au-dessus de l’objet. De même, les libellés
doivent être placés au-dessus des contrôles.
Le champ de vision, combiné avec les principes d’ergonomie, dicte la mise en page des
interfaces tactiles. En particulier, ces contraintes physiques repoussent le contenu vers le
milieu et le sommet de l’écran, et les contrôles vers les côtés, les coins et le bord
inférieur. » Le contenu au-dessus des contrôles » est une règle assez simple en soi, mais
elle s’avère difficile à appliquer, car ses détails varient selon la taille de l’écran et
l’environnement de la plateforme. Les systèmes d’exploitation et les navigateurs imposent
leurs limites à l’espace occupé à l’écran, et les designers doivent composer avec leurs
choix. Le reste de ce chapitre explore les réserves et les implications pour les plateformes
et les facteurs de forme les plus populaires, en commençant par le petit écran.
FIG 1.14 : Dans iOS, les barres d’outils sont ancrées en bas de l’écran, à portée de pouce.
MISE EN PAGE POUR LES TÉLÉPHONES
Les doigts et les pouces se jouent des conventions des ordinateurs de bureau, surtout
lorsqu’il s’agit des petits écrans. Les téléphones à écran tactile font passer les contrôles
principaux, tels que les menus et les barres de navigation, en bas de l’écran. Cela permet
de placer les cibles tactiles à portée de pouce, et le contenu hors de son chemin. Vous
reconnaîtrez ce principe sur l’iPhone, où les onglets et les barres d’outils sont regroupées
en bas de l’écran pour qu’on puisse y accéder rapidement (FIG 1.14).
Mais songez à ce qui ne se trouve pas dans le périmètre du pouce. Les conventions
d’iOS placent les boutons d’édition dans le coin supérieur droit de l’écran, hors de la zone
du pouce – disponibles, moyennant toutefois un léger effort supplémentaire. La raison en
est simple : les boutons d’édition permettent de modifier les données. Voilà un parfait
exemple de design défensif, qui permet d’éviter les fausses manipulations ou autres
actions que les utilisateurs risqueraient de regretter.
FIG 1.15 : Twitter pour iPhone relègue le bouton Tweeter en haut à droite de l’écran, réservant la zone du pouce à la
navigation – et permettant ainsi d’éviter tout tweet malencontreux. (Si seulement une bonne mise en page pouvait
permettre d’éviter les tweets idiots, mais malheureusement, on n’y est pas encore.)
Il n’est pas nécessaire d’exiler tous les contrôles permettant de modifier des données
vers le haut de l’écran. Lorsque l’objectif principal d’une application est d’éditer ces
données (encore et encore), ces contrôles peuvent tout à fait rester en bas. Après tout, un
bon design optimise les tâches récurrentes pour les rendre aussi ergonomiquement
efficaces que possible. Les applications pour iPhone de Swarm et d’Instagram sont des
exemples utiles : elles placent les actions principales – le check-in ou la publication d’une
photo – en bas de l’écran (FIG 1.16). En bonus : la position centrale permet d’accéder au
bouton aussi facilement de la main droite que de la main gauche.
FIG 1.16 : Swarm (à gauche) et Instagram (à droite) ont optimisé leur interface pour iPhone afin de faciliter l’accès aux
tâches principales.
Jusque là, rien de bien compliqué, mais nous avons seulement abordé des exemples sur
l’iPhone. Dans iOS, les contrôles système disparaissent complètement lorsque vous êtes
dans une application, de sorte que les designers n’ont pas à faire concurrence à la
plateforme elle-même pour l’utilisation de l’espace. Il n’en va pas de même pour d’autres
plateformes mobiles.
Il n’est jamais judicieux d’empiler différents contrôles où que ce soit sur une interface
tactile ; des cibles tactiles adjacentes sont autant de tentations pour vos doigts
indisciplinés. Le fait d’empiler les contrôles au bas de l’écran ne fait qu’aggraver le
problème. D’une part, la zone du pouce, du simple fait de son volume d’utilisation,
favorise les erreurs. D’autre part, la présence du pouce au-dessus de l’écran limite la
visibilité dans cette zone ; on commet plus facilement des erreurs lorsqu’on n’y voit
goutte.
Malheureusement, la seule solution pour éviter d’encombrer les boutons système
d’Android consiste à placer les contrôles au sommet de l’écran (FIG 1.18). Ce n’est pas
idéal : vous devez tendre les doigts pour atteindre la barre de navigation, et ce faisant, vos
mains dissimulent l’intégralité de l’écran. Mais ces concessions valent mieux que
l’alternative d’empilement des contrôles et les inévitables erreurs qui en découlent. Si
vous avez le choix entre une gêne et une erreur pure et simple, la gêne est le moindre des
deux maux.
FIG 1.18 : Sur iOS, Facebook place la barre de navigation au bas de l’écran (à gauche) ; sur Android, l’application fait
passer la barre de navigation en haut de l’écran afin d’éviter toute confusion avec les boutons système d’Android. En
conséquence, les contrôles de statut/ photo/check-in sortent de la barre d’outils et intègrent le flux des actualités.
Sur les petits appareils tournant sous Android, la barre de navigation et les contrôles de
l’application doivent remonter en haut de l’écran. Voilà ce qu’indiquent les directives de
design d’Android, inversant les conventions de l’iPhone, dont le bouton Home physique
ne suscite pas les mêmes problèmes de concurrence que les boutons système d’Android.
Android encourage par ailleurs les designers à suivre ce même modèle avec la barre
d’action, un widget de navigation standard qui apparaît toujours au sommet de l’écran.
Ainsi, même si le principe du » contenu au-dessus des contrôles » s’applique toujours,
tout dépend de ce qui a la priorité. Pour Android, il s’agit du système d’exploitation, et les
applications doivent s’effacer. Sur iOS, les applications sont libres de s’approprier le bas
de l’écran… sauf s’il s’agit d’une application web.
FIG 1.19 : Sur iOS, lorsque vous cliquez sur un lien en bas de l’écran (à gauche), vous faites apparaître la barre d’outils
de Safari au lieu d’activer le lien. La page remonte alors pour faire de la place, et vous devez cliquer de nouveau sur le
lien pour l’ouvrir.
Sans même parler d’une barre d’outils fixe, le sommet de la page est un terrain hostile
pour placer une barre de navigation sur les petits écrans, même si vous la faites défiler
avec le reste de la page. Quand l’espace est restreint, ne gâchez pas la partie supérieure de
l’écran avec des contrôles de navigation ; allez droit au contenu. » Bien trop d’expériences
web mobiles […] démarrent la conversation par une liste d’options de navigation au lieu
d’afficher du contenu », met en garde Luke Wroblewski dans Mobile First
(http://bkaprt.com/dft/01-14/ ou www.editions-
eyrolles.com/Livre/9782212134063/mobile-first pour l’édition française). » Le temps est
souvent précieux sur les appareils mobiles, et les téléchargements peuvent coûter de
l’argent, alors donnez aux gens ce pour quoi ils sont venus aussi vite que vous le pouvez. »
Sur le Web, placez le contenu en premier et confinez la navigation principale au
bas de la page. Et j’ai bien dit au bas de la page, pas au bas de l’écran. S’il est mal vu
d’épingler les contrôles à un emplacement fixe sur la page, la solution consiste à les placer
dans la page elle-même. Pour ce faire, Wroblewski préconise un modèle de design utile,
que vous pouvez voir à l’œuvre sur le site web The Session (http://bkaprt.com/dft/01-
15/) : le menu de navigation semble se trouver derrière un bouton au sommet de l’écran
(FIG 1.21).
FIG 1.21 : Touchez le bouton en forme de flèche au sommet de la page (image de gauche), et les options de navigation
s’afficheront à l’écran. En réalité, le bouton vous amène au menu de navigation situé en bas de la page.
<ul id="navigation">
<li><a href="/one">Option un</a></li>
FIG 1.22 : Par défaut, la barre d’action d’Android regroupe tous les éléments de navigation et les options au sommet de
l’écran (image de gauche). La barre d’action scindée (à droite) déplace les icônes d’action en bas de l’écran, simplifiant
l’accès au pouce sur les phablettes.
Ce n’est toujours pas idéal. En empilant les contrôles sur les phablettes, on favorise le
même genre de fausses manips que sur les téléphones. Comme il est pratiquement
impossible d’atteindre les contrôles placés au sommet de l’écran d’une seule main,
cependant, déplacer les contrôles à portée de pouce en vaut le risque. Au moins, les
utilisateurs se servant de leur pouce sont en mesure d’atteindre les boutons. Comme nous
l’avons remarqué précédemment, les contraintes liées aux plateformes forcent
constamment les designers à faire des compromis. En cas de doute, le moindre mal est
toujours l’option qui permet au moins un accès basique aux fonctions.
Le bouton de déclenchement flottant est un palliatif pratique. Ces boutons se nichent
dans le coin inférieur de l’écran et restent en place alors que le reste de la page défile.
Vous pouvez utiliser un bouton de déclenchement pour exécuter l’action principale d’un
écran – » ajouter une photo », » check-in », » nouveau message » – ou le transformer en
mini-barre d’outils ou en menu circulaire d’actions associées (vous en apprendrez
davantage sur les menus circulaires au chapitre 4.) Lorsque je me suis occupé du design
du site mobile responsive d’Entertainment Weekly, nous avons utilisé un bouton de
déclenchement flottant pour offrir un accès rapide aux outils de partage sur les écrans de
toutes tailles (FIG 1.23). Touchez le bouton et vous verrez apparaître une liste d’options.
FIG 1.23 : Sur le site mobile d’Entertainment Weekly (http://m.ew.com), un bouton de déclenchement flottant (à gauche)
se déroule pour afficher les options de partage (à droite).
Mais, ne devait-on pas éviter d’empiler des contrôles en bas de l’écran ? Absolument,
voilà encore un compromis permettant de placer les contrôles à portée de main sur les
phablettes. La bonne nouvelle : un bouton de petite taille qui se développe n’est pas aussi
pénalisant qu’une barre d’outils complète. Dans le jargon de développement d’Android,
un bouton de déclenchement s’appelle un bouton d’action flottant (FIG 1.24) ; consultez
les directives de design d’Android pour plus d’informations sur l’espacement des boutons
(http://bkaprt.com/dft/01-16/).
FIG 1.24 : Un bouton de déclenchement flottant, tel que ce bouton d’action dans le coin inférieur droit, vous permet
d’inclure une ou plusieurs actions principales en bas de l’écran sans que celles-ci n’entrent en conflit avec les boutons
système d’Android.
Autre solution : afficher les contrôles visuels au sommet de l’écran et placer une
interaction de secours en dessous. Une deuxième option facilitant l’usage au pouce sur
les phablettes consiste à conserver le contrôle des onglets au sommet, mais à les compléter
par une navigation par balayage dans le corps de la page (FIG 1.25). Ce modèle fonctionne
bien pour le contenu de navigation organisé en onglets. Les utilisateurs peuvent accéder
aux onglets en cliquant dessus, mais sur les écrans plus grands, il est plus pratique de
balayer directement le contenu. Le geste classique » tirer vers le bas pour actualiser » offre
des avantages similaires, vous permettant d’actualiser le contenu de l’écran sans avoir à
toucher un bouton.
FIG 1.25 : L’application Contacts d’Android permet de basculer entre les onglets en balayant l’écran. Touchez l’onglet
Favoris ou Tous les contacts au sommet de l’écran, ou bien balayez l’écran à n’importe quel endroit pour basculer entre
les onglets. (Les onglets sont un composant standard dans le système d’exploitation Android, et la fonction de balayage
est intégrée pour être facilement utilisée par les designers.)
FIG 1.26 : Le mode à une main de Samsung (à gauche) réduit les interfaces utilisateur sur phablette pour qu’elles soient
plus maniables, tandis que la fonction » Reachability » d’Apple (à droite) fait glisser le sommet de l’écran vers le bas
pour le rendre plus accessible. Photographie de gauche prise par Kārlis Dambrāns (http://bkaprt.com/dft/01-17/) ;
photographie de droite utilisée avec l’aimable permission d’Apple (http://bkaprt.com/dft/01-18/).
Apple a emprunté une approche différente dans iOS avec une fonction
appelée » reachability » (FIG 1.26). Touchez le bouton Home deux fois, et l’interface
glisse vers le bas de sorte que le sommet de l’application arrive à la moitié de l’écran, à
portée de pouce, et remonte lorsque vous avez fini. Les contrôles placés en haut de l’écran
deviennent aussi faciles à atteindre que si vous aviez remonté votre main le long du
téléphone, sans l’effort associé. Autre avantage : contrairement à l’approche employée par
Samsung, celle-ci n’altère pas la taille ni la disposition des cibles tactiles.
Si ces solutions d’Apple et de Samsung fonctionnent au niveau du système
d’exploitation, les sites web peuvent eux aussi employer des panneaux coulissants. Au lieu
de faire glisser l’interface vers le haut ou vers le bas, cependant, un angle d’approche plus
pratique sur les pages web consiste à faire apparaître un menu du bord de l’écran. Un petit
bouton ou un onglet placé dans la zone du pouce permet d’invoquer le menu, avec des
options pratiques à utiliser d’une seule main (FIG 1.27).
FIG 1.27 : Le site du Time (http://time.com) comporte un onglet latéral qui ouvre un tiroir rempli d’articles récents
lorsque vous le touchez.
Une mise en garde toutefois : sur une phablette, les côtés de l’écran sont difficiles
d’accès pour les pouces, quoique plus simples à atteindre que le sommet. (Vous pouvez
contourner ce problème en permettant également aux utilisateurs de balayer l’écran pour
ouvrir l’onglet avec une interaction de secours.) En général, les contrôles latéraux sont
mieux adaptés à un usage à deux mains, et c’est pourquoi ils fonctionnent mieux sur les
tablettes plus larges. Voilà donc venu le moment de parler de la grande sœur de la
phablette.
MISE EN PAGE POUR LES TABLETTES
Le design pour tablettes contraste fortement avec les petits écrans. Alors que les
téléphones et les phablettes privilégient le bas de l’écran pour les cibles tactiles les plus
fréquentes, les zones couvertes par les pouces sur les tablettes bougent de haut en bas,
privilégiant les côtés et les coins supérieurs (FIG 1.28). Si le sommet de l’écran devient
plus important pour l’expérience tactile, c’est également le cas de l’expérience visuelle.
Plus l’écran est grand, et plus il est difficile de parcourir tout l’écran d’un seul coup d’œil,
comme nous pouvons le faire sur le téléphone ; ainsi nos yeux – de même que nos pouces
– viennent se poser naturellement sur la moitié supérieure de la tablette. La hiérarchie des
informations du design doit refléter ce facteur.
FIG 1.28 : Sur l’iPad, les applications Instapaper (à gauche) et Twitter (à droite) offrent de bons exemples de placement
alternatif des contrôles dans la zone des pouces.
Si les coins supérieurs sont un emplacement idéal pour les cibles tactiles fréquentes, la
partie centrale du sommet de l’écran est tout bonnement hostile. Sans même parler de
l’effort requis pour atteindre cette zone, celle-ci vous oblige à couvrir l’écran et tout son
contenu. Le défunt magazine pour iPad The Daily offrait une barre de défilement en haut
et au centre de l’écran pour parcourir les pages du numéro (FIG 1.29), mais les miniatures
étaient couvertes par la main lors de son utilisation. Il fallait donc se contorsionner en
faisant défiler le curseur pour voir la couverture du numéro.
FIG 1.29 : La barre de défilement du Daily révèle des miniatures des pages qui finissent masquées par votre doigt.
Comme pour la plupart des interfaces tactiles, la partie centrale du sommet de l’écran est un mauvais endroit pour placer
des contrôles.
Cette maladresse du Daily nous amène à édicter une exception à la règle du coin
supérieur pour les contrôles sur tablette. Dans certains cas, il vaut mieux placer les
contrôles en bas de l’écran, même s’il s’agit de la région la moins accueillante des
tablettes pour les interactions tactiles comme pour l’expérience visuelle. Cette exception
s’impose lorsque les effets de ces contrôles sur le corps de la page doivent être visibles.
Lorsque les contrôles permettent de parcourir ou de modifier le contenu, placez-les en
dessous ou à côté du contenu, jamais au-dessus.
L’application pour iPad du Sydney Morning Herald, par exemple, offre un moyen
original de parcourir tous les articles du numéro du jour en faisant défiler un curseur
affichant le numéro des pages au bas de l’écran (FIG 1.30). Ce contrôle révèle une liste des
titres des articles ; c’est donc un compromis acceptable que de placer ces contrôles au bas
de l’écran. Si les contrôles se trouvaient en haut, votre main couvrirait toute la liste
lorsque vous les activeriez.
FIG 1.30 : L’application pour iPad du Sydney Morning Herald liste les titres de la page lorsque vous touchez le curseur
au bas de l’écran. La position du contrôle permet de garder les titres bien en vue.
Alors, faut-il placer les contrôles pour tablette en haut ou en bas ? Coupons la poire en
deux.
• Les coins supérieurs sont idéaux pour la navigation et les outils ne nécessitant qu’une
seule action comme le partage, l’ajout aux favoris ou la suppression.
• Le bord inférieur est acceptable pour les contrôles permettant de parcourir ou de
prévisualiser le contenu sur la page au-dessus. (Si l’espace le permet, toutefois, il vaut
encore mieux placer les outils sur les côtés afin qu’ils ne disparaissent pas sous les
mains et les doigts.)
MISE EN PAGE POUR ORDINATEURS PORTABLES ET HYBRIDES
Le bord inférieur de l’écran est tout de suite beaucoup plus pratique lorsque votre écran
tactile est vertical et se voit adjoint d’un clavier. Sur les ordinateurs portables/hybrides, les
pouces tendent à privilégier le rebord et les coins inférieurs, et votre mise en page doit en
tenir compte.
Regroupez les contrôles et les gestes principaux dans les coins inférieurs et sur les
côtés. Ce n’est généralement pas comme cela que l’on procède, me direz-vous. La plupart
des designs pour grands écrans fixent traditionnellement les contrôles principaux comme
la navigation et les barres d’outils au sommet ou au milieu de l’écran, hors de la sacro-
sainte zone du pouce. L’écran tactile nous oblige à réévaluer notre position. Les meilleures
applications Windows optimisées pour les écrans tactiles, par exemple, font passer les
contrôles fréquents du centre de l’écran aux rebords : balayez l’écran depuis la droite pour
ouvrir la barre d’action Windows, et faites glisser l’écran de haut en bas pour faire
apparaître la barre des tâches (FIG 1.31).
FIG 1.31 : Les gestes système de Windows sont optimisés pour des mains qui reposent dans les coins inférieurs de
l’écran. Dans Windows, faites glisser votre doigt depuis le bord droit de l’écran (en haut) pour faire apparaître la barre
des charmes – remplacée par la barre d’actions dans Windows 10 – ou balayez l’écran de haut en bas pour afficher la
barre des tâches (en bas).
Lorsqu’elles n’organisent pas les contrôles principaux dans des tiroirs en dehors de
l’écran, les applications Windows bien élevées alignent ces contrôles sur le côté gauche ou
droit, ou le long du rebord inférieur. Facebook pour Windows dispose les options de
navigation principales le long du rebord gauche et la barre de discussion à droite.
L’application de musique pour Xbox place ses contrôles de lecture au bas de l’écran. Dans
chaque cas, les contrôles principaux peuvent facilement être actionnés par les pouces qui
reposent aux coins de l’écran (FIG 1.32).
FIG 1.32 : Les contrôles placés sur les bords de l’écran permettent de placer les cibles tactiles fréquentes à portée de
pouce en position de repos. L’application Musique de la Xbox (en haut) fixe la navigation sur le bord gauche et les
contrôles du lecteur en bas de l’écran. Facebook (en bas) vous permet de parcourir les catégories avec votre pouce
gauche et la barre de discussion avec le droit.
Les applications natives peuvent se permettre de placer les contrôles au bas de l’écran,
mais sur le Web, c’est plus compliqué. Les navigateurs sont aujourd’hui incapables de
détecter à quel type d’appareil ils ont affaire. Il n’existe aucun moyen fiable de déterminer
si un appareil dispose d’un écran tactile, d’un clavier, d’une souris ou d’une combinaison
des trois. En d’autres termes, le navigateur n’a aucun moyen de savoir s’il tourne sur une
tablette, un ordinateur portable ou un appareil hybride. Les logiciels natifs disposent de
beaucoup plus d’informations sur l’appareil, de sorte que les designers d’applications
natives peuvent plus facilement concevoir une expérience tactile sur mesure.
Nous avons besoin de nouvelles techniques de web design pour couvrir tous les types
d’appareils à grand écran. On ne peut que faire des progrès dans ce sens : la plupart des
designs de sites web pour grands écrans ne sont pas encore optimisés pour les interactions
tactiles sur ces appareils. Cela s’explique par le fait que bon nombre d’entre nous
s’imaginent toujours que grand écran signifie ordinateur de bureau, et donc clavier et
souris. Ces suppositions ne tenaient déjà pas debout à l’origine, mais avec les tablettes et
les ordinateurs hybrides, elles s’écroulent tout simplement. À l’heure qu’il est, les sites
web pour grands écrans posent problème à nos gros doigts patauds, avec des cibles tactiles
trop petites pour les liens et des menus de type <select>, ou ils s’appuient sur des
interactions de survol qui ne sont tout simplement pas déclenchées sur les écrans tactiles.
Nous devons changer notre façon de penser le design pour grands écrans. En fait, nous
devons tout simplement changer notre façon de considérer les écrans, car ceux-ci ne
cessent de nous induire en erreur. Nos préjugés sur les écrans nous amènent à concevoir
dans la mauvaise direction. Il s’avère que les pixels ne fonctionnent pas de la façon que
nous imaginons, que la taille de l’écran ne détermine pas s’il est tactile, et que les
navigateurs ne sont même pas capables de savoir quels gadgets y sont raccordés. De ce
fait, il est difficile de s’adapter de manière fiable aux exigences physiques qui ont fait
l’objet de ce chapitre. Pour les designers, le problème des écrans tactiles réside moins dans
cette mécanique que dans le mécanisme lui-même : l’écran.
L’ÉCRAN NOUS A LONGTEMPS PARU comme une toile de fond fidèle pour nos interfaces
visuelles. Au fil de la courte histoire du web design, les écrans ont toujours su être fiables
et rassurants. Ils ont gardé le même format pendant des décennies, et bien qu’ils aient
progressivement grandi, ils l’ont fait à un rythme régulier. Le secteur du web design a
établi des largeurs standard – en commençant par 600 pixels dans les années 1990, puis
800 pixels autour des années 2000, puis 980, et enfin 1 200. Et puis soudain, cette illusion
de largeur fixe a explosé avec la révolution mobile et son déluge d’écrans de tailles et de
formes différentes.
Le responsive design est la nouvelle norme, et grâce aux media queries CSS, nous
avons pu adapter nos designs à ces contenants de poche. Mais les écrans tactiles et les
autres modes de saisie émergents nous posent de nouveaux défis tenaces, tels que les
énormes variations de densité de pixels et la prise en charge inégale des interactions
tactiles, que les media queries ne sont pas (encore) en mesure de gérer. Les écrans ne sont
plus cette base solide pour le design qu’ils semblaient être auparavant.
Notre mission consiste à construire des interactions physiques solides par-dessus ces
fondations virtuelles branlantes. Ce chapitre vous expliquera comment mettre un peu
d’ordre sur ces écrans peu fiables. Nous découvrirons des interactions universelles qui
fonctionnent avec ou sans écran tactile. Nous explorerons le monde des viewports
dynamiques qui permettent d’agrandir l’écran d’un simple pincement de doigts, et nous
apprendrons à dimensionner des cibles tactiles même lorsque vous ne connaissez pas la
densité de pixels de l’écran. Mais surtout, nous verrons ce que vous pouvez ou non savoir
sur les écrans – et ce que vous pouvez supposer sans trop vous avancer : très peu de
choses.
Même la simple question » cet appareil dispose-t-il d’un écran tactile ? » ne trouve pas
de réponse définitive. Les navigateurs n’offrent aucun moyen de le déterminer avec
certitude. Idéalement, il faudrait coder notre CSS de sorte qu’il s’adapte à différents
modes de saisie, de la même façon que le responsive design prend en compte plusieurs
types d’affichage (c’est-à-dire de tailles d’écrans). Malheureusement, nous ne disposons
encore d’aucun outil infaillible permettant de détecter les modes de saisie d’un appareil.
Clavier, écran tactile, souris, reconnaissance vocale ou gestes naturels de style Kinect –
nous n’avons aucun moyen de deviner comment l’utilisateur pilote son navigateur.
LA TAILLE EST UN PIÈTRE MOYEN DE DÉTECTER LES ÉCRANS
TACTILES
N’ayant pas de meilleurs outils à notre disposition, nous nous sommes reposés sur
l’hypothèse douteuse que la taille de l’écran nous donnait une indication sur son mode de
saisie. » Si c’est un petit écran, il est tactile. Si c’est un grand écran, il est piloté par une
souris. » Cette distinction était déjà mise à mal par les grandes tablettes comme l’iPad, et
les ordinateurs hybrides l’ont achevée avec leurs écrans tactiles de grande taille. En marge
de ce phénomène, d’énormes tablettes tactiles font également leur apparition, avec des
écrans qui dépassent les 20 pouces de diagonale. Pourtant, les designers parlent encore de
mises en page » mobiles » et » bureau » (tactile vs. souris), alors qu’ils devraient plutôt
parler de petits et de grands écrans. Il serait temps que nous cessions de confondre taille de
l’écran et mode de saisie, mais comment faire ?
Si les media queries ne ciblent pas encore les appareils tactiles, cela devrait changer
avec CSS4. La nouvelle media query pointer cible les gadgets dotés d’outils de pointage
fins (fine) ou épais (coarse) – ou même d’aucun pointeur, comme les interfaces utilisant
uniquement la reconnaissance vocale ou un clavier (http://bkaprt.com/dft/02-01/). Une
souris, un pavé tactile, un stylet ou tout autre » bidule » précis compte comme un pointeur
fin, tandis que les doigts sont un pointeur épais. Cela nous permet de créer des règles
spécifiques mieux adaptées aux doigts et aux pouces. Par exemple, pour agrandir une zone
de saisie, vous pourriez utiliser la propriété pointer ainsi :
/* Agrandir les champs de saisie pour les écrans tactiles */
@media (pointer:coarse) {
input[type="text"] {
min-height:44px;
}
Si la propriété pointer est une nette amélioration, son approche binaire » fin vs. épais »
est trop réductrice. Comme les ordinateurs hybrides nous l’ont déjà démontré, un même
appareil peut disposer de plusieurs modes de saisie différents. Lorsque vous avez un
mélange de pointeurs fins et épais, la media query pointer se fie à ce que le navigateur
considère comme étant le mode de saisie » principal ». Une tablette adjointe d’un clavier
Bluetooth considèrerait sans doute son écran tactile comme le mode de saisie principal –
et la propriété pointer indiquerait alors coarse –, mais un ordinateur à écran tactile pourrait
décider que son mode de saisie principal est son pavé tactile, et pointer renverrait alors
l’attribut fine.
La propriété pointer nous serait plus utile si nous pouvions cibler des combinaisons
spécifiques. Comme nous l’avons appris au chapitre 1, la mise en page sur un ordinateur
hybride disposant d’un écran tactile et d’un clavier devra être différente de celle destinée à
une tablette tactile, car l’ergonomie est différente sur les deux appareils. C’est pourquoi il
est important d’identifier à la fois la présence d’un écran tactile et sa possible association à
d’autres modes de saisie. Tant que nous y sommes, ce serait super d’avoir des en-têtes
HTTP qui annoncent au serveur backend à quel type d’appareil il a affaire :
« Hello, je suis un écran tactile ! »
« Bien le bonjour, je suis un hybride écran tactile-clavier. »
« Salut, je n’ai pas d’écran du tout… »
Il est prévu que cette fonction soit implémentée à l’avenir mais en attendant, nous
devons nous contenter de ce que nous avons. Nous avons presque la possibilité de détecter
les écrans tactiles en utilisant JavaScript pour repérer les événements tactiles et en ajoutant
une classe » touch » dans l’élément document du DOM. Pour effectuer un test rapide, mais
relativement naïf, vous pouvez vérifier la présence de ontouchstart ou de MaxTouchPoints
(msMaxTouchPoints dans Internet Explorer) :
<script>
// si le navigateur prend en charge les interactions tactiles, ajouter la classe 'touch' dans
l’élément body
if ( 'ontouchstart' in window ||
window.navigator.MaxTouchPoints ||
window.navigator.msMaxTouchPoints )
{
document.getElementsByTagName('body')[0].className
+= ' touch';
}
</script>
Et à partir de là, vous pouvez ajouter ces quelques lignes dans votre CSS pour
augmenter la taille des cibles tactiles :
/* Agrandir les champs de saisie sur les écrans tactiles */
.touch input[type="text"] {
min-height:44px;
}
Cette solution n’est pas parfaite. Pour commencer, cette approche teste le navigateur
pour voir si le logiciel prend en charge les interactions tactiles, mais néglige le côté
matériel. Ce n’est pas parce qu’un navigateur comprend les interactions tactiles que
l’appareil les prend en charge. Il arrive parfois que des navigateurs prenant en charge les
interactions tactiles, mais tournant sur des gadgets sans écran tactile, rapportent que les
événements tactiles sont disponibles, ce qui produit des faux positifs. Après tout, vous
demandez au logiciel s’il prend en charge les interactions tactiles, et certains navigateurs
vous répondront sincèrement que c’est le cas, même s’ils tournent sur un appareil
incompatible. Ensuite, tous les navigateurs tactiles ne rendent pas les événements
disponibles en JavaScript, ce qui produit des faux négatifs (c’est notamment le cas
d’Opera Mini et des appareils plus anciens tournant sous Symbian et Windows Phone 7).
Le tableau est sombre : nous n’avons aucun moyen de savoir avec certitude si nous
avons affaire à un écran tactile, du moins pour le moment. La seule véritable option qui
s’offre à nous est de deviner au mieux. Et au fond, il n’y a qu’un seul choix possible.
PARTEZ DU PRINCIPE QUE TOUS LES ÉCRANS SONT TACTILES
Puisque n’importe quel appareil est susceptible de comporter un écran tactile, nous avons
intérêt à considérer que c’est toujours le cas. Face à ces incertitudes, il est de notre devoir
de nous assurer que nos designs seront accessibles pour les curseurs comme pour les
doigts. Tous vos sites web – et il en va de même pour les applications de bureau natives –
doivent être conçus pour permettre les interactions tactiles.
Ce n’est pourtant pas ce que nous faisons à l’heure actuelle. Nos stratégies de
design » établies » ne prennent pas en compte le curseur et l’écran tactile. Un nouveau
langage de design doit s’imposer et remplacer les traditionnelles interactions par curseur
par des conventions suffisamment flexibles pour gérer plusieurs modes de saisie
potentiels. En fin de compte, il s’avèrera peut-être impossible de prendre en charge tous
les modes de saisie – en combinaison ou séparément – avec une seule interface. Nous
devrons peut-être offrir plusieurs modes, sélectionnables par l’utilisateur en fonction de
ses habitudes. (Le site Vimeo, par exemple, offre un mode » canapé », interface alternative
mieux adaptée à un grand écran de télévision.) Ce que nous ne devons pas faire, c’est
botter en touche. Après tout, l’idéal du Web est d’être une plateforme accessible depuis
n’importe quel appareil, quel que soit le mode de saisie ou le type d’affichage. Pour
l’instant, cela implique de rendre toutes nos mises en page de bureau accessibles aux
doigts, ce qui n’est pas un défi insurmontable.
CONCEVOIR POUR LES ÉCRANS TACTILES ET LES CURSEURS
Si la taille de l’écran n’est pas un bon moyen de détecter les interactions tactiles, celles-ci
sont toutefois influencées par la taille et la forme de l’écran – c’est pour cette raison que
les pouces couvrent une surface différente sur les téléphones, les tablettes et les PC
hybrides. Dès lors que nous considérons que tous les écrans sont tactiles, la taille de
l’écran indique où se trouve la zone couverte par les pouces. Il est assez simple de cibler
les téléphones et les phablettes, puisque cette zone est similaire sur tous ces écrans. Mais
cela devient plus délicat pour les tablettes et les PC hybrides ; comme leurs écrans sont de
même taille, nous ne pouvons pas nous reposer sur des media queries basées sur la taille
de l’écran pour appliquer des mises en page spécifiques à chaque type d’appareil. Au lieu
de ça, nous devons prendre des décisions (et faire certains compromis) pour créer des
mises en page qui privilégient les pouces sur les deux types d’appareils, tout en prévoyant
des interactions qui fonctionnent à la main comme avec un curseur.
FIG 2.1 : Si vous superposez la zone des pouces sur la tablette (en jaune) à celle du PC hybride (en bleu), celles-ci
s’entrecoupent dans une zone qui épouse les rebords gauche et droit (en vert) ; concrètement, la moitié inférieure de la
zone couverte par les pouces sur une tablette.
Privilégiez tout particulièrement le bord gauche pour les contrôles principaux. Steven
Hoober et Patti Shank ont constaté que 84 % des utilisateurs utilisant leur index pointaient
avec leur main droite (http://bkaprt.com/dft/01-07/). Dans la plupart des cas, la main
gauche soutient l’écran, ce qui permet d’atteindre facilement les éléments de navigation
situés sur le bord gauche à l’aide du pouce. Quand je dis » contrôles principaux », je ne
veux pas nécessairement parler de la barre de navigation principale d’un site. Souvenez-
vous que la plupart des gens utilisent le traditionnel menu de navigation en dernier recours
– uniquement s’ils ne trouvent pas ce qu’ils cherchent dans le corps de la page. Il est
toujours important de proposer des menus de navigation clairs pour indiquer quel est
l’objet du site, mais ceux-ci ne doivent pas occuper l’espace principal. Les contrôles
principaux sont plutôt ceux que les gens utilisent effectivement sur votre site. Pour un
média, il peut s’agir de partager des liens (FIG 2.2). Pour un site de commerce, cela pourra
être » Ajouter au panier » et » Commander ». Les boutons que vous placerez sur le bord
gauche de l’écran devront être ceux sur lesquels les gens appuient le plus souvent.
FIG 2.2 : UserTesting (http://bkaprt.com/dft/02-02/) ajoute des boutons de partage dans la gouttière de gauche sur les
grands écrans (comme les tablettes et les ordinateurs). Les boutons peuvent facilement être actionnés du pouce pour
partager le contenu.
FIG 2.3 : Dans l’application Maps de l’iPhone, lorsque vous touchez un lieu une fois, vous affichez une bulle
d’informations préliminaires ; touchez-le de nouveau pour obtenir les informations complètes sur le lieu.
La future norme pour les media queries CSS4 introduira une nouvelle media query
pour les interactions de survol qui contrôlera les styles en fonction de la compatibilité de
l’appareil (http://bkaprt.com/dft/02-03/). Cette fonction vous permettra de masquer et
d’afficher le contenu sur les appareils prenant en charge les interactions de survol par
exemple, mais gardera le contenu visible sur les appareils non compatibles (tels qu’un
iPad uniquement équipé d’un écran tactile) :
@media (hover) {
masquer au survol */
.metadata { display: none }
}
@media (hover: none) {
toujours visible */
.metadata { display: block }
Les choses se compliquent sur les appareils qui disposent de plusieurs modes de saisie.
Admettons que vous ayez une tablette tactile à laquelle vous avez connecté une souris.
Dans ce cas, la propriété hover fonctionnera comme la media query pointer décrite
précédemment : elle se conformera au mode de saisie principal déterminé par le
navigateur. Comme le mode de saisie principal de notre tablette est l’écran tactile (la
souris est un accessoire), le navigateur déclarera qu’il ne prend pas en charge les
interactions de survol – même si la souris est connectée. Si vous voulez créer des règles
qui s’appliqueront dans le cas où l’un des modes de saisie (principal ou non) prend en
charge les interactions de survol, vous pourrez utiliser la nouvelle media query any-hover :
@media (any-hover: hover) {
/* au moins l’un des modes de saisie raccordés
dispose du survol */
De même, il existe une règle permettant de détecter les navigateurs dont aucun des
modes de saisie ne prend en charge les interactions de survol :
@media (any-hover: none) {
Est-il préférable d’utiliser hover ou any-hover ? Tout dépend de ce qui est le plus pratique.
hover est déclenché lorsque l’interface de saisie principale du support permet de survoler le
contenu sans effort. any-hover, en revanche, est déclenché dès lors que le survol est
possible, même s’il nécessite un dispositif de saisie secondaire ou un effort supplémentaire
(certains navigateurs déclenchent les événements de survol avec une longue pression, par
exemple). Les choses peuvent s’embrouiller encore plus : alors que le navigateur de notre
exemple de gadget suivra la règle CSS de la media query hover:none, il honorera également
la pseudo-classe :hover lorsque vous utiliserez la souris pour survoler un élément. Ainsi,
même si cela peut sembler surprenant, cette règle CSS sera effectivement déclenchée :
@media (hover: none) {
/* le mode de saisie principal de l’appareil ne
color: red;
}
}
FIG 2.4 : Une étude réalisée par Microsoft sur la précision des écrans tactiles a conclu que 7 mm était la taille minimale
pour une cible tactile.
Sur la plupart des écrans, 7 mm donne un résultat satisfaisant pour la plupart des
applications. Pour les situations critiques où une erreur pourrait susciter de sérieux regrets
(le bouton » libérez le kraken ! »), il peut être judicieux d’augmenter cette taille à 9, voire
11 mm. Vous pouvez également faire de même pour les boutons fermer, supprimer ou
d’autres actions destructives qui demandent » plus de deux gestes, cinq secondes ou un
changement de contexte important pour être corrigées », comme indiqué dans les
directives relatives aux interfaces utilisateur de Microsoft (http://bkaprt.com/dft/02-06/).
Sur les écrans de tablettes et d’ordinateurs plus spacieux, il est acceptable d’agrandir
toutes les cibles tactiles à 9 mm – taille qui offre une plus grande sécurité pour un coût
minime. Mais même dans ces cas, une taille plus petite donne des résultats précis. Pour la
plupart des cibles tactiles, considérez 7 mm comme votre minimum absolu.
EMPLACEMENT : MISE EN PAGE ET TAILLE DES CIBLES
Toutes les cibles tactiles ne sont pas égales. Sur les téléphones, la zone couverte par les
pouces en forme d’éventail est beaucoup plus précise que les autres parties de l’écran. En
clair : plus elles s’écartent de la zone des pouces, plus les cibles tactiles doivent être
grandes. Pensez notamment à élargir les cibles placées aux coins de l’écran à 11 mm, voire
plus, afin d’en améliorer la précision (FIG 2.5).
FIG 2.5 : Si 7 mm est une taille adéquate pour le centre de l’écran, il peut être judicieux de porter cette taille à 9 ou 11
mm dans les emplacements difficiles à atteindre, tels que les coins ou les rebords du haut et du bas. Données fournies par
Steven Hoober et Patti Shank (http://bkaprt.com/ dft/01-07/).
Comme toujours, les besoins spécifiques du public ciblé l’emportent sur toutes les
autres considérations. Si vous concevez pour des personnes à motricité réduite, comme les
très jeunes ou les très âgés, il peut être préférable d’offrir des cibles tactiles plus grandes,
entre 10 et 15 mm.
Super ! Mais… des millimètres ? Les millimètres ne sont pas franchement nos unités de
prédilection lorsque nous codons du CSS ou développons des applications mobiles. Que
représentent ces chiffres dans des unités plus familières ? Gravez ce nombre dans votre
caboche : 44.
CRÉEZ DES CIBLES TACTILES D’AU MOINS 44 (PIXELS, POINTS
OU DP)
Quarante-quatre est le nombre magique, la taille qui produit des cibles tactiles de 7 mm
sur toutes les plateformes. Sur le web, utilisez 44 pixels. Pour les applications natives,
utilisez les unités spécifiques à la plateforme : iOS utilise des points, tandis qu’Android
utilise des pixels indépendants de la densité, ou dp. Ces trois unités ne diffèrent que par
leur nom ; le point et le dp sont calibrés à 160 dpi, tout comme le pixel classique sur le
web. Vous pouvez donc utiliser les mêmes chiffres, quelle que soit la plateforme. À 160
dpi, 44 pixels représentent 7 mm – et voilà !
(Mais attendez, tous les écrans n’offrent pas une résolution de 160 dpi, non ? Comme la
densité de pixels varie énormément d’un appareil à un autre, les pixels eux-mêmes ne
changent-ils pas de taille ? Réponse courte : non. Réponse plus longue : voir à la fin de ce
chapitre. En attendant, fiez-vous au nombre 44.)
Si 44 est le strict minimum, vous pouvez utiliser une valeur plus élevée – surtout sur les
grands écrans – pour offrir des cibles tactiles simples et infaillibles. Si nous appliquons
notre calcul avec 160 dpi, 9 mm se traduit par 57 pixels, 10 mm par 63 pixels et 11 mm
par 69 pixels.
D’un autre côté, vous serez parfois forcé de choisir des dimensions plus petites.
Idéalement, toutes les cibles tactiles devraient être au minimum un carré de 7 mm de côté
– 44 pixels par 44 – mais les petits écrans demandent parfois des compromis. Le clavier de
l’iPhone, par exemple, comporte des touches qui font 44 pixels de haut, mais 30 de large –
de même, en orientation paysage, les boutons mesurent 44 pixels de large, mais 38 de
haut, afin de faire tenir tout le clavier AZERTY à l’écran.
Si les contraintes d’espace vous obligent à rétrécir les cibles tactiles, voici ce qui
fonctionne le mieux selon moi : du moment que la cible mesure au moins 44 pixels dans
sa longueur, vous pouvez, si c’est absolument indispensable, réduire sa largeur à 30 pixels,
soit un peu plus de 4,75 mm. Ce qui signifie que la taille pratique minimale pour
n’importe quelle cible tactile est de 44 × 30 (ou 30 × 44).
J’AIME L’EM
Problème, il est plutôt mal vu d’utiliser des pixels comme unités de longueur. En
responsive design, la bonne pratique consiste à utiliser des cadratins (em) pour les
dimensions et la mise en page (http://bkaprt.com/dft/02-03/). Les cadratins sont des unités
relatives basées sur la taille du texte ; un cadratin correspond à la hauteur de la police
actuelle. Il peut sembler contradictoire de vouloir fixer une taille physique minimale pour
nos cibles tactiles et d’utiliser des unités relatives pour ce faire, mais nous avons de la
chance. Pratiquement tous les navigateurs utilisent la même taille de police par défaut, 16
pixels, qui se traduit par un chiffre minimum magique de 2,75 em :
2,75 em = 44 px = 7 mm
3,5625 em = 57 px = 9 mm
Les cadratins posent toutefois rapidement problème parce qu’ils sont relatifs à la taille
de la police de l’élément parent. Ainsi, si vous créez un bouton de 2.75em dans un bloc de
texte de 12px, le bouton mesurera 33px, et non 44px. Voilà tous nos précieux calculs anéantis.
FIG 2.6 : Le design du pavé numérique de Skype place les boutons les uns à côté des autres, mais évite les erreurs en leur
donnant une taille bien supérieure à 44 pixels.
Lancez la musique héroïque, car rem arrive à la rescousse. Rem est l’abréviation de
root em, ou la taille de la police de l’élément racine – l’élément <html> dans le DOM.
Même si la police change de taille au cours du document, cette valeur rem fondamentale
est constante, car elle désigne toujours la taille de cet élément racine unique. La plupart
des navigateurs définissent une font-size racine de 16px, de sorte que 2.75rem équivaut à 44px.
Les rems ont été intégrés dans CSS3, et les navigateurs plus anciens ne les
comprendront pas (oui, c’est de toi que je parle, IE8). Pour venir en aide à ces navigateurs,
commencez par spécifier la taille en pixels, puis définissez-la à nouveau en rems :
html { font-size: 16px; } /* fixer la taille de police
standard à 16 pixels */
/* 9 mm */
Et aussi simplement que ça, nous avons une règle cohérente pour les cibles tactiles dans
tous les navigateurs, en utilisant une unité relative qui se redimensionnera à l’échelle avec
tout le mojo responsive dont vous disposez.
NE M’ENTASSEZ PAS
L’espacement des cibles tactiles est aussi important que leur dimensionnement pour éviter
les erreurs. Plus les cibles sont proches, plus elles doivent être grandes. De même, plus les
cibles sont petites et plus vous devez les espacer.
Les directives de design de Microsoft donnent une norme fiable : espacez les cibles
tactiles de 7 mm d’au moins 2 mm (13 pixels ou 0,8125 rems). Si vous souhaitez
juxtaposer vos cibles tactiles, donnez-leur une taille minimale de 9 mm (57 pixels ou
3,5625 rems).
Pfiou. Nous avons donc parlé des dimensions, de l’espacement et de l’importance
d’utiliser le rem comme unité de longueur. Revenons à des considérations d’ordre
physique – avec les pixels. Puisque nous traitons avec des unités relatives et des écrans
dont la densité de pixels peut varier, comment un simple » 44 » peut-il garantir une
dimension physique spécifique ? Accrochez vos ceintures, mes amis : la route va devenir
un peu cahoteuse, mais ça en vaut la peine. Pour concevoir une interface physique, il est
essentiel de comprendre le rapport entre les pixels et les dimensions physiques. En fait, il
s’avère que les pixels ne sont probablement pas ce que vous imaginez.
CECI N’EST PAS UN PIXEL (LA SOURNOISERIE DES VIEWPORTS)
Les pixels ne sont plus ce qu’ils étaient. Vous vous souvenez sans doute qu’un pixel était à
l’origine défini comme un point physique sur l’écran. Nous appelons ces pixels des pixels
physiques, et aux premiers jours d’Internet, ces points faisaient la même taille sur tous les
écrans (96 dpi), car ces derniers – et la densité de pixels – présentaient peu de variations.
Aujourd’hui, les affichages vont des écrans à très faible densité sur les appareils plus
anciens aux écrans Retina super-denses et tous leurs semblables. Cette diversité pose un
problème pour les vieilles pages web conçues en pixels : le rendu physique d’un même
site est beaucoup plus petit sur un écran haute résolution que sur un écran basse résolution
(FIG 2.7).
FIG 2.7 : Les variations de résolution sur les écrans ont introduit un problème d’échelle : le même contenu, par exemple
un fichier image, présente des dimensions physiques différentes sur les écrans haute résolution (à gauche) et les écrans
basse résolution (à droite). Un pixel ne correspond plus à la même taille sur des appareils différents. Photographie de
Veronika Sky Kindred (http://bkaprt.com/dft/02-07/).
Pour ne rien arranger, le W3C a redéfini le pixel en 2011 avec CSS 2.1. Le nouveau
pixel n’était plus ce petit point de lumière dépendant du matériel, mais désignait plutôt une
distance physique particulière. En d’autres termes, nous avons quitté le monde des pixels
matériels pour entrer le monde des pixels virtuels, parfois appelés pixels de référence,
pixels CSS ou pixels web. Ces pixels virtuels ont une taille spécifique, de même qu’un
pouce ou un centimètre, taille qui reste identique sur tous les écrans, quelle que soit la
densité de pixels de l’affichage.
Le W3C a fixé le pixel à 96 dpi, l’ancienne taille de vos vieux moniteurs de bureau –
soit 1/96e de pouce. Cette approche aurait pu simplifier nos affaires… si les navigateurs
avaient effectivement suivi la norme. Le problème, c’est que les navigateurs sur les écrans
tactiles n’emploient pas ce pixel virtuel de 96 dpi. D’ailleurs, si les navigateurs
fonctionnent aussi bien sur les téléphones et les tablettes, c’est justement parce qu’ils
ignorent délibérément cette règle.
Et pourtant, quand je visionne le site sur mon téléphone, il tient dans moins de 3
pouces. Et c’est tant mieux, car c’est la seule façon d’afficher la page entière sur un petit
écran. À partir de là, je peux zoomer sur la page pour lire le contenu qui apparaît
soudainement bien plus grand (FIG 2.8). C’est ce qui permet de rendre les sites
de » bureau » utilisables sur les petits écrans. Par leur nature, les viewports dynamiques
démantèlent la notion selon laquelle le pixel correspond à une dimension physique fixe.
FIG 2.8 : L’idée d’un pixel de taille fixe est dynamitée lorsque vous zoomez sur un site web.
initial-scale=1.0" />
Cette balise permet de dire au navigateur » choisis ta propre largeur fixe pour mon site
web, je te fais confiance ». Considérez device-width comme la taille » naturelle » d’un
appareil, définie en pixels virtuels. Sur les téléphones et les tablettes, cela correspond à la
largeur entière de l’écran ; sur un ordinateur de bureau, il s’agit de la largeur de la fenêtre
du navigateur.
(Comme vous l’aurez peut-être deviné, width=device-width définit la largeur du viewport.
initial-scale=1.0 demande au navigateur de ne pas agrandir ni rétrécir la page lors du
chargement. Cela a pour effet d’empêcher Safari mobile d’agrandir la page en mode
paysage. Au lieu de cela, le navigateur reformate la mise en page pour l’adapter à un écran
plus large.)
Jetons un œil à l’iPhone 6 pour voir comment cela fonctionne dans la pratique. Le
device-width du téléphone est de 375 pixels. (Là encore, il s’agit de pixels virtuels et non
matériels ; la résolution matérielle de l’iPhone 6 est de 750 pixels de large.) Lorsque vous
utilisez la balise <meta> présentée plus haut, la taille du viewport est fixée à 375 pixels
web » naturels ». C’est également sur cette taille que les media queries du viewport
s’appuieront. Dans notre exemple de l’iPhone 6, une fois cette balise <meta> en place, toute
media query qui comporte une propriété max-width ou min-width correspondant à un viewport
de 375px de large appliquera ses règles CSS au téléphone.
Ainsi, du moins sur des appareils individuels, les pixels web peuvent prendre une
largeur fixe, à supposer que vous ayez fixé la largeur du viewport comme indiqué ci-
dessus. Mais ce ne sera presque jamais la taille de 96 dpi définie par la spécification
originale. En 2007, quand Apple a pris la décision de fixer le device-width du premier
iPhone à 320px, ses pixels web ont pris une taille d’environ 160 dpi, et ce choix a affecté
tous les navigateurs mobiles qui ont suivi : Apple a eu beaucoup de succès avec son
viewport dynamique et a également introduit la balise <meta name="viewport"> ; tout le monde
a suivi le mouvement. Aujourd’hui, pratiquement tous les navigateurs mobiles rapportent
un device-width qui donne à peu près la même densité aux pixels virtuels : 160 dpi est
devenu la norme de facto des pixels web sur les écrans tactiles.
Et c’est pour cela que la règle des 44 pixels fonctionne.
Vous me suivez toujours ? Nous avons redéfini le sens du mot » pixel » plusieurs fois
dans ces quelques pages, mais cette gymnastique nous a permis de déterminer des
dimensions fiables pour les cibles tactiles, basées sur cette convention de 160 dpi pour les
navigateurs tactiles. Après tout, peut-être les écrans sont-ils plus fiables que ce que l’on
pensait… si l’on change de perspective. Le prochain chapitre appelle à un ajustement
similaire mais aborde les interactions courantes. Nous allons devoir repenser nos modèles
de design afin de les rendre plus efficaces pour nos doigts et nos pouces lents. Démarrez le
moteur, il est temps d’étancher notre soif de vitesse.
LES MEILLEURES INTERFACES semblent traduire les intentions en actions instantanément, en
un seul clic. Il peut paraître insignifiant de gagner quelques millisecondes par-ci et par-là,
mais ces instants s’additionnent et s’accumulent. Ce gain d’efficacité imprègne votre
interface d’une sorte de fluidité zen. » On n’imagine pas qu’un gain d’une seconde, d’un
clic ou d’un instant de réflexion puisse avoir de l’importance, mais c’est le cas », écrit le
designer John McWade. » Cela rend l’appareil plus transparent ; celui-ci n’est plus tant
une machine qu’une extension du cerveau et de la main. Faites un vœu, et pouf, il est
exaucé, comme si l’appareil était vivant, comme s’il respirait » (http://bkaprt.com/dft/03-
01/).
Quel est le secret de cette interface sans peine ? Elle est conçue pour être confortable et
rapide. Jusqu’à présent, nous nous sommes intéressés au confort : une bonne ergonomie et
des cibles tactiles généreuses. Mais comment rendre votre interface plus rapide ?
Habituellement, lorsqu’on parle de vitesse, on évoque les performances techniques –
combien de temps prend le téléchargement et le rendu d’une page web ou de l’écran d’une
application. Cet aspect est important, bien sûr, mais en s’évertuant à optimiser les bits et
les octets, on en oublie d’optimiser pour les doigts et les pouces. Les bonnes pratiques que
nous avons héritées de l’ère des ordinateurs de bureau sont pour une bonne part
déconnectées des réalités de l’écran tactile. Ce chapitre vous apprendra à optimiser ces
solutions de design familières pour accélérer les interactions tactiles.
INFORMATIONS ET CONTRÔLES JUSTE À TEMPS
Vous connaissez ces séries télé médicales, celles où le chirurgien est épaulé par une équipe
héroïque d’assistants intuitifs qui anticipent chacun de ses besoins et lui donnent toujours
le bon instrument au bon moment ? Voilà le modèle que doit suivre votre interface : elle
doit se tenir discrètement à l’écart tant que l’utilisateur n’a pas besoin de son aide, et
réapparaître exactement avec l’outil nécessaire. Le facteur essentiel pour offrir une
interface rapide est de fournir juste ce qu’il faut et précisément au bon moment.
FIG 3.1 : Une envie irrepressible de hamburger ? L’application de courses en ligne FreshDirect offre un lien direct pour
ajouter un produit à votre panier. En touchant la ligne à un autre endroit, vous êtes amené vers une page décrivant votre
viande en boîte préférée dans les moindres détails.
Il n’est pas non plus nécessaire de gaspiller de l’espace pour ajouter ces actions. Vous
pouvez traiter ces raccourcis comme des options avancées en les dissimulant derrière des
panneaux cachés et en les révélant d’un geste (FIG 3.2). De nombreuses applications, y
compris des navigateurs, affichent de même un menu contextuel lorsque vous appuyez
longuement sur un élément. L’inconvénient, c’est que ces raccourcis sont véritablement
invisibles tant qu’ils n’ont pas été découverts. Nous verrons comment indiquer la présence
de ces gestes au chapitre 5.
FIG 3.2 : L’application Mail d’iOS (à gauche) révèle un menu d’options lorsque vous balayez un message de droite à
gauche. De même, l’application Vimeo pour iPhone (à droite) vous permet de partager ou d’ajouter une vidéo à vos
favoris en la balayant de gauche à droite. Ces deux actions vous évitent d’avoir à passer par un écran distinct.
FIG 3.5 : Un écran large (en haut) permet de présenter toutes les colonnes en même temps, alors qu’un plus petit offre la
possibilité de les afficher hors champ, affichant le contenu conceptuellement adjacent lorsqu’il est pertinent ou demandé.
FIG 3.6 : De nombreux sites utilisent un carrousel pour afficher un assortiment de fonctions diverses. Malheureusement,
cette approche tend souvent à dissimuler le contenu qu’elle cherche à mettre en évidence.
L’ABUS DE CARROUSELS NUIT À LA SANTÉ
Les carrousels peuvent être formidables dans le bon contexte – nous verrons lesquels par
la suite – mais ils peuvent facilement mal tourner, surtout lorsqu’ils sont utilisés sur une
page d’accueil. Les designers adorent en mettre en page d’accueil, parce qu’ils donnent
l’impression de résoudre de nombreux problèmes en ayant un fort impact visuel sans
sacrifier trop d’espace. Les sites médiatiques déversent leurs articles à la une dans des
carrousels, et hop, tous les gros titres occupent par magie la même position de premier
choix au sommet de la page. Les sites de vente en ligne font la même chose avec leurs
promotions. Les carrousels font même miroiter la promesse d’éliminer le pire ennemi du
designer, le positionnement organisationnel : sur le site marketing d’une entreprise, chaque
service veut obtenir un emplacement privilégié sur la page d’accueil. Balancez-les tous
dans un carrousel et voilà, mission accomplie.
Si les carrousels permettaient un affichage compact avec un fort impact visuel tout en
résolvant les conflits de politique interne, je veux monter sur ce manège tout de suite,
non ? Malheureusement, les carrousels tiennent plus de l’or des fous que de la balle
d’argent, car ils exigent des denrées des plus précieuses : de la patience et de l’attention.
Un parcours du combattant
Lorsque le but est d’optimiser les taux de clics ou de parcourir rapidement le contenu, les
carrousels ont tendance à nous décevoir. Prenons par exemple un carrousel qui présente
dix articles sur un site d’actualité ; avant de tomber sur ce dixième article, vous devrez
vous donner la peine de passer les neuf autres – neuf interactions avant de pouvoir ne
serait-ce que lire le titre. L’article est clairement l’un des plus intéressants du jour, mais il
est enterré sous une pile d’interactions. Un outil destiné à mettre en évidence du contenu
ne doit pas le dissimuler ou vous obliger à vous fouler le pouce pour le trouver. Le
problème empire quand le carrousel est un amas de fonctions ou de produits. Lorsque la
collection n’est pas organisée, les gens n’ont aucun moyen de savoir ce qui se trouve dans
la suite du carrousel et s’en désintéressent rapidement.
Une étude a démontré que 84 % des clics effectués sur le carrousel d’une page
d’accueil se font sur la première diapositive ; les diapos suivantes ne sont pratiquement
jamais actionnées (http://bkaprt.com/dft/03-03/). À ce sujet, lisez » Carrousels à
redirection automatique, les accordéons agacent les utilisateurs et réduisent la visibilité »
(http://bkaprt.com/dft/03-04/) et » Les carrousels sur les pages d’accueil sont-ils
efficaces ? » (http://bkaprt.com/dft/03-05/). Il doit bien exister un moyen de diriger plus de
trafic vers les pages prioritaires.
Et la fonction de progression automatique ? Si les gens ne veulent pas parcourir
toutes les diapositives, faites-le à leur place. Mais l’idée qu’on puisse avoir envie de rester
assis à regarder le carrousel défiler est, au mieux, optimiste – surtout dans un contexte
mobile. La dure vérité, c’est que vous demandez à l’utilisateur d’endosser une décision et
un effort qui vous reviennent.
Forcez une décision éditoriale. À en écouter les sirènes du carrousel, plus besoin de
sélectionner le meilleur article ou le produit phare à afficher sur la page d’accueil. Ils sont
tous à la une ! En pratique, ça ne tient pas la route. Si l’écrasante majorité des utilisateurs
consultent uniquement le premier article du carrousel, vous ne pouvez pas prétendre qu’ils
sont tous sur un pied d’égalité. Mieux vaut faire un choix éditorial et mettre en évidence
cet article d’une façon offrant facilement accès aux articles secondaires.
Privilégiez les interactions accessibles d’un seul clic. Au lieu de dissimuler le contenu
derrière une flopée de balayages, offrez un seul bouton permettant de tout révéler à la fois.
La page d’accueil mobile d’Entertainment Weekly affiche un article principal et deux
articles secondaires. Appuyez sur le bouton » More », et vous obtenez douze titres de plus
(FIG 3.7). Cette approche permet d’esquiver les quatorze (quatorze !) balayages dont vous
auriez besoin pour atteindre ce dernier article dans un carrousel, et vous y amène
directement en un clic. Ces douze articles sont toujours masqués derrière le bouton, mais
les trois articles visibles donnent une idée de ce que vous trouverez de l’autre côté. Cette
approche remplace l’odeur fétide du ragoût mystère par le parfum rassurant de
l’information, l’assurance que vous êtes sur la bonne voie pour atteindre votre objectif.
FIG 3.7 : Le site mobile d’Entertainment Weekly révèle ses quinze articles principaux en une seule interaction (en
appuyant sur le bouton More Featured News), au lieu des quatorze balayages que demanderait un carrousel.
FIG 3.8 : Les pages d’accueil de sites d’actualité tels que TechCrunch et le New York Times déploient en milieu de page
un carrousel qui présente plusieurs articles à la une avant de vous inviter à faire défiler les articles suivants.
Les carrousels sont utiles pour parcourir simplement des articles apparentés. Il
s’agit d’un format approprié pour les galeries de photos et les diaporamas, créant un
environnement idéal pour découvrir du contenu au hasard. Comme toujours, les carrousels
fonctionnent mieux lorsque les gens ont une bonne idée de ce qu’ils y trouveront – ce qui
signifie que les diaporamas les plus efficaces se focalisent sur un sujet spécifique (des
photos sur tapis rouge ! des chats avec des chapeaux rigolos !). Dans ce contexte, vous
n’optimisez pas pour plus de vitesse mais pour une balade langoureuse à travers les
images, de sorte que le défilement du carrousel ne soit plus un inconvénient mais une
fonctionnalité.
SOYEZ IMPITOYABLES AVEC LES CHAMPS DE FORMULAIRES
Les formulaires web sont ces abominables formalités administratives que nous
remplissons pour parvenir à l’objet de nos rêves : un service à recevoir, un produit à
acheter. Les formulaires sont des obstacles nécessaires, mais plus l’obstacle est grand, et
moins la chose qui se trouve de l’autre côté nous fait rêver. Vingt-et-un pour cent des
achats abandonnés le sont parce que les clients ont trouvé le processus trop long
(http://bkaprt.com/dft/03-07/). Chaque champ compte : une étude a démontré qu’en
réduisant le nombre de champs d’un formulaire de contact de quatre à trois, on améliorait
le taux de conversion de près de moitié (http://bkaprt.com/dft/03-08/). Et s’il s’agit d’une
bonne pratique sur n’importe quelle plateforme, c’est essentiel sur les écrans tactiles. Ces
derniers présentent de nombreux avantages, mais les interactions précises telles que la
saisie de texte et le remplissage de formulaires n’en font pas partie.
Le site mobile de Kay Jewelers demande aux clients de remplir quarante champs pour
finaliser un achat (FIG 3.10). (« Elle n’en vaut pas la peine ! », m’a crié quelqu’un alors
que je présentais ce formulaire au cours d’un atelier de design.) Je ne m’en prends pas
spécialement à Kay Jewelers ; quarante (ou plus !) est malheureusement un nombre
courant. Alors, élaguons un peu ces formulaires.
FIG 3.10 : Rien de tel que de remplir quarante champs de formulaire pour finaliser un achat…
FIG 3.11 : Arrêtez de vous disperser. Vous n’avez pas besoin de trois champs pour demander un nom – et encore moins
de neuf champs pour un numéro de téléphone.
Dans ces trois cas, il est préférable de combiner les champs. De trop nombreux
formulaires concordent précisément avec la base de données du site. Si celle-ci comporte
trois champs pour le nom, le designer les retranscrit consciencieusement dans trois champs
sur le formulaire. Mais ce n’est pas à votre client de remplir votre base de données ; c’est à
vous de faire ce travail pour eux. Passer d’un champ à l’autre demande une interaction de
plus et interrompt le déroulement du processus. Simplifiez la vie de vos utilisateurs en
combinant ces données dans un seul champ, puis formatez les informations en arrière-plan
pour les insérer dans votre base de données.
Ne demandez pas d’informations superflues. Tout champ supplémentaire est un
fardeau de plus pour votre client. Notre formulaire d’exemple ne demande non pas un,
mais trois numéros de téléphone. Demander un seul numéro de téléphone présente déjà
peu d’intérêt pour des achats en ligne ; avez-vous vraiment besoin de deux numéros de
plus ? Avez-vous besoin d’une adresse de facturation complète, alors que la plupart des
services de traitement de carte de crédit ne requièrent que le code postal ? Soyez
impitoyable quant à la quantité d’informations que vous demandez.
FIG 3.12 : Pas besoin de demander au client quel type de carte de crédit il possède ; cela se déduit du numéro de sa carte.
Vous commencez par saisir votre numéro de carte ; après avoir saisi les premiers
chiffres, l’icône change en fonction du type de carte détecté. Lorsque vous avez fini de
saisir le numéro, la chaîne de caractères est raccourcie pour ne conserver que les quatre
derniers chiffres, puis le champ de saisie se transforme pour afficher les trois informations
requises restantes : la date d’expiration, le cryptogramme et le code postal. Pas besoin de
passer d’un champ à l’autre, il suffit de saisir toutes les données à la suite sur le clavier
numérique. Lorsque vous arrivez au CVV, l’image de la carte de crédit se retourne pour
vous indiquer où se trouve le code. Ce schéma permet un gain de temps et d’espace et
réduit le nombre d’interactions tout en guidant l’utilisateur et en vérifiant les informations
au fur et à mesure.
S’inspirant de l’approche de Square, le développeur Zachary Forrest a conçu un
prototype HTML qu’il a rendu accessible sur le web (http://bkaprt.com/dft/03-09/).
AVEZ-VOUS VRAIMENT BESOIN DE CE CLAVIER ?
La raison implicite pour laquelle il est impératif d’alléger les formulaires, c’est que la
saisie de texte sur un écran tactile est… extrêmement… lente. Ne vous méprenez pas :
nous le faisons de bon gré avec la bonne motivation. Selon un mythe populaire, nous
rechignons à taper sur nos écrans tactiles, mais nous envoyons et recevons en moyenne 35
messages par jour (http://bkaprt.com/dft/03-10/) – et plus d’une centaine chez les
adolescents (http://bkaprt.com/dft/03-11/). Pour autant, nous ne le faisons pas de façon très
efficace, et nous commettons encore beaucoup d’erreurs en tapant. Lorsque vous êtes tenté
d’afficher le clavier, commencez par envisager des alternatives.
Complétez les zones de saisie par des alternatives à cliquer. S’il y a fort à parier que
le terme saisi par l’utilisateur appartienne à un champ restreint de possibilités, offrez les
boutons cliquables correspondants à côté du champ. Par exemple, un site de voyage pourra
utiliser l’historique d’achat du client ou sa localisation GPS pour suggérer des aéroports de
départ (FIG 3.14).
autocomplete="name">
Adresse électronique : <input type="email" name="email"
autocomplete="email">
Téléphone : <input type="tel" name="phone"
autocomplete="tel">
Adresse : <input type="text" name="address"
autocomplete="address">
</form>
<input type=•url•>
<input type=•tel•>
<input type=•number•>
Dans la plupart des navigateurs, ces attributs type font apparaître exactement le clavier
dont vous avez besoin. Dans Safari mobile, cependant, le clavier affiché pour type="number"
comprend à la fois des numéros et des signes de ponctuation (FIG 3.16). Si vous souhaitez
obtenir un clavier numérique, vous pouvez le forcer en spécifiant un attribut pattern et en
ajoutant inputtype pour faire bonne mesure :
FIG 3.16 : Demandez à Safari mobile un simple champ type="number" et vous obtiendrez un clavier bourré de signes de
ponctuation (à gauche). Ajoutez les attributs pattern et inputtype, et vous obtiendrez un clavier entièrement numérique
(à droite).
<input type="number• pattern=•[0-9]*•
inputtype="numeric•>
<input type=•datetime•>
<input type=•month•>
Les sélecteurs de date conviennent si vous devez saisir une date arbitraire comprise
dans une large fourchette (comme une date de naissance), mais il existe des options plus
pratiques et plus rapides si vous souhaitez saisir une date dans un intervalle plus restreint.
Nous verrons un exemple dans un instant, mais s’il y a une raison d’être sceptique à
l’égard des sélecteurs de date à roulette, c’est qu’ils sont difficiles à utiliser sur les écrans
tactiles. C’est d’ailleurs pour cette raison que l’élément select est le suivant dans notre liste
de cibles à abattre.
LA LOURDEUR DE <SELECT>
Dans les interfaces de bureau, le menu déroulant select est un pilier de la densité
d’information, regroupant potentiellement des centaines d’options préformatées dans un
seul contrôle compact. Il permet certes de faire des économies d’espace, mais sur les
écrans tactiles, un menu select tend à faire perdre du temps et à demander de nombreuses
interactions. Il faut non seulement appuyer deux fois sur le menu pour l’afficher et le
fermer, mais aussi le faire défiler, d’abord rapidement puis plus lentement pour préciser
son choix. C’est donc une expérience franchement hostile sur ce type d’écrans.
Remplacez les longs menus par une fonction de suggestion automatique. Prenons
un menu déroulant contenant les cinquante états des États-Unis. Ce pauvre Wyoming se
retrouve bien esseulé à la fin de cette liste alphabétique, et il faut balayer l’écran à de
nombreuses reprises pour y parvenir sur un écran tactile. (Le Wisconsin, l’avant-dernier
sur la liste, est encore plus difficile à sélectionner ; avec le Wyoming, vous pouvez au
moins faire défiler la roulette rapidement jusqu’au bout. Pour sélectionner le Wisconsin,
vous devez donner un petit coup de pouce supplémentaire.) Il est beaucoup plus rapide
d’ouvrir un champ de saisie et de commencer à taper le nom de l’état, en laissant
l’interface donner des suggestions à mesure que vous écrivez (FIG 3.18). Quatre frappes
suffisent pour trouver le Wyoming : sélectionnez le champ, tapez W, tapez Y, touchez la
suggestion Wyoming, et voilà !
FIG 3.18 : Le site web Expedia offre des suggestions de saisie tactiles lorsque vous saisissez votre ville de départ et
d’arrivée.
<option value="Vermont">
<option value="Virginia">
<option value="Washington">
<option value="Wisconsin">
<option value="Wyoming">
</datalist>
FIG 3.20 : Fandango vend généralement des billets de cinéma quelques jours seulement avant la séance, ce qui réduit la
plage de dates possibles. Le site web expose ces dates (à gauche) pour faciliter leur sélection au lieu de les cacher dans
un menu. Les horaires du film subissent un traitement similaire (à droite).
Nous avons optimisé plusieurs cas afin de simplifier l’usage des formulaires à
l’intention de vos visiteurs. Il y a cependant un cas où les formulaires sont conçus pour
ralentir les gens – pour une bonne raison.
FIGHT ! JIU-JITSU GESTUEL VS. OK | ANNULER
Souhaitez-vous vraiment supprimer ce message ?
OK | Annuler
Souhaitez-vous enregistrer les modifications ?
OK | Annuler
Êtes-vous sûr de vouloir manger ce burrito ?
OK | Annuler
Malgré leur usage répandu, les boîtes de dialogue de confirmation sont rarement
efficaces. Ces alertes sont censées nous ralentir pour réfléchir un instant, mais nous y
avons développé une immunité. Trop faciles à ignorer, elles sont comme des dos d’âne
agaçants qui ne ralentissent personne.
Des gestes bien placés offrent cette protection de façon bien plus efficace et rapide.
Appelez cela le jiu-jitsu gestuel : un art martial qui se pratique du bout des doigts. Le
swipe est un champion en la matière : faites glisser votre doigt sur l’écran pour
déverrouiller, répondre à un appel, éteindre l’appareil, supprimer un message. Ce geste est
juste suffisamment difficile pour indiquer une intention certaine, mais assez simple pour
ne pas perturber le déroulement de votre activité. Au lieu d’une boîte de confirmation,
ajoutez une petite défense gestuelle pour protéger vos utilisateurs des actions qu’ils
pourraient regretter. (Doublez cela d’une tactique encore meilleure, un bouton annuler.
Dans la mesure du possible, permettez aux utilisateurs d’annuler leur dernière action.
Pardonnez-leur leurs fautes et laissez-les se sortir du pétrin avec grâce et aisance.)
Si vous souhaitez que l’utilisateur vous accorde encore plus d’attention, utilisez un
geste plus compliqué. C’est ainsi que l’application de réservation d’hôtel Hotel Tonight
présente ses conditions d’utilisation. Comme le service se spécialise dans les réservations
de dernière minute, celles-ci ne sont pas remboursables, une condition que les utilisateurs
doivent absolument comprendre. Pour s’en assurer, l’application vous demande de réaliser
un geste simple – tracer le logo en forme de lit de l’entreprise – pour confirmer la
réservation (FIG 3.22).
FIG 3.22 : Hotel Tonight demande aux utilisateurs de tracer le logo pour accepter les conditions d’utilisation.
L’INTERFACE MAINS LIBRES
À l’exception de notre jiu-jitsu gestuel, la plupart des améliorations que nous avons
abordées visent à réduire les interactions à l’essentiel, afin de créer des interfaces tactiles
qui demandent moins d’actions. Malgré tous les bienfaits des écrans tactiles, ceux-ci sont
mal conçus, lents ou imprécis pour certaines tâches, et aucune optimisation d’interface ne
réglera complètement ce problème. Mieux vaut dans ce cas opter pour une alternative non
tactile, une leçon que l’entreprise Ford a apprise lorsqu’elle a voulu remplacer son tableau
de bord physique par une interface tactile. Les clients se sont plaints – à juste titre – qu’il
était devenu trop difficile, voire dangereux de changer de station de radio ou de régler le
volume en conduisant.
La conduite est l’un des nombreux contextes dans lesquels un écran tactile est une
mauvaise solution interactive – parce que vos yeux sont trop occupés pour regarder
l’écran. Contrairement à des commandes mécaniques, une dalle de verre ne peut pas être
utilisée à tâtons. Donner un écran tactile à un conducteur, c’est surtout lui donner une
excellente raison d’avoir un accident. Ford aurait pu s’en douter ; pour finir, le tableau de
bord traditionnel à boutons a été réintégré (http://bkaprt.com/dft/03-14/).
Les contrôles physiques sont une solution potentielle mais d’autres options ont fait leur
apparition. Les appareils bardés de capteurs nous donnent la possibilité de nous passer
entièrement de saisies tactiles en sortant les interactions de l’écran pour les placer au sein
de notre environnement. Les capteurs de positionnement GPS ont inspiré la première
vague de designs de ce type, permettant l’émergence de sites web et d’applications
capables de dire où se trouve le café le plus proche ou à quelle heure part le prochain train
de la gare locale. L’exploitation des informations de localisation a révolutionné la
technologie mobile. Mais aujourd’hui, les capteurs peuvent faire quelque chose d’encore
plus puissant : voir ce qui est juste devant vous.
C’est tout le concept du bon vieux code-barre et de son jeune (et moins populaire)
cousin, le code QR. Lorsque vous encodez des données telles qu’une URL dans ces lignes
et ces points, puis que vous laissez la caméra la lire à votre place, vous éliminez tout le
travail pour vos doigts et vos pouces. Mais l’usage des appareils photo est devenu bien
plus sophistiqué, offrant de puissants raccourcis.
• Lorsque vous créez un compte avec l’application eBay, vous pouvez éviter de saisir
votre nom et votre adresse en scannant votre permis de conduire avec votre appareil
photo ; l’application lit vos renseignements et remplit le formulaire à votre place.
• Safari mobile sur iOS remplit les informations de paiement à votre place lorsque vous
prenez une photo de votre carte de crédit.
• Avec l’application Google Translate, pointez votre caméra sur du texte écrit dans une
langue, et il sera automatiquement traduit dans une autre (FIG 3.23). L’application
affiche la traduction en temps réel, dans la même police et la même couleur, comme si
vous regardiez à travers une fenêtre multilingue magique.
FIG 3.23 : La fonction » word lens » de Google Translate traduit le texte à la volée en utilisant la caméra et un bon vieil
algorithme de reconnaissance des caractères. Il vous évite de devoir saisir du texte dans une langue étrangère. Image
extraite d’une vidéo de Google (http://bkaprt.com/dft/03-16/).
• Layar est un service web et une application mobile qui permet aux éditeurs d’intégrer
du contenu multimédia numérique dans des pages imprimées. Prenez une photo du
magazine, et la page prend vie avec de la vidéo et des liens connexes.
• Les personnes malvoyantes peuvent utiliser l’application LookTel Money Reader pour
identifier la valeur des billets. Aux États-Unis, il est impossible de différentier les
billets au toucher ; les téléphones peuvent donc devenir une aide précieuse. Lorsque les
capteurs sont accompagnés d’un écran tactile, les appareils peuvent offrir des interfaces
exceptionnellement utiles pour les personnes malvoyantes ou autrement handicapées.
Pour plus d’exemples, lisez l’article » Les malvoyants se tournent vers les smartphones
pour voir leur monde » (http://bkaprt.com/dft/03-15/).
Et ce n’est que la caméra. Les gadgets d’aujourd’hui sont pleins à craquer de capteurs
dotés de superpouvoirs.
• Le micro est l’oreille de votre appareil. Étudiez l’API Web Audio
(http://bkaprt.com/dft/03-17/) pour découvrir comment les navigateurs peuvent émettre
et reconnaître des sons. De même, l’API Web Speech (http://bkaprt.com/dft/03-18/)
permet aux navigateurs de comprendre la parole et de reproduire des mots.
• Le GPS note votre emplacement, et mieux encore, les lieux à proximité. L’API
Geolocation (http://bkaprt.com/dft/03-19/) permet au navigateur de faire office
d’annuaire.
• Le lecteur d’empreintes digitales permet une identification instantanée.
• L’accéléromètre, le gyroscope et la boussole permettent de suivre vos mouvements et
votre activité. L’API Device Orientation (http://bkaprt.com/dft/03-20/) permet aux
navigateurs de savoir dans quel sens l’appareil est orienté.
• Le capteur de lumière indique au navigateur le niveau de luminosité ambiante via l’API
Ambient Light (http://bkaprt.com/dft/03-21/).
Si vous ajoutez à cela les protocoles de réseau standard via Wi-Fi, service cellulaire,
Bluetooth et NFC, nos appareils se mettent tout à coup à échanger, à » socialiser », comme
sources de données ou comme interfaces pilotées à distance. À mesure que de plus en plus
d’objets, lieux et appareils se verront adjoints de minuscules ordinateurs connectés au
réseau, la quantité de données environnantes exploitables par nos appareils personnels
décuplera. Posez-vous toujours la question : comment pourrait-on recueillir et utiliser ces
données de manière à faire économiser du temps et des efforts aux gens – ou à leur
épargner la pénible tâche de saisir des données ?
En d’autres termes : comment offrir des résultats optimaux pour un effort minimal ?
Ces exemples employant les capteurs de nos appareils ne sont pas uniquement des
raccourcis ; le plus important, et le plus intéressant, c’est qu’ils réagissent directement à
l’environnement de l’utilisateur. Lorsque nous concevons pour des capteurs et pas
seulement des écrans, le monde entier devient une toile numérique. En tant qu’utilisateurs,
cela nous donne la possibilité d’interagir plus directement avec les gens et les lieux qui
nous sont chers, en leur redonnant une partie de l’attention que nous avons cédée aux
écrans.
Mais les écrans ont encore de l’avenir. Notre industrie commence tout juste à explorer
le potentiel des interfaces tactiles et les multiples gestes permettant de parcourir les
informations. L’interaction tactile directe nous permet de manipuler les informations
comme si elles étaient des objets physiques. En adoptant les gestes tactiles, votre interface
devient non seulement plus rapide mais aussi plus naturelle, évidente et intuitive.
LES MAINS SONT FABULEUSEMENT EXPRESSIVES. Nous parlons tout le temps avec nos mains ;
elles posent des questions, trahissent nos intentions, demandent de l’attention, révèlent des
émotions. Un geste du revers de la main rejette une idée ; un doigt pointé accuse ; un
pouce levé s’enthousiasme. Si les mains sont excellentes pour communiquer avec les gens,
elles sont encore plus efficaces pour communiquer avec des objets. De la délicate
opération du nouage de lacets à la force brute employée pour ouvrir un bocal de
cornichons, nos mains et nos doigts improvisent constamment en termes de prise, de
pression, de position et de sensibilité.
Comment pouvons-nous transposer cette expression à la manipulation d’informations
numériques ? Les écrans tactiles placent littéralement les données entre les mains de
l’utilisateur, et c’est au designer qu’il revient de permettre (et d’interpréter) cette
interaction. Malheureusement, si nos mains ont un vocabulaire poussé pour parler aux
gens et aux objets, le langage gestuel destiné aux écrans tactiles en est encore à ses
rudiments. Un lexique plus riche nous attend, mais il faudra du temps avant qu’un
ensemble de gestes tactiles plus sophistiqués soit plus répandu.
Ce chapitre explore les possibilités des gestes tactiles. Nous commencerons par
examiner la poignée de gestes que nous avons déjà bien assimilés. Nous verrons pourquoi
les éléments d’interface traditionnels tels que les boutons et les onglets sont bien en deçà
du potentiel expressif des interactions tactiles – et quelles sont de meilleures alternatives.
Au fil du chemin, nous contournerons les pièges du design gestuel et nous conclurons en
abordant les techniques permettant de coder des gestes dans le navigateur (et leurs
difficultés). Mais tout d’abord, voyons les bases.
LE VOCABULAIRE GESTUEL DE BASE
Quelques gestes fondamentaux sont communs à toutes les plateformes. Ce sont des gestes
que la plupart des gens comprennent et peuvent découvrir par eux-mêmes. Il s’agit de vos
composants gestuels de base.
Tap
Le tap est le clic de l’univers tactile, l’action universelle permettant d’interagir avec tous
les éléments à l’écran. Le tap indique » je veux en savoir plus » ou » je veux activer
ceci ». Comme nous l’avons vu au chapitre 1, le tap est également la meilleure alternative
aux interactions de survol dans un environnement tactile : utilisez un tap pour obtenir un
aperçu d’un objet, prévisualiser les informations sans ouvrir une vue détaillée ; utilisez un
second tap pour l’activer.
Swipe
Comme le tap, le swipe (balayage) est devenu si familier que ses usages semblent à la fois
évidents et limités : faites glisser votre doigt pour faire défiler la page ou basculer entre
différentes vues. Mais des usages plus subtils ont fait leur apparition. Le swipe peut
révéler des panneaux cachés, par exemple, comme la fonction commune à de nombreuses
plateformes qui consiste à faire glisser votre doigt depuis le haut de l’écran pour faire
apparaître la barre d’état et les notifications, ou les nouveaux gestes de Windows révélant
des panneaux de commande. Comme nous l’avons vu au chapitre précédent, le swipe est
également un mouvement essentiel pour le design défensif, évitant aux utilisateurs de
déclencher des actions qu’ils pourraient regretter par la suite : faites glisser votre doigt sur
l’écran pour débloquer le téléphone, répondre à un appel ou supprimer un message.
Pression longue
Similaire au clic de droite, la pression longue fait apparaître un menu contextuel contenant
des actions associées ou des informations sur l’élément touché. On retrouve la même
approche sur toutes les plateformes tactiles, mais les détails peuvent varier.
• Windows. Une pression longue agit comme un clic droit à la souris ; elle ouvre un
menu contextuel. (Dans Windows, vous pouvez également ouvrir ce menu à l’aide d’un
tap à deux doigts : appuyez avec un doigt et effectuez un tap rapide avec un autre.)
• Android. Une pression longue sur un élément d’une liste fait apparaître la barre
d’action contextuelle d’Android, qui vous permet de sélectionner des éléments
supplémentaires dans la liste, puis de manipuler tous ces éléments en même temps
(supprimer, déplacer, etc.).
• Web. La plupart des navigateurs tactiles utilisent la pression longue afin d’ouvrir des
menus contextuels relatifs aux liens et aux images (pour des actions comme
sauvegarder, copier, partager, etc.). Cela signifie que si une application web veut
utiliser ce geste, elle doit outrepasser le comportement par défaut du navigateur – ce
qui risque bien souvent de poser des problèmes d’utilisabilité.
• iOS. Les applications iOS emploient la pression longue de façon moins systématique
que les autres plateformes, même si elle appelle tout de même un menu ou un résumé
du contenu. Son usage inégal, cependant, signifie que la pression longue est
généralement uniquement découverte par les utilisateurs experts ou curieux ; mieux
vaut donc la traiter comme un raccourci alternatif permettant de consulter un écran
détaillé.
FIG 4.1 : Pincez la vue de navigation de l’application Zappos afin de déclencher un zoom sémantique sous Windows,
pour un aperçu plus visuel des sections du magasin.
Pincement et étirement
Ce duo de gestes permet généralement d’agrandir et de rétrécir les images, les cartes et les
pages web. C’est une interaction immédiate et satisfaisante qui vous permet d’attraper un
objet et de le redimensionner à l’envi.
Cet effet de zoom littéral est complété dans de plus en plus d’applications par une
version plus métaphorique appelée zoom sémantique – une convention émergente grâce à
son usage qui s’est généralisé dans Windows. Dans ce contexte, le zoom sémantique
permet de basculer entre deux vues : un gros plan et une vue d’ensemble de l’organisation.
Par exemple, dans l’application de shopping Zappos pour Windows, la vue zoomée
présente toutes les sections avec leurs catégories de produits : chapeaux, gants, etc., dans
Accessoires (FIG 4.1). Afin de parcourir plus rapidement les produits, pincez cette vue
pour revenir à une liste simplifiée des mêmes sections, sans les catégories. Étirez ou
appuyez sur une section pour l’agrandir.
D’autres approches développent le zoom sémantique afin de naviguer plus
profondément dans la hiérarchie des informations. Par exemple, l’application Photos de
l’iPad utilise le pincement et l’étirement comme moyen alternatif pour basculer entre la
vue de l’album complet et les photos individuelles (FIG 4.2). Lorsque vous êtes en train
d’admirer l’une de vos photos, vous pouvez appuyer sur le bouton retour pour revenir à la
vue miniature des photos de l’album, mais vous pouvez aussi pincer l’écran pour revenir à
cette vue de l’album. Ici, le zoom sémantique est déployé de façon à vous permettre de
monter et de descendre dans la structure organisationnelle de l’application. Pincez une vue
détaillée (la photo) pour la fermer et revenir au niveau supérieur (l’album), ou depuis la
vue de l’album, étirez une miniature pour l’ouvrir en vue détaillée.
FIG 4.2 : Pincez une photo dans l’application Photos de l’iPad pour la fermer et revenir à la vue miniature de l’album
parent. Ce geste offre une alternative au bouton retour placé dans le coin supérieur gauche de l’écran.
Double tap
Comme le geste pincer-étirer, le double tap permet de zoomer et de dézoomer. (Android
ajoute une nuance avec le double tap + glissement. Lorsque vous faites glisser votre doigt
vers le haut ou le bas après un double tap dans Android, vous pouvez contrôler le niveau
de zoom exact ; en faisant glisser votre doigt vers le haut, vous dézoomez, vers le bas et
vous zoomez.) Le double tap trouve peu d’utilisations conventionnelles au-delà du zoom
cependant, ce qui le rend idéal pour expérimenter dans d’autres contextes.
BostonGlobe.com, par exemple, permet à ses abonnés d’effectuer un double tap sur un
titre pour sauvegarder un article à lire plus tard.
Vous pouvez compter sur votre public pour comprendre ces six gestes sans aide
supplémentaire. Néanmoins, bien qu’il soit fiable, ce kit reste primitif – il ne fait que
transposer à l’écran tactile les interactions que l’on connaît à la souris. Ces gestes sont
exactement aussi expressifs qu’un curseur de souris, réduisant toute la subtilité de la main
à un seul doigt qui pointe. Ainsi, ces gestes ont tendance à renforcer les vieilles
métaphores de bureau.
LE PROBLÈME DES BOUTONS
Les boutons nous ont toujours bien servi dans le monde physique comme dans le monde
numérique, mais leur interprétation sur les écrans tactiles est un peu plus difficile à
maîtriser : les boutons demandent un effort, ajoutent de la complexité et insèrent une
couche d’abstraction entre vous et le contenu. Les écrans tactiles ont le potentiel de
balayer cette abondance de boutons, menus, dossiers, onglets et autres débris
administratifs que nous avons accumulés au cours de décennies de bureautique. Une
nouvelle chorégraphie de gestes peut et doit remplacer ces contrôles obsolètes pour nous
permettre de travailler directement sur le contenu.
FIG 4.4 : Comme beaucoup d’autres jeux, Earthworm Jim a été porté sur téléphone avec des contrôles de console, ce qui
le rend pratiquement injouable.
Les designers de jeux avaient besoin d’un nouveau modèle : ils ont donc abandonné les
boutons. En proposant moins de commandes, les designers ont épuré leurs jeux. Des jeux
simples mais satisfaisants comme Angry Bird sont devenus les rois des écrans tactiles en
ne faisant appel qu’à un ou deux gestes. La nature du jeu s’est adaptée à la nature de
l’appareil. À mesure que les jeux tactiles ont gagné en popularité, des jeux plus
sophistiqués ont été développés pour rivaliser avec les jeux cinématiques des consoles.
Certains, comme le jeu d’action-fantaisie Infinity Blade, transposent les interactions
tactiles au genre du hack-and-slash. D’autres jeux emploient une approche encore plus
novatrice, créant un gameplay conçu sur mesure pour l’écran tactile. Des jeux comme
République (FIG 4.5) ou Monument Valley vous invitent à déplacer le héros en touchant
l’environnement de jeu. Au lieu de s’appuyer sur un système de marionnettes complexe
basé sur des boutons, ces jeux vous immergent par une interaction directe avec le monde
du jeu. C’est un changement de perspective qui offre l’expérience complexe d’un jeu de
console sans avoir besoin des contrôles correspondants.
FIG 4.5 : Dans République, vous êtes un hacker qui guide le héros pour l’aider à s’échapper d’un mystérieux bâtiment.
Vous voyez le monde par le biais de caméras de surveillance et vous lui dites où aller et à quel moment. La plupart des
actions consistent à toucher des caméras pour en prendre le contrôle, puis à toucher des emplacements pour indiquer au
fugitif où il doit se rendre. Le monde lui-même devient l’interface, aucun bouton n’est nécessaire.
Les galeries de photos pour écrans tactiles sont des exemples presque parfaits de cette
approche. Ce sont des interfaces très denses qui ne comportent pourtant quasiment aucun
contrôle. Il n’y a que du contenu : touchez une photo pour l’agrandir, puis faites défiler la
collection du bout du doigt. L’interaction est entièrement liée au contenu ; les informations
elles-mêmes sont l’interface. Marshall McLuhan a prononcé cette phrase célèbre : » Le
message, c’est le médium. » Quand nous créons l’illusion d’une interaction directe avec
les informations, nous pouvons enfin dire que le médium est le message.
Alors, à quoi ressemble l’interaction lorsque nous pressons ce message sous une dalle
en verre à deux dimensions ? Dans le monde physique, nous avons un mot qui désigne un
morceau de contenu plat et unique : nous appelons cela une carte. C’est pour cela que tous
les grands systèmes d’exploitation tactiles utilisent les cartes (ou carreaux, panneaux…)
comme métaphore fondamentale pour représenter le contenu à interaction directe.
FIG 4.9 : Facebook Paper imagine ses données comme des cartes physiques où chaque action physique produit une
action correspondante sur les données. Les cartes représentant un article web se déplient pour révéler leur contenu
interactif.
Les gestes employés dans Facebook Paper suivent une logique naturelle une fois que
vous les avez découverts, mais ils ne sont pas toujours évidents pour le néophyte.
Permettre à votre public de trouver, d’apprendre et de s’adapter à ces nouveaux gestes est
un défi majeur – un défi que nous abordons dans le prochain chapitre. Cela étant, lorsque
les gestes reposent sur des interactions simples basées sur le monde physique, il n’y a pas
forcément beaucoup d’instructions à donner. Alors que nous nous apprêtons à concevoir
des interactions plus poussées, commençons par regarder autour de nous pour trouver
l’inspiration.
LAISSEZ-VOUS GUIDER PAR LE MONDE RÉEL
Pour comprendre le monde qui nous entoure, nous faisons confiance à un mélange de lois
physiques et de conventions humaines. La gravité s’est avérée être extrêmement fiable, de
même que bon nombre de nos propres constructions sociales (à l’exception de la salière et
de la poivrière). Les vis s’enfoncent dans le sens des aiguilles d’une montre, les pages des
livres occidentaux se déroulent de gauche à droite, une coche indique une tâche effectuée,
et la couleur rouge veut dire » stop ». Ces choses définissent nos attentes et façonnent nos
comportements à mesure que nous évoluons dans le monde physique. Appliquez ces
attentes et ces comportements à votre interface tactile, et vous offrirez à vos utilisateurs
une expérience familière et prévisible. Voici quelques stratégies pour y parvenir.
Adobe Comp est une application de représentation filaire et de mise en page pour iPad
dont l’interface tactile s’appuie sur les symboles courants du wireframing (FIG 4.12).
Ajoutez une image en traçant un gros X, placez une colonne de texte en griffonnant une
pile de lignes, effacez un élément en le raturant. L’application convertit ces symboles en
composants de wireframe et, une fois que vous avez fini, exporte vos maquettes au format
InDesign, Illustrator ou Photoshop – une ébauche informelle sur tableau blanc transformée
en un wireframe formel. Bien sûr, ça ne vous paraît peut-être pas plus efficace que de
produire un wireframe avec Microsoft Visio ou OmniGraffle sur un ordinateur de bureau,
mais c’est la façon la plus rapide de le faire sur un écran tactile. Ces gestes fluides
évoquant l’esquisse permettent de créer des mises en page beaucoup plus rapidement
qu’avec des panneaux de commande conçus pour les ordinateurs de bureau.
FIG 4.12 : Adobe Comp emprunte la nomenclature des wireframes. Ici, en dessinant un X, vous insérez un espace
réservé pour une image, et en traçant une série de lignes, vous insérez du texte.
• Insérez un nouvel élément dans la liste en écartant vos doigts entre deux autres
éléments pour lui faire une place.
• Marquez un élément comme terminé en le faisant glisser sur le côté.
• Pincez une liste pour la fermer.
Ce sont là des gestes simples pour des actions physiques simples, correspondant
naturellement aux gestes que vous effectueriez pour réorganiser votre liste si les éléments
étaient arrangés physiquement sur votre bureau. Lorsque des éléments virtuels se
comportent avec une présence physique si familière, notre cerveau se fond naturellement
dans l’interaction.
Au premier abord, cela ne vous semblera peut-être pas pertinent pour cette application
de services financiers intranet que vous devez développer, mais Uzu offre des leçons utiles
pour tous types d’interfaces tactiles. Notamment, cette approche multi- doigts rappelle le
rôle des touches Alt, Control ou Fonction ; dix doigts permettent dix modes d’action. Les
doigts deviennent des touches fonction. Tout comme les dactylos professionnels
parcourent les mots à toute vitesse, ou comme les utilisateurs experts utilisent des
raccourcis clavier pour réaliser des tâches en une fraction de seconde, les gestes
multitouch nous aident également à naviguer sans effort dans nos interfaces tactiles. Ces
gestes, bien qu’abstraits, permettent aux utilisateurs avancés d’accomplir des tâches de
façon plus économique.
Si les commandes multidoigts possèdent un tel potentiel, pourquoi n’en utilisons-nous
pas plus ? Les téléphones prennent en charge le multitouch depuis des années, mais de
façon assez médiocre. Les prises à une main et les petits écrans nous ont plutôt incités à
taper d’un seul doigt. Les écrans plus grands sont plus prometteurs. La taille et le poids
des tablettes plus grandes exigent que vous utilisiez vos deux mains ou que vous posiez la
tablette sur vos genoux, de sorte à toujours avoir au moins une main libre – avec un écran
assez grand pour utiliser plusieurs doigts à la fois. Il en va de même pour les ordinateurs
hybrides et portables.
Il existe cependant quelques obstacles, à commencer par l’accessibilité : tout le monde
n’est pas doté de mains et de doigts complètement mobiles – ni même de dix doigts,
d’ailleurs. Pour certains handicaps, un pincement à cinq doigts est proprement impossible.
La découvrabilité est une autre pierre d’achop- pement. Comment sommes-nous censés
savoir que des actions abstraites comme un balayage à trois doigts ou un tap à cinq doigts
sont disponibles ? Nous aborderons des stratégies permettant de révéler des gestes au
chapitre 5, mais considérez qu’il est préférable de traiter ces gestes mutitouch plus
abstraits comme des alternatives – des compléments expressifs aux boutons et aux autres
interactions traditionnelles. Les utilisateurs doivent tout de même être en mesure
d’accomplir toutes ces actions avec des gestes simples, même si cela demande plus de
temps.
EMBOUTEILLAGE DE GESTES
À mesure que vous ajouterez de plus en plus de gestes dans votre interface pour compléter
ou remplacer des contrôles traditionnels, ces gestes risquent de devenir encombrants.
D’une part, comme les systèmes d’exploitation et les navigateurs s’approprient la plupart
des gestes clés, votre application ou votre site web doit se débrouiller avec les restes ;
d’autre part, les gestes – en particulier les gestes grossiers – consomment beaucoup
d’espace et jouent des coudes pour se faire une place à l’écran.
À première vue, ces menus peuvent sembler plus compliqués qu’une simple barre
d’outils et remplis d’informations à assimiler. Cependant, les menus circulaires sont
tactiles par nature : toucher-glisser-relâcher. C’est pour cette raison que les anglophones
appellent parfois ces menus » marking menus » : cela s’apparente à tracer une marque sur
l’écran. Un balayage vers deux heures sur le cadran signifie une chose, un balayage vers
six heures, une autre. Vous devenez progressivement plus rapide, car les menus circulaires
exploitent la mémoire musculaire là où les menus à liste ne le peuvent pas. Dans
l’application Messages sur iOS, par exemple, vous pouvez ouvrir un menu circulaire pour
envoyer un clip audio, une photo ou une vidéo à quelqu’un (FIG 4.16). C’est un
mouvement fluide qui se transforme rapidement en habitude.
FIG 4.16 : Maintenez l’icône de micro enfoncée et un menu circulaire s’affiche alors que l’application démarre
l’enregistrement ; glissez vers le haut pour envoyer le fichier audio, vers la gauche pour le supprimer, ou relâchez le
bouton pour mettre en pause.
Autre avantage des menus circulaires, leurs gestes restent très compacts. Ils partent
d’un point spécifique à l’écran – idéalement sur le contenu que vous cherchez à manipuler,
même s’il s’agit souvent d’un bouton de menu ou d’un autre emplacement. Ce point
d’ancrage fixe réduit les erreurs, car il exige une attention supplémentaire ; il vous
demande d’appuyer sur l’élément que vous souhaitez affecter avant de démarrer le geste.
Les menus circulaires sont plus précis et permettent de mettre de l’ordre dans des
interfaces gestuelles autrement congestionnées.
Les menus circulaires existent depuis la fin des années 1960, mais ils n’ont jusqu’à
présent jamais rencontré beaucoup de succès dans les interfaces grand public
traditionnelles, à une exception près : les jeux. Les jeux de combat utilisent des menus
circulaires pour accéder rapidement à l’inventaire ou aux options de combat (FIG 4.17). Il
est tout à fait logique que les jeux de gâchette aient adopté le menu circulaire plutôt
qu’une liste plus classique. Dans ces jeux, il est essentiel de limiter les interruptions de
l’expérience, et les menus circulaires sont beaucoup plus efficaces que d’autres outils de
sélection.
FIG 4.17 : Le jeu au titre évocateur Game of Thrones: The Game utilise un menu circulaire pour contrôler l’action.
L’étude qui en a apporté la preuve est dans un tiroir depuis plus de vingt-cinq ans. Une
étude de 1988 a effectué la comparaison et a déterminé qu’avec une liste de huit éléments
spécifiques, les utilisateurs étaient plus rapides avec des menus circulaires qu’avec des
listes linéaires (http://bkaprt.com/dft/04-04/). Et il s’avère que la vitesse ne fait que
s’accroître. Cet effet a été confirmé par une étude réalisée en 1994 par Bill Buxton et
Gordon Kurtenbach, qui ont testé la vitesse d’utilisation des menus circulaires avec un
stylet. Au fil du temps, ils ont noté que les utilisateurs experts cessaient de regarder le
menu et marquaient l’écran à l’aveugle. Une fois cette transition effectuée, la sélection
devenait trois fois plus rapide (http://bkaprt.com/dft/04-05/).
Comme toute technique, les menus circulaires ont toutefois leurs limites. Gardez les
réserves suivantes à l’esprit.
• Ils demandent de la précision. Si le point d’ancrage fixe d’un menu circulaire permet de
réduire la densité gestuelle, cela va à l’encontre des avantages des gestes grossiers
parcourant tout l’écran. Les gestes grossiers sont idéaux pour la navigation et les
contrôles de base, tandis que les menus circulaires sont plus adaptés aux actions et aux
outils rapides.
• Ils ne sont pas agrandissables à volonté. On ne peut faire rentrer qu’un certain nombre
d’options autour d’un cercle. Huit semble être le maximum raisonnable. Sur les petits
écrans comme ceux des téléphones, un menu circulaire engloutit une part non
négligeable des pixels de l’écran, et il est donc généralement limité à trois ou quatre
options.
• La première utilisation peut être difficile. Malgré le gain de vitesse qui vient avec
l’expérience, nous sommes plus à l’aise pour parcourir une liste linéaire qu’un menu
circulaire. Mais ce degré de confort n’est pas si important lorsque vous vous intéressez
à l’usage réel. » Les effets de l’organisation disparaissent avec la pratique », a
découvert Buxton en 1994. » Même lorsque les options du menu sont ordonnées d’une
façon linéaire ordinaire, la sélection à l’aide d’un menu circulaire est toujours plus
rapide et moins susceptible d’entraîner des erreurs qu’avec un menu linéaire. » Ce fait,
cependant, dépend de cette dernière contrainte.
• Les menus circulaires doivent être constants. Si vous changez l’ordre ou le contenu
d’un menu circulaire de façon dynamique, les utilisateurs devront se replier sur un
mode de sélection visuel, et vous perdrez tout gain de temps lié à la mémoire
musculaire.
Globalement, ces limitations sont modestes et contribuent d’ailleurs à modeler de bons
cas d’utilisation, tels qu’une navigation principale ou des menus contextuels cohérents.
C’est exactement le rôle qu’ils ont été amenés à jouer dans certaines parties d’Android, de
Windows et d’iOS, ou encore comme menus de navigation dans de nombreuses
applications populaires (FIG 4.18).
FIG 4.18 : Les applications Yelp (gauche) et My Fitness Pal (droite) pour iPhone utilisent des menus circulaires dans leur
navigation.
Les menus circulaires ont mis plus de temps à arriver sur le web que dans ces
environnements d’OS et d’applications alors qu’ils sont pourtant bien adaptés au support
ainsi qu’aux capacités des navigateurs. Parmi des exemples web existants, on trouve le
sporadique plugin jQuery (http://bkaprt.com/dft/04-06/) ou un clone CSS3 du menu
circulaire de l’application Path (http://bkaprt.com/dft/04-07/). Pourquoi ne voyons-nous
pas plus d’expériences de ce genre ? La vérité, c’est qu’il est encore pénible de développer
des gestes dans le navigateur. Voyons pourquoi.
LE DÉSESPOIR DES GESTES SUR LE WEB
Certains problèmes structurels rendent la conception de gestes sur navigateur fastidieuse,
mais pas impossible. Les navigateurs ne sont pas très doués pour répondre aux attentes en
matière d’interaction que les appareils à écran tactile ont créées, pour deux raisons en
particulier.
Tout d’abord, comme nous l’avons vu précédemment, les navigateurs se sont déjà
approprié de nombreux gestes utiles. Ces conflits gestuels laissent peu d’options au
designer au-delà du tap et du balayage. (C’est également pour cela que les menus
circulaires sont parfaitement adaptés au web : leur interaction tap-balayage utilise
précisément cette combinaison.)
Ensuite, JavaScript n’offre aux développeurs d’interface que les événements tactiles les
plus basiques : touchstart, touchend et touchmove. Il est relativement facile de détecter un tap ou
peut-être un balayage, mais le reste devient rapidement compliqué. Amusez-vous bien à
coder un geste de rotation ou un balayage à plusieurs doigts. Idéalement, nous devrions
avoir des événements pour tous les gestes courants sur n’importe quel élément du DOM :
pincement, pression longue, balayage, rotation, etc. (Microsoft modèle cette approche
dans son framework de conception d’applications Windows natives avec HTML5,
suggérant peut-être la voie à suivre.) Pour le moment, nous devons les construire nous-
mêmes en partant de zéro – ou mieux, utiliser une bibliothèque telle que l’excellente
Hammer.js (http://hammerjs.github.io), qui offre des événements pour le tap, le double
tap, le balayage, le glissement, le pincement et la rotation.
Des outils et des techniques commencent à émerger pour aider les designers à faire
face. Les balayages sont un geste idéal pour débuter. Ils sont (relativement) faciles à
implémenter, et de nombreux sites ont déjà adopté le balayage pour passer à l’écran
suivant/précédent. Par exemple, vous pouvez parcourir les galeries photo de Flickr, les
articles du New York Times, les résultats de recherche d’image de Google, et bien plus.
Vous pouvez vous aventurer au-delà du balayage, bien sûr, mais cela demande plus de
travail. Voyons un peu ce que cela implique. Le reste de ce chapitre présente la façon dont
les navigateurs gèrent les événements tactiles et comment vous pouvez utiliser JavaScript
et/ou CSS pour construire quelques gestes simples. Nous ne nous embourberons pas dans
les détails pratiques – ce n’est pas un livre sur JavaScript – mais il est important pour les
designers de savoir ce qui est réaliste en termes de programmation sur les écrans tactiles.
Comme programmer des événements tactiles n’est jamais chose aisée, commençons par
voir dans quelles situations vous n’en avez pas besoin.
LE CLICK, C’EST MAGIQUE
Comme nous l’avons remarqué, la plupart des navigateurs tactiles offrent les événements
touchstart, touchmove et touchend. En touchant l’écran, on déclenche également l’événement
click, qui permet à tous les vieux sites conçus pour la souris de faire leur boulot dans un
environnement tactile. Vous pouvez conserver votre santé mentale en vous focalisant sur
ce simple modèle d’interaction.
Quand vous le pouvez, tenez-vous en au clic. Malgré la disponibilité d’événements
tactiles plus complexes, il n’est pas nécessaire de remplacer les événements click dans
votre JavaScript, à moins que vous ne souhaitiez programmer quelque chose de plus
poussé qu’un tap. Bien que nous associions couramment click à la souris, ce n’est pas
strictement un événement de souris. Considérez plutôt que c’est une action
générique : » Je veux activer cet élément. » Dans la plupart des cas, si vous souhaitez
déclencher quelque chose lorsqu’un utilisateur touche l’écran, il suffit de capturer
l’événement click. Oubliez les événements tactiles et faites comme si vous codiez pour la
souris.
Le clic présente en outre l’avantage de fonctionner avec tous les modes de saisie.
Malgré son nom dérivé de la souris, click restera probablement l’action clé pour les
navigateurs web, qu’ils soient utilisés à l’aide du clavier, de la reconnaissance vocale, de
gestes de style Kinect, ou même d’un casque de réalité virtuelle. Le clic n’est pas
seulement compatible avec le passé ; il est aussi compatible avec le futur.
Mais click n’est pas parfait. Dans ce chapitre, j’ai fait valoir que les interactions tactiles
demandaient de nouvelles approches. Elles diffèrent des événements de souris et de pavé
tactile d’une façon évidente et subtile à la fois. Une différence qui n’est pas des moindres
est le nombre de pointeurs à prendre en charge. Les interfaces pour souris n’ont jamais
plus d’un curseur à la fois ; sur un écran tactile, vous pouvez utiliser vos dix doigts (ou
même plus avec l’aide de vos amis – ou de vos orteils). Si vous devez suivre plus d’un
doigt à la fois, click ne suffira pas. Utilisez click quand vous le pouvez, mais passez aux
événements tactiles lorsque vous devez faire l’une des choses suivantes :
• suivre plusieurs doigts (pincement, rotation ou balayage à deux doigts) ;
• effectuer une action lorsque le doigt est appuyé contre l’écran (un mouseover à la sauce
tactile) ;
• suivre le mouvement d’un doigt (balayage ou glissement).
Pour ce dernier élément, vous avez parfois plus de marge de manœuvre. CSS suffira
pour le cas d’utilisation le plus courant d’un balayage – les galeries et carrousels – alors
commençons par là.
UTILISEZ CSS POUR FAIRE DÉFILER LES GALERIES ET LES
CARROUSELS
Les sites s’appuient souvent sur un code JavaScript complexe pour créer des carrousels et
les gestes associés, mais il existe en fait une solution étonnamment simple. Si vous utilisez
overflow:scroll en CSS à la place, tous les navigateurs tactiles modernes vous donneront un
panoramique accéléré au niveau matériel ; le balayage est en prime, le tout sans
JavaScript.
Prenez une liste d’images :
<ul class="carousel">
<li>
<img src="image1.png" alt="unicorn">
</li>
<li>
<img src="image2.png" alt="rainbow">
</li>
<li>
<img src="image3.png" alt="sparkles">
</li>
</ul>
Utilisez CSS pour afficher les éléments de la liste en ligne dans une bande horizontale,
tous fixés à une taille spécifique :
.carousel {
white-space:nowrap;
}
.carousel li {
display: inline-block;
padding: 0;
margin: 0;
.carousel img {
width: 400px;
height: 300px;
.carousel {
white-space:nowrap;
overflow-x: scroll;
overflow-y: hidden;
width: 100%;
height: 300px;
La dernière règle des styles .carousel indique à iOS d’appliquer son fameux défilement
inertiel.
-webkit-overflow-scrolling: touch;
Désormais, une simple pichenette du doigt fait défiler la page et celle-ci continue sous
le fait de sa propre inertie avant de s’arrêter en douceur, pour un effet qui imite un
comportement physique naturel. Sans la propriété -webkit-overflow-scrolling, le carrousel
avancerait uniquement lorsque vous le déplacez et s’arrêterait brusquement, produisant
une interaction austère et artificielle. D’autres navigateurs tactiles modernes n’ont pas
besoin de cette propriété et incluent le défilement inertiel sans aide supplémentaire.
Une mise en garde toutefois : de nombreux navigateurs mobiles plus anciens ne gèrent
pas la propriété overflow:scroll correctement et la traitent comme overflow:hidden, qui ampute
le contenu débordant de la page. Au lieu d’un carrousel qui défile, vous vous retrouvez
avec un carrousel qui ne veut pas bouger, empêchant d’accéder au contenu situé hors de
l’écran. Heureusement, le Filament Group propose un correctif : Overthrow est une
bibliothèque JavaScript qui résout le problème sur ces navigateurs, et ajoute même le
défilement inertiel en prime (http://bkaprt.com/dft/04-08/).
Ajoutez des points d’accrochage au carrousel
Nous avons maintenant un carrousel qui tourne librement ; c’est super, sauf qu’il peut
s’arrêter pile entre deux images. Faites en sorte que le carrousel vienne s’aligner avec l’un
de ses panneaux lorsqu’il arrête de défiler en ajoutant des règles scroll-snap :
.carousel {
white-space:nowrap;
overflow-x: scroll;
overflow-y: hidden;
width: 100%;
height: 300px;
scroll-snap-type: mandatory;
-ms-scroll-snap-points-x: snapInterval(0px,
400px);
scroll-snap-points-x: snapInterval(0px, 400px);
}
! window.navigator.msMaxTouchPoints )
{
Comme cette méthode de détection n’est pas complètement infaillible, cette approche
donnera inévitablement à certains navigateurs tactiles les boutons précédent/suivant au
lieu de l’interaction de balayage. Peu importe. Cela ne représentera qu’une minorité des
navigateurs, votre contenu sera toujours accessible, et avec des boutons suffisamment
gros, votre carrousel restera facilement accessible sur les écrans tactiles.
ÉVÉNEMENTS TACTILES DANS LE NAVIGATEUR
Comme nous l’avons vu, un judicieux mélange de CSS et d’événements JavaScript click
peuvent gérer le tap et le balayage. Si c’est tout ce dont vous avez besoin, notre travail est
fini ; n’hésitez pas à passer au chapitre suivant. Mais si vous avez besoin de gestes plus
complexes – multi-touch, glisser-déplacer, manivelle, rotation, etc. –, alors bouclez votre
ceinture, mettez votre casque, nous allons programmer des événements tactiles. Nous
n’approfondirons pas trop l’aspect code, mais voici un aperçu général du fonctionnement
des événements tactiles.
L’iPhone a été la première plateforme populaire à intégrer les événements tactiles
JavaScript dans son navigateur, et d’autres navigateurs lui ont rapidement emboîté le pas
pour être compatibles avec iOS. Cette approche est devenue une norme du W3C
(http://bkaprt.com/dft/04-10/) et elle est désormais prise en charge par quasiment tous les
navigateurs tactiles modernes (sauf Internet Explorer, qui dispose de son propre modèle de
pointeur concurrent qui deviendra peut-être lui-même une norme distincte – nous verrons
cela dans un instant).
Le modèle d’événements tactiles prédominant permet aux développeurs de détecter
trois événements : touchstart, touchend et touchmove. Vous connaissez peut-être déjà leurs
cousins de bureau mousedown, mouseup et mousemove, et ces événements tactiles fonctionnent de
façon similaire : les développeurs peuvent détecter lorsqu’une interaction tactile débute,
finit ou change, puis déclencher des actions correspondantes sur la page. Ces événements,
comme tous les événements JavaScript, créent un objet de données auquel les
développeurs peuvent accéder pour obtenir plus d’informations sur l’interaction tactile.
Les objets d’événements tactiles incluent trois listes de touches, des objets de données qui
désignent chacun un doigt ou un stylet qui touche actuellement l’écran :
• : une liste de tous les objets tactiles sur l’écran, pas seulement l’élément du
event.touches
DOM pour cet événement.
• : une liste concentrée d’objets tactiles qui inclue uniquement les
event.targetTouches
touches sur l’élément du DOM actuel.
• : une liste des objets tactiles impliqués dans l’événement actuel.
event.changedTouches
Dans touchmove, par exemple, cette liste vous dit quelles touches ont effectivement
bougé. Admettons que vous pinciez l’écran avec votre doigt et votre pouce, mais que
seul votre pouce bouge : c’est seulement ce dernier geste qui sera inclus.
Chacun des objets tactiles de ces trois listes contient à son tour des informations sur les
coordonnées du toucher et l’élément cible qui a déclenché l’événement. (Si vous touchez
un lien, par exemple, l’élément cible sera l’élément DOM <a> de ce lien.) Ces objets
d’événement et de toucher permettent aux développeurs de suivre la présence, la position
et le mouvement des doigts sur l’écran. Pour une introduction, lisez le tutoriel de Boris
Smus intitulé » Développer pour les navigateurs web multi- touch »
(http://bkaprt.com/dft/04-11/).
function(event) {
event.preventDefault(); // don’t trigger more
events for this touch
• Il s’écoule un délai de 300 millisecondes après touchend, de sorte que click et tous les
autres événements de souris simulés se déclenchent un tiers de seconde après que vous
avez ôté votre doigt de l’écran. (Cela signifie également qu’un seul événement mousemove
se produit pour toute interaction tactile donnée, tandis que touchmove s’actualise à mesure
que vous déplacez votre doigt.) Nous verrons pourquoi ce retard existe et comment
vous pouvez l’éliminer dans un instant.
• Vous perdez la correspondance sémantique des événements de souris tels que mouseout,
qui se déclenche sur l’élément touché seulement après qu’un autre élément de la page
est touché, et pas quand vous levez votre doigt comme vous pourriez vous y attendre.
Dans bien des cas, les différences entre le toucher et la souris exigent que vous
développiez des styles d’interaction séparés pour chacun, afin de prendre en charge
indépendamment chaque mode de saisie. Pour agrandir un élément, par exemple, vous
pourriez ajouter une détection du pincement et de l’étirement pour les événements tactiles,
tout en basculant sur un zoom actionné par un bouton pour les événements de souris. Mais
les choses se compliquent lorsque vous prenez en considération le nombre croissant
d’appareils et de navigateurs qui vous permettent de basculer entre la souris, le clavier et
l’écran tactile. Vous interface doit être prête à accepter n’importe quel style de mode de
saisie et d’interaction disponible. Si vous êtes un développeur JavaScript, prenez
l’habitude d’écrire des blocs de code séparés pour les clics et les interactions tactiles – cela
devient rapidement laborieux.
initial-scale=1.0">
Si vous concevez un site responsive ou mobile uniquement, vous devriez utiliser cette
balise de toute façon ; c’est donc une solution facile qui contourne le délai de 300 ms sans
effort supplémentaire. En prime, il est toujours possible de pincer pour zoomer. Les autres
navigateurs suivront peut-être l’exemple de Chrome à l’avenir, mais certains ne pourront
pas. Safari mobile, par exemple, fait défiler la page lorsque vous effectuez un double tap
au sommet ou en bas de l’écran. Il est peu vraisemblable qu’il désactive ce geste un jour,
car le double tap ne fait pas que zoomer.
Internet Explorer vous permet de désactiver le zoom par double tap avec CSS. En
utilisant la propriété touch-action (http://bkaprt.com/dft/04-12/), vous pouvez indiquer à IE
10+ d’autoriser le comportement tactile par défaut sur des éléments individuels. Par
exemple, pour désactiver les double taps sur un élément tout en permettant le zoom par
pincement, ajoutez cette règle CSS :
-ms-touch-action: manipulation;
touch-action: manipulation;
Un jeu d’enfant. Pour résumer, voici comment supprimer le délai dans Chrome et
Internet Explorer.
• Réglez la taille du viewport sur device-width.
• Utilisez la règle CSS touch-action.
Les autres navigateurs continueront à traîner des pieds, mais si vous tenez vraiment à
accélérer l’expérience, une paire de bibliothèques JavaScript pourront vous venir en aide.
FastClick de FT Labs (http://bkaprt.com/dft/04-13/) utilise les événements tactiles pour
déclencher des clics rapides et élimine le double tap. Il se charge également de différencier
les scrolls, balayages et taps pour vous. Tappy, écrit par Scott Jehl du Filament Group
(http://bkaprt.com/dft/04-14/), masque les différences entre les événements click tactiles,
de souris et de clavier en créant un événement tap unique qui marche pour les trois,
éliminant le délai de 300 ms dans la foulée.
DOULEURS ET PROMESSES DES ÉVÉNEMENTS DE POINTEUR
Voilà donc que je vous suggère d’utiliser une bibliothèque JavaScript pour unifier les clics
et les interactions tactiles dans un seul événement. Ou d’utiliser click autant que possible.
J’ai beau tourner autour du pot, très cher lecteur, vous avez sans doute compris que je
souhaitais vivement avoir une seule codebase valable à la fois pour la souris et les écrans
tactiles – au moins pour les interactions simples. Différents modes de saisie demanderont
toujours différentes interactions, et un code séparé est parfois indispensable. Mais pour les
interactions de base (clics, scrolling, glisser-déplacer, etc.), les interactions sont si
similaires que nous ne devrions pas avoir besoin de les traiter séparément. C’est là le
principe des événements de pointeur.
Microsoft a introduit les événements de pointeur dans Internet Explorer comme
alternative concurrente aux événements tactiles. Les événements de pointeur combinent
les événements pour la souris, l’interaction tactile et le stylet, voire d’autres modes de
saisie tels que les gestes de style Kinect – tout ce qui peut être considéré comme un
pointeur. Ils sont prometteurs mais, malheureusement, ils ne fonctionnent que dans
Internet Explorer. Cela changera peut-être : le W3C a créé une norme pour les événements
de pointeur (http://bkaprt.com/dft/04-15/), que d’autres navigateurs seront susceptibles
d’adopter (à l’heure où j’écris, Chrome et Firefox ont annoncé qu’ils le feront et Safari,
qu’il ne le fera pas). En attendant que cette intrigue évolue, des bibliothèques JavaScript
telles que Hand.js de Microsoft (http://bkaprt.com/dft/04-16/) comblent le vide et vous
permettent d’utiliser les événements de pointeur immédiatement pour une gestion unifiée
des événements dans tous les navigateurs. Dans tous les cas, les designers sont obligés de
prendre en charge les événements tactiles, les événements de pointeur et les événements
de souris. Pfiou.
Voici un bref aperçu du fonctionnement du système de pointeurs. Ces derniers
déclenchent divers événements et, contrairement aux actions de la souris, peuvent se
produire simultanément (par exemple lorsque vous posez plusieurs doigts sur l’écran).
Pour des raisons de compatibilité, les événements de souris sont toujours déclenchés ;
donc, comme avec les événements tactiles, assurez-vous que vous ne traitez pas à la fois
les événements de pointeur et les événements de souris – event.preventDefault() est votre
ami, avec les mises en garde évoquées précédemment.
Comme Microsoft a publié Internet Explorer 10 en avance par rapport à la norme du
W3C, l’entreprise a utilisé des préfixes de navigateur pour nommer ses propres
événements de pointeur. Maintenant que la norme est établie, ces noms préfixés ne sont
plus pris en charge à partir d’IE 11. En clair, pour couvrir toutes les versions, vous devez
attacher les noms avec et sans préfixe des événements et des objets de pointeur. Cela
commence à devenir verbeux. Les événements de pointeur clés sont :
• (ou MSPointerDown pour IE 10) : un bouton de la souris est pressé, ou un
pointerdown
doigt/stylet entre en contact avec l’écran. Similaire à mousedown et touchstart.
• (ou MSPointerUp) : un bouton de la souris est relâché, ou un doigt/stylet est levé
pointerup
de l’écran. Similaire à mouseup et touchend.
• pointermove (ou MSPointerMove) : un pointeur actif est en mouvement. Similaire à mousemove et
touchmove.
• (ou MSPointerOver) : début du survol ; pour les appareils qui ne prennent pas en
pointerover
charge le survol, cet événement est déclenché immédiatement avant pointerdown.
Similaire à mouseover.
• (ou MSPointerOut) : fin du survol ; pour les gadgets ne prenant pas en charge le
pointerout
survol, cet événement est déclenché immédiatement après pointerup. Similaire à mouseout.
Cet objet d’événement de pointeur vous donne toutes les informations qu’un
événement de souris vous donnerait (event.clientX et event.clientY pour les coordonnées à
l’écran, event.target pour l’élément cible, etc.). Mais l’objet révèle également quel type de
pointeur vous avez reçu (event.pointerType), ou même le niveau de pression exercé par un
stylet (event.pressure). Pour plus de détails sur les objets d’événement de pointeur,
consultez la documentation de Microsoft sur les événements de pointeur
(http://bkaprt.com/dft/04-17/).
}
else if ('MSPointerEvent' in window) {
// lier aux événements de pointeur avec préfixe MS
}
else {
if ('ontouchstart' in window) {
// lier aux événements tactiles ;
Les événements de pointeur ont le potentiel exceptionnel de réunir tous les événements
d’interaction sous une même enseigne, mais dans l’intervalle, ils ne font qu’ajouter un
autre scénario à gérer pour les designers – sans compter le surplus de code associé et le
coût que cela représente en termes de performances. Quelle est la meilleure tactique à
adopter ? Simplifiez là où vous le pouvez et reposez-vous sur l’événement click autant que
possible (ou tap de la bibliothèque Tappy).
RATTRAPAGE GESTUEL
Les écrans tactiles créent des attentes en matière d’interaction que les navigateurs ont
encore du mal à suivre. Pour le pire et pour le meilleur, qu’ils soient simples ou
complexes, c’est ainsi que nous construisons des gestes sur le Web. Le modèle de
l’interaction tactile dans les navigateurs est un désordre tel que les applications natives
resteront sans doute le principal terrain d’expérimentation en la matière dans un futur
proche. C’est dans ces environnements propriétaires que l’essentiel de l’innovation se fera
jusqu’à ce que les standards rattrapent le retard, ce qui finira inévitablement par arriver.
Entre temps, même avec ces imbroglios d’événements tactiles, cela vaut la peine de
s’efforcer de faire fonctionner les gestes et les interactions tactiles dans le navigateur. Vous
connaissez la chanson : un nouveau médium demande de nouvelles interactions, et ce
chapitre s’est attaché à vous montrer à quoi elles pourraient ressembler. Mais concevoir et
construire des gestes n’est que la moitié de l’équation.
Maintenant que vous avez déterminé quels gestes utiliser pour votre interface, il va
falloir que les gens puissent les découvrir. C’est ce que nous allons voir au prochain
chapitre.
HOURRA, VOUS AVEZ DES GESTES ! Mais, euh, vos utilisateurs le savent-ils ? Les gestes ne
sont utiles que si les gens peuvent les trouver. Autrement ils ne sont que des œufs de
Pâques, des confiseries cachées pour les chanceux ou les plus déterminés – et vos
utilisateurs ne sont ni l’un, ni l’autre. Le défi, bien sûr, c’est que les gestes sont invisibles,
contrairement aux boutons avec leurs appels à l’action dûment étiquetés. Si l’interface ne
suggère pas clairement un geste, vous devez aider les gens à le découvrir. Ce chapitre
explore l’art subtil de rendre les gestes apparemment intuitifs, même lorsqu’ils ne sont pas
intrinsèquement évidents. Nous allons découvrir les fondamentaux d’une interface
explicite et intuitive dans des sources aussi diverses que des magazines, des manuscrits
anciens et des jeux vidéo. Ceux-ci démontrent tous la norme de référence pour une
interface découvrable : des instructions qui se révèlent en contexte et en temps opportun,
sans nécessiter de manuel.
FIG 5.1 : Lorsque Vanity Fair a sorti une application pour iPad, ses instructions complexes semblaient suggérer que
l’application était tout sauf l’expérience » intuitive » qui était promise.
LES INSTRUCTIONS EXPLICITES NE SONT PAS LA SOLUTION
Les designers se reposent trop souvent sur des manuels, des FAQ et des aide-mémoires
élaborés pour expliquer les subtilités des balayages à trois doigts et des pincements à cinq
doigts. Si ces guides peuvent être des références utiles, ils sont de piètres outils
d’apprentissage. Lorsque vous présentez trop d’informations trop vite, vous accablez
l’utilisateur et vous lui donnez l’impression que votre application ou votre site web est
beaucoup plus compliqué qu’il ne l’est vraiment (FIG 5.1).
Ce n’est pas seulement le volume des instructions qui rebute les gens, c’est le fait qu’il
y ait des instructions tout court. Les nouveaux venus sur votre site ou votre application
sont là pour faire quelque chose, et les instructions semblent les en divertir. Effectivement,
en lisant ces instructions, nous pourrions parvenir à nos fins plus rapidement, mais nous
sommes trop impatients pour en prendre la peine. Nous disposons, pour la plupart, de
connaissances incomplètes des outils que nous utilisons tous les jours, parce que nous ne
lisons jamais le fichu manuel – c’est pour cette raison qu’il est moins utile de faire
précéder votre expérience utilisateur d’un tutoriel ou d’une vidéo que de permettre aux
gens de plonger directement dans le cœur du sujet et d’expérimenter. Nous examinerons
quelques techniques d’orientation efficaces par la suite. Mais d’abord, sachez une chose :
parfois, la seule instruction dont les gens ont besoin pour utiliser votre interface, c’est une
bonne métaphore.
DESIGN SKEUOMORPHIQUE : » JE SAIS DÉJÀ COMMENT ÇA
MARCHE »
Comme nous l’avons vu au chapitre précédent, si un élément d’une interface ressemble ou
se comporte comme un objet physique, les gens essaieront d’interagir avec de la même
façon. Et moins une geste ressemble à une action physique, plus il est difficile à deviner.
Ces principes expliquent l’efficacité du design skeuomorphique, approche qui consiste à
maquiller les interfaces numériques pour les faire ressembler (et avec un peu de chance, se
comporter) comme des objets physiques. Si une interface ressemble à un livre, elle nous
pousse aussitôt à l’utiliser comme tel, en feuilletant les pages pour parcourir le contenu.
La métaphore informe l’utilisateur en faisant simplement correspondre le design visuel à
l’interaction sous-jacente. » Hé, c’est un bouton rotatif [ou un livre, un microphone ou une
fronde lance-oiseaux]. Je sais déjà m’en servir. »
Cependant, un design skeuomorphique pose problème en tant qu’outil pédagogique
lorsque le designer n’applique pas la métaphore jusqu’au bout. Pendant les dix-huit
premiers mois de l’iPad, l’application Calendrier, qui ressemblait pourtant à un agenda en
cuir, ne se comportait pas comme tel : lorsque vous essayiez de tourner les pages, rien ne
se passait. L’application Contacts originale présentait le même défaut, mais pire encore :
lorsque vous tentiez de feuilleter les pages du carnet d’adresses, vous supprimiez
carrément le contenu (FIG 5.3).
FIG 5.2 : Et si les magazines physiques comportaient les mêmes instructions que les magazines pour iPad ? Cette parodie
du designer Khoi Vinh démontre à quel point nos interfaces élégantes deviennent compliquées lorsque nous les
surchargeons d’informations.
FIG 5.3 : L’application Contacts d’origine pour iPad ressemblait à un carnet d’adresses, mais ne fonctionnait pas de la
même façon. Quand vous essayiez de tourner la page en feuilletant le carnet, vous supprimiez les coordonnées du
contact. Oups !
Vous voyez bien à quel point il peut être dommageable de proposer un design visuel
qui ne correspond pas au design de l’interaction. Ayez conscience des possibilités
interactives qu’offre votre métaphore d’interface, mais également des possibilités qu’elle
promet. Si votre design semble promettre que l’on puisse feuilleter les pages, alors il doit
le permettre. N’essayez pas de copier un objet physique si votre interface ne peut pas agir
comme tel.
Cette correspondance » apparence-comportement » s’éloigne de ce que les artistes et
designers ont pratiqué de façon ludique pendant des siècles. Les moines gravaient des
effets de trompe-l’œil tridimensionnels sur leurs manuscrits enluminés pour créer
l’illusion d’un parchemin, d’un papier tuilé ou de feuilles de papier empilées (FIG 5.4).
Plus récemment, les designers interactifs des années 1980 ont fidèlement reproduit des
calculatrices, des calendriers et des livres en tant qu’éléments d’interface pour le
Macintosh et d’autres interfaces graphiques (FIG 5.5). Historiquement, nous considérions
ces fioritures comme des ornements ; nous savions qu’une interface de bureau qui
ressemblait à un livre serait malgré tout utilisée à l’aide de boutons classiques. Mais
lorsque cette plaisanterie visuelle arrive sur l’écran tactile, nous nous faisons prendre au
piège. Souvenez-vous : la nature physique de l’interaction tactile donne l’illusion qu’il n’y
a pas d’illusion. Les interfaces tactiles qui ressemblent à des objets physiques vous
tromperont et vous mettront sur la mauvaise voie si elles ne se comportent pas comme ces
objets.
FIG 5.4 : Le concepteur de ce livre d’heures du XVe siècle a enluminé ses pages pour donner l’impression qu’elles
étaient rédigées sur des rouleaux de parchemin – rappel fantaisiste d’une technologie de lecture plus ancienne. On
imagine que personne n’est tombé dans le panneau en essayant de dérouler la page comme un parchemin. La donne
change lorsque vous introduisez un écran tactile. Image tirée des bibliothèques de l’Université de Liège.
FIG 5.5 : Nous jouons au jeu du sosie sur les ordinateurs de bureau depuis les années 1980.
QUAND LE DESIGN TOMBE À PLAT
Si un design ne peut pas ressembler à un objet physique sans se comporter comme tel,
qu’en est-il de la proposition inverse ? Une interface peut-elle fonctionner si elle se
comporte comme un élément physique, mais n’y ressemble pas ? Certains designers
rechignent à singer l’apparence d’objets réels pour des raisons esthétiques, et le design
skeuomorphique peut facilement virer au kitsch. Mais en éliminant tous les indices qui
indiquent cette ressemblance, on risque d’aplatir bien plus que l’apparence. Une anecdote
au sujet d’iOS peut servir de mise en garde.
En 2013, Apple a sorti iOS 7, un nouveau design reprenant l’esthétique plate
popularisée par Windows. L’entreprise a éradiqué sans pitié les éléments
skeuomorphiques : les boutons se sont transformés en texte épuré, les curseurs sont
devenus des blocs plats et les cartes ont perdu leurs bordures et leurs ombres. Ce faisant,
les designers plaidaient pour un recentrage sur le contenu et l’efficacité visuelle, renonçant
aux décorations » frivoles », telles que les ombres, les surfaces lustrées ou les effets de
lumière – les attributs du monde physique. Si l’objectif était louable, la mise en œuvre a
été difficile à suivre. Les utilisateurs d’Apple avertis savaient comment ces widgets aplatis
fonctionnaient grâce aux versions précédentes, mais les néophytes disposaient de bien peu
d’indices visuels. Les widgets se comportaient toujours comme des objets physiques – les
curseurs glissaient, les cartes se retournaient, mais les utilisateurs devaient tâtonner pour
comprendre qu’il s’agissait de curseurs ou de cartes. Pire, l’aplatissement de l’interface
avait également mis à mal la découvrabilité des éléments de base, boutons inclus.
Si vous éliminez les indices skeuomorphiques, comblez le vide avec d’autres
instructions. Il peut s’agir de suggestions subtiles, telles que des indices visuels ou des
animations. Dans Windows, le système d’exploitation indique qu’il est possible de balayer
ou de faire défiler les panoramas, ses grilles de panneaux horizontales, en plaçant des
tuiles partiellement visibles à l’écran (FIG 5.6). Dans iOS, le curseur » faites glisser votre
doigt sur l’écran pour déverrouiller » indique le geste à effectuer à l’aide d’une animation
qui balaie le texte de gauche à droite. Quant au design aplati d’Apple, l’entreprise a par la
suite rajouté une option permettant de rétablir les contours de ses boutons autrement nus.
FIG 5.6 : Les tuiles sectionnées sur le bord droit des panoramas de Windows indiquent qu’il est possible de les faire
défiler.
L’application du Herald démontre qu’une interface naturelle peut puiser son inspiration
ailleurs que dans le simple savoir-faire physique. Les interactions à la souris façonnent
elles aussi les attentes. Dans Maps pour iOS, les novices comprennent facilement qu’un
double tap permet de zoomer – une interaction qu’ils ont acquise en double-cliquant dans
Google Maps. Mais lorsque vous rencontrez un geste sans contexte ni histoire, vous
manquez d’un point de référence. Personne n’imagine que vous pouvez effectuer un tap à
deux doigts dans Maps pour dézoomer (essayez, ça marche vraiment). Aucune interaction
préalable avec une carte physique ou numérique ne permet de le deviner. Lorsque les
gestes ne concordent pas avec une expérience passée, ils deviennent abstraits et
demandent une aide explicite pour être découverts.
Il n’y a pas de problème à fournir une aide explicite, d’ailleurs. J’ai déjà entendu des
designers dire » si votre interface a besoin d’une explication, vous faites fausse route ». Ce
n’est pas vrai. Si les fonctions de base doivent être faciles et évidentes dès le départ, les
fonctions avancées nécessitent toujours quelques instructions, même dans l’interface la
mieux pensée. Cependant, le meilleur apprentissage se fait par l’expérimentation, et c’est
pourquoi les écrans d’aide et les FAQ nous déçoivent souvent. Une meilleure approche
consiste à former les utilisateurs progressivement et contextuellement, et par chance, nous
avons à notre disposition un excellent moyen d’apprendre.
JOUEZ À PLUS DE JEUX VIDÉO
Quand il s’agit d’apprendre aux gens à utiliser des interfaces inconnues, les concepteurs
de jeux vidéo sont des experts. Dans de nombreux jeux, vous ne savez même pas quel est
votre objectif, et vous connaissez encore moins vos capacités ou les obstacles que vous
risquez de rencontrer. Comment apprenez-vous tout cela en tant que joueur ? Certainement
pas en lisant un manuel ou en regardant un tutoriel vidéo. Vous apprenez en jouant. Le jeu
lui-même vous apprend à jouer ; il vous entraîne et vous apprend les mouvements avancés
jusqu’à ce que vous maîtrisiez les bases. Entre autres techniques, les jeux s’appuient sur
trois outils pour y parvenir : le coaching, les niveaux et les bonus.
Coaching
Vous connaissez peut-être le vieil adage : » Show, don’t tell. » En français, on pourrait
dire » prêchez par l’exemple ». Lire un livre n’est pas la meilleure façon d’apprendre à
jouer d’un instrument ou à frapper une balle de tennis. Généralement, quelqu’un vous
montre comment faire, vous l’imitez puis vous vous entraînez. Toutes les théories
d’apprentissage modernes mettent l’accent sur l’importance de la participation active,
complétée par un encadrement. En d’autres termes, nous apprenons en faisant, et nous
apprenons le mieux dans l’instant. C’est ce que l’on appelle le coaching, et c’est ce que
font les meilleures interfaces intuitives. Le coaching consiste à accompagner le joueur (ou
l’utilisateur de votre site web) en illustrant des techniques utiles aux moments opportuns.
Dans la version pour iPad du jeu Dead Space, le premier écran vous apprend à vous
déplacer en appliquant un calque transparent qui vous montre ce qu’il faut faire, puis vous
invite à essayer vous-même (FIG 5.8). Une fois que vous avez crapahuté à travers la pièce,
le calque disparaît. L’un des éléments les plus essentiels du coaching consiste à savoir
quand une compétence a été apprise et quand passer à quelque chose de nouveau.
FIG 5.8 : Avant de courir, il faut apprendre à marcher : dans Dead Space, un calque transparent offre un coaching simple
qui vous apprend à vous déplacer dans le premier écran du jeu. La main animée trace la forme de croix, vous invitant à
faire de même.
Encore mieux que » show, don’t tell » : » do, don’t read ». Dead Space associe les
instructions à des actions ; vous mettez la compé- tence en pratique au moment où elle
vous est enseignée. Compa- rez cela au traditionnel tutoriel employé par tant
d’applications mobiles. Ces tutoriels sont généralement des écrans statiques qui illustrent
les fonctions, contrôles ou gestes principaux, isolés du contenu ou de l’usage réel de
l’application (FIG 5.9).
FIG 5.9 : Dans l’application de réveil Rise, un simple tutoriel présente des images statiques des gestes permettant de
définir des alarmes.
Les tutoriels vous demandent de retenir des gestes dans votre mémoire visuelle. En
vous forçant à effectuer l’action, Dead Space vous aide à stocker le geste dans votre
mémoire musculaire, ce qui est beaucoup plus efficace. Là encore, l’apprentissage
d’actions physiques repose sur la répétition : une boucle de démonstration et de mise en
pratique. Lorsque vous enseignez des gestes, faites-les répéter à vos utilisateurs dès le
début et souvent. C’est ce que font les tutoriels de Mailbox (FIG 5.10) et de Dots (FIG 5.11)
en vous obligeant à effectuer chaque geste pour continuer.
FIG 5.10 : Il n’y a aucun bouton » continuer » dans le tutoriel de l’application Mailbox d’iOS ; vous devez effectuer le
geste décrit pour continuer.
FIG 5.11 : Le tutoriel du jeu Dots présente le mécanisme essentiel : relier des points. Pour poursuivre le tutoriel, vous
devenez réaliser chaque tâche en reliant les points.
Une démonstration vaut mieux qu’un tutoriel. Bien que les tutoriels de Mailbox et de
Dots soient efficaces pour apprendre les contrôles, ils sont aussi un peu protocolaires, car
ils imposent une série d’obstacles à franchir avant de pouvoir utiliser l’application pour de
vrai. Dead Space surpasse les deux avec sa démonstration contextuelle, une présentation
des fonctions strictement chorégraphiée dans l’environnement de travail réel d’une
application ou d’un site. C’est comme les petites roues sur un vélo : vous avancez tout
seul, mais avec quelques supports qui vous empêchent de tomber. L’application de prise
de notes Noted, par exemple, vous guide à travers des étapes déterminées vous permettant
de créer et d’éditer votre première note (FIG 5.12).
FIG 5.12 : La démonstration de Noted vous emmène sur un chemin prédéterminé à travers l’application, et vous créez
votre premier document au fur et à mesure. Le point s’anime pour vous indiquer les gestes à effectuer.
Facebook Paper vous offre une liberté totale à partir d’un chemin déjà tracé ; vous
explorez l’application à votre rythme, et Paper explique les interactions clés à mesure que
vous les rencontrez (FIG 5.13). Les gestes sont illustrés à l’écran par des animations qui
vous encouragent à les reproduire (démonstration et mise en pratique !). Vous êtes libre de
suivre ou non les conseils de l’application – vous restez aux commandes. Il s’agit du style
de démonstration le plus efficace, et c’est celui que les jeux vidéo emploient souvent.
FIG 5.13 : Paper vous donne des instructions à l’aide d’animations, de texte et d’enregistrements vocaux pour décrire les
fonctions à mesure que vous les découvrez.
Tous ces exemples de coaching expliquent leurs gestes via du texte et des libellés, mais
vous pouvez également faire allusion à des fonctionnalités à l’aide de moyens plus subtils,
comme l’animation. Lorsque la toute première application USA Today pour iPad est sortie,
un ruban placé au sommet de l’écran permettait de parcourir les chaînes éditoriales. Mais
beaucoup de gens n’ont pas compris qu’ils pouvaient faire défiler le ruban, et pensaient
que l’application ne contenait qu’une poignée de sections.
Les designers ont alors ajouté une animation : à chaque fois que vous consultiez l’écran
principal, le ruban apparaissait en défilant depuis la droite (FIG 5.14). » Hé, ça bouge,
peut-être que je peux le faire bouger aussi ? » Et ça a marché. Maintenant que
l’application illustrait le mouvement du contrôle, la confusion était levée et les visiteurs se
sont mis à utiliser le ruban comme prévu. Une fois le ruban déplacé par l’utilisateur –
preuve que le geste avait bien été compris, l’animation cessait de se déclencher.
FIG 5.14 : Lorsque le site de USA Today a ajouté une animation au ruban de navigation, un grand nombre d’utilisateurs
ont enfin compris à quoi il servait.
FIG 5.15 : Lorsqu’une pause indique la perplexité : si vous ne balayez pas l’écran pour ouvrir le livre sur le premier
écran, au bout de quelques secondes, une main fantomatique apparaît pour vous montrer ce que vous devez faire.
Niveaux
N’enseignez pas tout d’un coup. La théorie de l’éducation moderne recommande
d’apprendre par petites doses, de s’appuyer sur les bases et de dévoiler plus
d’informations à mesure que l’étudiant progresse. Les jeux font souvent ça littéralement,
en divisant l’avancement en niveaux explicites qui se focalisent sur une nouvelle
compétence. Bien que la plupart des applications et des sites web ne soient pas aussi
linéaires que les jeux, les courbes d’apprentissage sont similaires. Commencez par
enseigner les interactions de base au moment où les utilisateurs les rencontrent, avant
d’introduire des gestes plus complexes ou abstraits. (Laissez les gens utiliser ces gestes
avancés s’ils les découvrent par eux-mêmes. Le système de niveaux ne consiste pas à
retenir les informations, mais plutôt à décider du moment où vous les annoncerez.)
Nous sommes toujours plus motivés à apprendre une nouvelle compétence au moment
précis où nous en avons besoin – comme quand nous courons tête baissée vers un géant
terrifiant qui manie une énorme épée. Infinity Blade est un jeu sur iOS dont le système de
combat est incroyablement sophistiqué, mais facile à apprendre pas à pas, en détaillant
chaque élément. Alors que le géant s’apprête à vous passer dessus, le jeu gèle l’action et
démontre le geste que vous devez connaître pour survivre à la crise du moment (FIG 5.16).
FIG 5.16 : Une compétence à la fois : Infinity Blade met le jeu en pause à des moments bienvenus afin de former le
joueur à utiliser une compétence particulière. Une fois que vous avez maîtrisé la parade (en haut), vous êtes prêt à
apprendre l’esquive, etc.
Là encore, l’accent est mis sur la démonstration et la pratique. Le jeu vous montre le
geste ou le contrôle à utiliser puis attend votre réponse ; lorsque vous utilisez le nouveau
geste, l’action reprend… et votre première interaction est réussie. Lorsqu’une interaction
est suffisamment importante, il n’y a pas de mal à interrompre l’activité et à forcer
l’utilisateur à essayer le geste pour poursuivre.
Apple a employé cette approche lors du lancement d’OSX Lion, une mise à jour qui
changeait le fonctionnement du scrolling. Ils ont retourné la gravité virtuelle, de sorte que
la souris ou le pavé tactile fonctionnait dans le sens inverse du sens auquel les utilisateurs
de Mac avaient été habitués pendant des décennies. Pour apprendre ce geste, Apple
affichait une boîte de dialogue dès l’installation du logiciel afin d’expliquer la différence
et vous inviter à essayer le scroll. En fait, vous étiez obligé de scroller parce que c’était le
seul moyen de trouver le bouton Continuer. Faites défiler la page, cliquez sur le bouton et
BOUM : vous venez de battre le niveau un du système d’exploitation d’Apple.
Vous êtes maintenant prêt à l’essayer par vos propres moyens ; continuez à utiliser
votre nouvelle compétence dans le » niveau » actuel jusqu’à ce que vous rencontriez un
nouveau défi et que vous ayez besoin de nouvelles instructions. Pensez votre application
comme si elle comportait des niveaux. Vous devez motiver les utilisateurs et leur
permettre de passer les niveaux de difficulté, du mode novice jusqu’au mode expert.
Comment leur apprendre les bases puis, une fois que c’est fait, les manœuvres avancées ?
Trop souvent, nous traitons nos applications et nos sites web comme un niveau unique.
Nous faisons une brève introduction et nous lâchons nos utilisateurs dans la nature. En
adoptant un système de niveaux, vous accompagnez et instruisez les gens au fil du
parcours qui les mènera à la maîtrise. Et de temps en temps, vous devez les récompenser
pour leurs progrès.
Bonus
Dans les jeux vidéo, à mesure que vous progressez, vous gagnez des bonus, des petits
turbos qui vous confèrent plus de vitesse ou des capacités spéciales. Si les gestes sont les
raccourcis de l’interaction tactile, alors les bonus sont les raccourcis des jeux vidéo –
utilisables par tout le monde, mais surtout efficaces entre les mains des experts. Non
seulement les bonus débloquent de nouvelles capacités, mais ils sont également des
récompenses, marquant vos progrès à mesure que vous avancez dans les niveaux du jeu.
Enseigner un geste avancé ou abstrait s’apparente à offrir un bonus et donne aux
utilisateurs un sentiment de satisfaction similaire.
Lorsque Twitter a remanié son application pour iPhone vers la fin 2011, il a manqué
une occasion de révéler un geste abstrait. Le nouveau design avait déplacé l’accès aux
messages directs (DM) hors de la navigation principale, l’enterrant plus profondément
dans l’onglet Moi. Pour les utilisateurs qui se servaient beaucoup des DM, cela signifiait
deux taps à chaque fois qu’ils voulaient y accéder. Afin de leur faciliter la tâche, Twitter
avait généreusement ajouté un geste pour y accéder plus rapidement : balayer l’écran vers
le haut depuis l’onglet Moi pour aller directement à vos messages. Le problème, c’est que
personne n’avait été informé et que la plupart des gens ignoraient l’existence de l’option.
Il est judicieux de permettre aux gens d’apprendre la manière lente avant de leur
enseigner les raccourcis. Dans le cas de Twitter, apprendre à ouvrir l’onglet Moi puis à
toucher le bouton Messages directs renforçait le modèle mental de l’application,
enseignant aux gens où se trouvaient les DM. Mais après avoir effectué cette action cinq
ou dix fois, vous aviez démontré que vous aviez appris le chemin. Ce que l’interface aurait
dû faire à ce stade aurait été de dispenser un bonus – dévoiler le raccourci gestuel à l’aide
d’une démonstration animée, puis vous demander de reproduire le geste pour poursuivre
(FIG 5.17).
FIG 5.17 : Cette simple maquette montre comment Twitter aurait pu améliorer la découverte de son raccourci gestuel
permettant d’accéder aux messages directs. Après avoir appuyé sur le bouton DM dix fois, l’application aurait affiché un
message d’instruction avec une animation du geste à effectuer.
ON NE FAIT QUE COMMENCER
Le fait que nous ayons besoin d’enseigner les gestes indique seulement que nous n’avons
pas encore beaucoup de normes établies. Pour cette raison, c’est à la fois une époque
excitante et étourdissante pour les designers comme pour les consommateurs. En tant que
designers, nous devons échanger, examiner le travail des autres, partager des idées de
conventions gestuelles et nous engager à les codifier. Nous avons notre propre travail de
coaching et de mise à niveau à faire.
Notre travail est de plus en plus compliqué. Nous devons concevoir pour un tas de
plateformes et jongler entre une infinité de modes de saisie pour ce faire. Mais des défis
complexes cachent souvent des opportunités remarquables. Nous avons aujourd’hui la
chance d’inventer des façons plus humaines d’interagir avec les informations qui nous
entourent. C’est en partie le moment d’étudier et de raffiner notre savoir-faire technique
(44 pixels, les cibles tactiles !). Mais surtout, il est peut-être plus urgent de prendre du
recul vis-à-vis de nos bonnes pratiques obsolètes et de nous autoriser à imaginer des
possibilités innovantes sur ce support en voie de développement. Prenez le contrôle de vos
écrans tactiles, voyez grand, et concevez quelque chose d’extraordinaire.
RESSOURCES
Inspiration provenant du design industriel
Une grande partie de ce livre est axée sur les aspects physiques du design tactile,
établissant des liens avec les siècles de design industriel qui ont précédé l’écran. Les livres
suivants vous apporteront des bases solides s’inscrivant dans cette tradition.
• Designing for People, Henry Dreyfuss. Considéré comme le fondateur du design
industriel moderne, Dreyfuss a conçu le téléphone de Bell, le thermostat Honeywell,
l’aspirateur Hoover et d’autres grands classiques du XXe siècle. Son ouvrage de
référence paru en 1955 est toujours autant d’actualité.
• The Design of Everyday Things, Don Norman. Farce amusante et instructive sur le
design de notre environnement, ce livre essentiel étudie pourquoi le design de certains
objets physiques marche (et pourquoi d’autres, non).
• Designing Devices, Dan Saffer. Ce petit livre électronique explore les éléments qui
définissent les interfaces d’appareils bien conçus depuis les temps anciens.
Chapitre 1
01-01 https://archive.org/details/bstj39-4-995
01-02 http://www.tecmark.co.uk/smartphone-usage-data-uk-2014/
01-03 http://www.uxmatters.com/mt/archives/2013/02/how-do-users-really-hold-mobile-devices.php
01-04 http://link.springer.com/chapter/10.1007/978-3-642-39241-2_6
01-05
http://www.cmo.com/content/dam/CMO_Other/ADI/ADI_Mobile_Report_2014/2014_US_Mobile_Benchmark_Rep
01-06 http://samsungtomorrow.com/사용자의-눈과-손에-딱-맞는-대화면-갤럭시-w-출시
01-07 http://www.elearningguild.com/research/archives/index.cfm?id=174&action=viewonly
01-08 http://www.sfgate.com/news/article/Steve-Jobs-Touchscreen-Laptops-Don-t-Work-AAPL-2477126.php
01-09 http://www.intelfreepress.com/news/do-people-want-touch-on-laptop-screens/
01-10 http://www.sciencedirect.com/science/article/pii/S1057740813000934
01-11 http://www.slideshare.net/uxpa-dc/the-hybrids-are-coming-john-whalen
01-12 https://www.flickr.com/photos/intelfreepress/6837427202
01-13 https://www.flickr.com/photos/intelfreepress/6983554875
01-14 http://www.abookapart.com/products/mobile-first
01-15 http://thesession.org
01-16 http://www.google.com/design/spec/components/buttons.html#buttons-floating-action-button
01-17 https://www.flickr.com/photos/janitors/10065590424
01-18 http://www.apple.com/
Chapitre 2
02-01 http://dev.w3.org/csswg/mediaqueries-4/#pointer
02-02 https://www.usertesting.com
02-03 http://www.w3.org/WAI/GL/css2em.htm
02-04 http://mobile-ux.appspot.com/#8
02-05 http://go.microsoft.com/fwlink/p/?linkid=242592
02-06 https://msdn.microsoft.com/en-us/library/windows/desktop/Dn742468(v=VS.85).aspx
02-07 https://instagram.com/p/q89q9djBkq/
Chapitre 3
03-01 http://www.mcwade.com/DesignTalk/2013/09/flat-is-cool-but-be-consistent
03-02 http://www.lukew.com/ff/entry.asp?1569
03-03 http://erikrunyon.com/2013/01/carousel-stats/
03-04 http://www.nngroup.com/articles/auto-forwarding/
03-05 http://yorkwebteam.blogspot.com/2013/03/are-homepage-carousels-effective-aka.html
03-06 http://shouldiuseacarousel.com
03-07 http://www.statista.com/statistics/232285/reasons-for-online-shopping-cart-abandonment
03-08 http://blog.hubspot.com/blog/tabid/6307/bid/6746/Which-Types-of-Form-Fields-Lower-Landing-Page-
Conversions.aspx
03-09 http://zdfs.github.io/toscani/paymentInfo
03-10 http://blogs.forrester.com/michael_ogrady/12-06-19-
sms_usage_remains_strong_in_the_us_6_billion_sms_messages_are_sent_each_day
03-11 http://www.pewinternet.org/2012/03/19/teens-smartphones-texting
03-12 http://leaverou.github.io/awesomplete/
03-13 https://github.com/miketaylr/jquery.datalist.js
03-14 http://www.wsj.com/articles/SB10001424127887323566804578549351972660468
03-15 http://bits.blogs.nytimes.com/2013/09/29/disruptions-guided-by-touch-screens-blind-turn-to-smartphones-
for-sight
03-16 https://www.youtube.com/watch?v=h2OfQdYrHRs
03-17 http://www.w3.org/TR/webaudio
03-18 http://dvcs.w3.org/hg/speech-api/raw-file/tip/speechapi.html
03-19 http://www.w3.org/TR/geolocation-API
03-20 http://w3c.github.io/deviceorientation/spec-source-orientation.html
03-21 http://www.w3.org/TR/ambient-light
Chapitre 4
04-01 https://www.flickr.com/photos/jking89/4572668303
04-02 https://www.flickr.com/photos/blackcountrymuseums/4385115536
04-03 http://www.chicagomanualofstyle.org/tools_proof.html
04-04 http://www.donhopkins.com/drupal/node/100
04-05 http://www.billbuxton.com/MMUserLearn.html
04-06 http://tikku.com/jquery-radmenu-plugin
04-07 http://lab.victorcoulon.fr/css/path-menu
04-08 https://github.com/filamentgroup/Overthrow
04-09 https://drafts.csswg.org/css-snappoints/
04-10 http://www.w3.org/TR/touch-events/
04-11 http://www.html5rocks.com/en/mobile/touch
04-12 https://msdn.microsoft.com/en-us/library/windows/apps/Hh767313.aspx
04-13 https://github.com/ftlabs/fastclick
04-14 https://github.com/filamentgroup/tappy
04-15 http://www.w3.org/TR/pointerevents/
04-16 http://handjs.codeplex.com
04-17 https://msdn.microsoft.com/library/dn433244.aspx
Ressources
06-01 http://www.billbuxton.com/multitouchOverview.html
06-02 https://developer.apple.com/library/ios/documentation/UserExperience/Conceptual/MobileHIG
06-03 https://www.google.com/design/spec/material-design/introduction.html
06-04 https://dev.windows.com/en-us/design
06-06 https://developer.apple.com/watch/human-interface-guidelines
06-07 http://www.html5rocks.com/en/mobile/touchandmouse
06-08 http://blogs.msdn.com/b/davrous/archive/2015/08/10/handling-touch-in-your-html5-apps-thanks-to-the-
pointer-events-of-ie10-and-windows-8.aspx
06-09 http://hammerjs.github.io
06-10 http://mattgemmell.com/touch-notation
06-11 http://somerandomdude.com/work/cue
06-12 http://www.kickerstudio.com/2008/12/touchscreen-stencils
INDEX
A
Adobe Comp 129, 130
Android 32, 41
API Web
Audio 108
Speech 108
B
barre d’action scindée 42
barre d’outils fixe 37
bibliothèque Awesomplete 103
boîtes de dialogue de confirmation 105
bouton 116, 118, 120
de déclenchement flottant 43
stepper 103
bras de gorille 23
Buxton, Bill 141
C
capteurs 107
carrousels 87
cartes 124
champs de formulaire 92
Chicago Manual of Style 129
claviers 99
Clear (application) 131
coder des événements tactiles 143
contrôles de rebord 53, 61
D
démonstrations 172
design
iOS 7 166
skeuomorphique 162
device-width 75
dévoilement progressif 81
directives de design
d’Android 34, 45
de Microsoft 72
données linéaires 91
double tap 115
E
emplacement des cibles tactiles 68
ems 70
Entertainment Weekly 88
espacement des cibles tactiles 72
événements de pointeur 156
F
Facebook Paper 174
fatigue 116
Fei, Qian 16
fonction Reachability 46
Forrest, Zachary 96
G
gestes
dans les navigateurs Web 143
de rebord 136
grossiers 116
multidoigts 133
glisser-déposer 113
Google Translate 107
H
Hoober, Steven 14, 19, 21, 62, 69
I
Instagram (application) 32, 83
Intel 23
interaction prédictive 83
J
Jehl, Scott 183
jiu-jitsu gestuel 105
Jobs, Steve 23
K
Kurtenbach, Gordon 141
L
Layar 107
lois physiques 130
LookTel Money Reader 107
M
McLuhan, Marshall 123
McWade, John 78
media queries CSS4 58
media query pointer 58
mémoire musculaire 117
menus
circulaires 138
déroulants 101
métaphores physiques 168
mise en page
hors canvas 85
pour ordinateurs portables et hybrides 51
pour phablettes 41
pour tablettes 48
pour téléphones 30
mode à une main 46
N
New York Times 74
Norman, Don 122
norme W3C pour les événements de pointeur 156
O
objets de données 150
P
phablettes 17
pincement et étirement 113
pixels virtuels 73
pression longue 112
prise en charge des événements tactiles, détecter 153
prise en main 14
Q
qualité des interactions 82
R
remplissage automatique 97
rems 71
S
Safari 35
scrolling 84
sélecteur de date 99
Shank, Patti 19, 21, 62, 69
Smus, Boris 151
survol 63
Swarm (application) 32
swipe 111
Sydney Morning Herald 168
T
taille des cibles tactiles 69
tap 111
sans délai 154
Taylor, Mike 103
téléphone
à clavier 11
Bell 11
The Daily 49
The Session 39
TouchUp 132
tutoriels 172
U
Uzu (application) 133
V
Verou, Lea 103
viewport dynamique 74
W
W3C 74
Whalen, John 24
Windows 8 23
Wroblewski, Luke 38
Z
zone du pouce 16
zoom 113, 115
sémantique 113
À PROPOS DE A BOOK APART
Nous couvrons les sujets émergents et essentiels du design et du développement web avec
style, clarté et surtout brièveté – car les professionnels du design et du développement
n’ont pas de temps à perdre !
À PROPOS DE L’AUTEUR
Josh Clark est le fondateur de Big Medium, agence de design spécialisée dans les objets
connectés, l’expérience mobile et le responsive web design, et qui offre ses services aux
entreprises les plus innovantes. Josh a écrit quatre autres livres, notamment Tapworthy:
Designing Great iPhone Apps (O’Reilly, 2010), et donne des conférences sur le futur des
interfaces numériques dans le monde entier. En 1996, Josh a créé un type d’interface
utilisateur unique : le programme d’entraînement Couch-to-5K (C25K), qui a aidé des
millions d’allergiques au sport à se mettre au jogging. (Sa devise est la même pour le
fitness que pour l’UX : no pain, no pain.)
Pour suivre toutes les nouveautés numériques du Groupe Eyrolles, retrouvez-nous sur Twitter et Facebook
@ebookEyrolles
EbooksEyrolles
Et retrouvez toutes les nouveautés papier sur
@Eyrolles
Eyrolles