Tests d'utilisabilité : comparaison de deux méthodes appliquées au site e-rara.ch

Meystre, Valérie ; Rey, Raphaël ; Schneider, René (dir.)

(Travail de recherche réalisé dans le cadre du Master of Science en Information documentaire HES à la Haute école de gestion de Genève (HEG-GE), Filière information documentaire, 2014)

L’utilisabilité est un aspect primordial d’un site Internet. Selon la norme ISO 9241-11 (1998 p. 2), elle concerne l’efficacité, l’efficience et la satisfaction dans l’interaction entre un utilisateur et un système en fonction de buts. Garantir cette utilisabilité ne va pas de soi, cela requiert d’être testée régulièrement et il existe à cet effet plusieurs méthodes.... More

Add to personal list
    Résumé
    L’utilisabilité est un aspect primordial d’un site Internet. Selon la norme ISO 9241-11 (1998 p. 2), elle concerne l’efficacité, l’efficience et la satisfaction dans l’interaction entre un utilisateur et un système en fonction de buts. Garantir cette utilisabilité ne va pas de soi, cela requiert d’être testée régulièrement et il existe à cet effet plusieurs méthodes. L’objet principal de ce travail est la comparaison de deux d’entre elles : une méthode dite classique (avec un modérateur présent et recours au think-aloud) et une méthode automatisée à distance. Nous avons choisi le site e-rara.ch comme théâtre de cette comparaison, avec également pour objectif de proposer des recommandations d’amélioration. Nous avons élaboré un test comprenant un questionnaire préalable récoltant des données sur les compétences des participants, cinq tâches et un questionnaire final portant sur l’évaluation générale du site en plus d’une question ouverte où les participants pouvaient proposer directement des améliorations. Pour la mise en place du test, nous avons utilisé le logiciel Loop11 et réalisé une version francophone et germanophone de celui-ci. Dans un premier temps, nous avons lancé le test à distance, en recrutant nos participants majoritairement via la liste de diffusion Swiss-lib. 84 personnes ont effectué la totalité du test. Dans un deuxième temps, nous avons réalisé le test modéré en présentiel avec 7 participants, 5 francophones et 2 germanophones. Il s’agissait de déterminer si le test à distance était interprétable sans recours aux données récoltées en présentiel. Pour chaque tâche, nous avons examiné le taux de succès et le premier clic, mais surtout les stratégies employées, les commentaires et les erreurs, qui nous ont permis d’identifier 25 problèmes d’utilisabilité, tous tests confondus. Pour l’ensemble d’entre eux, nous avons expliqué comment ils ont été décelés ou non par chacune des deux méthodes, puis nous avons émis des recommandations pour leur apporter des solutions. Nous avons ainsi pu comparer les deux types de tests en termes d’efficacité et d’efficience. Il est apparu que l’analyse des tâches via le test automatisé à distance permet de relever les problèmes d’utilisabilité les plus sévères, mais pour beaucoup d’autres problèmes, le repérage nécessite une question ouverte où les participants peuvent s’exprimer librement (propositions d’améliorations, difficultés éprouvées, etc.). Il a aussi l’avantage d’appuyer ses découvertes par des données statistiques grâce à son nombre plus élevé de participants. Le test modéré en présentiel peut réussir à repérer des problèmes de n’importe quel type, y compris des questions de manque de visibilité de certains éléments, même s’il ne permet pas d’en évaluer de manière chiffrée leur impact. Le think-aloud est également précieux : il permet de suivre au plus près les éventuels manques de compréhension ou doutes des personnes observées. Le petit nombre de participants présente toutefois le risque de passer à côté de problèmes marginaux. En conclusion, l’idéal serait évidemment de pouvoir recourir au deux méthodes, qui sont largement complémentaires. Si ce n’est pas possible, le choix dépendra des finalités du test.