Archives de catégorie : Entretiens

Entretien avec J-R. Ruault ; Ergonomie et BPM : quelles complémentarités ?

Introduction

Un des objectifs central du métier de l’ergonome est de comprendre le travail pour le transformer, afin de l’adapter à la logique des utilisateurs. Quel que soit son domaine d’activité, et afin de mener à bien cette mission, l’ergonome va devoir comprendre le contexte dans lequel l’utilisateur évolue, quelles sont les grandes règles de fonctionnement, quels sont les processus qui conditionnent ce qu’il fait. Le métier d’analyste BPM (modélisation des processus métier) a également pour objet d’étude ces processus . Il nous semblait donc fort intéressant de consacrer un entretien décrivant les frontières entre ergonomie et BPM.

Jean-René Ruault, expert en ingénierie système, a accepté de partager son expérience sur le sujet dans un regard croisé entre ergonomie et BPM.

Encore merci pour sa disponibilité !

La fiche de Jean-René Ruault


Photo-RuaultExpert méthodes et outils d’ingénierie système, DGA, Paris

Formation : DEA en psychologie sociale expérimentale, EHESS et formation complémentaire en informatique industrielle.

Expérience professionnelle : Après plus de dix ans dans des sociétés de service, il rejoint la DGA en 2004, où il exerce maintenant une activité d’ingénierie des systèmes.

Il est co-animateur du comité technique consacré aux systèmes de systèmes et aux services, au sein de l’AFIS. Il a publié plusieurs articles dans le domaine de l’ingénierie des systèmes et des interactions homme-machine. Il a été coprésident de la conférence Ergo’IA  2006. Dominique Luzeaux et lui ont publié plusieurs ouvrages consacrés à l’ingénierie système et aux systèmes de systèmes (SdS), en français (Hermès) et en anglais (Wiley).

Début de l’entretien

Bonjour M. Ruault et merci d’avoir accepté de partager autour de l’ergonomie et du BPM. Pouvez-vous décrire succinctement la notion de « BPM » à nos lecteurs. Faire un bref état des lieux ?

Bonjour, merci pour cet entretien. Le BPM, Business Process Modeling, signifie modélisation des processus ou activités métier. Cette discipline vise à rendre compte, formaliser et spécifier les activités à mettre en œuvre dans un domaine afin de les automatiser. C’est un concept bien connu dans le domaine des systèmes d’information et celui de la qualité.

Lorsqu’un ergonome fait de la conception de système, il est amené à faire en amont une analyse de la tâche. Cette analyse de la tâche s’inscrit dans un contexte organisationnel. L’ergonome est donc amené à faire une analyse des processus associés à la tâche de l’utilisateur. Cela semble fort lié au BPM.

Vous avez tout à fait raison. C’est un sujet à double tranchant et paradoxale.

(…)

Historiquement, l’objet du BPM est d’élaborer un flux d’activité (workflow) automatisé. Les normes traitant de BPMN, que je présente dans notre ouvrage (Jean-René Ruault, 2008), sont tout à fait explicites à ce sujet. Elles ont la faculté de traduire directement un processus métier en code.

(…)

Ensuite, une grande caractéristique du BPM est d’être indépendant du contexte. Les tentatives de type Praxème© apportent bien un peu de contexte, mais de façon très limitée et toujours dans une perspective a priori. Rien, dans le BPM, ne permet de prendre en compte les aléas d’une situation, c’est-à-dire ce qui n’est pas prévu.

(…)

Ainsi, l’objet d’étude entre BPM et ergonomie est fort similaire, mais la perspective pour l’appréhender est tout à fait différente.

Mais pourtant, historiquement, le domaine des systèmes d’information doit bien considérer l’utilisateur non ?

Très peu. La démarche, réductionniste, ne prend pas en compte et ne permet de rendre compte ce qui caractérise l’humain… son comportement, ses intentions, ses objectifs, la confiance qu’il a dans les machines… sa compréhension de la situation, du contexte, etc.

(…)

Cela transparaît dans la littérature relative aux systèmes d’information. Rien sur l’intentionnalité des acteurs humains, dans une logique à la Crozier, rien sur la dimension paradoxale des communications et des comportements de ces acteurs (Watzlawick). L’adaptation, l’appropriation du dispositif technique par les opérateurs humains sont tout à fait ignorés. Nous ne trouvons rien sur l’engagement personnel de l’acteur dans la réalisation de son activité, ni sur le développement personnel et professionnel.

Donc, le fait que l’ergonome envisage l’analyse des processus organisationnels du point de vue du facteur humain, en considérant l’opérateur, son profil, sa tâche, le tout dans un contexte d’utilisation ouvre la brèche à une collaboration intéressante entre BPM et ergonomie

Tout à fait. Il y a une véritable carte à jouer pour l’ergonome. Il décrit l’activité réelle de l’être humain, en situation, de manière contextualisée et apporte des éléments complémentaires à l’analyse BPM.

(…)

Une approche commune permet, grâce à l’ergonome d’analyser en vue de concevoir un système technique qui soit adapté au métier des opérateurs humains, et grâce à la modélisation des processus métier (BPM) d’analyser le métier pour l’automatiser.

Au départ, le BPM semble très technique, confiné à un contexte très spécifique, un peu éloigné de l’ergonomie. Qu’en pensez-vous ?

Son application s’élargit petit à petit, en particulier avec la diffusion de plus en plus importante des cadres d’architecture (architecture framework).

Quel est le point de contact entre les deux disciplines ?

En mettant en perspective l’ergonomie et le BPM, nous retrouvons la ligne de fracture traditionnelle entre l’activité réelle et l’activité prescrite que connaissent bien les ergonomes. La notion d’activité réelle n’est pas du tout appréhendée par le BPM. Le fait de considérer le contexte, le fait de s’adapter face à des aléas qui ne peuvent pas être définis, anticipés, sont des capacités propres aux acteurs humains. Les systèmes d’information, basés sur des automatismes, ne peuvent présenter ces capacités.

(…)

C’est le point de contact entre les deux disciplines.

L’ingénieur doit tout de même bien être conscient de la différence entre activité réelle et activité prescrite

Du point de vue de l’ingénieur concepteur, tout écart entre la tâche prescrite et ce qui est réalisé relève de l’anomalie. Là encore, il n’y a pas de moyen pour rendre compte de la variabilité des comportements. Nous sommes face à un opérateur moyen, au sens statistique du terme, tout aussi improbable que la femme allemande qui aurait 1,37 enfants (Indicateurs de fécondité (nombre moyen d’enfants par femme, donnée INED 2008). Dans la mesure où il s’agit d’une activité future probable, nous devrions aussi disposer d’une pondération en termes de probabilité. Il n’en est rien. L’activité est supposée se dérouler sans cesse, ainsi qu’elle a été spécifiée.

Du point de vue d’un ergonome, il semble tout à fait aberrant d’appréhender les processus sans considérer l’être humain

Évidemment. L’article de René Amalberti illustre à merveille cela. Notamment à travers son étude sur les circuits des médicaments. L’automatisation des métiers, sans prendre en compte les activités réelles des opérateurs est une source d’erreur du système technique. Dans certains cas, cela peut avoir des conséquences extrêmement graves, avec la mort d’êtres humains.

Il est donc intéressant d’adopter une approche projet qui mixe BPM et ergonomie. Mais comment faire ?

L’article que j’ai soumis avec Eddie Soulier, Florie Bugeaud à ErgoIA 2008 essaie d’apporter quelques éléments de réponse.

(…)

Si je me permettais une métaphore, je dirais que l’activité prescrite est la partition d’une symphonie. Chaque performance, au sens anglais du terme, de la partition, est une interprétation singulière prenant en compte intimement le contexte. Par Furtwängler, Toscanini ou Karajan, la 9ième symphonie de Beethoven est à la fois toujours la même et toujours une autre. Avec un orgue de barbarie, ce sera toujours la même, en faisant abstraction de la déformation des cartes perforées, de façon lancinante.  L’interprétation de l’orgue de barbarie est indépendante du contexte. En revanche, sans partition commune, en absence d’une notation reconnue par tous les musiciens, comment plusieurs orchestres différents pourraient-ils collaborer, interpréter une œuvre en commun ? Nous serions obligés, à l’inverse de l’orgue de barbarie, d’écouter un bœuf permanent.

(…)

De mon point de vue, cette analogie peut être appliquée dans notre domaine.

Plus concrètement ?

Si le processus métier à traiter, à concevoir, est tendanciellement déterministe, avec des contextes finis et définis a priori, et n’est pas sensible, dans sa réalisation, aux aléas, nous pouvons envisager de l’automatiser et d’appliquer la démarche BPM, jusqu’à la production du code qui supporte le flux d’activité. Ce peut être le cas dans les systèmes de régulation ferroviaire fermés comme la ligne 14 du métro parisien.

(…)

Si le processus métier à traiter, à concevoir, est très interactif (voir Thompson et Perrow, dans Jean-René Ruault, « La place de l’humain dans le contexte des systèmes de systèmes »), fortement dépendant du contexte et présentant de nombreux aléas, il faut envisager le processus métier, la partition, comme structurant, mais devant laisser toute sa place à l’interprétation par l’opérateur humain pour prendre en compte le contexte et les aléas.

Les formalismes de modélisation métier de type « ARIS », « MEGA », ou autres, semblent tout à fait compatibles avec les formalismes classiques utilisés en ergonomie

Oui vous avez raison. D’ailleurs, à mon sens, maîtriser les formalismes BPM est un pré requis incontournable pour les ergonomes qui souhaitent s’investir dans l’analyse des processus métier. Des ergonomes, telle que Marie Catherine Beuscart-Zephir, utilisent les notations de la modélisation des processus métier. Cela permet, évidemment, de mieux communiquer avec les ingénieurs.

Y a-t-il déjà eu des tentatives de prise en compte des caractéristiques des utilisateurs dans le BPM ?

A ce que je sache, peu, voire pas du tout. Ce n’est par manque de méthode. Nous trouvons des liens étroits entre ergonomes et génie logiciel dans le domaine des IHM. Depuis 20 ans, il y eu de nombreux travaux sur ce sujet. J’y ai, pour ma part, contribué, avec plusieurs articles dans les années 90.

Est-ce que vous pensez que le BPM pourrait envisager l’utilisateur comme acteur du système, avec un environnement et des contraintes, un objectif, etc. ?

C’est une situation paradoxale. Pour de nombreux auteurs et praticiens du BPM, les acteurs humains font partie, sont des composants, des systèmes d’information. Puisque, pour eux, c’est une machine de Turing, et vu qu’il y a isomorphisme entre l’être humain et l’ordinateur, il n’y a pas de souci : l’humain est bien pris en compte, puisqu’il fait partie du système d’information.
Est-ce que le fait de considérer explicitement la notion de profil utilisateur dans les processus ne poserait pas de problèmes éthiques ?

Absolument pas. Il s’agit bien d’un profil utilisateur, anonyme. Il ne s’agit pas des caractéristiques de Madame Durand et de Monsieur Martin (et vice et versa). Bien au contraire, il faut bien un profil utilisateur pour protéger les informations personnelles. Un profil médecin a le droit d’accéder à des information médicales personnelles, accès interdit à un profil différent non médical.
Posons la question différemment : n’y a-t-il pas un risque à ce que la prise en compte explicite des profils utilisateurs dans l’analyse BPM nous amène à des déviances de la part de décideurs de type : « Pour ce poste, l’analyse nous démontre que pour améliorer la compétitivité il nous faut une femme, de 35 ans, blanche, qui n’a pas d’enfant ».

Tout peut être dévié, vous avez raison. Nous avons trois dimensions à traiter, celle de l’éthique, celle de l’air du temps et celle de l’ergonomie. En terme éthique, de mon point de vue, la réponse, face au risque de déviance, réside dans le droit et son application. A ce niveau, je suis plutôt intransigeant. En terme d’air du temps, ma position est clairement opposée à toute ségrégation, quel que soit son type. En terme d’ergonomie, pour moi, nous devons chercher à concevoir une activité et un poste de travail adaptés aux opérateurs, et identifier les caractéristiques des opérateurs structurantes pour la conception du système. L’excellent papier de Charles KIirke, que je synthétise dans le chapitre « « La place de l’humain dans le contexte des systèmes de systèmes », montre très bien ces aspects-là avec la féminisation de l’armée au Royaume Uni. Lorsque le poste de travail génère de fortes contraintes, il me semble judicieux de les identifier et de les tracer dans le profil de poste. Daltonien, je ne suis pas mécontent que cela ait été détecté il y a 30 ans et que l’on m’ait déconseillé une filière d’activité, l’électronique, dans lequel les couleurs jouent un rôle non négligeable.

Auriez-vous un article clé à proposer à nos lecteurs pour mieux comprendre le lien entre facteurs humains et ingénierie système ?

Sans prétendre faire le tour de la question, nous essayons, dans notre article (Jean-René Ruault, Christian Colas, Jean-Claude Sarron et Dominique Luzeaux,) ainsi que celui publié dans le JESA, de traduire cela dans les processus et activités aux confins des facteurs humains et de l’ingénierie système.  C’est une activité qui nécessite une contribution pluridisciplinaire.

M. Ruault, merci pour votre disponibilité et très bon vent dans la sphère de l’ingénierie système !

[learn_more caption= »En savoir plus ! » state= »open »]
Amalberti R., Violations et migrations ordinaires dans les interactions
avec les systèmes automatisés, Journal Européen des Systèmes
Automatisés, VOL 43/6 – 2009 – pp.647-660

Bernonville S. & Beuscart-Zéphir M., Mise en œuvre d’un système d’aide aux choix des méthodes et modèles du GL et de l’IHM dans le cadre de  projets visant l’informatisation de processus complexes en milieu hospitalier. Proceedings of  IHM  2008,  20ème  Conférence  de  l’Association  Francophone  d’Interaction  Homme-Machine  (Metz,  France,  3-5  septembre  2008),  International  Conference  Proceedings Series, ACM Press, Metz, pp. 151-158, septembre, 2008

Beuscart-Zéphir M.C., Elkin P., Pelayo S. & Beuscart R., The Human Factors Engineering approach to biomedical informatics projects: state of the art,  results, benefits and challenges, Methods of Information in Medicine, IMIA Yearbook of  Medical Informatics special issue, pp. 159-177, 2007

Pariès, J., (2006), Complexity, emergence, resilience  in Hollnagel, E., Woods, D. & Levenson, N. (Eds), Resilience Engineering. Concepts and precepts. Hampshire, England : Ashgate

Ruault J.-R., « La place de l’humain dans le contexte des systèmes de systèmes »,  dans Dominique Luzeaux et Jean-René Ruault (sous la direction de), « Systèmes de systèmes ; concepts et illustrations pratiques »,  éditeur Hermès Science Lavoisier, 388 p, juin 2008,

Ruault J.-R. & Meinadier J.-P., « Normalisation dans le domaine de l’ingénierie des systèmes et des systèmes de systèmes », , dans Dominique Luzeaux et Jean-René Ruault (sous la direction de), « Ingénierie des systèmes de systèmes ; méthodes normes et outils », éditeur Hermès Science Lavoisier, juin 2008

Ruault J.-R., Adaptabilité des systèmes à logiciel prépondérant. Appropriation et démarche orientée « aspect », Journal Européen des Systèmes Automatisés, VOL 43/6 – 2009 – pp.683-710

Ruault J.-R., Colas C., Sarron J.-C. & Luzeaux D.,« Ingénierie système et résilience des systèmes sociotechniques »,  5ème Conférence Annuelle d’Ingénierie Système AFIS 2009

Soulier E., Bugeaud F. & Ruault J.-R., « Nouveaux concepts pour la collaboration entre experts des facteurs humains et ingénieurs des systèmes », Ergo’IA 2008, Biarritz, octobre 2008

[/learn_more]

Entretien avec J.C. Grosjean – « Mettez toutes les chances de votre côté en alliant Ergonomie et Méthodes Agiles »

Introduction

Pour faire passer son message et être soutenu dans sa démarche, un des outils à disposition de l’ergonome est la méthodologie de gestion de projet. La personnalisation des méthodologies de gestion de projet à la démarche ergonomique est une pratique courante sur le terrain. Un thème très en vogue à l’heure actuelle est d’allier « Démarche centrée utilisateur » et « Méthodes Agiles ».

Jean Claude Grosjean, la référence en matière d’Expérience utilisateur Agile a accepté de partager son expérience sur le sujet.

Merci à Jean Claude Grosjean pour sa réactivité et sa disponibilité !

La fiche de Jean Claude Grosjean

JC GrosjeanCoach Agile – Ergonome Senior, Valtech, Paris

Auteur des blogs www.qualitystreet.fr (Coaching Agile, Expérience Utilisateur, Tests Logiciels et Ergonomie IHM) et www.agile-ux.com (en anglais).

Co-auteur de l’ouvrage : « Le poste de travail Web – Portail d’entreprise et accès au SI » (mars 2010)

Jean Claude allie à la fois une grande expérience du conseil (Arthur Andersen, Axance, SQLI) et une bonne connaissance des processus de conception et de développement logiciel (Editeur de logiciels, Influe). Il accompagne aujourd’hui la transformation Agile des organisations et coache les équipes sur les bonnes pratiques Agile et Lean, tout en gardant l’expérience utilisateur au cœur de ses préoccupations.

Début de l’entretien

Bonjour J.C., vous êtes expert Agile et Expérience utilisateur. Nos lecteurs sont sensibilisés à l’approche ergonomique et à l’expérience utilisateur mais pas à Agile. Pouvez-vous nous faire un bref état des lieux ?

Valeur (au plus vite), Changement, Collaboration : ce sont les 3 mots qui résument le mieux l’agilité. Pour aller plus loin, une méthode Agile peut se définir comme une approche itérative et incrémentale, qui est menée dans un esprit collaboratif avec juste ce qu’il faut de formalisme. Elle génère un produit de haute qualité tout en prenant en compte l’évolution des besoins des clients.

(…)

Aujourd’hui, l’agilité modifie notre façon de concevoir des produits, d’envisager et de mener un projet informatique, notamment en termes d’estimation, de planification, de réalisation et de suivi.

De quand datent ces méthodes Agile ?

Elles ne sont pas nouvelles : apparues, pour la plupart, dans les années 90 en réaction aux difficultés liées aux méthodes de développement informatique traditionnelles (cycles en cascade, cycle en V), leur véritable acte de naissance date de 2001.

Comment cette naissance s’est concrétisée ?

Par l’établissement du Manifeste Agile, soutenu par la signature de 17 personnalités reconnues de l’Industrie logicielle (Beck, Cockburn, Fowler, Jeffries, Marick, Schwaber, Sutherland, Highsmith…).

Pouvez-vous nous décrire un peu plus ce Manifeste Agile ?

Ce manifeste offre le socle et constitue les fondations communes à l’ensemble des méthodes Agile : Scrum, Extreme Programming (XP) pour les plus connues mais aussi ASD (Adaptive Software Development), FDD (Feature Driven Development), DSDM (Dynamic System Development method), AUP (Agile Unified Process).

(…)

Les 4 valeurs du manifeste sont les suivantes :

  • les individus et les interactions plutôt que les processus et les outils ;
  • des fonctionnalités opérationnelles plutôt qu’une documentation exhaustive ;
  • une collaboration avec le client plutôt que la contractualisation des relations ;
  • une acceptation du changement plutôt que la conformité aux plans.

Parmi les méthodes Agile que vous avez citées, quelle est la méthode en vogue ?

Scrum est à l’heure actuelle la méthode Agile la plus populaire en France et dans le monde. Les bénéfices sont concrets et éprouvés : visibilité, qualité, réactivité, adaptabilité, efficacité… mais aussi efficacité et satisfaction des équipes et des utilisateurs.

Dans un contexte de projet logiciel ou web, quelle est l’approche de la qualité que vous défendez ?

Une approche évidemment centrée utilisateur mais pas seulement… Délivrer la valeur business au plus tôt, pour toujours plus de feed-back, est aujourd’hui crucial, d’où l’intérêt de combiner l’ergonomie des IHM et les méthodes de développement Agile.

En quoi la démarche ergonomique et les méthodes Agile sont-elles liées ?

Dans les deux cas, l’accent est mis sur le facteur humain, c’est selon moi l’élément déterminant. Pour le reste, la recherche permanente du feed-back, au travers notamment des tests et de la défense de la simplicité, est commune aux méthodes Agile et à la démarche ergonomique.

Qu’est-ce que les méthodes Agile peuvent apporter à la démarche ergonomique ?

La démarche ergonomique peut bénéficier de conditions très favorables offertes par l’agilité (des conditions rarement présentes dans les cycles de développement traditionnels). Ces leviers forts sur lesquels l’ergonome va pouvoir asseoir son action sont les suivants :

  • des livraisons fréquentes (toutes les deux ou trois semaines) ;
  • une activité de validation en continu ;
  • un travail collaboratif ;
  • la coopération et l’implication forte des clients et utilisateurs tout au long du projet ;
  • l’accent mis sur la simplicité.

Et inversement ?

Scrum et les méthodes Agile laissent de côté les éléments relevant de l’ingénierie des exigences, l’ergonomie et l’expérience utilisateur. C’est une faiblesse, un manque incontestable, tant ces dimensions sont cruciales pour assurer une bonne acceptation des produits par les utilisateurs finaux. Je suis donc convaincu que l’intégration efficace des spécialistes de l’expérience utilisateur dans les projets Agile est nécessaire. La diffusion de l’expérience utilisateur dans l’équipe, la défense des utilisateurs, de leur activité et de leurs buts (notamment grâce à la technique des « personas »), les guidelines et recommandations ergonomiques, l’utilisation d’outils de prototypage légers, autant d’éléments sources de valeur pour l’équipe, les clients et les utilisateurs finaux.

Certains experts parlent de « usagility », qu’en pensez-vous ?

Pourquoi pas… mais je trouve que la notion d’utilisabilité (« Usability » en anglais) est en 2010 trop restrictive, à la fois du point de vue produit et du point de vue de nos métiers. De mon côté, je préfère donc parler d’expérience utilisateur et d’expérience utilisateur Agile (« Agile UX »), une discipline plus large et aux multiples facettes.

Quels sont les conseils que vous pourriez donner aux ergonomes qui s’orientent vers Agile ?

Faire preuve d’ouverture, s’impliquer, pratiquer… et garder l’esprit « agile » !
Plus concrètement, pour avoir sa place dans des équipes Agile, l’ergonome doit, selon moi, adapter sa démarche (pour plus de pragmatisme et de réactivité), adapter ses outils (pour plus d’efficience), adapter ses livrables (en allant à l’essentiel, mais toujours en fonction de ses destinataires)… et surtout convaincre de l’utilité de son rôle.

Concrètement ?

Cela passera par la démonstration :

  • du recouvrement possible par l’ergonome d’activités parfois délaissées par les équipes de développement (du côté du besoin, des exigences, de la validation) ;
  • de sa forte expertise et de sa plus-value sur toutes les problématiques d’interface utilisateur ;
  • de son savoir-faire dans le dialogue et la communication avec les utilisateurs au travers d’interviews, de réunions de validation, de tests utilisateurs ou d’ateliers de travail (fonctionnels ou de conception).

Encore merci Jean Claude et très bonne continuation ! Pour le reste, message reçu, cultivons l’esprit agile !

[learn_more caption= »En savoir plus ! » state= »open »]

[/learn_more]

Entretien avec T. Nitot, fondateur et président de l’association Mozilla Europe

Introduction

Cela faisait quelques temps que nous souhaitions rencontrer Tristan Nitot, fondateur et président de l’association Mozilla Europe. Merci à Alain Vagner qui a permis de concrétiser la rencontre.

Pourquoi Tristan Nitot ?

Tout d’abord car il s’agit d’une figure emblématique du Web et l’une des personnalités des standards du Web.

Ensuite, car le projet Mozilla qu’il soutient poursuit un objectif qui nous tient à coeur : maintenir le choix et l’innovation sur Internet.

Enfin, car l’un des projets de Mozilla, Firefox, est devenu en très peu de temps le navigateur Web le plus adapté aux besoins des internautes du monde entier.

Alter-ergo est sorti d’un entretien de plus d’une heure très riche en informations que vous apprécierez certainement.

Nous souhaitions encore une fois remercier M. Nitot pour sa disponibilité !

La fiche de Tristan Nitot

Fondateur et président de Mozilla Europe

Parcours professionnel :
Depuis 2003 : Mozilla Europe – Fondateur et président

1997-2003 : Netscape – Représentant marketing

1993-1997 : PartnerSoft S.A – Consultant – Représentant commercial – Product manager

1992-1993 : Start-up – Manager technique

Formation :
Diplômé de Supinfo – Titulaire d’un master en management social des organisations de l’ESCP-EAP

Début de l’entretien

Bonjour M. Nitot. Vous êtes le fondateur et président de l’association Mozilla Europe depuis 2003. Pouvez-vous nous dresser un petit historique de l’association ?

L’association Mozilla Europe est née pour développer le projet Mozilla en Europe. C’est la partie européenne de la Mozilla Foundation. La Mozilla Foundation a pour objectif de promouvoir le choix et l’innovation sur Internet.

(…)

Initialement, Mozilla avait constaté que dès que Microsoft a été en position de monopole sur les navigateurs avec Internet Explorer, ils ont cessé de l’améliorer. Et on s’est retrouvé dans une situation où les auteurs de sites Web développaient des sites uniquement pour Internet Explorer alors que ce dernier n’était plus développé. Pour tous les passionnés du Web, qui savaient bien qu’on était aux balbutiements de l’Internet, cette situation était insupportable. Nous avons donc fait un navigateur plus moderne, plus performant, plus sécurisé… tout en essayant de garantir une qualité ergonomique : Firefox.

(…)

Et 4 ans après la sortie de Firefox, nous avons 400 millions de téléchargement et 200 millions d’utilisateurs actifs. En voyant cela, Microsoft a bien été obligé de se remettre au travail, ce qui a donné IE7 et bientôt IE8.

Combien y-a-t-il d’employés à temps plein chez Mozilla ?

Il y a environ 200 personnes à temps plein. Pour vous donner un ordre d’idée, en juillet 2003, il y avait 8 employés à temps plein, et que des bénévoles en Europe.

Pouvez-vous donner une définition de la notion de « logiciel Libre » à nos lecteurs ? Quels sont les avantages des logiciels Libres… pour ceux qui les développent, pour ceux qui les utilisent ?

Le logiciel Libre, c’est un logiciel dont le code source est ouvert à tous et librement redistribuable. Si un logiciel Libre ne répond pas à vos besoins, vous pouvez le modifier et l’améliorer. Quiconque le souhaite est invité à participer au projet, en sachant que le résultat du travail commun appartient à tous. L’expérience prouve qu’on arrive la plupart du temps à faire des logiciels plus performants et plus sécurisés à moindre coût.

Au départ, le pari de concurrencer Internet Explorer (IE) était assez osé. Les statistiques actuelles sont éloquentes, Firefox progresse. Actuellement, 25 à 30 % des utilisateurs ont recourt à Firefox. Est-ce que vous pensez dépasser IE ?

En Indonésie, c’est déjà le cas : Firefox a plus de 50% de parts de marché. Plus près de nous, en Pologne, Firefox est à 40%. Mais ce qui compte, ce n’est pas dépasser IE mais remplacer les navigateurs obsolètes (IE6, IE7 et antérieurs) par des navigateurs de meilleure qualité… qu’il s’agisse de Firefox ou d’un autre… Opera, Camino, Chrome, SeaMonkey, Flock… Tout simplement car les navigateurs obsolètes ne sont pas conformes aux derniers standards du Web. Cela empêche le Web d’atteindre son plein potentiel.

(…)

Cela dit, IE a pour lui un gros avantage : il est installé par défaut avec Windows qui équipe plus de 90% des ordinateurs vendus dans le monde. C’est ce qui fait qu’IE est plus utilisé que Firefox… principalement par les gens qui ne savent pas ce qu’est un navigateur ou ceux qui ne savent pas télécharger et installer un logiciel.

Est-ce que vous pensez qu’il y a de la place pour d’autres browsers que les principaux actuels ?

Oui, probablement. Il y a par exemple Safari, livré par défaut sur les Mac, qui a plus de 5% des parts de marché. Je pense aussi qu’il y a des marchés de niche pour d’autres navigateurs. Et puis Google, avec Chrome, n’a pas dit son dernier mot !

Quels sont les principaux critères de qualité ciblés par Firefox ?

Dans le désordre : facilité d’utilisation, sécurité, respect de la vie privée, extensibilité, respect des standards, rapidité, fonctionnement sur différentes plateformes. Il faut également dire qu’il est développé selon un modèle participatif. Firefox, c’est le navigateur des internautes.

Quels sont les profils clé de contributeurs qui interviennent dans la conception d’un browser comme Firefox ?

En fait, toutes les personnes qui souhaitent participer le peuvent, à tous les niveaux : que ce soit pour donner un coup de main à d’autres utilisateurs dans un forum en langue locale ou pour signaler un défaut et suggérer une amélioration. On a vraiment de tout. Il y a aussi quelque chose de très particulier chez Mozilla, c’est que l’on donne aux contributeurs la possibilité de prendre des décisions une fois qu’ils ont démontré leurs capacités. Pas besoin d’être employé chez Mozilla pour avoir un poste à responsabilité. On ne vous demande pas non plus si vous avez des diplômes. Si vous voulez aider, et si vous démontrez vos talents, alors vous finissez par avoir des responsabilités. Cela donne un environnement de travail assez étonnant, très efficace, mais où paradoxalement on ignore ce qui vous a amené ici.

(…)

Lors d’une réunion l’année dernière, j’ai découvert par exemple qu’un contributeur important était en fait un fermier de l’Oregon. Autre exemple, Peter Van der Beken, co-fondateur de Mozilla Europe, l’un des meilleurs développeurs, chez nous est architecte de formation. C’est plus la personnalité et le savoir-faire que les diplômes qui comptent chez Mozilla.

Avez-vous des ergonomes (« user experience specialists », « usability engineers », etc…) au sein de Mozilla, des laboratoires d’utilisabilité ?

Oui, bien sûr.

Pouvez-vous nous donner quelques exemples des interventions qu’ils réalisent ? En quoi consiste leur travail ?

Leur rôle est de faire en sorte que les utilisateurs aient une bonne « user experience ». Cela recouvre la simplicité d’usage, mais bien plus encore. Au début, nous n’avions pas d’expert en « user experience » et ça a donné la Mozilla Suite (ancêtre de Firefox). Ce n’est pas péjoratif, mais on voyait qu’elle était faite par des ingénieurs pour des ingénieurs. Et puis 3 ingénieurs sensibilisés à l’ergonomie ont eu l’idée de travailler sur ce qui est devenu ensuite Firefox. Ils ont retravaillé les parties du projet qui le rendaient difficile à utiliser. Ils ont mis de côté beaucoup de fonctionnalités, partant du principe qu’à trop vouloir en faire, on faisait tout mal (« less is better »). On a désormais de nombreux spécialistes en ergonomie et en « user experience » qui participent au déploiement de Firefox.

(…)

Vous imaginez bien, c’était la révolution chez Mozilla ! A l’époque, on avait tendance à en rajouter toujours plus. Depuis, cette approche de simplification a été formalisée. Néanmoins, il faut toujours lutter contre la tendance naturelle des utilisateurs et développeurs à ajouter des fonctionnalités à droite et à gauche.

Le lien entre Firefox et ses utilisateurs est très fort : quelles sont les grandes techniques pour recueillir le feedback de vos utilisateurs ?

Je vais me concentrer sur ce qu’il y a de très particulier chez Mozilla :

Tout d’abord, nous sommes très ouverts aux suggestions de nos utilisateurs, qui peuvent nous contacter par les forums, par notre application Hendrix (voir le projet Hendrix) ou pour les plus avancés via Bugzilla (voir le projet Bugzilla).

Ensuite, nous avons les Mozilla Labs (voir les Mozilla Labs) qui ont aussi pour vocation d’encourager le feed-back sur le futur de nos produits et du Web en général. Vous pouvez consulter par exemple les Concept Series (voir les Concepts Series).

Enfin, les extensions : Firefox a plus de 5000 extensions différentes, dont l’immense majorité est conçue par nos utilisateurs et contributeurs. Nous avons récemment dépassé le milliard de téléchargements d’extension depuis notre site (voir l’article Yahoo en question) sans compter les extensions qui sont proposées par de nombreux auteurs directement sur leur site. C’est un éco-système bouillonnant, où l’utile côtoie l’inutile. Il y a de véritables joyaux utiles à tous qui y sont développés.

(…)

Pour Mozilla, c’est un formidable réservoir à idées ! Mais c’est aussi un moyen très flexible de prototyper rapidement les idées issues des Mozilla Labs sans interférer avec le développement de Firefox.

Tout le monde peut donc développer ses propres extensions ?

Oui. Un bon développeur Web, qui connaît JavaScript peut facilement développer ses propres extensions.

D’un point de vue ergonomique, ce système d’extension est du pain béni. Le produit est ainsi en constante adaptation aux nouveaux besoins des internautes.

Oui tout à fait. On peut mettre en forme ses idées en proposant une extension. On peut répondre à un besoin précis sans avoir à batailler pour que cela soit intégré dans le produit… sans avoir à attendre la sortie d’une nouvelle version de Firefox. Cela permet de faire évoluer rapidement le prototype et d’affiner son implémentation. Tout le monde est gagnant. Et si le besoin auquel l’extension répond est universel, alors il y a des chances qu’on la transforme en fonctionnalité standard dans une version future de Firefox. C’est par exemple le cas de la fonctionnalité « Session Restore » (sauvegarde automatique des fenêtres, des onglets et de leur contenu, pour les restaurer en cas de plantage de l’ordinateur). Initialement, c’était une extension. En fait, je devrais dire plusieurs extensions, car il y a eu plusieurs initiatives en parallèle. Cette extension est désormais une fonctionnalité de Firefox 3.

En ergonomie, on s’intéresse fortement à la notion de profil utilisateur. Bien évidemment, Firefox s’adresse au très grand public, donc à des profils très hétérogènes et variés. Est-ce qu’on peut malgré tout dresser un profil de l’utilisateur de Firefox ?

Non, c’est très difficile. D’autant plus qu’avec les extensions, on arrive à couvrir une infinité de profils, de l’utilisateur lambda au développeur Web, en passant par le passionné qui veut tout essayer sur son ordinateur.

En ergonomie web, une thématique assez incontournable est l’internationalisation des sites web. Comment Firefox gère cette internationalisation ?

C’est un autre aspect spécifique au logiciel Libre : la localisation du site et des produits est réalisé par des bénévoles. Il y a aujourd’hui une équipe de 4 employés qui synchronise 85 équipes de localisation. Cela nous permet de couvrir des langues sans nous préoccuper du retour sur investissement : si une équipe de localisation veut avoir une version dans sa langue, elle se met au travail, à son rythme, avec les outils que nous fournissons. C’est ainsi que rien que pour l’Espagne, nous avons des versions en espagnol, catalan, basque et galicien.

(…)

Je me souviens, quelques années en arrière, quand j’étais employé chez Netscape, j’avais un mal fou à justifier la dépense d’une localisation en espagnol ! 10 ans plus tard, l’approche collaborative nous permet de fournir des versions linguistiques localisées couvrant plus de 90% de la population mondiale… Firefox est proposé en 47 langues en ce qui concerne le site Web et 62 en ce qui concerne le produit.

La langue est un des points majeurs de l’internationalisation. Au-délà de la langue qui est différente, y a-t-il des adaptations spécifiques en fonction de la population ciblée et des différents pays ?

Pour l’instant, assez peu. On propose différentes pages d’accueil suivant les pays, idem pour le moteur de recherche par défaut. Mais on compte aller plus loin. On expérimente. Vous pouvez voir par exemple la Firefox China Edition (voir le blog Mozilla and China et voir un article sur Read Write Web).

On parle beaucoup de 2.0 ces derniers temps. C’est quoi le Web 2.0 pour Tristan Nitot et comment Firefox se positionne par rapport à cela ?

Je crois qu’en ce moment, on parle beaucoup d’un « Krach 2.0″… :-/ Je ne suis pas un grand fan de cette « 2.0 mania ». D’après moi, le Web participatif correspond en fait à la vision initiale de l’inventeur du Web, Tim Berners-Lee. Souvenons-nous que son navigateur, le premier au monde, permettait aussi bien de lire du contenu Web que d’en produire !

(…)

Le Web a subi une influence temporaire de la part des grands médias, où peu d’auteurs publiaient un contenu consommé par des millions de personnes. Désormais, les deux modèles coexistent, et c’est tant mieux. Yahoo et Wikipedia sont parmi les plus grands sites au monde. Les blogs permettent à tous de contribuer. Youtube, Dailymotion, Flickr permettent à chacun de publier ses propres contenus photo ou vidéo. Voilà pour le contenu.

(…)

Pour ce qui est du logiciel, la participation des internautes, c’est dans le logiciel Libre qu’elle se passe, et dans Firefox en particulier. Et pour participer à Internet, s’il y a bien qu’un seul logiciel nécessaire, c’est bien le navigateur.

On parle beaucoup de Firefox évidemment, mais sur quels autres types de projet Mozilla travaille ?

L’autre produit historique de Mozilla, c’est Thunderbird notre client de messagerie, dont la version 3 devrait sortir au premier semestre 2009. Les démonstrations du prototype sont très excitantes. Vivement la première version Beta !

(…)

Par ailleurs, nous hébergeons des projets plus communautaires, comme par exemple Camino (un navigateur pour Mac uniquement, produit exclusivement par des bénévoles sur la base de Firefox) ou Seamonkey (une évolution de la Suite Mozilla) et Bugzilla (logiciel serveur permettant de suivre les défauts de logiciels). Bugzilla est la colonne vertébrale de centaines de projets Libres aujourd’hui.

Dans une précédente interview, vous expliquiez qu’il y avait eu deux révélations pour vous, d’une part le PC et puis l’Internet. Est-ce que vous pensez qu’il y aura une troisième révelation ? Une petite idée sur ce que pourrait être cette troisième révélation ?

Je pourrai vous en dire plus quand j’aurai réellement cette révélation 🙂 Disons qu’on y travaille. Le dernier truc qui m’a vraiment époustouflé est une expérience ergonomique sortie des Mozilla Labs : Ubiquity (voir Ubiquity). En gros, c’est l’utilisation d’une ligne de commande en langage (presque) naturel combinée avec un mashup (ou application composite, voir la fiche Wikipédia) local à la demande. Cela n’est pas simple à expliquer, mais c’est facile à comprendre avec une démonstration, et ça a le potentiel pour révolutionner le Web. J’ignore encore si c’est un feu de paille dû à une idée faussement géniale ou si l’on va voir quelque chose d’important sortir de cet embryon, mais quoi qu’il en soit, c’est très excitant !

Vers quoi Mozilla se tourne pour les prochaines années ?

Nous sommes actuellement en train d’y réfléchir (voir mon blog). Notre volonté, c’est que l’Internet reste une ressource publique utilisable par tous. Il y a des implications en terme de participation, pour que tous ceux qui le souhaitent puissent définir comment ils souhaitent utiliser l’Internet, mais aussi en terme d’éducation, de protection de la vie privée, et bien sûr de sécurité… tout en permettant au Web de progresser pour répondre encore mieux aux besoins des utilisateurs. Je le redis : le Web est encore très jeune et n’a pas atteint son plein potentiel et nous souhaitons l’accompagner dans son développement.

Nous arrivons à la fin de l’entretien. Nous souhaitions encore une fois vous remercier pour votre disponibilité. J’espère que vous aurez pris du plaisir à répondre à ces questions.

C’est toujours un immense plaisir que de discuter autour des projets Mozilla.

Entretien avec É. Brangier sur l’introduction des nouvelles technologies dans les organisations

Introduction

Dans un article précédent, nous nous sommes intéressés aux facteurs qui entrent en jeu dans l’acceptation d’une technologie par les utilisateurs.

Nous souhaitions élargir la problématique et nous focaliser sur tout ce qui gravite autour de l’introduction des nouvelles technologies (TIC ou Technologies de l’information et de la communication) dans les organisations.

Éric Brangier, professeur à l’université Paul Verlaine – Metz, contribue largement à faire avancer les recherches dans ce domaine. Il nous a fait le plaisir de nous accorder un entretien dans son laboratoire.

Encore merci pour sa disponibilité !

La fiche d’Éric Brangier

photo-eric-brangierProfesseur – Université Paul Verlaine – Metz – Directeur du laboratoire ETIC. Co-Responsable de la chaire Management et Ressources Humaines de l’ISEETECH.

Thèmes de recherche : utilisabilité, ergonomie des produits et des systèmes, conception centrée utilisateur, psychologie des organisations, changement socio-organisationnel et changement technologique, méthodologies.

Formation : Ergonome et psychologue du travail, diplômé en sociologie et linguistique, docteur en psychologie et habilité à diriger des recherches.

 

Début de l’entretien

Bonjour M. le Pr. Brangier. Vous avez largement étudié la question de l’introduction des TIC dans les organisations. Comment décrire le sujet en quelques lignes ?

Ce que l’on peut dire, c’est que les technologies ne s’implantent pas simplement dans les organisations : elles les transforment fondamentalement et les utilisateurs s’en trouvent également transformés. Ils réagissent de manière variable à cette introduction : résistent, acceptent, refusent ou encore vivent avec les technologies…

L’appropriation d’une TIC ne va pas de soi. En effet, les gens peuvent refuser de l’utiliser, être heureux de la posséder, la saboter, l’abandonner, la diffuser dans leur entreprise ou en restreindre l’usage, s’y former, l’exclure etc. La question de l’introduction des technologies est donc complexe et n’a pas fini d’être au coeur des préoccupations scientifiques.

Quel est l’état de l’art des approches scientifiques concernant l’introduction des technologies dans les entreprises ?

On peut distinguer quatre grandes approches complémentaires. Tout d’abord le paradigme, très connu, de l’interaction homme-machine où l’on retrouve les préoccupations de l’utilisabilité et de l’ergonomie des interfaces. Ensuite l’approche des modèles de l’acceptation des technologies. Puis l’approche par le management des perturbations organisationnelles. Enfin l’approche qui s’intéresse à une sorte d’hybridation, ou de symbiose entre l’humain, l’organisation et la technologie.

En quoi consistent ces quatre approches ?

Concernant le paradigme de l’interaction humain-machine, on se focalise principalement sur l’interaction entre l’utilisateur et l’outil. Le but ici est d’étudier la façon dont les gens utilisent la technologie afin d’améliorer la compatibilité entre les caractéristiques de l’utilisateur, ses besoins, ce qu’il est censé faire et le produit, dans un but de performance, de confort d’utilisation, de réduction des erreurs et d’intégrité des aspects physiques et psychologiques de l’utilisateur.

(…)

Ce paradigme est producteur d’un savoir qui prend principalement deux formes différentes. La première qui est figée, les heuristiques ergonomiques, la seconde dynamique, les modélisations des interactions.

Commençons par les heuristiques.

Les heuristiques visent à expliquer ce qu’il faut faire ou ne pas faire pour proposer des interfaces qui soient adaptées aux caractéristiques et aux besoins des utilisateurs. Il y a de nombreuses heuristiques. Elles sont définies sur base d’une expérience empirique, une théorie ou une observation sur le terrain. Ce sont donc des règles incertaines ou probabilistes, dont la portée est parfois dépendante du contexte d’utilisation. Ces heuristiques peuvent donc parfois s’avérer inadaptées.

Qu’est-ce que les modélisations des interactions nous apportent de plus ?

L’approche est différente : l’approche par heuristique cherche à définir les qualités intrinsèques d’une interface, l’approche par les modèles souligne que pour agir avec une technologie, l’utilisateur s’en construit d’abord un modèle mental. Ainsi, on ne se limite plus aux aspects de surface, mais on aborde ce qu’il se passe dans la tête de l’utilisateur lorsqu’il utilise la technologie.

Qu’est-ce qu’on peut retenir du paradigme des interactions humain-machine concernant l’introduction des technologies ?

Globalement, selon cette approche, une technologie sera utilisée si elle présente une bonne comptabilité avec le fonctionnement physique et psychique de son utilisateur. En optimisant son utilisabilité et en favorisant l’interaction, on peut améliorer le bien-être, la satisfaction, l’efficience, l’efficacité de l’utilisateur et favoriser l’intégration des nouvelles technologies dans l’entreprise, mais ce n’est pas suffisant pour expliquer le succès d’une technologie.

Nous avons donc ensuite les modèles de l’acceptation des technologies.

Oui. Ces modèles se basent sur des théories de psychologies sociales. Il y a le TAM (Technology Acceptance Model), les modèles basés sur la satisfaction de l’utilisateur et les modèles basés sur la disconfirmation des attentes.

Le TAM nous intéresse particulièrement, pourriez-vous le préciser ?

Le TAM part de l’idée selon laquelle si l’utilisateur pense que la technologie est utile (perception d’utilité élevée) et facile à utiliser (perception d’utilisabilité élevée), alors il sera amené à l’accepter donc à l’utiliser.

(…)

Mais il n’y a pas que le TAM ! Il y a par exemple des recherches passionnantes, avec les modèles basés sur la satisfaction de l’utilisateur qui partent de l’hypothèse selon laquelle l’utilisateur cherche avant tout à maximiser sa satisfaction et utilise d’autant plus une TIC que cet usage s’avère satisfaisant. Et tant d’autres …

Le TAM est de loin le plus connu et utilisé. Que pensez-vous globalement de l’approche TAM ?

Il a beau être un des plus utilisés, il y a plusieurs éléments qui limitent la validité de ce modèle. Par exemple, les validations répétées dont il fait l’objet se basent pour la plupart sur les mêmes items de questionnaires développés par les auteurs initiaux.

(…)

Et pourtant les résultats obtenus divergent et sont parfois contradictoires ! Ensuite, le TAM prend trop peu en considération les variables organisationnelles, culturelles et sociales, ce qui peut être préjudiciable à la pertinence du modèle. Mais surtout, le TAM estime que la technologie est une sorte de corps étranger que nous pouvons accepter ou refuser…. Cela me semble plus compliqué..

En vous écoutant, on a l’impression qu’au delà du TAM, c’est la question d’acceptation ou d’acceptabilité qui devrait être mise en cause ?

J’ai tendance à le penser. Reprenons le TAM : il y a quelque chose qui m’a toujours surpris. Ce modèle a toujours été utilisé sur des technologies récemment implantées. Les chercheurs évaluaient l’acceptation quelques semaines ou quelques mois après l’implantation de la technologie. Il faudrait voir ce que donne le TAM sur des technologies qui sont en place depuis plusieurs années : acceptez-vous les télévisions ? Vous posez-vous le problème de l’usage de la télévision comme relevant d’un problème d’acceptation ? Idem pour le micro-onde ou un logiciel de comptabilité ou encore le téléphone portable.

(…)

Les gens ne se posent pas la question de savoir s’ils acceptent ou non ces technologies. Elles sont là et ils les utilisent : ils vivent avec elles. Point ! Est-ce que les gens choisissent d’accepter ou de ne pas accepter « Facebook » ? Non, ils l’utilisent, car c’est tendance, car leurs amis proches et leurs contacts professionnels l’utilisent également.

Qu’est ce que l’on peut reprocher aux modèles centrés sur l’acceptation ?

Au delà du fait qu’ils se focalisent uniquement sur l’acceptation par les utilisateurs pour expliquer l’introduction des nouvelles technologies, la grosse lacune vient du fait que les caractéristiques de ces modèles – facilité d’utilisation, utilité, satisfaction – sont parfois abordées indépendamment de l’environnement social et organisationnel des utilisateurs. L’approche par le management des perturbations organisationnelles pallie ce problème.

L’approche par le management des perturbations organisationnelles ?

Cette approche considère que l’introduction d’une technologie dans un milieu donné occasionnera des changements plus ou moins perturbants, qui eux, seront à l’origine des résistances ou de formes d’innovation sociale. Et c’est la nature même de ces perturbations, à la fois techniques et sociales qui va conditionner l’usage, le mauvais usage ou le rejet d’une technologie.

(…)

Pour éclairer ces aspects, on peut en citer deux illustrations théoriques : l’approche socio-technique (ancienne) et l’agilité organisationnelle (récente).

L’approche socio-technique a été une étape très importante dans l’étude de la relation entre l’humain et la technologie. Elle a permis le passage d’une vision technocentrée à une nouvelle vision où les aspects technologiques et sociaux occupent une place équivalente, et sont compris comme interdépendants. A côté de cela, la notion d’agilité organisationnelle renvoie à l’idée que la vitesse de transformation de l’environnement et les évolutions des marchés impliquent des changements incessants. Changements face auxquels les entreprises doivent s’adapter plus qu’accepter ou non les changements technologiques : les organisations doivent donc développer des processus agiles qui permettent de s’adapter à l’imprévisibilité des perturbations technologiques.

(…)

Ce qu’il faut retenir ici, c’est que l’introduction technologique doit être pensée comme un processus de changement et d’innovation dans les organisations. Cela va conduire à la reconfiguration des savoirs-faire et des modèles organisationnels en place.

Quelle est la prochaine étape, vers quoi devons-nous nous tourner ?

Nous assistons à une mutation de la technologie. On passe de grosses machines à des technologies dotées de microprocesseurs dont l’apparence ne laisse rien présager à propos de leurs fonctionnalités. Devant ce caractère enfoui des technologies, on doit désormais aborder la relation homme-technologie en terme d’hybridation ou de couplage… en soulignant la relation d’étroite dépendance qui se crée entre l’homme et ses artéfacts, vus comme des symbiotes technologiques.

Ce qui nous amène à la thèse que vous défendez : « La Symbiose Humain-Technologie Organisation » ?

Tout à fait. Disons que plusieurs chercheurs soulignent cette dimension symbiotique de la relation de l’homme à la technologie. Mais la symbiose est ici une métaphore qui, si elle s’inspire du modèle biologique, sait s’en éloigner pour étudier et évaluer les facteurs qui vont dans le sens d’une relation durable et mutuellement profitable entre l’homme et la technologie.

Une petite définition de la symbiose s’impose …

La symbiose est issue des sciences de la vie pour définir un état d’interdépendance durable entre deux êtres vivants. Il s’agit d’un fait courant dans le monde animal, végétal ou bactérien, dans lequel chaque organisme va profiter des avantages découlant de l’association avec l’autre organisme.

Attention, il s’agit bien d’une métaphore : l’homme construit des technologies et bénéficie au quotidien de ces dispositifs techniques pour l’aider et parfois totalement le suppléer dans ses activités. En retour, il les alimente et les améliore. Les nouvelles technologies transforment l’homme lui-même en agissant sur ces états psychologiques, sur sa pensée ! Il programme des systèmes qui vont réaliser un travail et qui en retour vont modifier l’activité humaine et plus globalement l’humain.

La symbiose devient un but ?

Pour certains concepteurs, on remarque bien une tendance à produire des systèmes qui présentent des caractéristiques symbiotiques évidentes : l’IPod ou l’IPhone en sont de bons exemples. Mais pour les utilisateurs, la symbiose comprend des risques d’aliénation ou d’addiction à la technologie, notamment lorsque la symbiose devient un but absolu pour lui.C’est là la richesse de la notion de symbiose elle peut-être un but louable pour favoriser l’inclusion technologique, comme expliquer les formes d’addiction technologique…

Le symbiose semble finalement bien complexe à étudier …

Oui. Cela vient du fait qu’elle se présente à la fois comme un but et comme un processus de la relation de l’homme à la technologie. D’un côté, la symbiose est un but, dans le sens où la technologie vise à assister l’opérateur dans une activité donnée. D’un autre côté, elle est aussi un processus, car la recherche de la symbiose est liée à la manière dont se conçoivent ou s’aménagent les situations d’interactions.

(…)

De ce point de vue, la symbiose est à rechercher en essayant d’agir sur trois dimensions : l’utilité ou la capacité fonctionnelle, l’utilisabilité ou la simplicité d’usage, et les formes d’accomodation et de régulation individuelles et collectives … c’est-à-dire des formes d’appropriation, de rejet associées à l’implantation du dispositif technique dans le contexte organisationnel.

Vous parlez de rejet… on rejoint donc la notion d’acceptabilité encore une fois ?

Non pas vraiment ou pas directement. Les modèles de l’acceptabilité sont dichotomiques : soit les utilisateurs acceptent une technologie et l’utilisent, soit les utilisateurs ne l’acceptent pas et ne l’utilisent pas. Ici on considère que les utilisateurs n’ont pas le choix d’accepter ou de ne pas accepter une technologie, elle s’impose à eux car ils vivent dans un environnement digital qui est omniprésent. Néanmoins, cela ne les empêchent pas de se l’approprier, de la rejeter … Il peut y avoir ce que l’on appelle une utilisation discrétionnaire. Les gens n’utilisent pas la technologie comme prévue ou ne la diffusent pas dans l’entreprise, etc.

Un petit mot de conclusion ?

Depuis une vingtaine d’années, l’homme vit de plus en plus avec des machines qui sont ses propres prolongements physiques, psychiques et sociaux. Ces machines ne sont plus de simples outils, mais prennent la forme de symbiotes digitaux.

(…)

Prenons comme exemple le téléphone portable. L’homme utilise son portable pour parler au loin, et le téléphone portable devient un lien avec sa tribu, un organisateur de son activité… Le téléphone évolue et se transforme en symbiote : nous profitons de lui en même temps que nous reproduisons « l’espèce téléphone ». Humains et machines co-évoluent : nous concevons des machines dont l’usage nous transforme, et ainsi de suite … Depuis une vingtaine d’années, l’humain a plus qu’interagit avec la technologie … il a commencé à fusionner avec elle ! Et dans ce domaine les recherches ne font que débuter…

Merci pour votre disponibilité ! A très bientôt.

Entretien avec G. Michel sur l’usage des machines de vote électronique

Introduction

Les machines à voter électroniques sont depuis une dizaine d’années au coeur d’une grande polémique avec comme point culminant le scandale américain. Mais il n’y a pas qu’au Etats-Unis que les retombées sont problématiques. On a pu observer des problèmes récurrents dans tous les états qui se sont engouffrés dans la solution du vote électronique : temps de vote plus élevé, pannes, impossibilité de vote, nombreuses erreurs de vote, mécontentement généralisé …

Actuellement en France, 1,5 millions d’électeurs sont concernés par ces machines. Sur ces 1,5 millions, 375 000 électeurs ont potentiellement des problèmes pour voter : personnes de plus de 65 ans, déficients visuels, illettrés, analphabètes technologiques. Ce qui correspond à une exclusion sociale de près de 25% des électeurs !

Gabriel Michel (expert international en accessibilité des machines à voter, qui a été amené à évaluer 2 des 3 machines à voter utilisées en France en 2007) nous a fait le plaisir de nous accueillir à l’université de Metz pour échanger autour de la problématique.

Gargarisme Ergonomique est sorti d’un entretien de plus d’une heure très riche en informations surprenantes et anecdotes croustillantes, que vous apprécierez certainement.

Encore merci pour sa disponibilité !

La fiche de Gabriel Michel

photo-gabriel-michelMaître de conférence – Univ. Metz – laboratoire ETIC

Thèmes de recherche : accessibilité web – interactions vocales (adaptation de messagerie électronique pour déficients visuels et séniors) – vote électronique – pédagogie autour de l’outil informatique (elearning – université virtuelle – didacticiels pour déficients visuels) – formations interculturelles.

Formation : doctorat en informatique – DESS d’ergonomie

Début de l’entretien

Bonjour M. Michel. En guise d’introduction, pouvez-vous nous dresser un bref état des lieux de l’usage des machines à voter électronique ?

Et bien je dirais une bonne dizaine d’années de flambée, avec comme point culminant le vote aux Etats-Unis, qui a été très médiatisé autour des années 2000 et qui a fait que M. Bush a été élu. A côté de cela, on a eu différentes expériences qui ont eu lieu dans des pays majeurs, comme l’Inde, le Brésil, le Vénézuela et puis depuis plusieurs années des pays en Europe, comme l’Irlande, la Belgique, la Hollande et plus récemment la France.

Justement la France … Parlons-en. Comment expliquez-vous que le grand public commence à peine à être au courant de la problématique ?

La raison est simple. En France, l’information publique ou officielle, c’est-à-dire celle que les politiques communiquent au grand public, n’est pas la même que l’information scientifique. Du coup, on ne s’intéresse pas forcément à ce que disent les scientifiques. Mais les choses changent peu à peu.

indra

Racontez-nous votre première expérience concernant les machines à voter.

Cela remonte à 1995 au Brésil. A l’époque, on nous avait demandé de « valider » les machines de vote. Ils souhaitaient une validation … une validation scientifique comme quoi leur système fonctionnait. Pas une évaluation.

Ils ont été déçus ?

Ils ont été déçus. La conséquence plus désagréable pour mes collègues brésiliens qui ont travaillé sur le sujet ait qu’ils ont eu de nombreuses pressions et n’ont pu faire de publications sur ce que l’étude avait révélé. A cette époque, on était au Brésil en plein fantasme de la technologie …

Fantasme de la technologie ?

Oui, le fantasme de « la technologie qui fait tout ». L’illusion technologique. C’est un phénomène qui s’est déjà vu dans d’autres types de transformation. P.ex. avec l’ère de l’enseignement assisté par ordinateur en France dans les années 1980. On s’équipait en systèmes techniques onéreux pour prouver que l’on n’était en avance … même si les professeurs n’étaient pas formés, même si l’environnement n’était pas préparé etc. C’est ce que l’on appelle le « push technologie ». Avec les machines à voter on a eu le même phénomène, notamment en Amérique du sud. Le Brésil et le Vénézuela l’ont utilisé assez rapidement pour montrer qu’ils étaient en avance sur les autres pays.

Quels sont les principaux problèmes relevés lors des premiers tests utilisateurs ?

Ce qui est intéressant et frappant, c’est que l’on retrouve quasiment toujours les mêmes problèmes … avec les mêmes proportions de personnes qui n’arrivent pas à voter ! Le paradoxe, c’est que, vu de l’extérieur, le processus de vote ne semble pas très compliqué. C’est vrai, globalement, on doit choisir un maire et un conseiller municipal. Le maire correspond à un numéro, le conseiller municipal à un autre. Il y a donc deux chiffres. Cela ne semble pas très compliqué. En théorie on tape le premier chiffre, on valide, on tape le second, on valide. Et bien le premier problème que l’on a constaté, c’est que les gens oubliaient de valider. Ils restaient 30 secondes, voire quelques minutes à attendre la machine. Comme ils voyaient que rien ne se passait, ils commençaient à tapoter sur toutes les touches de la machine. C’est un type de problème que l’on a également retrouvé en France l’année dernière. Les personnes appuyaient sur le visage du candidat souhaité, mais n’avaient pas le réflexe de valider.

Cela semble pourtant être un problème anticipable … comment expliquer cela ?

Cela est dû à la représentation que les gens ont d’une procédure de vote. On retrouve ce paradigme en psychologie cognitive dans le domaine de la résolution de problème. Lorsque l’on est en situation d’impasse, on essaie d’appliquer des schémas analogues à la situation dans laquelle on se trouve. Dans le cas des machines à voter, le schéma analogue est le langage parlé. « Je dicte le numéro du candidat pour voter ». La validation est implicite et les gens ne comprennent pas pourquoi ils doivent en plus appuyer sur un dernier bouton pour valider le vote.

Quels autres problèmes d’utilisation aviez-vous constatés au Brésil en 1995 ?

Avec les toutes premières machines, un système de touches braille était implémenté. Imaginez un clavier de type téléphonique. Le braille était inscrit entre les touches. P.ex. entre le « 1 » et le « 4 » était proposé la touche braille du « 1 ». C’était assez surprenant.

Les gens arrivaient à comprendre le système braille ?

Disons qu’ils avaient de grandes difficultés. D’autant plus qu’au Brésil à l’époque, il n’y avait même pas 10% des déficients visuels qui connaissaient le braille ! Avec la seconde génération de machine, le braille était directement proposé sur la touche concernée. Cela présentait une amélioration certes, mais cela ne changeait rien pour la majorité du public déficient visuel qui ne savait pas lire le braille.

Globalement, les journées de vote étaient donc un peu compliquées ?

Oui assez compliquées en effet. On notait des temps de vote plus élevés. On s’est rendu compte que les gens mettaient deux fois plus de temps à voter sur ces machines, c’est donc comme si le nombre d’électeurs avait doublé. Ensuite il y avait beaucoup de pannes, des gens qui n’arrivaient pas à voter, de nombreuses erreurs de vote avec p.ex. des gens qui votaient pour B au lieu de voter pour A sans s’en rendre compte. Bref un chaos organisationnel et un mécontentement généralisé …

Les procédures de vote aux Brésil sont similaires à celles que l’on connaît ici en France ?

Et bien justement, on avait noté des choses assez frappantes. La procédure « classique » de vote brésilien prévoyait certaines procédures qui ont été complètement éradiquées avec les machines à voter. P.ex. il y avait beaucoup de personnes qui appartenaient à la classe ouvrière, qui ne savaient ni lire, ni écrire. Cette catégorie de personne avait la possibilité de voter d’une manière différente des personnes qui savaient lire, en dessinant l’animal représentant le parti. Avec les machines à voter ce n’était plus possible. Les machines ont donc favorisé l’exclusion de cette classe.

Les bureaux de vote au Brésil sont similaires à ceux que l’on connaît en France ?

Et bien justement, j’ai une anecdote assez intéressante. A l’époque, en 1995, les télévisions locales montraient des bureaux de vote mobiles, sur pirogue, avec des machines à voter qu’on déplaçait dans les villages reculés de l’Amazonie! Il y avait donc d’autres paramètres à considérer comme le contexte d’utilisation de ces machines de vote qui divergeait en fonction des régions.

Pourquoi les machines de vote sont quasiment toutes tactiles ?

Et bien il me semble que les concepteurs se sont tournés vers des interfaces tactiles car on pensait d’une manière générale que cela était plus accessible. En effet, cela permettait de représenter plus simplement et plus fidèlement le visage des candidats, ce qui, avec une interface plus classique avec des touches mécaniques n’était pas possible. J’imagine que c’est pour cette raison qu’on a choisi d’employer le mode tactile. C’est à mon avis également pourquoi l’on trouve des interfaces tactiles dans les aéroports ou dans les gares.

Système à voter aux USA


Donc à priori, le fait que cela soit tactile n’est pas le problème ?

Non non … pas du tout. Malgré tout on se rend compte que le tactile a ses limites … Plusieurs études ont montré que ce système n’est pas assez précis et il y a également des problèmes de feed-back utilisateur.

Pourquoi ne pas partir sur quelque chose de plus classique et de plus connu ? Un clavier, une souris, un système web ?

Détrompez-vous, on se rend compte que les souris, tout le monde ne sait pas les utiliser. Un des résultats de nos recherches est que la problématique est si complexe qu’il faudrait plusieurs types d’interfaces pour pouvoir répondre au besoin. Il devrait être obligatoire de proposer pour chaque citoyen qui le souhaite un mode alternatif de vote.

On dit qu’en France il y a plus ou moins 375 000 personnes qui ont des problèmes à utiliser les machines de vote électronique. Quelles sont les populations concernées ?

Il ne faut pas oublier qu’on est électeur à partir de 18 ans. Donc fatalement, par rapport à des études « grand public » classiques, la proportion des personnes âgées est beaucoup plus importante. On a à peu près 20% de personnes qui ont 65 ans et plus. Pour les sourds, il n’y a pas de problème particulier, mais il y a aussi les déficients visuels, les analphabètes, on arrive facilement à 25% de la population totale des électeurs, ce qui n’est pas négligeable. Ensuite il y a le type d’électeur qui sait lire et écrire mais qui a des problèmes avec les nouvelles technologies et donc des problèmes avec les machines à voter. Il y a encore en France une part non négligeable de la population qui ne sait pas utiliser les distributeurs automatiques de billets ou qui n’a jamais touché à un ordinateur.

Est-ce que le peu d’effort réalisé pour rendre ces machines utilisables et accessibles par ces catégories de personnes est dû au fait que le gouvernement ne les considère pas comme suffisamment importantes « politiquement parlant ».

C’est difficile à dire … Disons que les gouvernements sont bercés par l’illusion technologique … vous savez le fantasme technologique : les autres s’équipent, donc il faut s’équiper également, sinon il y a ce sentiment de retard. On se dit que la technologie est là et qu’elle marche, et donc qu’on peut y aller raisonnablement. C’est également dû aux profils des décideurs … ce sont des gens qui sont plutôt des cadres supérieurs ou fonctionnaires qui baignent dans les technologies, et donc pour eux il n’y a pas de problème … choisir une personne parmi une liste d’une douzaine de personnes … où est le problème ! Ils sont un peu coupés de la réalité.

(…)

Et puis en général, les populations exclues par rapport aux nouvelles technologies ne sont pas les populations qui font le plus de bruit. Ce sont du coup des individus transparents politiquement parlant …

(…)

Donc pour résumer, il y a d’un côté le fait que cela ne soit pas vendeur politiquement parlant, et d’un autre côté le fait que l’ergonomie et l’accessibilité ne soient pas connues. Les gens ne savent pas ce que c’est et n’ont pas conscience des problèmes.

On justifie souvent les problèmes d’ergonomie par des notions de sécurité. Est-ce que vous pensez que c’est un vrai débat ?Non je ne pense pas. Je pense simplement que cela est dû au fait qu’il y a en France de nombreuses personnes qui ont de bonnes connaissances en informatique et tous savent qu’il est très facile de « trafiquer » un vote électronqiue. D’ailleurs, en décembre dernier l’association française des enseignants chercheurs en informatique s’est prononcée publiquement contre l’utilisation des machines à voter. Et essentiellement pour des problèmes de sécurité. D’ailleurs la plupart des associations d’informaticiens qui militent contre les machines à voter sont des associations qui se focalisent sur des problèmes de sécurité et de non transparence des machines à votes.L’ergonomie et l’accessibilité dans tout ça ?Et bien l’importance perçue des problèmes d’accessibilité et d’ergonomie est liée à l’état de ces disciplines en France. L’ergonomie est quelque chose qui n’est pas visible, dont on n’est pas très conscient. Dans d’autres pays, comme aux Etats-Unis où ils ont plus de recul, la plupart des articles et livres publiés autour des machines à voter précisent que les problèmes d’accessibilité et d’ergonomie relevés sur ces machines sont de même niveau que les problèmes de sécurité. Il faudra donc un peu de temps pour que les gens en France intègrent cette dimension. Mais ça va venir.Vous travaillez sur la problématique depuis maintenant 12 ans. Est-ce que le gouvernement français vous a personnellement contacté ?Non pas vraiment … En fait, on avait répondu avec le laboratoire ETIC en décembre 1996 à un appel d’offre pour un projet de recherche sur l’extension du vote électronique. C’est la direction stratégique du premier ministre qui avait lancé cet appel d’offre. Nous avions répondu à l’appel d’offre en précisant que le problème n’était pas d’étendre le vote électronique, mais plutôt d’en étudier l’opportunité. Nous avions proposé de ne pas lancer ce projet car les machines à voter n’étaient pas du tout au point. Les représentants du ministère sont venus à Metz et on les a convaincus qu’il était nécessaire d’avoir un peu plus de recul et qu’il était impossible de généraliser les machines de voteIls vous ont écouté ?Oui. On a ensuite été invité au sénat dans des réunions autour des machines à voter. On a réussi à convaincre les décideurs d’arrêter le processus. A partir de cet instant, le gouvernement ne finançait plus les machines à voter. Il y a juste eu les élections de l’an dernier qui ont montré que nos craintes étaient justifiées et à ce jour, en plus de ne plus financer les machines, le gouvernement interdit aux mairies de s’équiper de machines à voterQuels sont les plus grands éditeurs de ces machines ?Les principales machines utilisées en France sont iVotronic, une machine à voter américaine, les machines NEDAP qui vient de Hollande et les machines INDRA. En Irlande ils ont acheté à peu près 40 000 machines de vote de type NEDAP et ne les ont jamais utilisées. Ils se sont rendu compte qu’il y aurait un problème à les utiliser. Lorsque nous avons commencé à publier des articles en France, et notamment sur cette machine, NEPAD a à son tour publié des articles sur le Web mettant en cause le sérieux de notre travail.Quels étaient leurs arguments ?Et bien ils précisaient que l’on n’était pas sérieux, que les résultats de nos études n’étaient pas crédibles, qu’on disait n’importe quoi. Ils nous traitaient de « pseudos chercheurs ». Par contre, ils ont publié pour répondre à notre travail, un rapport qui a été fait par l’université de Twente … et là je me pose des questions sur nos collègues hollandais, qui « prouvaient » que les machines à voter ne posaient pas de problèmes particuliers. On s’est alors un peu plus intéressé à leur étude : on s’est rendu compte qu’ils avaient considérés un échantillon de 500 personnes, avec pratiquement aucune personne âgée dedans, pas de personnes déficientes intellectuelles ou visuelles … C’est un premier biais méthodologique. Un second biais était qu’ils laissaient la possibilité aux gens de choisir de voter via ces machines ou d’autres systèmes. Dernier biais assez révélateur, ils prenaient en test utilisateur des gens qui avaient déjà voté via les ces machines à voter, et on les faisait revoter : il y avait donc un effet d’apprentissage non négligeable. Et malgré tous ces biais qui réduisaient considérablement les vrais problèmes, il y avait encore des personnes qui se trompaient !Est-ce que proposer des systèmes de vote alternatif ne serait pas la solution ?Si si tout à fait. Il faudrait logiquement laisser la possibilité aux citoyens de choisir le mode qui leur correspond le mieux … en sachant que les personnes âgées, les déficients visuels, les déficients moteurs etc. n’ont pas les mêmes besoins et donc devraient bénéficier d’interfaces adaptées différentes.Est-ce que le processus de prise de conscience des problèmes que vous relevez est en marche ?Il est en marche mais c’est très long. L’an dernier lors des votes électroniques en France, j’étais en relation avec les associations d’informaticiens qui militaientcontre ces machines pour des raisons de sécurité. Je peux vous dire qu’ils écoutaient ce qu’on avait à dire, mais sans être réellement convaincus … Ils nous disaient « oui oui vous avez raison, certaines personnes auront des problèmes », mais ils n’en étaient pastellement convaincus. Ils campaient en fait prioritairement sur leurs problématiques de sécurité. Le soir du premier jour de vote, ils se sont rendu compte que l’on disait vrai. Ils ont pu observer un vrai chaos organisationnel, des files d’attentes démesurées, des gens énervés, des gens qui votaient pour B au lieu de voter pour A et qui ne s’en rendaient pas compte etc. Le soir même, des journalistes m’ont appelé pour avoir plus d’informations. On retrouve ce même genre de comportement pour les applications développées sans avoir recours à l’utilisateur. Les équipes projet disent « oui, l’interface à l’air intuitive etc. » mais le jour où l’on met l’utilisateur devant l’écran, c’est un tout autre problème … C’est à ce moment là que les gens commencent à prendre conscience du phénomène et à vous écouter.Vous expliquez qu’il y a un vrai problème de confiance des utilisateurs envers ces machines. Vous précisez que les critères d’utilisabilité et d’accessibilité peuvent améliorer cette confiance. Y a-t-il d’autres critères à considérer ?Oui, d’une manière générale il y a tous les critères qui permettent d’améliorer la crédibilité de ces machines à voter. Mais si vous parlez d’ergonomie, il y a déjà beaucoup de choses à faire ! P.ex. en France, aucune machine n’est pourvue d’imprimantes. C’est purement électronique et l’on ne sait pas ce qu’il se passe à l’intérieur. Vous prenez n’importe quel étudiant en informatique de première année, il seracapable de simuler un fonctionnement interne de la machine différent de celui qui est enregistré au niveau de l’interface graphique … Après il y a évidemment des choses plus simples, comme proposer une page intermédiaire avant de valider son vote, de nommer le bouton de validation « Voter » plutôt que « Valider », etc.(…)Mais il faudrait surtout un moyen pour matérialiser physiquement le vote. D’ailleurs aux Etats-Unis, il ne faut pas oublier qu’ils ont du recul, chaque machine à voter à une imprimante à côté. L’utilisateur peut imprimer ce qu’il a voté. D »ailleurs une version imprimée est également conservée dans une urne à côté au cas où il y aurait un problème avec le système.Quel est l’avenir de ces machines ?Et bien l’avenir … ce qu’il faut dire c’est qu’en ce moment on revient en arrière. NEDAP la machine hollandaise n’est plus du tout utilisée, même pas en Hollande. La Belgique a arrêté ses expériences, beaucoup de pays commencent à revenir en arrière. Après en terme d’avenir, il ne faut pas oublier la perspective de l’eVote, le vote électronique sur le Web. Mais nous n’en sommes pas là, cela implique d’autres problèmes, p.ex. de confidentialité. Parce qu’une personne qui vote de chez soi peut être entourée, il n’y a pas d’isoloir électronique pour l’instant. Je dirais que dans l’état actuel, et bien la meilleure chose à faire c’est de ne plus utiliser les machines et en parallèle de continuer à chercher de meilleures solutions.(…)Sachant en plus que l’un des arguments le plus souvent abordé en faveur des machines c’est l’écologie avec les gains de papier, et les gains d’argent … Et bien on s’est rendu compte dans toutes les études que le différentiel était très faible. Il y a tout un ensemble de coûts supplémentaires impliqués par ces machines : il faut les acheter, puis les stocker, les maintenir.(…)Et puis il y a aussi le côté « rite social ». Dans le vote classique, les gens du quartier sont ensemble pour organiser le bureau de vote. Cela crée, comment dire, une certaine ambiance, une communion dans un village, tout le monde participe. Avec des machines électroniques ce n’est plus le cas.Avez-vous une dernière petite anecdote à nous faire partager ?Oui il y en a plusieurs. Celle qui m’a le plus frappée c’était quand on a fait les tests utilisateurs à Reims. Parmi les séniors qui ont fait les tests utilisateurs, la moitié n’a pas réussi à voter. Toutes ces personnes faisaient partie d’une classe socio professionnelle aisée, donc cadre, cadre supérieur, chercheur et ainsi de suite. P.ex., une des personnes qui avait voté pour B au lieu de voter pour A était un sénior qui avait 72 ans qui écrit encore des bouquins et qui est l’ancien président de l’université de Reims.(…)Dans cette session de test, on rappelait les gens qui participaient à l’étude pour faire un débriefing. Dans cette même session, nous avions donc rappelé une personne, un sénior de 74 ans, ancien directeur d’une société d’assurance; président d’un bureau de vote, actif pour acheter ces machines de vote etc. Quand je lui ai demandé comment ça c’était passé, qu’est-ce qu’elle en pensait etc. elle m’a répondu que c’était génial, que les machines étaient excellentes, que c’était le progrès et que c’était bien que Reims soit en avance par rapport à toutes les villes du coin. Je lui ai alors précisé que même s’il était en conditions idéales de test, pas de bruit, pas de pression particulière, sans stress, il avait tout de même mis 4 à 5 fois plus de temps. Il m’a répondu que c’est normal, car c’était la première fois qu’il utilisait ce système etc. Et puis j’ai conclu en disant qu’en plus, il avait voté pour une autre personne que celle pour laquelle il voulait voter. Il était catégorique et ne nous a pas crus. On a dû lui montrer les vidéos du test. La chose très grave, c’est qu’en sortant du bureau, il était convaincu d’avoir voté pour qui il voulait ! Imaginez les répercussions sur un vote national !Après cette dernière anecdote très surprenante, nous tenions à vous remercier chaleureusement pour votre disponibilité. A très bientôt !