Automatisation et opérateur humain

Comprendre les défaillances de coopération pouvant apparaître entre les deux agents

DOI : 10.35562/canalpsy.1342

p. 39-42

Plan

Texte

Introduction

Suivre les propositions de son GPS, se fier aux indicateurs du système de sortie de voie de sa voiture, regarder ce qu’indique la température de son application Smartphone pour choisir de quelle façon s’habiller… Toutes ces propositions ont en commun l’utilisation d’un système automatisé : une interface qui affiche des informations.

De nos jours, nous utilisons de plus en plus ces supports pour nous soutenir dans notre prise de décision et pour nous aider dans notre quotidien. Ces systèmes sont présents dans notre vie personnelle mais également dans le monde professionnel. Ainsi, avec l’émergence des nouvelles technologies, l’activité humaine a évolué et les écrans sont apparus dans un grand nombre de métiers. C’est le cas dans le secteur du transport et notamment dans les tâches de planification des tournées de transport de marchandises.

Ma thèse en Ergonomie est centrée sur l’humain et ses interactions avec les systèmes automatisés. Elle rentre dans le cadre de l’Ergonomie cognitive qui s’intéresse aux grands processus mentaux qui vont agir sur l’interaction entre un opérateur humain et son environnement (interaction homme-machine, charge mentale, etc.). Elle se différencie de l’Ergonomie physique qui tend à étudier les aspects physiologiques et biomécaniques d’un individu (manutentions, postures, etc.) et de son ambiance de travail (bruit, éclairage, etc.) ; ainsi que de l’Ergonomie organisationnelle qui va s’intéresser à l’organisation du travail au sens large (rythme de travail, communication, etc.).

Mon travail s’intègre dans un projet plus large impliquant plusieurs partenaires issus du monde académique, de la prévention des risques professionnels et de l’industrie. Le projet vise l’amélioration de la planification des tournées de transports de marchandises par la mise en œuvre d’un système d’aide à la planification (système appelé Smart planning). Ce système se distingue de ceux existants dans le commerce par l’intégration de trois dimensions : les aspects sociaux (indicateurs santé et sécurité pour chacune des tournées), les aspects relatifs à l’impact de la tournée sur l’environnement et l’évaluation économique pour chacune d’entre elles. L’idée est de permettre aux opérateurs en charge de la planification d’accéder aux informations relatives à ces trois dimensions pour les aider à comparer les avantages et inconvénients de chacune des tournées possibles et de choisir la plus adaptée.

L’objectif de cette thèse est de se focaliser sur les aspects liés à l’interface de ce système d’aide à la planification et d’étudier l’interaction entre ce système automatisé et l’individu humain. En effet, depuis quelques années, nous sommes conscients que ces systèmes changent l’activité humaine et que des défaillances peuvent apparaître dans la coopération de ces deux agents. C’est le cas du phénomène de contentement qui est une des conséquences négatives issue de cette défaillance. Ce concept est présenté plus en détail dans la partie ci-dessous.

Les défaillances de coopération dans la relation homme-machine

L’utilisation des systèmes automatisés n’est pas anodine. L’impact de leur utilisation doit être une source de préoccupation, notamment puisqu’une grande partie de ces systèmes sont utilisés dans des situations où la sécurité doit être irréprochable telles que les cockpits d’avion. Outre cet aspect, aujourd’hui, pourtant, nous les utilisons de façon courante sans nous poser la question des conséquences de leur utilisation. Comment utilisons-nous ces systèmes ? À quel point avons-nous confiance en eux ? Sommes-nous assez vigilants aux possibles erreurs de ces systèmes ? Si oui, sommes-nous en mesure de les gérer ?

Imaginons par exemple que vous utilisiez une application pour vous localiser dans la ville. Votre application vous indique que sur cette route vous pouvez rouler à 110. Cependant, il vous semble que la limitation est à 90. Allez-vous quand même suivre cette indication ? Et si l’application n’est pas mise à jour ? Et si c’est vous qui vous trompiez ?

Dans la littérature, plusieurs auteurs ont essayé d’apporter des réponses à ces questions, notamment en mettant l’accent sur les abus de cette utilisation (Bainbridge, 1987 ; Parasuraman & Riley, 1997). Hoc (2000) a souligné quatre grandes conséquences de cette relation homme-machine.

La première correspond à la perte d’expertise. Dans cette situation, l’utilisation d’un système automatisé pour effectuer les actions vient détériorer l’expertise de l’opérateur humain puisque celui-ci ne pratique plus assez.

La seconde conséquence correspond au mauvais calibrage de la confiance. Un opérateur peut ainsi avoir trop ou pas assez confiance envers le système automatisé.

La troisième conséquence correspond à la perte d’adaptabilité. C’est-à-dire, lorsque l’opérateur humain manque de rétroactions et n’est donc plus au courant des actions du système automatisé. Dans le cas où il doit reprendre la main sur le système, il peut donc adopter des choix inadaptés. Imaginons par exemple, une situation de conduite de voiture complétement autonome. L’opérateur humain peut être déconnecté et reléguer (tout en la surveillant un minimum) la conduite au système automatisé. En cas d’évènement inattendu ou de défaillance du système, si l’humain doit reprendre la main sur le système, celui-ci n’est plus au fait de l’environnement (vitesse à adopter, densité du trafic, trajectoire du véhicule, etc.).

La quatrième conséquence correspond au phénomène de contentement. C’est-à-dire lorsqu’un opérateur humain ne remet pas forcément en doute un système automatisé et qu’il va ainsi le surveiller de façon sous-optimale. Dans cette situation, les opérateurs peuvent adopter ou suivre les propositions du système automatisé sans les interroger et bien qu’ils soient conscients des limites de ces dernières. Ainsi, un faible taux de suspicion envers la machine et un défaut d’attention sont souvent des caractéristiques reconnues pour prouver la présence du phénomène de contentement.

Les interfaces et la planification de tournée

Dans la littérature, les défaillances de coopération ont surtout été étudiées dans des situations où les systèmes automatisés vont effectuer des actions à la place de l’opérateur humain. Or, dans une situation plus statique comme la planification de transports terrestres, l’opérateur doit élaborer des tournées de véhicules et sa plus grande difficulté consiste à manipuler une grande masse d’informations (les contraintes réglementaires, les disponibilités des conducteurs et des véhicules, l’anticipation des trajets difficiles, la connaissance des manœuvres ou manutention à réaliser pour livrer un client, les besoins spécifiques des clients, etc.). Dans ces situations où l’opérateur dispose d’une grande quantité de connaissances acquises par l’expérience, l’aide à la représentation du problème est beaucoup plus importante sur le terrain que la potentielle production d’une solution. Les systèmes automatisés (i.e. interface) sont donc employés à présenter plus efficacement les informations aux opérateurs et non à substituer l’humain dans ses actions. Dans ce contexte, un des objectifs de cette thèse a été d’étudier le phénomène de contentement lors de l’utilisation d’une interface.

Étudier le phénomène de contentement

Le phénomène de contentement a été étudié en laboratoire par le biais de participants qui exécutent en général plusieurs tâches simultanément et dont l’une des tâches est automatisée. L’outil le plus souvent utilisé dans les études traitant de cette question est le « Multi Attribute Task Battery » (Comstock & Arnegard, 1992). Ce dernier est un micro-monde (simulation informatisée d’une tâche réelle) du pilotage d’avion composé de plusieurs tâches (Parasuraman & Manzey, 2010). Il est composé de trois tâches : une tâche de cible où le participant doit compenser les sorties de curseur d’une zone cible avec un joystick ; une tâche de gestion de ressources où le participant doit effectuer des raisonnements pour maintenir des niveaux de liquides dans des réservoirs ; et une tâche de surveillance qui correspond à une tâche de détection de pannes par le participant et qui est souvent automatisée pour les besoins des expérimentations. En général, cet automate est imparfait et produit des erreurs. Les différentes études montrent que le fait d’automatiser une des tâches a pour conséquence une baisse d’attention des participants sur ladite tâche. Ainsi, les performances de détection des participants ont tendance à être plus faibles lorsque la tâche est automatisée à de fort niveau de fiabilité, alors que l’ensemble du système devrait être surveillé afin de détecter et de compenser ses défaillances occasionnelles. Ce résultat est considéré comme l’expression du phénomène de contentement du participant par rapport au système automatisé.

Étude expérimentale déjà effectuée dans le cadre de la thèse

La première étude menée dans cette thèse avait pour but de valider l’existence du « phénomène de contentement » dans des situations où le système automatisé intervient par le biais d’une interface et non pas par un système qui va exécuter une action à la place de l’opérateur (comme c’est le cas dans les études présentées ci-dessus). Dans cet objectif, le « Multi Attribute Task Battery » a été utilisé et adapté de façon à pouvoir tester deux choses : 1) l’impact de la fiabilité d’un système automatisé typique d’une interface, c’est-à-dire un système automatisé lié à « l’information » donnée sur l’écran ; 2) l’impact de la fiabilité d’un système automatisé typique de l’exécution d’une action à la place d’un participant.

La tâche de surveillance a été automatisée. Cette tâche était constituée de quatre jauges. En situation normale, le curseur fluctuait autour du centre de la colonne. En situation de panne, le curseur fluctuait dans la partie basse ou la partie haute de chaque colonne et le voyant « panne » devenait rouge. Lorsqu’il y avait une panne, le participant devait appuyer sur F1 (si le curseur était bloqué dans la colonne 1), F2 (colonne 2), F3 (colonne 3) et F4 (colonne 4). Deux types d’automate ont donc été manipulés : le premier type était relatif à de l’exécution et le deuxième à de l’information. Ainsi, l’automate de l’exécution était représenté dans la tâche de surveillance par le biais d’un curseur détecté et débloqué automatiquement par l’action du système automatique. D’autre part, l’automate de l’information était représenté par le voyant de signalisation « panne » qui s’allumait pour indiquer qu’une panne avait été détectée (curseur bloqué). Comme Bagheri et Jamieson (2004), nous avons manipulé la fiabilité de l’automate (0 % ; 56,25 % ; 87,5 % et 100 %).

Au niveau des résultats, cette étude a permis de mettre en évidence qu’un automate de l’information peut engendrer les mêmes difficultés d’interaction qu’un automate de l’exécution. Plus précisément, nos résultats ont montré qu’une fiabilité élevée d’un automate de l’information engendrait une baisse du temps alloué à la tâche de surveillance. Ces résultats nous ont permis de montrer que le phénomène de contentement - connu pour être présent dans des situations où l’automate exécute des actions – était également observé avec l’utilisation d’une automatisation de l’information (i.e. interface).

Études expérimentales envisagées pour la suite de la thèse

Le phénomène de contentement pose la question du partage de la supervision. Si le système automatisé est en premier lieu utilisé pour réduire la charge de travail des opérateurs, le niveau de contrôle donné à l’opérateur ou à l’automate doit être réfléchi. Une des pistes envisagées pour ces prochaines études peut être de réduire le fossé pouvant se créer entre l’opérateur humain et le système automatisé et réduire le phénomène de contentement. Ainsi, dans la littérature, le concept de transparence de l’automatisation est apparu. L’idée étant de remettre l’opérateur dans la « boucle de contrôle » en augmentant les informations sur le raisonnement, le fonctionnement et la fiabilité d’un système automatisé. C’est-à-dire, de donner plus d’informations pertinentes aux opérateurs humains afin que l’automate devienne plus transparent et que cela réduise le contentement des opérateurs face à des propositions qui sont parfois inappropriées.

Une deuxième étude envisagée pourrait quant à elle essayer de réduire le phénomène de contentement par la mise en place de contre-mesures. Une solution pourrait par exemple être d’essayer de rendre l’opérateur plus actif dans la tâche et de ne plus le contraindre seulement à superviser le système automatisé sans jamais reprendre la main sur la tâche. Certaines études ont ainsi montré que redonner des tâches manuelles à l’opérateur pouvait le réintroduire dans la boucle de contrôle et donc réduire le phénomène de contentement (Parasuraman, Mouloua & Molloy, 1996). Selon la littérature, dans des situations constantes où l’automate effectue des tâches à des niveaux élevés de fiabilité, il y a beaucoup plus de contentement que des situations où la fiabilité de l’automate est variable et change de niveau alternant de faible à élevé. Redonner la main à l’opérateur, que ce soit en faisant varier les niveaux de fiabilité d’automatisation des participants (en les rendant plus vigilant) ; ou que ce soit en les obligeant à reprendre la main intégralement pendant certaines périodes, le partage des tâches semble éviter un trop grand clivage entre les deux agents et donc réduire le contentement (Parasuraman, Molloy, & Singh, 1993).

La troisième étude envisagée pourrait étudier une situation où le système automatisé est plus ou moins transparent sur la fiabilité d’indicateurs rendus disponibles à un opérateur. Le but serait de comprendre l’impact de la transparence d’informations apparaissant sur une interface sur le phénomène de contentement.

Dans le cadre de la thèse, la tâche expérimentale pourrait être calquée sur une situation réelle de travail : la planification de transport de marchandises. En effet, le planificateur est amené à construire des plannings et des tournées. Il doit donc prendre en compte une multitude d’informations afin de construire celles-ci : disponibilité des chauffeurs, situation géographique des clients à livrer, trafic… L’aide à la planification Smart Planning lui permettrait de visualiser avec l’aide de trois indicateurs globaux, des critères importants d’évaluation de ces tournées construites : Santé/sécurité ; Environnement et Économique. Ces indicateurs évalueraient la tournée proposée par le planificateur. Dans cette optique, une tâche avec ou sans feedback sur la fiabilité de ces indicateurs peut être mise en place afin d’investiguer le phénomène de contentement face à ces indicateurs.

Conclusion

Cette thèse devrait permettre de construire une contribution théorique (étudier le phénomène de contentement avec une interface), méthodologique (adaptation du micro-monde MATB à différents types d’automatisation) et pratique (recommandations ergonomiques) quant à la conception de systèmes (d’informations ??) automatisés. La première étude a permis de montrer que le phénomène de contentement pouvait être étudié dans un contexte d’utilisation de système automatisé type interface. Après avoir validé et placé le contexte de la thèse, les prochaines études ont pour but d’étudier ce phénomène en l’appliquant à des situations réelles de terrain. Grâce à son financement par le projet ANR Smart Planning, la thèse a l’avantage d’avoir accès à des données issues d’une situation réelle de planification de transport de marchandises. Les expérimentations pourront ainsi être validées de façon expérimentale en laboratoire, tout en ne perdant pas de vue la validité écologique de ces expérimentations avec des données issues de situations réelles du terrain. Les prochaines études auront pour objectif de permettre des recommandations ergonomiques en vue de réduire ce phénomène de contentement dans un contexte de système automatisé typé interface.

Citer cet article

Référence papier

Eugénie Avril, Julien Cegarra, Jordan Navarro et Liên Wioland, « Automatisation et opérateur humain », Canal Psy, 125 | 2020, 39-42.

Référence électronique

Eugénie Avril, Julien Cegarra, Jordan Navarro et Liên Wioland, « Automatisation et opérateur humain », Canal Psy [En ligne], 125 | 2020, mis en ligne le 01 mai 2021, consulté le 28 mars 2024. URL : https://publications-prairial.fr/canalpsy/index.php?id=1342

Auteurs

Eugénie Avril

Laboratoire Sciences de la Cognition, Technologie, Ergonomie (SCoTE EA 7420), Université de Toulouse, INU Champollion, Albi, France

Autres ressources du même auteur

Julien Cegarra

Laboratoire Sciences de la Cognition, Technologie, Ergonomie (SCoTE EA 7420), Université de Toulouse, INU Champollion, Albi, France

Autres ressources du même auteur

Jordan Navarro

Université de Lyon, Laboratoire d’étude des mécanismes cognitifs

Autres ressources du même auteur

Articles du même auteur

Liên Wioland

Département Homme au Travail, Laboratoire d’Ergonomie et Psychologie appliquée à la Prévention, INRS, Vandoeuvre, France

Autres ressources du même auteur