La fiabilité humaine - Free

AMDEC = Analyse des Modes de Défaillance, de leurs Effets et de leur Criticité ... C'est un outil d'optimisation qui peut être utiliser au cours des phases de ...

ads

un extrait du document



La fiabilité humaine 1) Présentation du domaine 1. Historique : de la fiabilité technique à la fiabilité humaine Terme officialisé en 1962 par Académie des sciences et appartient aux
sciences de l'ingénieur.
Utilisé système à hauts risques : nucléaire et militaire
Développement fiabilité dû a :
. criticité grandissante des défaillances ( entraînent pertes humaines et
économiques très importantes.
. Surcoût croissant de l'exploitation ( majoration par dépense maintenant
mais coût initial très élevé (1 Francs ( 4 Francs maintenance)
. Complexité des systèmes ( due à l'évolutions technique : Système simple,
mécanisé, automatisé, informatisé (charge physique vers mentale et
cognitive). Augmentation tailles des entreprises. Temps de plus en plus
cours entre nouvelles technologies et exploitation.
Etapes de développement de la Fiabilité humaine :
. 1930-1950 : problème posé quasi-exclusivement dans le domaine militaire
. 1950-60 : malgré gains obtenus niveau FT, le niveau global n'est pas
satisfaisant car accent uniquement FT donc forcement erreurs humaines
n'en sortent que d'avantages.
Découverte problème de la fiabilité humaine. Transposition de la définition
de la fiabilité technique à la fiabilité humaine. La fiabilité humaine est
à probabilité qu'un individu effectue avec succès la mission qu'il doit
accomplir pendant la durée déterminée (gestion du temps de travail) et
conditions définies (62, Rook) (conditions de travail).
. 1952 : Sandia (laboratoire), premier à créer une banque de données sur
les probabilités d'erreurs T et H dans le but de quantifier la fiabilité
d'un système.
C'est la panne qui constitue la mesure de la fiabilité technique. MTBF =
mean time best fonctionning déterminé à partir de mauvaises pièces ( temps
qu'on est dans la durée, la probabilité de tomber en panne très faible
(état probabiliste) et au-delà état déterministe, quasi sur de tomber en
panne à un moment ou un autre, ; Ce que la panne est à la FT, l'erreur
humaine l'est à la FH.
. 1960-75 : apparaissent les méthodes de prédiction d'erreur.
( Méthode inductive : AMDEC = analyse des modes de défaillances, leurs
effets et leurs criticités ; provoquent défaillance et on regarde
comportement système (Douglas Mc Dowell).
( Méthode déductive : ADC = arbre des causes ; analyse sous forme logique
des événements (Boeing)
( Méthode d'évaluation probabiliste : arbre des conséquences ;
probabilité risque à partir d'un événement inclusif.
( THERP = technic for human error rates prédiction ; premier outil de FH,
basé sur une banque de données et à chaque fois probabilité d'erreurs.
D2veloppement simulateurs.
D'après cette méthode, l'homme est source d'in fiabilité, idée dominante
jusqu'en 1070 dans le domaine de l'ingénierie.
. 1970-90 : l'essor de l'ergonomie qui insiste sur la relation entre
fiabilité et sécurité des systèmes en soulignant que l'homme est agent de
fiabilité du fait que c'est le seul élément du système à pouvoir adapter
son comportement aux variations de la situation de travail. Si l'homme
fait des erreurs, c'est qu'il est confronté à une situation non optimale.
Apparition de la psychologie cognitive a participé à l'étude du TMI (cf.
poly du rapport) ( 79 : augmentation de la température du c?ur, procédure
de refroidissement hors service (barres d'aciers qui refroidissent) car
maintenance a oublié de rouvrir circuit de refroidissement secondaire
donc personne présente rouvre le circuit mais ouverture ½ donc
température augmente et découverte que vanne grippée et avec deux coups
marteaux, le problème a été réglé mais catastrophé évitée de peu.
Rasmussen (1986) : modèle de fonctionnement cognitif de l'homme. 2. Notion de base a) La fiabilité humaine comme propriété de l'homme La FH est la probabilité qu'un individu, une équipe, une organisation
humaine accomplissent une mission dans des conditions données à l'intérieur
de limites acceptables pendant une certaine durée. Fiabilité socio-
technique (Nicolet et Cellier) b) La fiabilité humaine comme discipline Science des défaillances de l'homme (Villemeur 88). La CEE la définit comme
le corps de connaissances concernant la prédiction, l'analyse et la
réduction de l'erreur humaine en se focalisant sur le rôle de l'homme dans
les opérations de conception, maintenance et de gestion des systèmes socio-
techniques. c) Notions clés . Tâche : objectifs assignés à l'opérateur (instruction, consignes et
dispositifs utilisés,...), c'est le travail demandé (interaction homme -
tâche)
. Erreur de défaillance : erreurs qui n'aboutissent pas forcement à la
défaillance du système mais elles augmentent cette probabilité.
La défaillance correspond à la cessation de mission ou du service attendu
ou à la délivrance d'un service non conforme. De même, la défaillance H
correspond à la cessation de l'aptitude de l'opérateur humain à accomplir
une mission requise.
. Récupération : c'est ramener un résultat non acceptable à un résultat
acceptable avant que l'effet dudit résultat ne soit irréversible. 3. Fiabilité homme - tâche On oublie souvent qu'un homme n'est pas une machine et qu'il peut avoir une
variabilité dans son comportement. De plus, il y a une imprécision de la
tâche (plus tâche complexe moins de renseignement). La fluctuation de
l'opérateur. 4. Fiabilité humaine et champs connexes FH et ergo se recoupent pour conception et amélioration des postes de
travail. FH et qualité se recoupent (FH composante qualité). FH et
sécurité : Professeur Pierre Groguelin : « moins il y a de dangers, plus il
y a de risques ». 2) Quelques théories explicatives de l'erreur humaine Energie est fournie par les fonctions attentionnelles 1. Théorie de l'activation (Colghoun, 1971)
Voir poly « Variation de performances selon le niveau d'activation » 2. Théorie de la détection du signal (Tanner et Swets, 54) Elle a été développée surtout dans la marine (utilisation des radars,...) (
domaine militaire
Cas 1 : ( pas d'erreurs ( )
Cas 2 : ( 2 types d'erreurs ( ) Toutes les tâches qui nécessitent Oui ou Non sont soumises à cette théorie. 3. Théorie de l'information de Shannon (1948) 2H = N avec N = nombres d'éventualités possibles H = log 2N H = unités d'informations pour deviner issues (bits) Avec 50% du message, on peut comprendre le sens et contenu du message, dans
la langue maternelle. 4. Théorie de l'image opérative d'Ochamine (78) ou de la
représentation fonctionnelle de Leplat (85) Ochamine parle de quelque chose de visuel. Tous les opérateurs fonctionnent
en ayant une image globale du système mais celle-ci n'était pas juste
(proportions exagérées en fonction des lieux d'intervention ou parties très
importantes sont toutes petites sur dessins). L'image évolue avec
l'expérience de l'opérateur. Leplat a dit que l'image opérative n'est pas
toujours une image car problèmes de complexité des systèmes d'où la
disparition du mot « image » et remplacement « par représentation ». 5. Théorie de homéostasie du risque du Wilde (82) Voir polycopies
6. Risque objectif/subjectif Objectif : réelle calculable = c'est une évaluation objective grâce à des
études. On voit régulièrement des comportements à risques or si on
interroge ces personnes, ils font ça parce qu'ils pensent qu'ils ne
risquent rien (cherche comportement adapté à la situation). Evaluation
subjective de la situation qui fait qu'un individu à un comportement à
risque ou non ( non-conscience. On a intérêt à former ou à éduquer pour
permettre aux personnes de reconnaître une situation à risque. Application à la sécurité routière :
Il n'est pas évident d'évaluer les distances
TR simple ( 800 msec = TD + TM (expérience en laboratoire avec le doigt)
TR ( 1 sec ( TM fait la différence (expérience en laboratoire avec le pied)
TR ( 2 sec ( expérience en situation réelle (autorise temps de réaction)
A 50 km/h ( 28 m
A 90 km/h ( 50 m
A 130 km/h ( 72 m
Chevron = négatif
Temps = positif
2 sec * 2 si densité forte 3) Approche cognitive Les types d'erreurs et leurs origines
James Reason inspiré des modèles de Rasmussen et Rousse ont peu identifier
3 types d'erreurs :
- ratés et lapsus ( automatismes (Skill-based errors) = SB
- faute ( règles d'action (Rules-based errors) = RB
- fautes ( connaissances inexactes (Knowledge-based errors) = KB
Modèles qui résument : GEMS (generic errors model system)
3 types d'erreurs SB, KB et RB peuvent être différenciés selon le type
d'activité, le niveau d'attention, le mode de contrôle, leur caractère plus
ou moins prédictible, leur fréquence, le type de situation ou elles
surviennent, la facilité de leur détection par l'auteur lui-même et leur
relation aux variations de l'activité. A l'origine de ces erreurs, il y a
disfonctionnement du système cognitif qui tend à défaillir parce qu'il
adopte la réponse la plus fréquemment utilisée dans la situation présente =
concept de sous spécification cognitive = fonctionnement rabais.
Avant d'analyser un problème à fond, 2 questions :
- Similarité ?
- Fréquence ? (fait ce qui réussi le plus souvent)
Des mécanismes de correction naturelle existent mais leur efficacité est
malheureusement inversement proportionnelle au niveau d'activité cognitif
ainsi au niveau le plus bas, les mécanismes de correction de la posture et
de l'équilibre fonctionne très bien. Pour le contrôle de l'exécution des
plans d'action, les processus attentionnels sont capables de détecter les
déviations non attentionnelles. Mais à plus haut niveau, les processus qui
élaborent ces plans d'actions sont relativement insensibles aux déviations
par rapport aux chemins adéquats pour aller au but. En fait, l'efficacité
de ses moyens de détection de l'erreur dépend de la rapidité et de
l'existence avec laquelle l'information
ads