Error humano
Error humano es una expresión que indica que un suceso desfavorable está fuertemente condicionado por la actividad de las personas que participan directa o indirectamente en la realización y control de un proceso, a veces se puede atribuir a una mala praxis de las personas implicadas. Ha sido citado como una causa o factor influyente en catástrofes y accidentes en industrias tan diversas como: centrales nucleares (accidente de Chernóbil), aviación (error del piloto), exploración espacial (accidente del transbordador espacial Challenger), medicina (error médico) y construcción (Puente del Milenio de Londres).
Categorías del error humano
editarHay muchas maneras de catalogar el error humano:[1]
- Por el origen del error:
- Exógeno (el origen está en factores externos)
- Endógeno (el origen está en la propia persona)
- Evaluación de la situación frente a planificación de la respuesta y distinciones relacionadas en:
- Errores en la detección del problema.
- Errores en el diagnóstico del problema.
- Errores en la planificación y ejecución.
- Por nivel de análisis, por ejemplo, errores de percepción (por ejemplo, ilusiones ópticas), de cognición, de comunicación y de organización.
El estudio cognitivo del error humano es un campo de investigación muy activo, incluyendo tareas relacionadas con el límite de la memoria y atención así como estrategias de toma de decisiones. Estas estrategias pueden ser útiles y correctas, pero pueden inducir a pautas de error sistemáticas.
Análisis y sistemas de clasificación de los factores humanos
editarLos análisis y sistemas de clasificación de los factores humanos fueron desarrollados inicialmente como un esquema para entender el error humano como una causa (motivo) de los accidentes de aviación.[2][3] Está basado en los razonamientos del error humano en sistemas complejos.[nota 1] Los análisis y sistemas de clasificación de los factores humanos distinguen entre los "errores activos" de actos inseguros y los "errores latentes" de precondiciones para actos inseguros, supervisión insegura y algunas influencias de organización. Estas categorías fueron desarrolladas empíricamente basándose en diversos informes de accidentes de aviación.
Los actos inseguros fueron llevados a cabo por un operador humano "en la línea frontal" (por ejemplo: el piloto, el controlador aéreo, el conductor ...). Los actos inseguros pueden ser por errores (por ejemplo decisiones tomadas) o bien por violaciones (rutinarias o excepcionales). Los errores aquí son similares a los discutidos anteriormente. Las violaciones son el menosprecio de las normas y procedimientos. Como el nombre implica, las violaciones rutinarias son las que pasan habitualmente y son normalmente toleradas por las organizaciones o autoridades. Las violaciones excepcionales son inusuales y poco frecuentes. Por ejemplo conducir a 90 km/h en una zona limitada de velocidad a 80 km/h es una violación rutinaria pero conducir a 150 en la misma zona es excepcional.
Hay 2 tipos de precondiciones para actos inseguros: los que relacionan el estado interno de la persona operadora y los que relacionan las formas de trabajar de la persona operadora. Estados internos adversos incluyen aquellos que están relacionados con la fisiología (por ejemplo enfermedades) y estados mentales (por ejemplo fatiga mental, distracciones). Un tercer aspecto de estado interno es un desajuste entre las habilidades y las tareas solicitadas al operador. La falta de práctica es otro tipo de precondición para actos inseguros. Estos incluyen un equipo pobre de recursos de dirección (tareas como la de liderazgo y la comunicación) y un personal poco preparado.
4 tipos de supervisión insegura son: supervisión inadecuada, planear operaciones inapropiadas, errores al corregir problemas conocidos y la no supervisión.
Las influencias organizacionales incluyen aquellos recursos relacionados con la dirección (por ejemplo inadecuado personal o recursos de financiación) clima organizacional (estructuras, políticas y culturas) y procesos organizacionales (como procedimientos, calendarios).
Algunos investigadores han descubierto que la dicotomía de las acciones humanas como "correcto" o "incorrecto" es una perjudicial simplificación de un complejo fenómeno.[4] Un punto de vista en la variedad de la actuación humana y en cómo las personas operadoras pueden lograr que la variabilidad pueda ser un acercamiento más provechoso. Además, como se dice más arriba, el concepto de resiliencia destaca la conducta positiva que los humanos pueden jugar en complejos sistemas.
¿Cómo se pueden controlar los errores humanos? Como se puede analizar la fiabilidad humana? Hay varias técnicas y procedimientos para llevar a cabo este control, que a continuación se exponen a continuación.
Técnicas de análisis para la fiabilidad humana
editarExisten una variedad de métodos existentes para el análisis de la fiabilidad humana. Dos tipos de métodos son aquellos basados en la evaluación probabilística del riesgo (PRA, por sus siglas en inglés) y los basados en una teoría cognitiva de control.
Técnicas basadas en PRA
editarUn método para analizar la fiabilidad humana es una extensión de la evaluación probabilística del riesgo (PRA): de la misma manera que un equipo puede fallar en una planta, también lo puede hacer un operador humano al cometer errores. En ambos casos, un análisis (descomposición funcional para el equipamiento y el análisis de tareas para humanos) articularía un nivel de detalle que permitiría asignar el fallo o la probabilidad de error. Esta idea básica está detrás de la técnica para la predicción de la tasa de error humano[5] (Technique for Human Error Rate Prediction, THERP).[6] THERP pretende generar la probabilidad de error humano que se incorporaría en un PRA. El Accident Sequence Evaluation Program (ASEP) es una forma simplificada del THERP; una herramienta computacional asociada es Simplified Human Error Analysis Code (SHEAN).[7] Más recientemente, la Comisión Reguladora Nuclear de Estados Unidos ha publicado el Standardized Plant Analysis Risk (SPAR).[8]
Técnicas de control cognitivo
editarErik Hollnagel ha desarrollado esta forma de pensar con su trabajo en la Contextual Control Model (COCOM)[9] y el Cognitive Reliability and Error Analysis Method (CREAM).[10] COCOM modela la actividad humana como una serie de métodos de control estratégicos (basados en planificación a largo plazo), tácticos (basados en procedimientos), oportunistas (basados en el contexto actual), y aleatorios, y propone un modelo de cómo se convierten las transiciones entre estos métodos de control. Este modelo de transición de métodos de control consiste en una serie de factores, incluyendo la estimación del resultado de una acción (éxito o fallo) por parte del operador humano, el tiempo que resta para cumplir la acción (adecuado o inadecuado), y el número de objetivos simultáneos del operador humano en ese momento. CREAM es un método de análisis basado en COCOM.
Técnicas relacionadas
editarLas técnicas relacionadas en seguridad ingenieril y fiabilidad ingenieril incluyen el Modo de Fallo y el Análisis de consecuencias, HAZOP, Árbol de fallo y Systems Analysis Programs for Hands-on Integrated Reliability evaluation.
Notas
editar- ↑ Véase el modelo del queso suizo de James T. Reason.
Referencias
editar- ↑ Senders y Moray, 1991.
- ↑ Shappell y Wiegmann, 2000.
- ↑ Wiegmann y Shappell, 2003.
- ↑ Hollnagel y Amalberti, 2001.
- ↑ «Fiabilidad humana: métodos» (PDF). Notas Técnicas de Prevención (Instituto Nacional de Seguridad, Salud y Bienestar en el Trabajo). 1995. NTP 377.
- ↑ Swain y Guttman, 1983.
- ↑ Wilson, 1993.
- ↑ Gertman et al., Smith.
- ↑ Hollnagel, 1993.
- ↑ Hollnagel, 1998.
Bibliografía
editar- Gertman, D. I.; Blackman, H. S.; Marble, J. L.; Byers, J. C.; Smith, C. L. (2005). The SPAR-H Human Reliability Analysis Method. Idaho National Laboratory. NUREG/CR-6883.
- Hollnagel, E. (1998). Cognitive reliability and error analysis method (CREAM). Elsevier. ISBN 9780080428482.
- Hollnagel, E.; Amalberti, R. (2001). «The Emperor’s New Clothes, or whatever happened to “human error”?». Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development (Linköping).
- Senders, John W.; Moray, Neville P. (1991). Human Error: Cause, Prediction, and Reduction (en inglés). Lawrence Erlbaum Associates. ISBN 0-89859-598-3.
- Shappell, Scott A.; Wiegmann, Douglas A. (2000). The Human Factors Analysis and Classification System–HFACS. Washington, DC: Office of Aviation Medicine, Federal Aviation Administration, Department of Transportation. DOT/FAA/AM-00/7.
- Swain, A. D.; Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications. NUREG/CR-1278.
- Wiegmann, Douglas A.; Shappell, Scott A. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system. Burlington, VT: Ashgate Publishing Ltd. ISBN 9780754618737.
- Wilson, J. R. (1993). SHEAN (Simplified Human Error Analysis code) and automated THERP (en inglés). Westinghouse Idaho Nuclear. WINCO-11908; CONF-9302122-1. Consultado el 4 de mayo de 2020.