DTR016 Organizaciones De Alta Confiabilidad: Un Modelo Altamente Efectivo En El Manejo De Riesgos Y En La Toma De Decisiones

Downloadable PDF Resources

  1. English
  2. English/Spanish

This module will take you through Organizaciones De Alta Confiabilidad: Un Modelo Altamente Efectivo En El Manejo De Riesgos Y En La Toma De Decisiones.

  1. Organizaciones De Alta Confiabilidad: Un Modelo Altamente Efectivo En El Manejo De Riesgos Y En La Toma De Decisiones

 

La información contenida en este documento hace parte del programa Deltar
‘Nivel 4 Curso de Gestión Avanzada de Riesgos y Crisis’

Organizaciones De Alta Confiabilidad: Un Modelo Altamente Efectivo En El Manejo De Riesgos Y En La Toma De Decisiones

En la parte 1 de esta serie, publicado en la edición de diciembre de 2015 de riesgo UK, David Rubens discute el advenimiento del concepto de las organizaciones de alta confiabilidad. En este número el habla de su valor como modelo para la práctica del manejo de riesgos de una manera más amplia.

Con frecuencia se afirma que las causas de los fracasos de manejo de la crisis están incrustadas en la creciente complejidad de un mundo altamente interconectado en red, en la que es imposible modelar las consecuencias en sistemas de cascada fuertemente interdependientes. A su vez se podría suponer que los marcos que se han desarrollado de forma ‘estado estacionario’ para manejar el riesgo, evolucionando y adaptandose con el fin de responder a los desafíos de cada nueva generación, han sido reemplazados por el desarrollo rápido casi inconcebiblemente en ambientes de riesgo del siglo XXI, si son políticas, económicas, sociales, ambientales o cualquiera de los innumerables contextos múltiples dentro del cual manejo del riesgo se espera que operar. Si estamos preocupados con el sistema financiero internacional, el cambio climático o la infraestructura nacional crítica, ante tal complejidad podemos concluir que tenemos no son más que rehenes de la fortuna mientras esperamos el siguiente incidente importante, si no es manejado, podría provocar fallas catastróficas en sistemas que tienen múltiples consecuencias transjurisdiccionales más allá de nuestras capacidades para modelar o administrar.

Si bien es cierto que existen estas situaciones, es también el caso que muchos, si no todos, de los mayores eventos catastróficos que definen el manejo de riesgo innovadores de nuestras capacidades personales, profesionales y organizacionales para hacer frente a estos, son altamente predecibles, tanto en términos de la forma en que se desarrollan, maduran y finalmente se activan y en las razones de nuestros fracasos para lidiar con ellos. Uno sólo tiene que ver las portadas de cualquier periódico para ver ejemplos de fracasos en el manejo de riesgos que conducen a grandes impactos dañinos, en lugar de tener causas extremas e imprevisibles, son actualmente los resultados inevitables de decisiones conscientes hechas por personas que tienen toda la información necesaria en orden de entender las consecuencias de sus acciones.

Pueden ser que grandes instituciones financieras aceptan cientos de millones o incluso miles de millones de libras en multas en sólo costos para hacer negocios; repetidas inundaciones que están creciendo a niveles sin precedentes y que siguen agobiando a los sistemas de defensa que han sido construidos específicamente para evitarlos; el colapso de la asistencia social en términos de ancianatos, cuidado de niños, centros de salud mental o simplemente la habilidad para apoyar a aquellos que han caído a través de los huecos en nuestras redes sociales; o la habilidad de los equipos internacionales de rescate para operar en entornos caóticos asociados con las respuestas de emergencia. En cada caso, las causas de esos fracasos están en los sistemas de manejo que se suponen que tienen que lidiar exactamente con esos desafíos, más que en el ambiente externo, sobre los cuales no tenemos ninguna influencia ni control. Sin embargo, esos fracasos no son inevitables, y de hecho puede ser directamente vinculada a las decisiones tomadas por las autoridades con respecto al desarrollo o no de procedimientos de manejo efectivo.

A partir de una alta perspectiva de fiabilidad en la organización, las causas de esos fracasos son claras e inaceptables. HROs son aquellas organizaciones en las que el fracaso no es una opción. Estos incluyen infraestructura nacional critica, los sistemas de control del tráfico aéreo nacional, submarinos nucleares, portaaviones y otros similares extremadamente técnicos, sistemas de alta ingeniería que requieren el más alto nivel de manejo y supervisión en cada etapa de su funcionamiento operativo. Como tantos sistemas supuestamente sofisticados, las creencias fundamentales que apoyan son extremadamente simples y pueden incluso ser encapsulados en dos sistemas concisos de creencias.

Lo primero es que el desarrollo de HRO no se basa en manuales muy técnicos (aunque existan) o de alta detallada respuesta (aunque también existen), pero es más bien el reflejo de una actitud o un estado de la mente. El estado de la mente no es ‘Tenemos un programa que nos permitirá tener éxito’, pero más bien ‘nosotros no fallaremos’. Es el compromiso para borrar la posibilidad de falla que distingue al HRO de otras organizaciones que se centran en el desarrollo de las herramientas para el éxito – Herramientas que son demostrablemente equivocadas en sus supuestos y en la habilidad de la organización para implementarlos y manejarlos eficazmente.

El segundo sistema de creencia que atraviesa todos los aspectos de un HRO es responsabilidad personal. Cada uno es responsable de asegurar que los aspectos de la operación sean ejecutados de una manera que excluye la posibilidad de fracaso. Además, parte de esa responsabilidad es el requisito de presionar continuamente a prueba sus propios sistemas, conscientemente buscar posibles puntos de falla, después de haberlos identificado asegurarse de que son bien supervisados, controlados o erradicados. HROs son extremadamente sensibles a cualquier cosa que puede ser visto como un problema potencial, y tales problemas se consideran como asuntos críticos. Esto es porque no sólo son considerados como problemas en sí mismos, sino también que son indicadores de problemas de manejo que van más profundo, y que necesitan ser considerados, analizados y respondidos a un nivel táctico y estratégico y no simplemente como eventos aislados.

Si se pudiera ofrecer un tercer principio básico de HROs, este sería que todo el sistema está diseñado para apoyar y estimular a la gente a encontrar problemas. Los problemas con muchas fallas catastróficas, ya se han tratado por la NASA en los lanzamientos espaciales, los preparativos para el Huracán Katrina o el Fukushima TEPCO una falla de potencia nuclear o cualquier evento de que los lectores de este artículo pueden tener conocimiento de primera mano, las causas del problema son ampliamente conocidas, pero la cultura organizacional fue una de las cuales donde estos temas no fueron discutidos, era políticamente inaceptable hacerlo.

Uno de los fundadores de estudios académicos de HROs(2) identificó cinco características que las diferencian de otras organizaciones. Ellas fueron:

  • Preocupación por el fracaso (en la cual la posibilidad de fracaso es examinado en cada etapa de una operación sobre una base proactiva)
  • Renuencia a simplificar las interpretaciones (de modo que la complejidad inherente de los problemas y las posibles soluciones, se aceptan como parte del proceso de solución de problemas)
  • Sensibilidad a las operaciones (en la que existe el convencimiento de que sólo son soluciones eficaces si trabajan dentro de las realidades del entorno operativo, sino meramente opciones existentes basadas en papel)
  • Compromiso de resistencia (en el que la resistencia y la capacidad de adaptarse a la más amplia gama posible de entornos difíciles, es considerada como una función crítica en cualquier plan operativo)
  • Bajo la especificación de estructuras (lo que significa que los individuos y equipos tienen libertad para desarrollar sus propias relaciones de trabajo, en lugar de estar obligados a adherirse a la pre-establecida restricción organizativa).

Tal vez resulta paradójico que es exactamente la más alta ingeniería de las organizaciones en el planeta, tales como estaciones centrales nucleares o submarinos nucleares, que específicamente en la parte inferior de la cadena de mando están facultados para tomar decisiones críticas. Sin embargo, es exactamente este enfoque que impide el ‘ilusiones’ enfoque para manejar operaciones complejas y entornos que conduzcan a errores inevitables. Una vez que la cultura es destruida, y el ‘respeto a la experiencia’ es sustituido por decisiones políticas, el resultado inevitable es que, al igual que en el período previo al desastre del Challenger al espacio, el intento de mantener la ilusión de que todo estaba bien, significó que “hizo cosas que eran realmente estúpidas”, o como en Three Mile Island, la más grave catástrofe nuclear en los Estados Unidos, se encontró que una y otra vez las advertencias fueron ignoradas, innecesarios riesgos tomados, trabajo descuidado, y una cultura de decepción y encubrimiento fueron encajadas en el corazón de la estructura de gerencia.

La simple verdad es que las razones de las fallas son bien conocidas. Ellas no sólo suceden, pero ellas a menudo son el resultado de gente inteligente tomando malas decisiones y mantener esas decisiones con el tiempo hasta que se convierten en parte integral de la cultura de esa organización. Si los valores de alta fiabilidad deben introducirse en las organizaciones, es responsabilidad de la administración crear una cultura donde estos valores no son sólo aceptados, sino también son considerados para establecer las bases de todo aquello que pueda seguir.

High Reliability Organisations: A Model for Highly Effective Risk Management and Decision Making

In Part 1 of this series, published in the December 2015 edition of Risk UK, David Rubens discussed the advent of the concept of High Reliability Organisations. In this issue he discusses their value as a model for wider risk management practice.

It is often claimed that the causes of crisis management failures are embedded in the increasing complexity of a highly networked and interconnected world, in which it is impossible to model the cascading consequences of tightly inter-dependent systems. It might in turn be assumed that the frameworks that have been developed on a ‘steady state’ basis to manage risk, evolving and adapting in order to meet the challenges of each new generation, have been superseded by the almost inconceivably rapid development in 21st century risk environments, whether they are political, financial, social, environmental or any of the other myriad contexts within which risk management is expected to operate. Whether we are concerned with international financial systems, climate change or critical national infrastructure, in the face of such complexity we might conclude that we are no more than hostages to fortune as we wait the next major incident that, if unmanaged, could lead to catastrophic systems failures that will have multiple trans-jurisdictional consequences beyond our capabilities to either model or manage.

While it is certainly true that such situations exist, it is also the case that many, if not all, of the major catastrophic events that define risk management at the cutting edge of our personal, professional and organisational capabilities to deal with it, are highly predictable, both in terms of the way in which they develop, mature and finally are triggered, and in the reasons for our failures to deal with them. One only has to look at the front pages of any newspaper to see examples of risk management failures leading to major harmful impacts which, rather than having extreme and unpredictable causes, are actually the inevitable results of conscious decisions made by people who had all of the information necessary in order to understand the consequences of their actions.

These may be major financial institutions accepting hundreds of millions or even billions of pounds in fines as merely part of the cost of doing business; repeated flooding at increasingly unprecedented levels that continue to overwhelm the defence systems that have been built specifically to prevent them; the collapse of social care in terms of old people’s homes, child care, mental health facilities or merely the ability to support those that have fallen through the gaps in our social networks; or the ability of international rescue teams to operate in the chaotic environments associated with emergency response. In each case, the causes of those failings are in the management systems that are supposed to deal with exactly those challenges, rather than in the external environment over which we have neither influence nor control. However, such failures are not inevitable or unavoidable, and in fact can be directly linked to decisions made by those in authority concerning the development or otherwise of effective management procedures.

From a High Reliability Organisation perspective, the causes of those failings are both clear and unacceptable. HROs are those organisations in which failure is not an option. These include critical national infrastructure, national air traffic control systems, nuclear submarines, aircraft carriers and other similar extremely technical, highly-engineered systems that require the highest level of management and oversight at every stage of their operation. Like so many supposedly sophisticated systems, the fundamental beliefs that support them are extremely simple, and can even be encapsulated in two succinct belief systems.

The first is that the development of HRO is not based on highly technical manuals (though they exist) or highly detailed response options (though they also exist), but is rather the reflection of an attitude or state of mind. The state of mind is not ‘We have a programme that will allow us to succeed’, but rather ‘We will not fail’. It is the commitment to erase the possibility of failure that distinguishes the HRO from other organisations that are focussed on developing the tools for success – tools which are demonstrably fallacious in both their assumptions and the ability of the organisation to implement and manage them effectively.

The second belief system that runs through every aspect of an HRO is personal responsibility. Everyone is responsible for ensuring that their aspect of the operation is run in such a way as to exclude the possibility of failure. What is more, part of that responsibility is the requirement to continuously pressure test their own systems, to consciously search for potential failure points and then, having identified them, to ensure that they are either monitored, controlled or eradicated. HROs are extremely sensitive to anything that can be seen as a potential problem, and all such potential problems are considered as critical issues. This is because not only are they considered as problems in their own right, but also that they are indicators of management problems that go deeper, and that need to be considered, analysed and responded to on a tactical and strategic level rather than merely as single, isolated events.

If one was to offer a third basic principle of HROs, it would be that the entire system is designed to support and encourage people to find problems. The issues with many catastrophic failures, whether it was NASA space launches, preparations for Hurricane Katrina or the Fukushima TEPCO nuclear power failure, or any events of which readers of this article may have first-hand knowledge, the causes of the problem were widely known, but the organisational culture was one in which not only were such subjects not discussed, it was politically unacceptable to do so.

One of the founding academic studies of HROs (2) identified five characteristics that differentiated them from other organisations. They were:

  • Preoccupation with failure (in which the possibility of failure is examined at every stage of an operation on a pro-active basis)
  • Reluctance to simplify interpretations (so that the inherent complexity of problems, and potential solutions, are accepted as part of the problem-solving process)
  • Sensitivity to operations (in which there is the realisation that solutions are only effective if they work within the realities of the operating environment, rather merely existing as paper-based options)
  • Commitment to resilience (in that resilience, and the ability to adapt to the widest possible range of challenging environments, is considered as a critical function in any operational plan)
  • Under-specification of structures (which means that individuals and teams have the freedom to develop their own working relationships, rather than being forced to adhere to pre-set organisational restrictions).

It is perhaps paradoxical that it is in exactly the highest-engineered organisations on the planet, such as nuclear power stations or nuclear submarines, that those at the bottom of the command chain are specifically empowered to take critical decisions. However, it is exactly this approach that prevents the ‘wishful thinking’ approach to managing complex operations and environments that lead to inevitable errors. Once that culture is destroyed, and the ‘deference to expertise’ is replaced by political decision making, the inevitable result is that, as in the run-up to the Challenger Space Shuttle disaster, the attempt to maintain the illusion that everything was OK, meant that ‘It did things that were actually stupid’, or as in Three Mile Island, the US’s most serious nuclear disaster, it was found that time and again warnings were ignored, unnecessary risks taken, sloppy work done, and a culture of deception and cover-up were embedded at the heart of the senior management structure.

The simple truth is that the reasons for failures are well known. They do not just happen, but they are often the result of smart people taking bad decisions, and maintaining those decisions over time until they become an integral part of the culture of that organisation. If high reliability values are to be introduced into organisations, then it is the responsibility of the management to create a culture where such values are not only accepted, but are considered to set the foundations for everything else that might follow.