Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
SISTEMAS DE INFORMACION EN ENTORNOS COMPLEJOS: EL CASO DE LA SEGURIDAD AÉREA José Sanchez-Alarcos Ballesteros Doctor en Sociología y Licenciado en Psicología Socio de AEPA (Asociación Española de Psicología de la Aviación) Profesor de la Escuela de Organización Industrial Introducción En este documento se analiza el esfuerzo que muchas organizaciones han realizado en el desarrollo de mejoras tecnológicas y de procedimiento como forma de aumentar el rendimiento de las organizaciones. La mejora en normas y procedimientos parece “rebotar” cuando aparecen problemas desconocidos convirtiéndose en una barrera para encontrar una solución. Cada vez que se introduce una nueva norma o dispositivo, se está asistiendo a una mejora en la capacidad de reacción ante un evento previsto (Reason, 1997) pero, al mismo tiempo, puede estarse impidiendo la reacción ante otro evento que no haya sido previsto en el diseño del sistema. Como resultado de esta situación, el ritmo de mejora en muchas organizaciones se ha detenido o ha disminuido. El desarrollo basado en la tecnología genera nuevos eventos a través de interacciones inesperadas entre partes del sistema. En consecuencia, este tipo de desarrollo disminuye la capacidad del sistema para gestionar esos nuevos eventos, fenómeno que se estudiará y se tratará especialmente en el apartado de conclusiones. Marco teórico Las tecnologías de la información y comunicación, conjuntamente con procedimientos detallados, se han convertido en una pieza esencial para la evolución organizativa en los últimos años. Desde este punto de vista, un sistema que evoluciona actúa como una máquina que necesita captar información procesándola y representando una realidad externa de una forma lo más aproximada posible. Para conseguir estas representaciones, las tecnologías de la información han sido muy útiles aunque conviene añadir algunos conceptos previamente. En particular, la definición de Varela (1988) de un ordenador como un dispositivo que maneja símbolos pero sólo lo hace con su forma física y no con su significado es de gran relevancia. Esta característica de las tecnologías de la información provoca una incapacidad de los sistemas que usan dichas tecnologías para manejar eventos imprevistos; la consecuencia lógica es que estos eventos imprevistos exigen la concurrencia de operadores humanos (situación típica que se puede presentar a bordo de un avión). El problema, sin embargo, aparece cuando el diseño del sistema es suficientemente complejo para convertirlo en opaco para sus operadores quienes, en muchas situaciones, no comprenden sus principios de funcionamiento. Winograd y Flores (1987) alegan que la “opacidad de la implantación es una de las contribuciones intelectuales claves para la ciencia informática” justificando esta afirmación en el hecho de que cada nivel de diseño de un sistema puede convertirse en independiente del que está debajo, manteniendo su propia lógica. La situación es diferente cuando se trata de construir un sistema mecánico; el sistema mecánico es más complicado porque cada nivelde diseño tiene que estar justificado por el que tiene debajo. Eso significa que, asumiendo que el operador tiene un adecuado conocimiento del sistema, un sistema mecánico permite la trazabilidad de una contingencia hasta su origen, hecho que no ocurre en un sistema de información. La opacidad de la implantación de sistemas de información rompe la cadena lógica entre distintos niveles del diseño. El diseñador de un dispositivo, el diseñador de los programas que lo gobiernan y el operador viven en mundos aparte y pueden convertirse en expertos en sus terrenos respectivos sin tener el menor conocimiento acerca del trabajo de los otros. Esto es posible porque se han convertido en funcionalmente independientes. Cuando las cosas ocurren conforme a lo planificado, este modelo ciego al significado de sus propias acciones funciona correctamente. Sin embargo, en la situación contraria, es decir, cuando aparecen contingencias no previstas, la capacidad de respuesta disminuye si la comparamos con la disponible en los viejos sistemas mecánicos. Reason (1997) explica este hecho en su modelo “SRK” donde “S” significa “Skills” o habilidades, “R” significa “Rules” o normas y “K” significa “Knowledge” o conocimiento. El nivel de habilidades es el más básico y el nivel de conocimiento es el más alto dentro de este modelo. Un sistema opaco sólo permite a sus operadores alcanzar el nivelde la normativa porque la opacidad de su diseño les hace imposible alcanzar el niveldescrito por Reason como conocimiento. Esto ocurre porque los operadores no pueden acceder al significado de sus propias acciones. En el ámbito académico de la gestión del conocimiento, Choo y Bontis (2002) introdujeron los conceptos de significado y sentido como temas importantes en el proceso de mejora y aprendizaje en las organizaciones. En el terreno de la semiótica organizativa, Gazendam (2001) explica la importancia de la exploración activa como clave para construir un modelo del mundo que permita al autor de dicho modelo desenvolverse en él. Si el diseño del sistema impide esa exploración activa y, por tanto, el acceso al significado de la actividad, la introducción de nuevas prestaciones en un sistema informático no añade realmente capacidades netas sino que transfiere capacidades desde el operador humano hasta la parte técnica del sistema. Las capacidades disponibles en un sistema gracias a la tecnología han aumentado pero, al mismo tiempo, las capacidades que no pueden ser ejecutables a través de la tecnología han disminuido. Puesto que las tecnologías de la información no tienen acceso al significado sino a símbolos (Varela, 1988), las actividades que precisen acceder al significado -los eventos que representan excepciones a la regla general y no están incluidas en el diseño del sistema- pueden representar problemas y no ser adecuadamente manejadas por el sistema. Al mismo tiempo, las acciones que sí pueden ser incluidas en el diseño del sistema, pueden llevarse a cabo de forma eficiente disminuyendo el número de errores. El transporte aéreo implica un riesgo suficientemente elevado para que este modelo de desarrollo pueda ser considerado aceptable. La mejora en muchas actividades supone una disminución de capacidad en unas pocas. Si esas pocas pueden conducir a situaciones graves en términos de pérdidas humanas o materiales, las bases del modelo de desarrollo deberían ser cuestionadas. En el próximo epígrafe, se analizará la seguridad aérea a fin de comprobar el impacto que este modelo de desarrollo produce. El caso de la seguridad aérea Los resultados en seguridad aérea muestran un ejemplo de éxito como puede concluirse del siguiente gráfico (Boeing, 2002): Es especialmente interesante observar que desde 1975 el ritmo de mejora ha disminuido. Por añadidura, esta disminución se ha producido en presencia de una importante evolución tecnológica en el ámbito del transporte aéreo. Si uno de los factores que han contribuido a mejorar el comportamiento del sistema ha sido la tecnología y, no obstante, los resultados muestran una disminución del ritmo de mejora, debe haber otro factor responsable de dicha disminución. Reason (1990) identifica este factor explicando que podemos generar un nuevo accidente en nuestro intento de evitar el último. En otras palabras, cuando limitamos la libertad de acción de los operadores humanos evitamos errores pero, al mismo tiempo, podemos estar impidiendo acciones que son necesarias. En un entorno complejo, se producen contingencias donde las acciones necesarias no están planificadas; en consecuencia, esas acciones podrían ser imposibles de prever y de incluir en el diseño de la organización. Si a los operadores humanos se les permite actuar pero forman parte de un sistema que no comprenden plenamente, la posibilidad de esa actuación es más teórica que real puesto que los operadores podrían no saber cuál es la línea de acción correcta. El desarrollo de la tecnología dela información en aviación muestra cómo puede ocurrir esto: Un avión antiguo tenía muchos indicadores que precisaban de un operador humano que compusiera en su mente una imagen completa a partir de múltiples fuentes de datos; un avión nuevo es muy distinto y tiene varias pantallas multifuncionales que proporcionan información ya integrada por el propio sistema. Como ejemplo, la nueva generación 747 tiene aproximadamente un tercio de los indicadores que tenía la generación más antigua. Por añadidura, el mecánico de vuelo no es necesario en las nuevas cabinas. La tecnología de la información ha permitido por tanto importantes mejoras en la industria aeronáutica. Las cabinas automatizadas pueden ser manejadas por menos personas y, al mismo tiempo, la existencia de diseños de cabina comunes para diferentes aviones permite que algunas tripulaciones puedan volar diferentes aviones con un periodo de adaptación muy corto (Airbus, 2002). Incluso, puesto que la automatización puede prevenir errores humanos en las situaciones que hayan sido previamente definidas, pueden realizarse acciones más cercanas a los límites de la envolvente de vuelo sin el peligro de sobrepasar dichos límites. Los fabricantes de aviones pueden, de esta forma, diseñar aviones que consuman menos combustible incluso si ese diseño convierte al avión en inestable ya que los sistemas automáticos impedirán que el avión se sitúe fuera de sus límites operativos. La contribución positiva de la tecnología de la información en aviación es, por tanto, su carácter de potenciador de la eficiencia. Puede conseguirse eficiencia a través de la mejora del diseño, de las reducciones de personas en cabina y de las reducciones de costes de formación asociadas a cabinas más sencillas. La parte negativa de todo esto se encuentra en el nuevo papel de los operadores humanos y su escasa posibilidad de acceder al significado real de sus acciones. Algunos accidentes ocurridos en aviones de nuevas generaciones muestran claramente este efecto. Una vez que el operador ha adoptado una actitud pasiva y cree que “el sistema no falla nunca” queda despojado de su utilidad ante situaciones que estén más allá de las capacidades del sistema -precisamente las que justifican su presencia en la cabina-. Accidentes como AeroPeru 603 (Walters & Sumwalt, 2000),ocurrido en un avión tecnológicamente avanzado (Boeing-757), pueden ser explicados sólo a través de la aceptación de un papel pasivo en relación con el sistema de información. Una vez que el sistema de información comenzó a dar indicaciones confusas, los pilotos no parecieron capaces de pensar que el aparato se comportaba como un avión normal y buscaron una explicación en el sistema de información. Incluso cuando comenzaron a trabajar con instrumentos básicos, al obtener las mismas indicaciones incorrectas, nunca tuvieron el modelo mental propio de un piloto de una Cessna o incluso de un velero en esa misma situación, modelo que habría sido el adecuado para este caso. Los diseñadores de sistemas de información han realizado un intercambio de significado por legibilidad y han dedicado sus mayores esfuerzos a conseguir entradas y salidas de información cuyas representaciones visuales sean cómodas y agradables. De esta forma, los pilotos disponen de visualizaciones familiares y son llevados a creer que el nuevo avión es similar al viejo con algunas mejoras. Además, la independencia entre los niveles de diseño en los sistemas de información (Winograd & Flores, 1987) hace la transición de uno a otro avión fácil puesto que diferentes aviones comparten idénticas cabinas (Campos, 2001). Este tipo de solución aumenta la complejidad del sistema ya que da a los pilotos una imagen sobre cómo funciona el sistema en teoría; sin embargo, la visualización presentada por el sistema es un producto del propio sistema y no un reflejo de su lógica interna que, en la mayoría de los casos, es completamente desconocida para el piloto. La confusión entre ambos modos -el real (su lógica interna) y la visualización recibida por el piloto (el modelo operativo) deja al piloto confuso si se presenta una situación que deja de manifiesto el siguiente hecho: El piloto está utilizando un modelo operativo “como si” fuera coincidente con el modelo lógico interno al sistema. En situaciones críticas, el operador aprende a su costa que eso no es cierto. Baberg (2001) explica este hecho mediante un chiste común entre pilotos: Supuestamente, la frase más oída en una cabina moderna es “¿Qué está haciendo ahora este bastardo?” referida al avión. En consecuencia, el piloto puede aprender a desconfiar del sistema -de hecho, el sistema está diseñado para dar al piloto la información que éste supuestamente necesita y nada más- y queda en una posición de confusión e impotencia si ocurre algo que hace evidente la contradicción entre los modelos lógico y operativo del sistema. Dennett (1996) utiliza dos metáforas para ilustrar la contradicción entre estos dos modos; así, opone el modelo de una agencia de información al modelo de un grupo de comandos. En el primer modelo, su operador conoce sólo aquello que se supone necesita para realizar su tarea específica. En el segundo modelo, se entrega a los operadores toda la información acerca de la situación puesto que se espera que aparezcan eventos no planificados y los operadores pueden ser requeridos para afrontarlos. La complejidad creciente de las organizaciones ha conducido a situaciones donde los operadores son tratados bajo el modelo “agencia de información” y, en consecuencia, sólo conocen el modelo operativo porque, se supone, el modelo lógico es demasiado complejo para ser comprendido por ellos. El tema clave es el siguiente:¿Bajo qué condiciones puede considerarse que la opacidad del sistema a su operador sea una buena decisión? Conclusiones: Nuevos retos. El caso de la seguridad aérea no es una excepción y responde a una dinámica mucho más generalizada de desarrollo organizativo. Hoy, son muchas las organizaciones que utilizan avanzados sistemas de información de los cuales sus operadores conocen el modelo operativo pero no el lógico. En situaciones donde puedan presentarse contingencias graves -como el transporte aéreo- la limitación del conocimiento requerido de los operadores puede proporcionar eficiencia. Sin embargo, este modelo tiene un importante fallo si las contingencias son frecuentes y/o importantes. Este tipo de desarrollo, capaz de mejorar la eficiencia de la organización, puede también impedir que su operador humano represente una alternativa real ante un evento no planificado. Por añadidura, este modelo de desarrollo contradice buena parte de la teoría del aprendizaje:Los operadores no aprenden mejor la conducta del sistema a través de su acción sobre el mismo porque el conocimiento incompleto que tienen de éste les impide poder llegar a diagnosticar situaciones no previstas. El aprendizaje de otros niveles de diseño del sistema no parece una posibilidad real ya que el tipo de disciplinas que esto implica están muy alejadas de su formación y experiencia y, por tanto, la evolución de los sistemas los conduce cada vez más lejos de la capacidad de comprensión de su operador. Sin embargo, el hecho de que los operadores tengan un conocimiento incompleto no parece una buena solución, especialmente en aquellos terrenos donde las contingencias puedan ser importantes. Al mismo tiempo, la formación y experiencia no les permite alcanzar una comprensión más profunda de estos sistemas de complejidad creciente. La situación conduce a un dilema de difícil escapatoria y que puede representar el próximo reto para los ingenieros que diseñan estos sistemas: Puesto que una comprensión total de los sistemas por sus operadores es difícil, lenta y cara, parecería lógico buscar diseños más simples -y esto no significa sistemas con visualizaciones más simples sino sistemas más simples- al menos en actividades que implican un alto nivel de riesgo. El límite razonable para los diseños tecnológicos no vendríadictado por el potencial tecnológico sino por el máximo nivel de complejidad accesible a la comprensión de su operador humano; en caso contrario, este operador puede verse imposibilitado para ejercer un papel como alternativa al sistema en situaciones de fallo de éste o en situaciones no previstas. La solución, como se ha indicado, va mucho más allá del aspecto ergonómico y de conseguir visualizaciones sencillas y atractivas. El problema real se encuentra en el campo de la semiótica organizativa y puede definirse como un requerimiento de transparencia del sistema, especialmente en actividades que impliquen riesgo grave. Es necesario que se desarrollen nuevas formas de programación y nuevos modelos lógicos para que el diseño de los sistemas sea comprendido por sus operadores. Rassmussen (1986) estableció un requisito para el diseño de sistemas de información: Deben ser ejecutados cognitivamente por sus operadores humanos. De esta forma, los operadores pueden conocer en cualquier momento el estado real del sistema. Este requerimiento dista mucho de haber sido cumplido por los nuevos desarrollos tecnológicos. La independencia entre los niveles de diseño (Winograd & Flores, 1986) tiene algunas ventajas y la tentación de conseguir el máximo de un sistema de información está siempre presente. Sin embargo, la existencia de diferentes modelos -lógico y operativo- tiene que ser evitada. La forma del “como si” que ha impedido a los operadores el acceso al significado de su acción es insuficiente en entornos de alto riesgo. Esto significa que es necesario trabajar con el modelo lógico de los sistemas y hacerlo suficientemente sencillo para que sea comprensible por sus operadores. Construir modelos lógicos más sencillos en lugar de esconderlos es la siguiente etapa en el desarrollo organizativo y un imperativo en aquellas organizaciones cuya actividad implique riesgo, como es el caso del transporte aéreo. Referencias : Airbus Industries (2002). Cross crew qualification. http://www.airbus.com. Baberg T. W. (2001): Man-machine-interface in modern transport system from an aviation safety perspective. Aerosp. Sci. Technol. nº 5: , pp 495-504. Boeing (2002). Statistical Summary of Commercial Jet Airplane Accidents Worldwide Operations 1959-2001. http://www.boeing.com Campos L. (2001): On the Competition between Airbus and Boeing. Air & Space Europe, Vol 3 nº 1/2. Choo, C.W. and Bontis, N.: The Strategic Management of Intellectual Capital and Organizational Knowledge. Oxford University Press. Oxford. Daft, R.L. y Lengel, R.H. (1986): Organizational Information Requeriments, Media Richness and Structural Design. Management Science, vol. 32, nº5, may. PP. 554571. Dennett, D.C.(1996): Kinds of Minds. New York. Basic Books. Gazendam (2001): Semiotics, Virtual Organisations and Information Systems. Information, Organisation and Technology pp. 1-20. Kluwer Academic Publishers. Boston. Maturana H. and Varela F. (1998): The Tree of Knowledge. Boston: Shambala Nevis, E.C., DiBella, A.J. y Gould, J.M. (1995): Understanding Organizations as Learning Systems. Sloan Management Review, vol.36, nº 2, winter. PP. 73-85. Rasmussen, J.(1986): Information processing and human-machine interaction: An approach to cognitive engineering. North Holland, New York. Reason, J.(1990): Human error. Cambridge. Cambridge University Press. Reason, J.(1997): Managing the Risk of Organisational Accidents. Cambridge. Cambridge University Press. Varela, F. (1988): Conocer. Barcelona: Gedisa. Walters, J.M. and Sumwalt III, R.L. (2000): Aircraft Accident Analysis. New York City. McGraw Hill. Winograd, T. and Flores, F. (1986): Understanding Computers and Cognition. Indianápolis. Addison Wesley. 656929662 2003-09-01T19:27:26+0100 Jose Sanchez-Alarcos I am the author of this document
Compartir