Logo Studenta

Sistemasdeinformacionenentornoscomplejos-Seguridadaerea

¡Estudia con miles de materiales!

Vista previa del material en texto

SISTEMAS DE INFORMACION EN ENTORNOS COMPLEJOS: 
EL CASO DE LA SEGURIDAD AÉREA
José Sanchez-Alarcos Ballesteros
Doctor en Sociología y Licenciado en Psicología
Socio de AEPA (Asociación Española de Psicología de la Aviación)
Profesor de la Escuela de Organización Industrial
Introducción
En este documento se analiza el esfuerzo que muchas organizaciones han realizado en el
desarrollo de mejoras tecnológicas y de procedimiento como forma de aumentar el rendimiento de
las organizaciones. La mejora en normas y procedimientos parece “rebotar” cuando aparecen
problemas desconocidos convirtiéndose en una barrera para encontrar una solución. Cada vez que
se introduce una nueva norma o dispositivo, se está asistiendo a una mejora en la capacidad de
reacción ante un evento previsto (Reason, 1997) pero, al mismo tiempo, puede estarse impidiendo
la reacción ante otro evento que no haya sido previsto en el diseño del sistema.
Como resultado de esta situación, el ritmo de mejora en muchas organizaciones se ha detenido o
ha disminuido. El desarrollo basado en la tecnología genera nuevos eventos a través de
interacciones inesperadas entre partes del sistema. En consecuencia, este tipo de desarrollo
disminuye la capacidad del sistema para gestionar esos nuevos eventos, fenómeno que se
estudiará y se tratará especialmente en el apartado de conclusiones.
Marco teórico
Las tecnologías de la información y comunicación, conjuntamente con procedimientos detallados,
se han convertido en una pieza esencial para la evolución organizativa en los últimos años. Desde
este punto de vista, un sistema que evoluciona actúa como una máquina que necesita captar
información procesándola y representando una realidad externa de una forma lo más aproximada
posible. Para conseguir estas representaciones, las tecnologías de la información han sido muy
útiles aunque conviene añadir algunos conceptos previamente. En particular, la definición de
Varela (1988) de un ordenador como un dispositivo que maneja símbolos pero sólo lo hace con su
forma física y no con su significado es de gran relevancia. Esta característica de las tecnologías
de la información provoca una incapacidad de los sistemas que usan dichas tecnologías para
manejar eventos imprevistos; la consecuencia lógica es que estos eventos imprevistos exigen la
concurrencia de operadores humanos (situación típica que se puede presentar a bordo de un
avión). El problema, sin embargo, aparece cuando el diseño del sistema es suficientemente
complejo para convertirlo en opaco para sus operadores quienes, en muchas situaciones, no
comprenden sus principios de funcionamiento.
Winograd y Flores (1987) alegan que la “opacidad de la implantación es una de las contribuciones
intelectuales claves para la ciencia informática” justificando esta afirmación en el hecho de que
cada nivel de diseño de un sistema puede convertirse en independiente del que está debajo,
manteniendo su propia lógica. 
La situación es diferente cuando se trata de construir un sistema mecánico; el sistema mecánico
es más complicado porque cada nivelde diseño tiene que estar justificado por el que tiene debajo.
Eso significa que, asumiendo que el operador tiene un adecuado conocimiento del sistema, un
sistema mecánico permite la trazabilidad de una contingencia hasta su origen, hecho que no ocurre
en un sistema de información. La opacidad de la implantación de sistemas de información rompe
la cadena lógica entre distintos niveles del diseño. El diseñador de un dispositivo, el diseñador de
los programas que lo gobiernan y el operador viven en mundos aparte y pueden convertirse en
expertos en sus terrenos respectivos sin tener el menor conocimiento acerca del trabajo de los
otros. Esto es posible porque se han convertido en funcionalmente independientes.
Cuando las cosas ocurren conforme a lo planificado, este modelo ciego al significado de sus
propias acciones funciona correctamente. Sin embargo, en la situación contraria, es decir, cuando
aparecen contingencias no previstas, la capacidad de respuesta disminuye si la comparamos con la
disponible en los viejos sistemas mecánicos. Reason (1997) explica este hecho en su modelo
“SRK” donde “S” significa “Skills” o habilidades, “R” significa “Rules” o normas y “K” significa
“Knowledge” o conocimiento. El nivel de habilidades es el más básico y el nivel de conocimiento
es el más alto dentro de este modelo. Un sistema opaco sólo permite a sus operadores alcanzar el
nivelde la normativa porque la opacidad de su diseño les hace imposible alcanzar el niveldescrito
por Reason como conocimiento.
Esto ocurre porque los operadores no pueden acceder al significado de sus propias acciones. En el
ámbito académico de la gestión del conocimiento, Choo y Bontis (2002) introdujeron los conceptos
de significado y sentido como temas importantes en el proceso de mejora y aprendizaje en las
organizaciones. En el terreno de la semiótica organizativa, Gazendam (2001) explica la
importancia de la exploración activa como clave para construir un modelo del mundo que permita
al autor de dicho modelo desenvolverse en él. Si el diseño del sistema impide esa exploración
activa y, por tanto, el acceso al significado de la actividad, la introducción de nuevas prestaciones
en un sistema informático no añade realmente capacidades netas sino que transfiere capacidades
desde el operador humano hasta la parte técnica del sistema.
Las capacidades disponibles en un sistema gracias a la tecnología han aumentado pero, al mismo
tiempo, las capacidades que no pueden ser ejecutables a través de la tecnología han disminuido.
Puesto que las tecnologías de la información no tienen acceso al significado sino a símbolos
(Varela, 1988), las actividades que precisen acceder al significado -los eventos que representan
excepciones a la regla general y no están incluidas en el diseño del sistema- pueden representar
problemas y no ser adecuadamente manejadas por el sistema. Al mismo tiempo, las acciones que
sí pueden ser incluidas en el diseño del sistema, pueden llevarse a cabo de forma eficiente
disminuyendo el número de errores. 
El transporte aéreo implica un riesgo suficientemente elevado para que este modelo de desarrollo
pueda ser considerado aceptable. La mejora en muchas actividades supone una disminución de
capacidad en unas pocas. Si esas pocas pueden conducir a situaciones graves en términos de
pérdidas humanas o materiales, las bases del modelo de desarrollo deberían ser cuestionadas. En
el próximo epígrafe, se analizará la seguridad aérea a fin de comprobar el impacto que este
modelo de desarrollo produce.
El caso de la seguridad aérea
Los resultados en seguridad aérea muestran un ejemplo de éxito como puede concluirse del
siguiente gráfico (Boeing, 2002):
Es especialmente interesante observar que desde 1975 el ritmo de mejora ha disminuido. Por
añadidura, esta disminución se ha producido en presencia de una importante evolución tecnológica
en el ámbito del transporte aéreo. Si uno de los factores que han contribuido a mejorar el
comportamiento del sistema ha sido la tecnología y, no obstante, los resultados muestran una
disminución del ritmo de mejora, debe haber otro factor responsable de dicha disminución.
Reason (1990) identifica este factor explicando que podemos generar un nuevo accidente en
nuestro intento de evitar el último. En otras palabras, cuando limitamos la libertad de acción de los
operadores humanos evitamos errores pero, al mismo tiempo, podemos estar impidiendo acciones
que son necesarias. En un entorno complejo, se producen contingencias donde las acciones
necesarias no están planificadas; en consecuencia, esas acciones podrían ser imposibles de prever
y de incluir en el diseño de la organización.
Si a los operadores humanos se les permite actuar pero forman parte de un sistema que no
comprenden plenamente, la posibilidad de esa actuación es más teórica que real puesto que los
operadores podrían no saber cuál es la línea de acción correcta. El desarrollo de la tecnología dela información en aviación muestra cómo puede ocurrir esto: Un avión antiguo tenía muchos
indicadores que precisaban de un operador humano que compusiera en su mente una imagen
completa a partir de múltiples fuentes de datos; un avión nuevo es muy distinto y tiene varias
pantallas multifuncionales que proporcionan información ya integrada por el propio sistema. Como
ejemplo, la nueva generación 747 tiene aproximadamente un tercio de los indicadores que tenía la
generación más antigua. Por añadidura, el mecánico de vuelo no es necesario en las nuevas
cabinas.
La tecnología de la información ha permitido por tanto importantes mejoras en la industria
aeronáutica. Las cabinas automatizadas pueden ser manejadas por menos personas y, al mismo
tiempo, la existencia de diseños de cabina comunes para diferentes aviones permite que algunas
tripulaciones puedan volar diferentes aviones con un periodo de adaptación muy corto (Airbus,
2002). Incluso, puesto que la automatización puede prevenir errores humanos en las situaciones
que hayan sido previamente definidas, pueden realizarse acciones más cercanas a los límites de la
envolvente de vuelo sin el peligro de sobrepasar dichos límites. Los fabricantes de aviones pueden,
de esta forma, diseñar aviones que consuman menos combustible incluso si ese diseño convierte al
avión en inestable ya que los sistemas automáticos impedirán que el avión se sitúe fuera de sus
límites operativos.
La contribución positiva de la tecnología de la información en aviación es, por tanto, su carácter de
potenciador de la eficiencia. Puede conseguirse eficiencia a través de la mejora del diseño, de las
reducciones de personas en cabina y de las reducciones de costes de formación asociadas a
cabinas más sencillas. La parte negativa de todo esto se encuentra en el nuevo papel de los
operadores humanos y su escasa posibilidad de acceder al significado real de sus acciones.
Algunos accidentes ocurridos en aviones de nuevas generaciones muestran claramente este
efecto. Una vez que el operador ha adoptado una actitud pasiva y cree que “el sistema no falla
nunca” queda despojado de su utilidad ante situaciones que estén más allá de las capacidades del
sistema -precisamente las que justifican su presencia en la cabina-.
Accidentes como AeroPeru 603 (Walters & Sumwalt, 2000),ocurrido en un avión
tecnológicamente avanzado (Boeing-757), pueden ser explicados sólo a través de la aceptación de
un papel pasivo en relación con el sistema de información. Una vez que el sistema de información
comenzó a dar indicaciones confusas, los pilotos no parecieron capaces de pensar que el aparato
se comportaba como un avión normal y buscaron una explicación en el sistema de información.
Incluso cuando comenzaron a trabajar con instrumentos básicos, al obtener las mismas
indicaciones incorrectas, nunca tuvieron el modelo mental propio de un piloto de una Cessna o
incluso de un velero en esa misma situación, modelo que habría sido el adecuado para este caso.
Los diseñadores de sistemas de información han realizado un intercambio de significado por
legibilidad y han dedicado sus mayores esfuerzos a conseguir entradas y salidas de información
cuyas representaciones visuales sean cómodas y agradables. De esta forma, los pilotos disponen
de visualizaciones familiares y son llevados a creer que el nuevo avión es similar al viejo con
algunas mejoras. Además, la independencia entre los niveles de diseño en los sistemas de
información (Winograd & Flores, 1987) hace la transición de uno a otro avión fácil puesto que
diferentes aviones comparten idénticas cabinas (Campos, 2001).
Este tipo de solución aumenta la complejidad del sistema ya que da a los pilotos una imagen sobre
cómo funciona el sistema en teoría; sin embargo, la visualización presentada por el sistema es un
producto del propio sistema y no un reflejo de su lógica interna que, en la mayoría de los casos, es
completamente desconocida para el piloto. La confusión entre ambos modos -el real (su lógica
interna) y la visualización recibida por el piloto (el modelo operativo) deja al piloto confuso si se
presenta una situación que deja de manifiesto el siguiente hecho: El piloto está utilizando un
modelo operativo “como si” fuera coincidente con el modelo lógico interno al sistema. En
situaciones críticas, el operador aprende a su costa que eso no es cierto. Baberg (2001) explica
este hecho mediante un chiste común entre pilotos: Supuestamente, la frase más oída en una
cabina moderna es “¿Qué está haciendo ahora este bastardo?” referida al avión. En
consecuencia, el piloto puede aprender a desconfiar del sistema -de hecho, el sistema está
diseñado para dar al piloto la información que éste supuestamente necesita y nada más- y queda
en una posición de confusión e impotencia si ocurre algo que hace evidente la contradicción entre
los modelos lógico y operativo del sistema.
Dennett (1996) utiliza dos metáforas para ilustrar la contradicción entre estos dos modos; así,
opone el modelo de una agencia de información al modelo de un grupo de comandos. En el primer
modelo, su operador conoce sólo aquello que se supone necesita para realizar su tarea específica.
En el segundo modelo, se entrega a los operadores toda la información acerca de la situación
puesto que se espera que aparezcan eventos no planificados y los operadores pueden ser
requeridos para afrontarlos.
La complejidad creciente de las organizaciones ha conducido a situaciones donde los operadores
son tratados bajo el modelo “agencia de información” y, en consecuencia, sólo conocen el modelo
operativo porque, se supone, el modelo lógico es demasiado complejo para ser comprendido por
ellos. El tema clave es el siguiente:¿Bajo qué condiciones puede considerarse que la opacidad del
sistema a su operador sea una buena decisión?
Conclusiones: Nuevos retos.
El caso de la seguridad aérea no es una excepción y responde a una dinámica mucho más
generalizada de desarrollo organizativo. Hoy, son muchas las organizaciones que utilizan
avanzados sistemas de información de los cuales sus operadores conocen el modelo operativo
pero no el lógico.
En situaciones donde puedan presentarse contingencias graves -como el transporte aéreo- la
limitación del conocimiento requerido de los operadores puede proporcionar eficiencia. Sin
embargo, este modelo tiene un importante fallo si las contingencias son frecuentes y/o
importantes. Este tipo de desarrollo, capaz de mejorar la eficiencia de la organización, puede
también impedir que su operador humano represente una alternativa real ante un evento no
planificado.
Por añadidura, este modelo de desarrollo contradice buena parte de la teoría del aprendizaje:Los
operadores no aprenden mejor la conducta del sistema a través de su acción sobre el mismo
porque el conocimiento incompleto que tienen de éste les impide poder llegar a diagnosticar
situaciones no previstas. El aprendizaje de otros niveles de diseño del sistema no parece una
posibilidad real ya que el tipo de disciplinas que esto implica están muy alejadas de su formación y
experiencia y, por tanto, la evolución de los sistemas los conduce cada vez más lejos de la
capacidad de comprensión de su operador.
Sin embargo, el hecho de que los operadores tengan un conocimiento incompleto no parece una
buena solución, especialmente en aquellos terrenos donde las contingencias puedan ser
importantes. Al mismo tiempo, la formación y experiencia no les permite alcanzar una
comprensión más profunda de estos sistemas de complejidad creciente. La situación conduce a un
dilema de difícil escapatoria y que puede representar el próximo reto para los ingenieros que
diseñan estos sistemas: Puesto que una comprensión total de los sistemas por sus operadores es
difícil, lenta y cara, parecería lógico buscar diseños más simples -y esto no significa sistemas con
visualizaciones más simples sino sistemas más simples- al menos en actividades que implican un
alto nivel de riesgo. El límite razonable para los diseños tecnológicos no vendríadictado por el
potencial tecnológico sino por el máximo nivel de complejidad accesible a la comprensión de su
operador humano; en caso contrario, este operador puede verse imposibilitado para ejercer un
papel como alternativa al sistema en situaciones de fallo de éste o en situaciones no previstas. 
La solución, como se ha indicado, va mucho más allá del aspecto ergonómico y de conseguir
visualizaciones sencillas y atractivas. El problema real se encuentra en el campo de la semiótica
organizativa y puede definirse como un requerimiento de transparencia del sistema, especialmente
en actividades que impliquen riesgo grave. Es necesario que se desarrollen nuevas formas de
programación y nuevos modelos lógicos para que el diseño de los sistemas sea comprendido por
sus operadores.
Rassmussen (1986) estableció un requisito para el diseño de sistemas de información: Deben ser
ejecutados cognitivamente por sus operadores humanos. De esta forma, los operadores pueden
conocer en cualquier momento el estado real del sistema. Este requerimiento dista mucho de
haber sido cumplido por los nuevos desarrollos tecnológicos. La independencia entre los niveles de
diseño (Winograd & Flores, 1986) tiene algunas ventajas y la tentación de conseguir el máximo de
un sistema de información está siempre presente. Sin embargo, la existencia de diferentes
modelos -lógico y operativo- tiene que ser evitada. La forma del “como si” que ha impedido a los
operadores el acceso al significado de su acción es insuficiente en entornos de alto riesgo.
Esto significa que es necesario trabajar con el modelo lógico de los sistemas y hacerlo
suficientemente sencillo para que sea comprensible por sus operadores. Construir modelos lógicos
más sencillos en lugar de esconderlos es la siguiente etapa en el desarrollo organizativo y un
imperativo en aquellas organizaciones cuya actividad implique riesgo, como es el caso del
transporte aéreo.
Referencias :
Airbus Industries (2002). Cross crew qualification. http://www.airbus.com.
Baberg T. W. (2001): Man-machine-interface in modern transport system from an
aviation safety perspective. Aerosp. Sci. Technol. nº 5: , pp 495-504.
Boeing (2002). Statistical Summary of Commercial Jet Airplane Accidents Worldwide
Operations 1959-2001. http://www.boeing.com
Campos L. (2001): On the Competition between Airbus and Boeing. Air & Space
Europe, Vol 3 nº 1/2.
Choo, C.W. and Bontis, N.: The Strategic Management of Intellectual Capital and
Organizational Knowledge. Oxford University Press. Oxford.
Daft, R.L. y Lengel, R.H. (1986): Organizational Information Requeriments, Media
Richness and Structural Design. Management Science, vol. 32, nº5, may. PP. 554571.
Dennett, D.C.(1996): Kinds of Minds. New York. Basic Books.
Gazendam (2001): Semiotics, Virtual Organisations and Information Systems.
Information, Organisation and Technology pp. 1-20. Kluwer Academic Publishers.
Boston.
Maturana H. and Varela F. (1998): The Tree of Knowledge. Boston: Shambala
Nevis, E.C., DiBella, A.J. y Gould, J.M. (1995): Understanding Organizations as
Learning Systems. Sloan Management Review, vol.36, nº 2, winter. PP. 73-85.
Rasmussen, J.(1986): Information processing and human-machine interaction: An
approach to cognitive engineering. North Holland, New York.
Reason, J.(1990): Human error. Cambridge. Cambridge University Press.
Reason, J.(1997): Managing the Risk of Organisational Accidents. Cambridge.
Cambridge University Press.
Varela, F. (1988): Conocer. Barcelona: Gedisa.
Walters, J.M. and Sumwalt III, R.L. (2000): Aircraft Accident Analysis. New York City.
McGraw Hill.
Winograd, T. and Flores, F. (1986): Understanding Computers and Cognition.
Indianápolis. Addison Wesley.
		656929662
	2003-09-01T19:27:26+0100
	Jose Sanchez-Alarcos
	I am the author of this document

Continuar navegando

Materiales relacionados