Últimamente en mi viaje diario a la oficina, he estado escuchando libros por audio. En los últimos días he estado leyendo – escuchando – Flash Boys de Michael Lewis.
El libro explica cómo los operadores de “alta frecuencia” en los mercado de valores – sistemas muy complejos – se adelantan (“front running”) a las órdenes de compra por millonésimas de milisegundos. “front running” es como tocar el hombro derecho de la persona frente a ti en la fila para comprar el pescado, y en el nano-segundo antes de que ella se dé la vuelta, colarse por el otro lado, agarrarle el papelito con su pedido, comprar el medio kilo de salmón, darse la vuelta y vendérselo por un precio más alto sin que ella tenga la más mínima idea de qué acaba de pasar.
Todo en un nano segundo porque esta transacción tiene lugar en el ciber espacio donde los sistemas de transacciones de las bolsas es una compleja maraña de millones de órdenes simultáneas.
En el libro hay una excelente discusión sobre cómo fallan los sistemas complejos. Una de las referencias que cita es un artículo corto (parece más un Powerpoint que un artículo académico) que enumera 18 formas en que los sistemas complejos pueden fallar.
Creo que complementan muy bien los debates sobre complejidad y economía del desarrollo que Owen Barder ha estado teniendo en su blog (los números 7 y 8 me parecen particularmente convincentes):
- Los sistemas complejos son sistemas intrínsecamente peligrosos.
- Los sistemas complejos están fuertemente y exitosamente defendidos contra el fracaso.
- Una catástrofe requiere múltiples fracasos – los errores puntuales no son suficientes ..
- Los sistemas complejos contienen mezclas cambiantes de fallas que están latentes en ellos.
- Los sistemas complejos funcionan en modo degradado.
- La catástrofe está siempre a la vuelta de la esquina.
- La atribución post accidente a una sola causa raíz es fundamentalmente un error.
- La mirada retrospectiva sesga las evaluaciones ex post de la actuación humana.
- Los operadores humanos tienen doble función: como productores y como defensores frente al fracaso.
- Todas las acciones de los participantes son apuestas
- Las acciones en el filo del extremo resuelven toda ambigüedad.
- Los participantes humanos son el elemento adaptable de los sistemas complejos.
- El conocimiento humano en los sistemas complejos está en constante cambio
- El cambio introduce nuevas formas de fracaso.
- Tener puntos de vista de una “causa” limita la eficacia de las defensas contra futuros eventos.
- La seguridad es una característica de los sistemas y no de sus componentes
- Las personas crean continuamente seguridad.
- Las operaciones sin falla requieren de experiencia con el fracaso.
Mauricio Coronado Dice
Que sistema más complejo que el mismo universo. Si a eso le agregamos intervenciones sin pies ni cabeza … “la catástrofe está siempre a la vuelta de la esquina”
cheulrico Dice
Gracias, Francisco, por compartir tus reflexiones sobre sistemas complejos.
El uso de la palabra fracasar me suena un poco duro aplicando a sistemas complejos, y sobre todo, en relación de nuestras intervenciones en ellos. Sugiero que hablemos mas de errar o equivocarse, lo cual estaría en sintonía con la idea de aprender de los errores.
En sistemas complejos se supone que no podemos entenderlos por un análisis de experto, sino estos sistemas revelan sus características a través de prueba y error.
Lo importante es que nuestros experimentos sean cuidadosos que su error no dañe o incluso destruye el sistema mismo. Así buscamos intervenciones que nos permiten errar con cuidado (“safe to fail”) en vez de buscar intervenciones totalmente seguras(“failsafe”).
En tender el desarrollo como un sistema complejo parece mucho más realista que la idea convencional de un objecto lineal y planificable. Así intento de “fracasar” más, para explorar y finalmente cambiar el al sistema.
Vean también systemic-insight.com/
Sds, Ulrich