lunes, 10 de junio de 2013

Unidades de estado sólido. El reto de la computación forense en el mundo de los semiconductores



Introducción
Estamos ante una evolución acelerada de la humanidad, frente a una demanda sostenida de servicios de información e inmediatez en los mismos, que con frecuencia nos supera, una exigencia de actualización que genera cada vez más sobrecarga de información y por lo tanto, desborde en nuestra capacidad para procesar la misma.

En este sentido, se hace necesario contar con mejores alternativas para generar, procesar, almacenar, transportar, recuperar y disponer de manera eficiente datos e información. En consecuencia, las tecnologías de información y comunicaciones deben evolucionar y ofrecer nuevas propuestas que permitan estar a la altura de las demandas actuales y futuras, las cuales según informes recientes de Mckinsey (BUGHIN, CHUI y MANYIKA 2013), seguirá en aumento y generando mayores interpretaciones y analítica que claramente reclamará capacidad de procesamiento y almacenamiento.

Habida cuenta de lo anterior, las tecnologías de almacenamiento basadas en platos, brazos mecánicos y cabezas de lectura magnéticas, comienzan a llegar a su límite en cuanto a su velocidad y capacidad de almacenamiento. Con el surgimiento en los 90’s de las memorias USB, se abre la posibilidad de contar con medios de almacenamiento electrónico, con componentes que no se mueven y que se encuentran ajustados a tecnologías de almacenamiento basados en memorias NOR o NAND.

Este cambio de tecnología, nos lleva de la teoría de campos e impedancias magnéticas que se aferran a platos ferromagnéticos a la teoría del estado sólido, es decir, aquella donde las partículas está unidas por fuerzas de atracción grandes, que solo pueden moverse vibrando u oscilando alrededor de posiciones fijas, con una regularidad espacial geométrica, que dan lugar a diversas estructuras cristalinas ((?) 2005), para explicar una nueva forma de almacenar y mantener la información

En términos prácticos, las unidades de estado sólido son dispositivos híbridos que almacenan datos en una memoria de semiconductores conocido como memoria flash, sin partes mecánicas (sin cabezas móviles o discos giratorios) (BLOG Happy SysAdmin 2011). Estos poseen dos zonas de memoria, una en la que se guarda la información y otra que actúa de cache acelerando los accesos, muy parecida a la memoria RAM. (SÁNCHEZ IGLESIAS (?))

Como quiera que estos nuevos desarrollo tecnológicos, disminuyen las eventualidades que tiene los discos magnéticos: aumentan la capacidad de almacenamiento, tiene mayor resistencia a los golpes, un menor consumo de energía y rapidez en el acceso (pues no es susceptible a la fragmentación de los archivos) (idem), estamos ante una nueva forma de respaldar información que nos permite ser consecuentes con la eficiencia en el uso de los datos y la velocidad necesaria para suscribirse a nuevos servicios de información disponibles.

En este contexto, este documento busca comprender algunas de las características técnicas de las unidades de estado sólido, sus ventajas y limitaciones, así como los retos propios para los informáticos forenses que deben repensar sus procedimientos y análisis frente a este desafío tecnológico ahora basado en sistemas de archivos asociados con memorias flash y borrado intrínseco después de cada operación, entre otras características.
 
Las memorias flash (TAL 2002)
Las memorias flash fueron inventadas por el Dr. Fujio Masuoka mientras trabajaba para Toshiba en 1984. El nombre de "flash" fue sugerido por el investigador dado que el proceso de borrado de los contenidos de la memoria le recordó el flash de una cámara fotográfica. Los chips de memoria flash almacenan datos en un gran arreglo de transistores de puerta flotante (MOS) de metal-óxido-semiconductor. Las pastillas de silicio se fabrican con una dimensión microscópica de un transistor, que actualmente son de aproximadamente de 40 nanómetros. (OLSON y LANGLOIS 2008)

Las memorias flash son memorias no volátiles que puede ser borradas y reprogramadas en unidades de memoria llamadas bloques. Una operación de escritura en cualquier dispositivo de flash sólo se puede realizar en una unidad vacía o borrada, por lo que en la mayoría de los casos, una operación de borrado debe preceder a la operación de escritura. La operación de borrado es bastante sencilla para los dispositivos NAND, mientras que para los NOR, se requiere que todos los bytes del bloque de destino se escriban con ceros antes de que puedan ser borrados.

Dado que el tamaño de un bloque de borrado en dispositivos NOR oscila desde 64 hasta 128 Kbytes, una operación de escritura o borrado puede tardar hasta 5 segundos. Por el contrario, el uso de bloques de borrado de 8 a 32 Kbytes en un componente NAND realiza la misma operación en un máximo de 4 milisegundos.

Las diferencia de tiempo en las operaciones de escritura y borrado aumenta aún más la brecha de rendimiento entre los componentes NOR y NAND. Estadísticamente se adelantan más operaciones de borrado en las unidades con dispositivos NOR,
​​por cualquier conjunto de operaciones de escritura que se haga sobre este componente (sobre todo en la actualización de archivos pequeños). Por lo tanto, al seleccionar una solución de almacenamiento local, se deben considerar, al menos, los siguientes factores:
  • Las NOR leen un poco más rápido que las NAND.
  •  Las NAND escriben mucho más rápido que las NOR
  •  Las NAND eliminan mucho más rápido que las NOR - 4 ms frente a 5 s, respectivamente.
  •  La mayoría para escribir requiere una operación de borrado previo.
  • Las NAND tienen unidades de borrado pequeñas, por lo que necesitan borrar menos.
De otra parte, JONES (2008) detalla los retos actuales que tienen las memorias flash, que ponen de manifiesto las condiciones de operación de las mismas, frente a los usos previstos asociados con almacenamientos masivos e intensos en procesamiento. Los desafíos a resolver en estas memorias son la recolección de basura (bloques no válidos), el manejo de bloques defectuosos y el manejo del desgate físico del dispositivo.

La recolección de basura es el proceso de recuperación de bloques no válidos (los que contienen una cierta cantidad de datos no válidos). Dicha recuperación consiste en mover los datos válidos para un nuevo bloque, y luego borrar el bloque no válido para que esté disponible. Este proceso se lleva a cabo habitualmente como proceso en “background” o cuando sea necesario, si el sistema de archivos tiene poco espacio disponible.

Con el tiempo, los dispositivos de flash pueden desarrollar bloques defectuosos bien por el uso o incluso por fallas en su fabricación, que no pueden ser utilizados. Se puede detectar la presencia de bloques defectuosos al tratar de ejecutar una operación sobre la memoria flash y ésta falla,  como puede ser borrar o una acción de escritura no válida.

Una vez identificados los bloques dañados, se marcan en la memoria flash en sí en una tabla de bloques defectuosos. La forma de hacer esto depende del dispositivo, pero puede ser implementado con un conjunto seleccionado de bloques reservados gestionados por separado a partir de bloques de datos normales. Esta funcionalidad se implementa en el hardware por un microcontrolador interno y por lo tanto es transparente para el sistema de archivos de nivel superior.

Finalmente y no menos importante, es el manejo del desgaste físico del dispositivo. Para maximizar la vida útil de la memoria flash, se proporcionan algoritmos de nivelación de desgaste, los cuales pueden ser dinámicos o estáticos.

Los dinámicos abordan el problema de un número limitado de ciclos de borrado para un bloque dado. En lugar de utilizar bloques al azar, los algoritmos de nivelación de desgaste dinámicos intentan distribuir uniformemente el uso de los bloques.

De otra parte, los algoritmos de nivelación de desgaste estáticos enfrentan un problema aún más interesante. Además de un número máximo de ciclos de borrado, ciertas memorias flash sufren de un número máximo de ciclos de lectura entre los ciclos de borrado. Esto significa que si los datos se almacenan por mucho tiempo en un bloque y se lee muchas veces, los datos pueden disiparse y provocar la pérdida de los mismos. Algoritmos de nivelación de desgaste estáticos enfrentan esta situación moviendo periódicamente datos antiguos a nuevos bloques disponibles.

Sistemas de archivos para memorias flash
Para comprender cómo funcionan los sistemas de archivos en memorias flash, es preciso comprender la siguiente arquitectura interna de los dispositivos con memorias flash embebidas.

Sistema de archivos en memorias flash. (Tomado de: HU 2007)

El nivel de traducción de la memoria flash (Flash Translation Layer – FTL) es el controlador que funciona en conjunto con el sistema de archivos propio del sistema operacional para hacer parecer la memoria flash como si fuese un disco magnético. En primer lugar crea pequeños bloques de datos virtuales, diferentes de los grandes bloques de borrado que requiere la memoria para sus procesos internos como se vio previamente. Luego, gestiona los datos sobre la memoria flash como “asignados”, a pesar que internamente esté almacenado en diferentes lugares, para finalmente administrar los bloques limpios disponibles, así como los borrados para almacenar los datos. (INTEL 1998)
 
El FTL emula un dispositivo de bloques. En este contexto, aparece el componente flash como si fuese una matriz contigua de bloques de almacenamiento numerados de cero al número total de bloques menos uno. En consecuencia, FTL se convierte en una traducción nativa del sistema de archivos y la memoria flash. Esto es, FTL reasigna los datos en una posición física donde van a ser escritos, esto permite que el sistema de archivo trate al dispositivos con memorias flash como cualquier dispositivo de almacenamiento por bloques, ignorando las características propias de las flash.

En realidad lo que ocurre, es que FTL ubica los datos en una ubicación disponible o de borrado, señalando la localización real de los mismos. Es importante anotar que previamente, antes de escribir, invalida el bloque que previamente contenía los datos (si es del caso).

Como podemos ver, el controlador de traducción de la memoria flash, desarrolla las actividades propias de los sistemas de archivos, creando la ilusión requerida por el usuario final en el sistema de archivos, para tener acceso a la memoria flash. Así mismo, un error en la traducción puede generar una pérdida de datos o inconsistencias sobre el almacenamiento de datos, toda vez que este componente de software (algunas veces de hardware) es el que mantiene la consistencia de los datos almacenados en la memoria flash.

Unidades de estado sólido
Una unidad de estado sólido (Solid Disk Drive – SSD en inglés) es un elemento electrónico basado generalmente (a partir de 2010) en memorias flash NAND, el cual define un tipo de memoria no volátil diseñado como almacenamiento auxiliar. Todo este sistema es gobernado por un controlador, que establece un conjunto bloques de memorias NAND que actúan como un arreglo en miniatura, lo cual permite aumentar la velocidad de acceso, ya que es posible realizar varias lecturas y escrituras al mismo tiempo, haciendo que el dispositivo sea más resistente a fallos. (SÁNCHEZ IGLESIAS (?)).

Las unidades de estado sólido a diferencia de los tradicionales discos duros magnéticos, no tienen componentes mecánicos, ni tiempos de latencia de rotación, ni platos de almacenamiento basados en óxido ferroso, sino componentes electrónicos basados en memorias no volátiles que a través de controladores como el FTL, es posible interpretarlos como discos magnéticos para efectos de acceder a ellos de manera tradicional y natural.

A la fecha se advierten múltiples ventajas de estas unidades sobre los discos magnéticos dentro de las cuales se tienen: (BLOG Happy SysAdmin 2011)
  • Mayor rapidez de lectura, incluso 10 veces más que los discos duros tradicionales más rápidos gracias a arreglos internos de memorias en una misma unidad.
  • Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos.
  • Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más dependiente de la velocidad de lectura que de otros aspectos.
  • Menor consumo de energía y producción de calor, resultado de no tener elementos mecánicos.
  • Sin ruido: La misma carencia de partes mecánicas los hace completamente inaudibles.
  • Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy superior al de los discos duros.
  • Seguridad, permitiendo una muy rápida "limpieza" de los datos almacenados.
  • Rendimiento determinístico - a diferencia de los discos duros mecánicos, el rendimiento de las unidades de estado sólido es constante y conocido a través del almacenamiento entero. El tiempo de "búsqueda" es constante.
  • El rendimiento no se deteriora mientras el medio se llena. Son inmunes a la fragmentación propia de los discos magnéticos
  • Menor peso y tamaño que un disco duro tradicional de similar capacidad.
  • Son resistentes: soportan caídas, golpes y vibraciones sin estropearse y sin descalibrarse como pasaba con los antiguos discos duros, gracias a carecer de elementos mecánicos.
  • Borrado más seguro e irrecuperable de datos; es decir, no es necesario hacer uso del Algoritmo Gutmann para cerciorarse totalmente del borrado de un archivo.
No obstante lo anterior, estas nuevas unidades de almacenamiento presentan algunas limitaciones conocidas a la fecha que deben ser tenidas en cuenta frente al uso de las mismas, como advertencias que motiven acciones de seguridad y control frente la pérdida de datos que puede presentarse. Los principales inconvenientes son: (idem)
  • Alto costo por gigabyte almacenado. US$ 2 dólares por gigabyte frente a US$0,05-0,10 por gigabyte en los discos magnéticos.
  • El tiempo medio de vida entre fallos (Mean Time Between Failures): la longevidad de este tipo de unidades es más corto que el de disco duro estándar por el hecho de que el número de ciclos de escritura a cualquier celda de memoria es limitada y una vez que se han consumido su cuota para ese bloque, el disco empieza a ser poco fiable.
  • El tamaño de almacenamiento disponible en gigabytes. Es una situación que conforme evolucione la tecnología se irá superando
En consecuencia de lo anterior, las unidades de estado sólido serán los medios de almacenamiento auxiliar estándar a corto y mediano plazo, toda vez que los discos tradicionales presentan importantes limitaciones en velocidad, confiabilidad y latencia de acceso, que los dispositivos electrónicos basados en memorias NAND han superado ampliamente.
 
Retos de las unidades de estado sólido para la computación forense (WIEBE 2013)
Como quiera que las unidades de estado sólido, establecen bondades tecnológicas importantes relevantes para mejorar el desempeño del almacenamiento en general, muchas de ellas implican limitaciones importantes para adelantar investigaciones forenses en informática dado que, como hemos visto previamente cualquier operación de escritura en una memoria flash exige una acción de borrado previo.
 
De otra parte, como anota WIEBE (2013) el sistema operativo puede acelerar el funcionamiento de la unidad de estado sólido alertando sobre bloques potencialmente reutilizables mediante el uso del comando "TRIM". Este comando es una innovación reciente en la arquitectura de almacenamiento, que permite al sistema operativo indicarle al dispositivo de almacenamiento de estado sólido que un área particular del mismo está disponible para la limpieza y la reutilización. Por ejemplo, después que un archivo ha sido eliminado por el usuario, el sistema operativo le indicará a la unidad de estado sólido a través de "TRIM" el área que abarca el archivo eliminado. Después de recibir la orden de "TRIM", el SSD moverá el archivo al espacio reservado para provisión, donde finalmente será saneado y marcado para su reutilización.
 
Esto significa que a diferencia de los discos magnéticos donde se indicaba a través de una marca del sistema operacional la condición del espacio disponible o no asignado, en las unidades de estado sólido el comando “TRIM” elimina la capacidad de recuperar datos sobre los SSD, purgando los datos borrados antes que el sistema operacional llegue allí. (BELL y BODDINGTON 2010, REGAN 2009)

Por otro lado, tenemos las limitaciones propias del controlador FTL que puede ser utilizado por los atacantes para manipular la forma de acceso y distribución de los bloques de las memorias flash disponibles, pudiendo generar estrategias de ocultamiento de información como marcado de bloques defectuosos, fallas en los algoritmos de recolección de basura o lo que es peor, disminuir el tiempo de vida útil de las unidades de estado sólido, acelerando los ciclos de escritura sobre los bloques disponibles.

Un desafío adicional es el ejercicio del saneamiento profundo de los SSD, toda vez que los programas existentes de saneamiento de discos no son efectivos a la hora de entrar a fondo en los discos para eliminar la existencia de información allí disponible, dado que todo el tiempo se está moviendo información de bloques ocupados a bloques libres. Para ello se proponen variaciones del controlador FTL, con el fin de establecer funciones adicionales para borrado seguro que eliminan todos los restos de información en los bloques reservados de la unidad de estado sólido. (LEE, HEO, CHO, HONG y SHIN 2008; WEI, GRUPP, SPADA y SWANSON 2011; SHEWARD 2012)

Estas condiciones previamente establecidas, supone que las herramientas forenses actuales deben ser revisadas para identificar y analizar en detalle el funcionamiento de las unidades de almacenamiento de estado sólido, para comprender la nueva ilusión del sistema de archivos a través del FTL, entender que el borrado efectuado sobre este tipo de medios es irreversible por el saneamiento intrínseco de la tecnología para aumentar su velocidad y ahora sus sustentaciones técnicas no podrán basarse en la lógica de los discos tradicionales de cilindros, pistas y sectores, sino relacionadas con direcciones de bloques lógicos asociados con compuertas NAND, que de manera secuencial se asignan y liberan.

Reflexiones finales
Las unidades de estado sólido establecen una alternativa concreta para almacenamiento auxiliar que cada vez más se posiciona en el mercado de medios de respaldo de información, como una tecnología de alta velocidad, confiable y segura de tal manera que a pesar de su alto costo actual, comienza a desplazar los medios magnéticos tradicionales.

En este sentido, los investigadores forenses en informática deben comenzar a entender en profundidad esta tecnología toda vez que lo que conocen sobre medios de almacenamiento magnético, no podrá ser extrapolado a una tecnología basada en transistores de puerta flotante que almacenan información en celdas de único bloque o multibloque, donde los sistemas de archivo disponibles emulan la vista de un disco magnético tradicional para poder comprender la forma de registro de la información en el medio.

Así las cosas, los procedimientos de saneamiento, recuperación e imagen de discos actuales, deben repensarse a la luz de un avance tecnológico que para mantener su promesa de valor en velocidad y confiabilidad, debe mantener un conjunto de bloques lógicos de información disponibles para efectuar sus operaciones de escritura y borrado, que de hecho suponen actividades de saneamiento de bloques de información que claramente alterarán la integridad del medio, no por acciones no autorizadas, sino por la dinámica misma del dispositivo.

En consecuencia, los SSD representan bien una amenaza o una gran oportunidad para repensar la computación forense como quiera que exige de los peritos informáticos y/o especialistas en informática forense entrar en profundidad de esta nueva tecnología y comprender junto con los fabricantes, la forma como los avances en los semiconductores abren nuevas posibilidades para codificación de información, y que desde la vista de los sistemas de archivo, se puedan desarrollar alternativas que balanceen la necesidad de la trazabilidad de las acciones de los usuarios sobre los medios, así como la confianza y velocidad propia de éstos.

Si bien este documento, no pretende agotar la discusión científica ni las reflexiones prácticas alrededor de la práctica forense sobre los SSD, si busca motivar a todos los interesados para continuar indagando en las nuevas fronteras del conocimiento actual de las memorias flash, que no solamente están en las unidades de estado sólido, sino que cada vez más aparecen en medios inalámbricos, teléfono móviles, cámaras de video y fotografía digitales, así como en las nuevas consolas electrónicas, que están a la espera para continuar retándonos sobre esta realidad de componentes de silicio que supone una transformación y renovación de los profesionales e investigadores en informática forense.

Referencias
BELL, G. y BODDINGTON, R. (2010) Solid state drives: the beginning of the end for current practice in digital forensic recovery. The Journal of Digital Forensics, Security and Law. Vol 5. No. 3. Disponible en: http://www.jdfsl.org/subscriptions/JDFSL-V5N3-Bell.pdf (Consultado: 10-06-2013)
BLOG Happy SysAdmin (2011) Solid State Drives, some theory and a selection of videos. Disponible en: http://www.happysysadm.com/2011/07/solid-state-drives-some-theory-and.html (Consultado: 9-06-2013)
BUGHIN, J. , CHUI, M. y MANYIKA, J. (2013) Ten IT-enabled business trends for the decade ahead. Mckinsey Quarterly. May. Disponible en: http://www.mckinsey.com/insights/high_tech_telecoms_internet/ten_it-enabled_business_trends_for_the_decade_ahead (Consultado: 3-06-2013)
HU, Y. (2007) Estimating Flash Media Performance for Embedded Systems. Micro Digital. Disponible en: http://www.smxrtos.com/articles/whiteppr/flashperformance.htm (Consultado: 9-06-2013)
INTEL (1998) Understanding flash translation layer specification. Application note. Disponible en: http://staff.ustc.edu.cn/~jpq/paper/flash/2006-Intel%20TR-Understanding%20the%20flash%20translation%20layer%20%28FTL%29%20specification.pdf (Consultado: 9-06-2013)
JONES, M. T. (2008) Anatomy of linux flash file systems. Disponible en: http://www.ibm.com/developerworks/linux/library/l-flash-filesystems/ (Consultado: 9-06-2013)
LEE, J., HEO, J., CHO, Y., HONG, J. y SHIN, S. Y. (2008) Secure deletion for NAND flash file system. Proceedings of SAC’08 – 2008 ACM Symposium on Applied Computing. Disponible en: http://eoslab.ssu.ac.kr/pdf/2008-5.pdf  (Consultado: 10-06-2013)
OLSON, A. y LANGLOIS, D. (2008) Solid state drives. Data reliability and lifetime. Imation research document. Disponible en: http://www.csee.umbc.edu/~squire/images/ssd1.pdf (Consultado: 10-06-2013)
REGAN, J. (2009) The forensic potential of flash memory. Naval Postgraduate School. Unpublished Master Thesis. Disponible en: http://simson.net/clips/students/09Sep_Regan.pdf (Consultado: 10-06-2013)
SÁNCHEZ IGLESIAS, A. (?) ¿Qué es un disco duro SSD? Disponible en: http://computadoras.about.com/od/preguntas-frecuentes/a/Que-Es-Un-Disco-Duro-Ssd.htm (Consultado: 9-06-2013)
SHEWARD, M. (2012) Rock solid: Will digital forensics crack SSD? Infosec Institute Resources. Disponible en: http://resources.infosecinstitute.com/ssd-forensics/ (Consultado: 10-06-2013)
TAL, A. (2002) NAND vs. NOR flash technology. The designer should weigh the options when using flash memory. Disponible en: http://www.electronicproducts.com/Digital_ICs/NAND_vs_NOR_flash_technology.aspx (Consultado: 9-06-2013)
WEI, M., GRUPP, L., SPADA, F. y SWANSON, S. (2011) Reliably Erasing Data From Flash-Based Solid State Drives. Proceedings of 9th USENIX Conference on File and Storage Technologies. Disponible en: http://static.usenix.org/events/fast11/tech/full_papers/Wei.pdf (Consultado: 10-06-2013)
WIEBE, J. (2013) Forensic Insight into Solid State Drives. Digital Forensic Investigator. Summer. Disponible en: http://www.dfinews.com/articles/2013/05/forensic-insight-solid-state-drives (Consultado: 9-06-2013)

lunes, 3 de junio de 2013

La ventana de AREM. Una herramienta estratégica y táctica para visualizar la incertidumbre



Introducción
Muchos investigadores y ciudadanos pasan un tiempo importante pensando sobre el futuro, sobre las condiciones y riesgos que están por venir, sobre los nuevos retos que se van a plantear y la forma como deberemos enfrentarlos para alcanzar nuevas posiciones estratégicas en los mercados actuales y futuros.

Conocer el futuro es un problema complejo, pues exige saber que está pasando en la actualidad con certeza y ver entre líneas los aspectos emergentes, que pueden ser hoy sólo movimientos aparentemente pasajeros, pero que no dimensionamos sus alcances o factores que los puedan potenciar. Mucho del conocimiento que podamos tener del entorno no bastará para establecer un patrón de conocimiento emergente que pueda revelar el misterio lo que puede pasar en el mediano y largo plazo.

En este sentido, las organizaciones deben establecer estrategias que permitan cada vez más avanzar en el conocimiento de su entorno, buscando un recorrido perimetral completo que disminuya los puntos ciegos y aumentar su capacidad de anticipación, toda vez que es de esta forma como puede permanecer vigente y competitiva, aún frente a situaciones inesperadas.

Como quiera que el futuro, es una reflexión basada en escenarios aún por conocer o mejor, situaciones que ya pasaron y no las vimos, se hace necesario mantener en el radar una forma de afinar la revisión del medio ambiente empresarial y las situaciones propias de cada organización, con el fin de tener a la vista motivaciones y sugerencias que nos permitan ubicar los riesgos y amenazas emergentes más relevantes y poder actuar en consecuencia.

Habida cuenta de lo anterior, utilizando los conocimientos y estrategias fundadas en las relaciones humanas, asociadas con la forma de ofrecer retroalimentación, como lo es la Ventaja de Johari, instrumento ampliamente conocido en el ámbito social, buscaremos repensar los conceptos de amenazas y riesgos emergentes en el contexto empresarial, para ofrecer una nueva lectura de la Ventana de Johari, ahora como la Ventana de AREM (Amenazas y Riesgos Emergentes).

Entendiendo la Ventana de Johari
“Todos los seres humanos tenemos zonas abiertas, zonas ocultas, zonas ciegas y zonas desconocidas. Mientras más amplia sea la zona abierta, mayor es la apertura y transparencia que generamos cuando interactuamos con los demás. Estas diferentes zonas fueron detalladas por los psicólogos Joseph Luft y Harry Ingham, que denominaron la Ventana de Johari, como una estrategia para mejorar la comunicación a través de la cual una persona da o recibe informaciones sobre sí misma o sobre otras personas.

La idea de usar este instrumento es alertar y tratar las áreas ocultas y ciegas que son las que predominan en la relación interpersonal. El área oculta es aquella donde hay elementos desconocidos por los demás y conocidos por la persona, mientras el área ciega, es aquello que la persona no conoce, pero es conocido por los demás.” (CANO 2013)

 

Conocido por la persona
Desconocido por la persona
Conocido por los demás


AREA LIBRE


AREA CIEGA
Desconocido por los demás


AREA OCULTA


AREA DESCONOCIDA
Tabla No.1 La Ventana de Johari (Tomado de: FRITZEN 1987, pág. 9)

La ventana de Johari, detalla FRITZEN (pág.11), “trata de explicar cómo deben procurar tolerarse mutuamente las diferencias en las distintas áreas de nuestra personalidad, con el fin de mejorar las relaciones interpersonales, a través del conocimiento de uno mismo y de los demás. (…)”. Este instrumento abre la posibilidad para explorar campos desconocidos de nuestro propio entorno que lleven a una mayor expansión del área libre, donde podemos actuar y movilizarnos para hacer de nuestras relaciones con otros, fuentes de ventaja emocional y empresarial, donde podemos construir propuestas conjuntas y relaciones gana-gana que superen la lucha de egos y se privilegien la suma de talentos y voluntades.

Así las cosas, la ventana de Johari es una forma para aumentar nuestra transparencia en las comunicaciones, motivando la posibilidad de aprender con los otros y recomponer el campo de las zonas grises de las relaciones humanas, que en lugar de ser espacios para la confrontación y la contienda, se conviertan en oportunidades concretas y confiables para que surja la confianza, esa condición fundamental para hacer  que las cosas pasen.

Las comunicaciones entre empresa y entorno: riesgos, amenazas y oportunidades
Si bien la Ventaja de Johari es un instrumento propio de las ciencias sociales, pensar en su aplicación a nivel empresarial resulta algo extraño y hasta incómodo, toda vez que pensar en comprender la misma dinámica entre la empresa y el entorno, como una persona y un grupo, puede ser algo inicialmente inesperado, peligroso y retador.

En el mundo empresarial, los análisis de las oportunidades de negocio siguen modelos establecidos y condiciones particulares que generan informes tipo que responden más o menos a lo que los ejecutivos quieren escuchar o entender. Rara vez, los informes de los analistas de entorno sugieren elementos que no estén dentro de los parámetros propios de sus pronósticos, como quiera que hacerlo, implica compromiso de su credibilidad y debilitamiento de su imagen frente a las decisiones que los ejecutivos van a tomar siguiendo sus reflexiones.

Así las cosas, comprender el entorno empresarial y revelar los patrones de cambio que se avecinan, no es sólo un ejercicio de correlación de eventos y datos acumulados durante mucho tiempo, sino de lanzarse a ver aquellos “espacios en blanco” que sugieren los números, situaciones excepcionales, condiciones límites, manifestaciones impropias y frecuentemente peligrosas que permite a la empresa, cambiar las cosas y quebrar los lentes de su inercia sectorial, para superar sus temores frente a la competencia y crear una nueva realidad donde, como afirma REHN (2012, pag. 34), pocos se puedan aventurar y donde sus técnicas de navegación mental ya no sean aplicables.

En este contexto, mientras más sea el conocimiento de la empresa sobre sus capacidades y habilidades para comprometer y desestabilizar su entorno, mayor será su fortaleza para transformar su ambiente y revelar las nuevas condiciones, que cambien la manera de hacer las cosas. De igual forma, cuando somos capaces de profundizar en las variaciones del entorno y prever nuevos vectores de riesgos, estamos avanzando en una reflexión que le permite a la empresa anticiparse y caminar sobre las aguas inciertas, con la vista en el nuevo reto, que sabe que enfrentará y superará, pues ha visto sus manifestaciones invisibles y advierte sus posibles impactos.

Por tanto, ante este escenario retador y de permanente incertidumbre, se requiere, como afirma ÁLVAREZ DE MON (2009, pág. 18) “un carácter decidido y resuelto, curtido en multitud de ocasiones, enfrentado a dilemas críticos (…)” que permita a los ejecutivos de las empresas de hoy, reconocer en la inestabilidad de los mercados, esa forma natural de “sentirse perdido” como prerrequisito natural para encontrarse consigo mismo y descubrir su auténtica realidad, esa que está más allá de los ejercicios de planeación estratégica, que se esconde en la manera como la organización se relaciona con su propia realidad, sin entrar como afirma ÁLVAREZ DE MON (idem, pág.19) en un superávit de futuro que genere angustia e intranquilidad insoportable.

La ventana de AREM, una lectura de la incertidumbre en las relaciones empresa y entorno
Modelar las relaciones emergentes del entorno de negocio es una actividad que reta cualquier modelo de pronóstico disponible a la fecha, pues tratar de representar la realidad futura con escenarios, siempre tendrá la limitación de la variable que no se puede especificar. Sin embargo, tratar de establecer un marco general de amenazas y riesgos emergentes (AREM), puede ser una lectura que permita a las organizaciones clasificar mejor sus acciones y tratar de equivocarse de manera diferente, motivando un “pensamiento peligroso”, evoluciona desde los tradicionales riesgos conocidos hasta las propuestas con momentos y condiciones inesperadas y desconocidas que, al contar con suficientes enemigos o detractores (REHN 2012, pág.34), valga la pena el ejercicio de oposición y crítica.

Así como, la Ventana de Johari, es un instrumento que nos permite establecer estrategias para aumentar la zona libre, esa área de conocimiento mutuo y convergencia de informaciones entre el yo y los demás, se propone hacer una lectura equivalente entre la empresa y su entorno, con el fin de crear un instrumento que mantenga en la mira de los ejecutivos de la empresa, los diferentes tipos de riesgos y amenazas que debe atender si quiere mantenerse vigente en su entorno.

En este sentido, se plantea la Ventana de AREM, como una vista estratégica y táctica de actuación de los ejecutivos de la empresa, para comprender los aspectos conocidos y desconocidos de sus capacidades empresariales, en el contexto de aquellos riesgos y amenazas propias de su entorno, así como de los vectores de inestabilidades emergentes que deben identificar dentro y fuera de su realidad corporativa.

Siguiendo esta propuesta, se presenta a continuación la Ventana de AREM que establece las diferentes zonas de alcance de las amenazas y riesgos conocidos, focalizados, latentes y emeregentes como una forma de motivar el análisis de los ejecutivos y provocar las ideas que “en tiempos de guerra” permitan encontrar maneras de sobrevivir.


Conocido por la empresa
Desconocido por la empresa
Conocido por el entorno


AMENAZAS Y RIESGOS CONOCIDOS


AMENAZAS Y RIESGOS LATENTES
Desconocido por el entorno


AMENAZAS Y RIESGOS FOCALIZADOS


AMENAZAS Y RIESGOS EMERGENTES
Tabla No. 2. La ventana de AREM

Las amenazas y riesgos conocidos son las situaciones tradicionales que se presentan en la organización. Las típicas sesiones de riesgos que buscan comprender que acciones se adelantan frente a temas como fuga de información, errores y/o omisiones, multas y/o sanciones, pérdidas de imagen, acceso no autorizado, pérdida de liquidez, inestabilidad de mercados, entre otros que mantienen la operación de la empresa frente a condiciones que se sabe conocidas y que exigen acciones permanentes para mantenerlas bajo control y conocer qué hacer cuando alguno de ellos se materializa.

Las amenazas y riesgos latentes, son aquellas circunstancias que se advierten en el entorno y que son generalmente desconocidas en el contexto de negocio de las empresas. Dichas situaciones se manifiestan de manera frecuente y son detectadas por los analistas empresariales, sugiriendo patrones y condiciones particulares a través de la cual se pueden presentar. Su comportamiento es asimétrico y genera ruido e incertidumbre en el entorno, condiciones propias de una sorpresa predecible. Un ejemplo de esta realidad la podemos asociar con los patrones de comportamiento que se identificaron con la deuda inmobiliaria en los Estados Unidos de América que generó una crisis interna con afectación internacional, la cual se advertía en los análisis de los estudiosos de los mercados.

Las amenazas y riesgos focalizados, son situaciones propias de una industria o sector de negocio, que afectan la competitividad y posicionamiento de una empresa en un nicho específico. Son escenarios por lo general desconocidos en el entorno, pero conocidos por la empresa, dado que reconoce y sabe el comportamiento de su sector de negocio. Este tipo de amenazas y riesgos focalizados, deben instar a los ejecutivos de la empresa a estudiar de manera permanente los avances y novedades de su industria, para identificar nuevas formas de hacerlas cosas y crear los escenarios donde su empresa pueda movilizarse sobre las inestabilidades del sector y alcanzar una posición privilegiada.

Finalmente y no menos importantes, las amenazas y riesgos emergentes, esos momentos, ideas, propuestas de contextos que retan las capacidades de la empresa y privilegian más las posibilidades que las probabilidades. En este sentido, como afirman WESTERMAN y HUNTER (2009, pág.22) “las empresas responden de manera más eficiente a los riesgos que entienden, por muy impredecibles que sean, que a los que no entienden”. Así las cosas, situaciones como las amenazas persistentes avanzadas y los ataques ciberterroristas, las podríamos tipificar como condiciones básicas para pensar e investigar en escenarios aún no conocidos, que suponen per se cambios y destrucción.

Revisando la ventana de AREM: una lectura desde la inseguridad de la información
Los analistas de Mckinsey (BUGHIN, CHUI y MANYIKA 2013) establecen diez tendencias emergentes que transformarán la vida personas y empresarial en la próxima década. Dicha lista está conformada por las tecnologías sociales, aquellas que potencian la interacción de los individuos y organizaciones en la red; el uso de grandes volúmenes de datos y su respectiva analítica, con el fin de advertir patrones emergentes y relaciones desconocidas reveladas a través de los datos; el internet de las cosas, como una nueva realidad extendida de la red ahora en dispositivos cotidianos conectados a la red; la propuesta de “todo como un servicio” como una forma de estandarizar todo aquello que podemos hacer desde recursos compartidos y visibles en la red; la automatización del conocimiento, que potencia a los trabajadores del conocimiento, que aumente la productividad empresarial más allá de los patrones identificados en el ejercicio de la analítica de los datos; la potenciación del ciudadano digital, como factor diferenciador de un nativo digital informado y dispuesto a transformar la manera de hacer las cosas; el quiebre de las fronteras entre lo físico y lo virtual, como una renovación del espacio vital del ser humano, ahora con experiencias diferentes y aumentadas de su realidad; la personalización y simplificación de los modelos de negocio basados en la red, como una vista particularizada de intereses de los ciudadanos digitales, clientes de nuevos bienes y servicios; la creación de mercados electrónicos dirigidos por las tendencias de los nativos digitales que permiten la evolución de los sistemas pagos y logística en el entorno digital y finalmente no menos importante, los impactos de los avances tecnológicos en el gobierno, la educación y la salud, como forma de favorecer el producto interno bruto de las naciones que desean ser parte de la realidad de un mundo en línea y con límites desconocidos.

Revisando cada una de estas tendencias encontramos un común denominador en cada una de ellas. Un elementos que permite cohesionar cada una de ellas y diferenciarlas al mismo tiempo. Una fuente de oportunidades y riesgos propios que busca crear una sensación de exclusividad para todos aquellos que participan de un entorno digital, altamente interconectado, con información instantánea y ahora en la nube. La información se convierte entonces, en palabras de un académico colombiano, en el nuevo “petróleo del siglo XXI”, una materia prima que está en capacidad de generar valor para aquellos que logran transformarla en activos valiosos, por los cuales otros están dispuestos a pagar.

Habida cuenta de lo anterior, es a través de la información como las empresas logran superar sus miedos o potenciar sus temores. Es la forma como cada una de ellas es capaz de tratarla, lo que hace que algunas se ubiquen en lugares privilegiados y otras no. Por tanto, su inadecuado tratamiento puede llevar a situaciones delicadas que deterioran su capacidad de anticipar las amenazas y riesgos que afecten su operación o lo que es peor, comprometan su futuro.

En razón con lo anterior, se hace necesario pensar de manera diferente frente a los análisis de riesgos relacionados con la seguridad de la información y motivar un ejercicio desde la Ventana de AREM que “luche contra las tendencias profundamente arraigadas de nuestro pensamiento” (REHN 2012, pág.64) para abrirle las puertas a las posibilidades, considerando, como afirma TRUMP y KIYOSAKI (2013, pág.206) tanto a la empresa como su entorno “tu propia escuela de negocios y programa de desarrollo personal”.

La ventana de AREM leída en clave de la inseguridad de la información, es una herramienta de pensamiento lateral (DE BONO 2006), que deben ser animada por el cuestionamiento de las suposiciones, hacer las preguntas correctas, intentar nuevos marcos o puntos de vista (aún suenen descabellados) y motivar un análisis lógico y disciplinado del razonamiento que interrogue la solución cómoda y conocida, para entender aquello que está en el campo de las posibilidades y no en el de las probabilidades.

Reflexiones finales
Anota ÁLVAREZ DE MON (2009, pág.18) “las cumbres del espíritu humano han sido conquistadas a base de ensayo y error. (…) un itinerario que dista mucho de ser sencillo. (…)”, palabras que recogen muy bien las reflexiones que se han planteado alrededor del ejercicio de tratar de aventurarnos en las aguas de la incertidumbre. No podemos negar que nuestro conocimiento finito e incipiente de la realidad nos margina muchas veces de nuevas oportunidades para crear activos claves que representen valor y beneficio para un tercero.

Sin perjuicio de lo anterior, existen iniciativas que buscan enfrentarse al reto de entender las condiciones del entorno, aun sabiendo que para sobrevivir en un sector de negocios, se requiere como afirma TRUMP y KIYOSAKI (2013, pág.228-229) “aprender de distintos temas y hacerlo con rapidez”, so pena de ser arrasados por la constante variación de los mercados y de los sectores de negocio. En este sentido, la ventana de AREM, es una propuesta novedosa que busca motivar a los ejecutivos para pensar sobre aquello que conocen y desconocen, una apuesta para detallar y profundizar la misión empresarial que los moviliza para crear las condiciones de operación que les permita “caminar sobre las aguas” de la inestabilidad y no morir en el intento.

De igual forma, la ventana de AREM es una forma de nunca subestimar las condiciones asimétricas de la inseguridad de la información, sino más bien, de pensar en los detalles que implican su entendimiento, la mente de los atacantes, las relaciones propias entre la tecnología, los procesos y las personas, las vulnerabilidades latentes, que no marginan el conocimiento de los actores de la organización, sino que potencian sus reflexiones para crear un vitrina de aprendizaje y desaprendizaje que hablan de una empresa resistente a la fallas no por excepción, sino por convicción.

Si en el ejercicio de proteger los activos de información de la empresa, los ejecutivos y el responsable de seguridad se concentran en los mecanismos de prevención y control, no estarán actuando en el escenario real de su entorno y el ejercicio de la ventana de AREM será marginado a listas de chequeo que no desarrollarán su capacidad preventiva. Mientras, si estos actores se enfocan en el conocimiento abierto y concreto de su escenario de amenazas y riesgos emergentes, con una vista diligente y creativa, estaremos creando un activo intangible de protección que está más allá de una estrategia de seguridad de la información, una capacidad de actuación que moviliza decisiones sencillas y ejecutables.

Recuerde que en la era de la información y el conocimiento, afirman TRUMP y KIYOSAKI (idem, pág.253) “no es la velocidad de las líneas de ensamblaje la clave del éxito, sino la velocidad y la alta calidad con que el pensamiento humano trabaja para alcanzar un objetivo común”, por tanto que la ventana de AREM, se transforme poco a poco en esa forma de ver en el margen de las hojas y la excusa para detectar los detalles que hacen la diferencia, cuando nuestro pensamiento insista en retornar a su zona de confort.

Referencia
TRUMP, D. y KIYOSAKI, R. (2013) El toque de Midas. Por qué algunos empresarios se hacen ricos, pero la mayoría no. Ed. Aguilar.
FRITZEN, S. (1987) La ventana de Johari. Ejercicios de dinámica de grupo, de relaciones humanas y de sensibilización. Sal Terrae.
BUGHIN, J. , CHUI, M. y MANYIKA, J. (2013) Ten IT-enabled business trends for the decade ahead. Mckinsey Quarterly. May. Disponible en: http://www.mckinsey.com/insights/high_tech_telecoms_internet/ten_it-enabled_business_trends_for_the_decade_ahead (Consultado: 3-06-2013)
ÁLVAREZ DE MON, S. (2009) Incertidumbre, hábitat natural del directivo. IESEInsight. No.1. Segundo trimestre.
WESTERMAN, G. y HUNTER, R. (2009) Hable un idioma común sobre el riesgo en TI. IESEInsight. No.1. Segundo trimestre.
REHN, A. (2012) Ideas peligrosas. Cuando el pensamiento provocador se convierte en el activo más valioso. Pearson.
CANO, J. (2013) Comunicación con DIOS. Frase de la Semana. Disponible en: http://frasedelaseman.blogspot.com/2013/05/comunicacion-con-dios.html (Consultado: 3-06-2013)
DE BONO, E. (2006) El Pensamiento Lateral. Editorial Paidós Ibérica S.A.