José Luis Zurita Escobar
CEO en AK Consulting
En 1999, una película nos tomó por sorpresa, planteando la posibilidad de vivir una realidad alterna creada por las computadoras. Matrix, la trilogía de las ahora hermanas Lana y Lilly Wachowski, nos mostraba una serie de números, letras, caracteres japoneses y otros símbolos como una forma de acceder a esta nueva realidad. Curiosamente, esa simbología color verde en las pantallas bien podría definir algo que está en boca de todos actualmente: big data.
Hoy todo mundo habla de big data. Que si es bueno para hacer crecer a los negocios. Que si utilizando big data la empresa logrará conocer mejor al cliente. Incluso que si es el primer paso antes de la inteligencia artificial. La realidad es que los datos son parte esencial de nuestra vida diaria, dentro y fuera de internet.
Recordemos que, en Matrix, Neo –el personaje principal– es introducido a otra realidad y por medio de datos logra “aprender” cosas que le son útiles a lo largo de la saga. Sin embargo, para entender cómo es su realidad, Neo debió consolidar los datos. De igual manera, las empresas aprenden de sus necesidades a partir de aquella información que le resulta útil. Ésta se almacena en servidores y es procesada por software que ayuda a las empresas a encontrar la manera más rápida para utilizar esos datos, de la misma forma que Matrix creaba escenarios.
Si revisamos las noticias, el planteamiento de absorber conocimiento de manera digital ya no es solamente un elemento de ciencia ficción. Un grupo de científicos del Laboratorio de Ciencias de Sistemas en California, USA, desarrollaron una forma de amplificar el aprendizaje imitando los métodos de Matrix. En la película, Neo “recibe” directamente en su cerebro una serie de habilidades en tan sólo unos segundos. Los científicos de California han replicado este proceso, estudiando las señales eléctricas en el cerebro de un piloto entrenado, y alimentando datos en una persona no calificada a través de un artefacto que se coloca en contacto con el cuero cabelludo y transmite señales eléctricas, en la misma zona del cerebro del piloto del cual extrajeron los pulsos electromagnéticos.
En este contexto, el valor ya no reside en quién tiene la información, pues ésta se encuentra al alcance de todos; el valor radica en qué se hace con dicha información. ¿Cómo pueden las empresas explotar la gran cantidad de datos existentes, tanto al interior de su empresa como en el mercado?
Creando mejores experiencias a partir de los datos
Big data, o los grandes volúmenes de datos, es un término que describe cualquier cantidad voluminosa de datos estructurados, semiestructurados y no estructurados, que tienen el potencial de ser extraídos para obtener información. A este respecto Gartner, la consultora de tecnologías de información, define que los datos no estructurados son aquellos que no pertenecen a un modelo no definido o específico. Incluso estima que el 80 por ciento de los datos son no estructurados, como el cuerpo de un correo. En pocas palabras, los datos no estructurados son aquellos que no caben en una base de datos. Por su parte, los datos estructurados son aquellos que pueden ser ingresados en una base, como: fecha, hora, nombres, cuentas de correo, números, etc. En pocas palabras, hay un sinfín de fuentes de datos que producen información nueva cada minuto.
¿Qué pueden hacer las empresas para tomar ventaja de tanta información? ¿Y cómo pueden extraer únicamente los datos que necesitan de entre el océano de datos?
Actualmente, la adopción de soluciones de big data permite que las compañías ocupen datos para su beneficio. Para lograrlo, primero hay que considerar las tres Vs de big data: el Volumen extremo de datos, la gran Variedad de tipos de datos y la Velocidad a la que se deben procesar dichos datos.
Volumen de datos. La organización debe poder extraer un conjunto de datos de entrenamiento que pueda analizarse rápidamente utilizando los diferentes algoritmos candidatos, pero también uno que refleje adecuadamente el conjunto completo de datos. Su organización debe contar con suficientes datos para representar correctamente las incidencias reales, a la vez que considera todos los escenarios posibles para los resultados que está buscando.
Variedad de datos. Conforme los datos no estructurados se vuelven esenciales para los procesos de negocio, se convierten en fuentes necesarias para los modelos predictivos. Esto significa que una empresa debe tener un conjunto de procesos sólidos para escanear, analizar y contextualizar datos no estructurados y transformarlos en conjuntos de datos que alimenten los algoritmos de analítica.
Velocidad de los datos. Cada vez más rápido se reciben grandes cantidades de datos y a menudo no se puede predecir cuándo podrían cambiar, lo que forzaría una necesidad casi continua de creación y preparación de perfiles de datos. La necesidad de grandes velocidades de datos requiere una potente infraestructura de cómputo, capaz de procesar rápidamente grandes volúmenes y variedades de datos sin sobrecargar los servidores. Esto puede requerir cientos o miles de servidores para distribuir el trabajo y operar de manera colaborativa. Pero la computación en la nube ofrece alternativas para el almacenamiento y análisis de datos, de forma que las empresas puedan implementar proyectos de big data sin impactar su propia infraestructura.
En resumen, al planear una estrategia de big data que le permita obtener información útil para la toma de decisiones que definirán las estrategias de su negocio, se deben contemplar los siguientes pasos: consolidación de datos, segmentación, elaboración de reportes, comparación de resultados contra información histórica, toma de decisiones. Y de ahí, volver a empezar, realizando los ajustes necesarios en la segmentación de datos para obtener los reportes que arrojen los resultados deseados.