De acuerdo con Oracle, para poder comprender este concepto, primero es necesario entender algunos precedentes históricos. En 2001, Gartner lo definió como “Datos que contienen una mayor variedad y que se presentan en volúmenes crecientes y a una velocidad superior. Esto se conoce como ‘las tres V’”.
¿Cómo está conformado el Big Data?
Es decir, el Big Data está conformado por conjuntos de datos de mayor tamaño y de más complejidad, básicamente provenientes de nuevas fuentes de datos. Dichos conjuntos son tan voluminosos que un software de procesamiento convencional, no puede administrarlos.
Sin embargo, esta gran cantidad de información puede utilizarse para plantear problemas organizacionales, que hasta hace algunos años, no hubiera sido posible solucionar.
El óptimo manejo de esta magna cantidad de datos puede representar una ventaja competitiva para las empresas, ya que les permite revolucionar la atención a sus clientes, la forma en que brindan sus servicios e incluso, se pueden transformar sectores enteros de la actividad del ser humano.
Las 7 Reglas para potenciar The Big Data Analytics:
Pero, ¿cómo se pueden maximizar los resultados de esta valiosa herramienta? Al respecto, McKinsey & Company comparte lo que ha denominado “7 reglas de oro” para que la industria y organizaciones, en general, puedan gozar de sus beneficios.
Regla #1. Comenzar por lo simple y con los datos existentes
Es cierto que el alcance del Internet de las Cosas (IoT) en diversas industrias, como por ejemplo, la manufacturera, ha entusiasmado a instalar miles de sensores de bajo costo en sus operaciones. Y aunque la idea es, innegablemente valiosa, la experiencia demuestra que la mayor cantidad de datos que se producen actualmente, no son utilizados.
Analytics sencillos y correctamente implementados, pueden generar un importante valor en el corto plazo para los productores. Estos buenos resultados motivan a los trabajadores, siendo más factible su colaboración. En conjunto, lo anterior fortalece una cultura de decisiones basadas en datos.
Por ejemplo, digitalizar la gestión del desempeño usando visualización en tiempo real de datos sobre rendimiento de personas y máquinas requiere una inversión mínima de recursos, dado que utiliza soluciones simples y fáciles de implementar. Pero, a pesar de esa simplicidad, los resultados cuantificados pueden servir como un primer paso lograr mejoras rápidas y el compromiso de los ejecutivos con los cambios.
Regla #2: Capturar los datos correctos, no simplemente más datos
El objetivo del Big Data es poseer datos correctos, más que el tener grandes cantidades de ellos.
Por ejemplo, una compañía del sector de materiales básicos invirtió varios millones de dólares en un sistema de fabricación “inteligente” que daba seguimiento a más de un millón de variables. Sin embargo, cuando la compañía analizó 500 etiquetas de datos del sistema, correspondientes a un caso de uso específico, se percató que la mitad de ellas contenían información incompleta o duplicada.
Otro 25% de los datos fue descartado por un panel de expertos en procesos y científicos de datos, por no ser aptos para el análisis. Posteriormente, en la fase de análisis exploratorio, la compañía identificó que 20 variables críticas (incluida una variable dependiente clave) no estaban siendo medidas, lo que impedía un análisis predictivo preciso. Esto derivó en la instalación de sensores adicionales en la planta y, además, la compañía empleó analytics para proveer de herramientas críticas de soporte para decisiones a los ingenieros de procesos, como primer paso y así, mejorar el rendimiento el 1%.
Regla #3: No dejar que la búsqueda de la perfección final impida avanzar en el corto plazo
Es verdad que para obtener el máximo valor de los analytics avanzados empleados a IoT (Internet de las Cosas) es necesario invertir en tecnología. A pesar de esto, no es necesario que las organizaciones se paralicen esperando la conclusión de largos proyectos de TI. También, las pequeñas inversiones pueden gestar un gran valor.
Una opción es crear un “lago de datos” o lo que es lo mismo, un mecanismo flexible para integrar la información en toda la empresa y sin necesidad de una centralización total.
Si bien estos mecanismos requieren un sólido sistema regulador y de rendición de cuentas (en cuanto a la definición y la calidad de los datos), también es un hecho que contribuyen a democratizar el acceso a ellos.
Tradicionalmente, los lagos de datos brindan información a diferentes grupos de usuarios, ya sea permitiendo el acceso a información sin procesar o, a través de la extracción de datos, misma que da acceso a estructuras de datos predefinidas.
La metodología necesaria para implementar analytics, evidencia la necesidad de una arquitectura de TI alternativa. La experimentación y la exploración analíticas requieren de métodos de desarrollo Agile de software, con ciclos de lanzamiento diarios o semanales. Habitualmente, esta corta frecuencia representa un desafío para los procesos de TI y la infraestructura de datos existentes.
La solución para ello, es una infraestructura de TI y datos paralela de “alta velocidad”, que por lo general, consistente en un sistema basado en la nube, la que brinda una variedad de entornos de implementación y bases de datos personalizables.
Los lagos de datos y las soluciones en la nube facilitan un comienzo más rápido para las iniciativas analíticas, y permiten a las compañías desarrollar, probar e implementar ágilmente nuevos casos de uso. Esto ayuda a la producción de la prueba de concepto necesaria, previa al despliegue de las nuevas soluciones. Asimismo, es una manera valiosa de formar el “músculo” analítico de la organización.
Regla #4. Enfocarse en los resultados, no en la tecnología
Para realizar una inversión en productos y soluciones digitales, primero hay que conocer la forma en cómo impactarán a la organización. Para ello, un enfoque basado en casos de uso, puede ser de gran utilidad para visualizar de forma más clara y así, prevenir cualquier inconveniente.
Algunas preguntas básicas que se pueden elaborar son:
¿Qué resultado se busca para el negocio? ¿Se trata de una nueva oportunidad comercial, de reducción de costos o una mejora de la capacidad de innovación? ¿Cuáles son los criterios de valor? ¿En qué hay que enfocarse: en ahorrar energía, volver más eficiente el mantenimiento, utilizar mejor los activos, reducir el inventario, aumentar la producción?
¿Qué requerimientos técnicos debe cumplir el enfoque propuesto para poder extenderlo al resto de la organización? ¿Son necesarias nuevas fuentes de información? ¿Cómo se integrará la solución a los sistemas de TI existentes? ¿De qué manera se puede administrar en forma segura el mayor volumen de datos? ¿Qué técnicas analíticas se utilizarán? ¿Qué nuevos tableros de control son necesarios? ¿Cómo se acoplará el nuevo enfoque con los procesos existentes? ¿Quiénes utilizarán el nuevo sistema? ¿Qué comportamientos y procesos de decisión es necesario modificar para convertir los conceptos analíticos en resultados concretos para el negocio?
En conjunto, todos estos cuestionamientos pueden dar un panorama mucho más amplio para la toma de decisiones, al momento de decantarse por alguna opción tecnológica.
Regla #5. Buscar valor en el conjunto de actividades y dentro de cada una de ellas
Es cierto que los métodos basados en analytics avanzados se han utilizado exitosamente en una gran diversidad de actividades que se efectúan dentro de una planta de producción. Gran parte del valor de la digitalización radica en cómo colaboran a cerrar las brechas existentes entre diseño y fabricación, entre fabricación y red de abastecimiento y, por último, entablando una relación con el usuario final.
Hay registros de casos de éxito, por ejemplo, con fabricantes de maquinaria especializada que, recientemente, realizaron un “diagnóstico del hilo digital”, con el que se identificaron mejoras de productividad de alrededor de $300 millones de dólares, los cuales podrían generarse con un mejor flujo de datos entre diseño y fabricación, gestión del desempeño en tiempo real y otros aspectos similares.
Como sucede en cualquier tipo de innovación o cambio, es necesario planificar para tomar decisiones que redunden en beneficios para la organización y en el cumplimiento de los objetivos de la misma.
Regla #6. Evitar la trampa del “piloto”
Una prueba piloto es un recurso muy eficiente y valioso para demostrar la utilidad de la analítica avanzada, ayuda a impulsar la toma de decisiones y promueve la aceptación.
Sin embargo, obtener este valor requiere escalar dicho enfoque a toda la empresa, lo cual es difícil, y en caso de no lograrlo, los partidarios se convertirán en detractores, muy rápidamente.
Por lo tanto, los líderes deben pensar detallada y cuidadosamente en cómo permear los beneficios del uso de este tipo de herramientas y el impacto positivo que pueden tener.
¿Cuáles son algunos de los errores más comunes que se pueden realizar en este cometido? Listaremos los más comunes:
- Enfocarse en la tecnología o en la metodología, en lugar de la verdadera fuente de valor: para ello es necesario empezar por la verdadera fuente de valor, que generalmente, son las necesidades del usuario o cliente. Una herramienta de software casi nunca es la solución absoluta; además, la selección de la tecnología adecuada depende del universo de casos de uso que la compañía decide ejecutar.
- Resolver un solo caso de uso a la vez: esto generará decisiones que, en un momento dado, pueden afectar la escalabilidad a futuro. Algunos requerimientos técnicos clave para alcanzar escala incluyen una arquitectura operacional y analytics avanzados, como lagos y capas de búsqueda de datos, sumadas a plataformas de IoT (Internet de las Cosas), herramientas de digitalización y, un conjunto de recursos y técnicas de modelado.
Al momento de evaluar las necesidades de su plataforma, las compañías deben tener en cuenta cinco factores:
1. El entorno de la aplicación y la conectividad de la plataforma a la infraestructura de TI existente
2. La capacidad de la plataforma para ingerir flujos de datos variables a alta velocidad y de proveer contexto para esos datos
3. Su compatibilidad con la estrategia de la nube empresarial
4. Las cuestiones relacionadas con la soberanía y la seguridad de los datos
5. La capacidad de la plataforma para procesamiento y control cerca de la fuente, en lugar de hacerlo solo centralmente.
- Celebrar logros prematuramente: las organizaciones deben visualizar todo el proceso, más allá de los elementos técnicos requeridos para alcanzar escala y de una única prueba de concepto. Aspectos sobre gobierno de datos, como dominios, elementos de datos críticos, modelos de rendición de cuentas y definiciones de roles pueden presentar cuestionamientos complejos a nivel organizacional y de personal, en especial con relación a los puestos analíticos y técnicos a crear.
Asimismo, los insights generados mediante analytics deben integrarse a los flujos de trabajo existentes, muchas veces con cambios en los procesos de negocios. - Acertar con la solución técnica, pero olvidarse de las personas: Los analytics pueden ayudar a identificar la respuesta correcta, pero para lograr impacto, es necesario que las personas cambien su forma de actuar. El aprovechar oportunidades digitales es algo que debe realizarse en equipo, ya que exige una colaboración estrecha e interfuncional.
Un equipo de personas con amplio conocimiento de procesos, habilidad analítica y experiencia en TI debe trabajar en conjunto para estructurar el problema, traducir un problema de negocios en uno analítico, y definir el sistema más apropiado así como los requerimientos técnicos desde una perspectiva de TI.
Interpretar el producto analítico en una plantilla capaz de ser utilizada por un empleado y modificar las conductas de los operarios para aprovechar la nueva información, requiere conocimiento de factor humano, diseño persuasivo y experiencia en la gestión de cambios.
En algunos casos, es útil crear un nuevo rol (traductor digital) en la implementación de conocimiento de procesos, ciencia de los datos y TI, para reunir a los equipos de todas las funciones y dirigir el esfuerzo analítico desde el concepto hasta lograr impacto real.
Para evitar estos errores, las empresas requieren una metodología bien estructurada para administrar las decisiones analíticas y con ello, identificar y gestionar casos prácticos con los que se construirá la base tecnológica más eficaz.
Luego de seleccionar un caso práctico, la compañía debe planificar, probar, escalar e incorporar consecuentemente el análisis de datos a sus procesos rutinarios, gestionando los cambios y desarrollando capacidades a gran escala.
Regla #7. Desarrollar las capacidades
La aplicación de Big Data a gran escala, también requiere de cambios en la organización. Por ejemplo, los negocios deben definir su estrategia de talento a medida que surgen nuevos roles y planes de carrera.
En el futuro cercano habrá una fuerte demanda de científicos de datos, equipos de TI Agile, y diseñadores de experiencia del usuario (UX), que tendrán un relevante papel para dar soporte al uso del análisis en el mundo real.
Un diseño persuasivo creado con participación del personal, frecuentemente suele ser la clave para lograr altas tasas de adopción de las soluciones analíticas. En línea con esta postura, los profesionales en UX deben involucrarse desde el momento en que un caso de uso es diseñado, en lugar de limitarse a aplicar una interfaz visual después de que la solución ha sido construida en su mayor parte.
Asimismo, las empresas necesitan “traductores” (colaboradores con múltiples habilidades y aptos para conducir el proceso completo). Deben contar con un profundo conocimiento del negocio y la capacidad para intervenir en el flujo de trabajo de los equipos de operaciones y mantenimiento. Deben dominar las técnicas analíticas y estar en condiciones de cuestionar a los científicos de datos, poseer sólidos conocimientos de sistemas de TI y design thinking, así como saber cómo comunicar el impacto al equipo de liderazgo.
Sin duda, éste es un perfil complejo y difícil de encontrar. Adicionalmente a estos roles internos, resulta prioritario contar con una buena estrategia de colaboración. Hay un boom de grandes compañías y start ups con sólidas capacidades de IoT. Las más exitosas explotarán propuestas de valor innovadoras y se asociarán en áreas que las ayuden a acelerar su potencial.
The Big Data representa, indudablemente, una enorme oportunidad para las organizaciones. Es solo cuestión de permanecer atentos a todos los cambios que se dan en el entorno, a seguir ponderando el papel de las personas y de saber cómo otras innovaciones tecnológicas pueden ayudarnos a ser aún más competitivos.
Fuentes de Consulta:
Definición de big data. (s/f). Definición de big data. Oracle. Recuperado de:
https://www.oracle.com/mx/big-data/what-is-big-data/#:~:text=Dicho%20de%20otro%20modo%2C%20el,convencional%20sencillamente%20no%20puede%20administrarlos.
Kelly, R., Narayanan, S. y Patel, M. (Septiembre 15, 2017). Siete reglas para transformar los “analytics” en grandes resultados. McKinsey & Group. Recuperado de:
https://www.mckinsey.com/business-functions/operations/our-insights/seven-rules-for-spinning-analytics-straw-into-golden-results/es-ES#
Big Data Analytics. Convirtiendo los datos en valor. (s/f). Big Data Analytics. Convirtiendo los datos en valor. ITI. Recuperado de: https://www.iti.es/techtransfer/big-data/