Repensar la inteligencia de la empresa

Por Dan Vesset: IDC, Vicepresidente del Grupo, Analítica y Gestión de la Información

En una reciente llamada de ganancias trimestrales, el director general de una importante cadena de restaurantes dijo que su compañía está utilizando su tecnología de "tipo de lógica de decisión" para desplegar nuevas recomendaciones de ventas a los clientes en todos los lugares y canales. El CEO de un banco japonés acreditó la disponibilidad de una mayor inteligencia de sus procesos con el beneficio de crear 1 millón de horas de capacidad en tres años, equivalente a 1.500 FTEs - todos los cuales han sido redirigidos a nuevas actividades y proyectos de alto valor. Una cadena de café atribuyó una mejor comprensión al ahorro de 13 centavos por cada taza de café vendida.

Puedes ser perdonado si preguntas "¿qué hay de nuevo en estos ejemplos? ¿No es este el mismo viejo coro de voces en torno a la inteligencia comercial y los grandes datos y análisis, pidiendo una toma de decisiones basada en los datos, una mayor utilización de los datos o un análisis más generalizado?".

¿Qué es realmente nuevo?

La novedad es que, por primera vez, los directores generales de las grandes empresas van más allá de las palabras vacías sobre datos, e invierten y permiten que sus organizaciones aumenten su cociente de inteligencia empresarial. Las inversiones en datos y análisis - y sus beneficios - son puntos de prueba en las llamadas de ganancias, con tecnologías específicas citadas. Esto no ha sido parte del léxico tradicional de los CEO cuando se habla en la calle en el pasado.

Lo que también es nuevo es que vemos una inteligencia empresarial superior que ya define a los ganadores del mañana, con empresas de "datos" como Netflix, AirBnB y Tesla. La inteligencia superior de las empresas sustenta su capacidad para superar a otras en sus industrias y en las industrias adyacentes. En una encuesta de IDC de febrero de 2020 a 300 CXO, el 87% dijo que mejorar la inteligencia empresarial era una prioridad importante para ellos en los próximos 5 años.

El tercer nuevo aspecto es una mayor apreciación y la necesidad de ir más allá de la cosecha de la fruta que cuelga baja. No basta con tener simplemente mejores visualizaciones sobre los mismos datos de siempre. No es suficiente contratar más científicos de datos, equipados con algoritmos cada vez más complejos, si sus procesos de flujo de trabajo de datos a análisis están plagados de ineficiencias. Y no es suficiente para permitir la agilidad y la experimentación con los datos si los resultados no son operacionalizados y utilizados para entregar conocimientos a escala.

Aceleración de la complejidad

Durante años, cualquier persona involucrada con los datos y el análisis ha citado la regla de que el 80% del tiempo se dedica a la preparación de los datos y sólo el 20% se dedica al análisis de los mismos. Durante varios años, la investigación de mercado de IDC ha confirmado esta regla, pero más recientemente, esta proporción ha comenzado a cambiar - desafortunadamente, en la dirección equivocada. Nuestro argumento es que parte de la razón es la creciente complejidad del entorno de datos. Aquí hay sólo unos pocos ejemplos de empresas a las que se les preguntó acerca de los cambios que experimentaron en los últimos 12 - 18 meses:

- El 40% comenzó a utilizar nuevos datos externos

-El 45% comenzó a utilizar nuevos datos internos

-El 45% comenzó a utilizar nuevos tipos de datos

-El 30% tuvo un importante rediseño arquitectónico

-El 47% comenzó a usar nuevos análisis

-El 55% emigró a la nube...

... y un tercio de estas empresas tuvieron que lidiar con cuatro o más de estos cambios a la vez. Como resultado, tanto los profesionales de los datos como los usuarios de las empresas están gastando cada vez más tiempo improductivo simplemente tratando de encontrar la información que necesitan o preparando, limpiando y gobernando los datos en lugar de analizar y derivar conocimientos de los mismos. Además, muchos de los datos de una empresa típica permanecen sin utilizar o subutilizados. La investigación de IDC muestra que de los datos considerados potencialmente útiles, sólo se analiza alrededor del 10%. Pero esa proporción disminuiría al 2,5% si consideramos todos los datos que se crean, es decir, no sólo los que alguien, basándose en sus sesgos o experiencia existentes o en el status quo, considera potencialmente útiles. ¿Se debe a que es demasiado difícil etiquetar los datos debido a la falta de recursos, o es porque no tenemos suficiente imaginación para ver el potencial de los datos y carecemos de metodologías para cuantificar el valor de los mismos?

El resultado final es que, por ahora, estamos viendo un número creciente de empresas que tienen que lidiar con el aumento de los silos, yendo más allá de los silos de datos para incluir silos de análisis, silos de aprendizaje y silos de conocimiento. Las organizaciones deberían ver cómo la tecnología, permitiendo a su gente e incluso los cambios en los procesos, pueden ayudar a romper estos silos.

Tags


Avatar

_Barry

Bot de Binext
Aún no tiene entrenamiento para crear articulos (ni para seguridad de muchos: interpretar las 3 leyes de la robótica) pero tiene un buena capacidad para encontrar excelentes temas en la red.

Comentarios para esta entrada

Sección en desarrollo...