Hay dos cosas que las empresas pueden hacer con los datos: hacerlo mejor y decidir mejor. Esta eficiencia en el empleo de los datos permite a los directivos una mayor aceleración en la entrega de informes y análisis, reduciendo de meses a días la toma de decisiones y la puesta de nuevos productos y servicios en el mercado. Una empresa que se focaliza en los datos es capaz de anticiparse mejor, y de que los datos tengan una influencia positiva en sus beneficios.
Los directivos españoles aprueban la asignatura del Big Data, al menos en la teoría. Esto tiene que ver también con la creciente “alfabetización de datos” y, por qué no, una predisposición social nata, pues según una encuesta publicada por Qlik (compañía especializada en analítica y en Business Intelligence), en el 25% de los españoles encuestados reside una gran capacidad para entender y gestionar datos en su trabajo diario, frente al 17% de la media europea.
Según la consultora Gartner, las empresas que utilicen métricas predictivas de rendimiento de negocio aumentarán su rentabilidad en un 20%. Por otro lado, el último Barómetro de Innovación de General Electric (febrero 2018) señala que en la actualidad 6 de cada 10 ejecutivos basan ya sus decisiones en Big Data. Y es que cada vez hay más casos de uso que se mimetizan de una empresa a otra, en especial para establecer casuísticas y un marco teórico. El negocio de los grandes datos no ha hecho más que empezar, y las previsiones, de acuerdo con el estudio Adopción e impacto del Big Data y Advanced Analytics en España, que ESADE ha realizado entre directivos de más de cien empresas que operan en España, apuntan a un crecimiento superior al 250% en inversión y personal en los próximos tres años.
A la vuelta de la esquina, como quien dice, y por eso están las escuelas de negocio más espabiladas cerrando sus cursos especializados y sus nuevos másters en esta ciencia. El claustro del IMF Business School es de los más reputados. Según Carlos Martínez, su máximo responsable, “el análisis masivo de datos ha llegado para quedarse. En nuestro país, aunque aún queda mucho por hacer, las empresas son cada vez más conscientes de la necesidad no sólo de guardar, sino de gestionar la gran cantidad de datos que utilizan día a día. Ahora la pregunta no es cómo almacenar la información, sino para qué”. Y es que hay mucha empresa aquejada del síndrome de Diógenes, que acumula muchos teras de datos, pero no sabe cómo explotarlos.
“El motivo del auge en Big Data no es otro que el valor de los resultados obtenidos a través del análisis exhaustivo de la información, material que hasta hace unos años las empresas desechaban. Pero ahora las compañías pueden establecer predicciones sobre distintos escenarios de comportamiento de mercado, volúmenes de venta y modelos que explican cambios y hábitos de compra de los consumidores”, añade Martínez. “Es curioso el caso de Walmart. Resulta que con sus arañas de búsqueda y cruce de bases de datos detectaron que había una marca de galletas que cada vez que había una previsión de huracán sus ventas se disparaban en la zona: la gente hacía acopio masivo de víveres. Ahora los directivos de la firma lo tienen fácil para no equivocarse. Cada vez que se acerca un temporal, invierten un poco en material promocional BTL y displays para ponerlo en los lugares más destacados de las tiendas y el surtido local vuela… pero a casa de los compradores. Negocio redondo”.
[hde_related]
Y es por eso que, hasta hace bien poco, las empresas se rifaban a los científicos de datos por su escasez. Había que ir a buscarlos directamente a las facultades de Exactas. Eso sí, si no se conectan los números con personas creativas y con la intuición del negocio, no se gana nada. “Eran matemáticos, estadísticos y físicos… ahora se han abierto los perfiles desde ingenieros a filólogos, sociólogos y ades”, señala el representante del IMF Business School.
Big Data bajo demanda
En los próximos tres a cinco años, el equilibrio entre negocios tradicionales y digitales se reconfigurará. Los datos serán cada vez más una commodity. Las fuentes de datos se adquirirán con facilidad a través de SSaaS (‘Smart Solutions as a Service’) y se desarrollarán algoritmos a la carta suficientemente potentes como para transformar el dato y extraer nuevo valor. “Desde identificar necesidades hasta monetizar oportunidades, los compradores puramente digitales tienen actualmente una ventaja competitiva debida al uso eficiente de los datos, y en muchas ocasiones podrán acabar con la competencia más inmovilista, pero según los ecosistemas de datos se hagan más comunes y la analítica correspondiente más potente, los proveedores tradicionales que se suban al carro de la digitalización podrán recuperar parte del terreno perdido”, vaticina Miguel Ángel Perdiguero, responsable de Big Data y Analytics de Atos.
Para este directivo, el análisis de datos provenientes de los consumidores finales también permitirá la optimización de las características de los productos y de la velocidad de la cadena de suministro. “Para empresas que logren superar la esquizofrenia de la colaboración y competencia paralelas, será ventajoso dirigirse a múltiples nichos de mercado en paralelo”, añade Perdiguero.
El Big Data está transformándose también en otros “subgéneros”, como el Fast Data, el Smart Data, o el Dark Data. En lo que respecta al primero, el representante de Atos nos recuerda que es preciso una especial agilidad en la organización para acometer y tomar decisiones en tiempo real. “Como el valor generado por los flujos rápidos de datos se deprecia rápidamente con el tiempo, los negocios necesitan reducir la brecha entre los eventos y las decisiones para explotar las oportunidades de negocio efímeras”.
Por su parte, Nacho Lafuente, fundador y CEO de la start-up española Datumize, cree que el Dark Data se va a popularizar en los próximos años tanto o más que el Big Data actual. “Nadie sabe dónde están, ni si se guardan, pero existir existen, porque han pasado por diferentes canales de información de la compañía. Son datos oscuros, porque no se llegan a aprovechar. Los responsables de negocio no saben que existen o que se pueden recuperar; o bien no se atreven a hacerlo, porque sospechan que supondrá un coste enorme, y a las malas, habría que tocar los sistemas críticos que no pueden dejar de funcionar de ninguna manera”.
[hde_summary] “El 70% de las empresas confía en Big Data para la toma de decisiones, ya sea acortando los tiempos, creando modelos predictivos o incluso con la automatización de la toma de decisiones”[/hde_summary]
Las papelerías que venden bolígrafos o los bares que ponen cañas no saben realmente cuánta gente entra en sus establecimientos y sus proveedores no tienen ni idea de cómo se venden los productos. “Se lo dan al mayorista y poco más pueden hacer. Sabes cuántos barriles de cerveza te han pedido, pero no sabes en el bar cómo se produce la venta, a qué horas y qué cantidades, ni puedes hacer ninguna acción de marketing específica más allá de facilitar las sillas y las sombrillas. Si logramos capturar el comportamiento de las personas y las cosas en el punto de venta (el edge) y ver sus interacciones, se podrán ofrecer ofertas más ajustadas y optimizar la calidad del servicio o la experiencia del consumidor, incluso detectar anomalías y adelantarse a las reparaciones”, dice Lafuente.
Cómo empezar a utilizar Big Data
“Big Data está en la base de todas las grandes tendencias de hoy en día, de las redes sociales a mobile, de cloud a gaming, y los datos son la gasolina de cualquier sistema Big Data”, expresa José Ruiz Cristina, responsable de Preventa en Paradigma Digital, una “software boutique”española adquirida por Indra. “El 70% de las empresas confía en Big Data para la toma de decisiones, ya sea acortando los tiempos, creando modelos predictivos o incluso con la automatización de la toma de decisiones. Pero a veces nos encontramos con ideas que, siendo buenas desde el punto de vista de negocio y estando bien plasmadas, son irrealizables en un plazo y coste razonables por no disponerse de medios para la adquisición de los datos necesarios para acometerlos”, puntualiza.
Conscientes de la complejidad del ecosistema de Big Data y la velocidad a la que evolucionan las tecnologías, Paradigma recomienda como primer paso un diagnóstico rápido de los datos de los que dispone, o puede disponer fácilmente, la organización. Seguidamente, a partir de esa visión, identificar un ‘quick win’ realizable a corto plazo que aporte beneficios claros en poco tiempo y con una inversión razonable. “Crecer a partir de ahí enriqueciendo las vías de adquisición de datos y mejorando la inteligencia sobre ellos, será mucho más fácil, de tal modo la organización se irá orientado poco a poco y de forma ordenada hacia el paradigma Data Centric: el apoyo de todos los procesos de negocio en inteligencia Big Data”, concluye Ruiz Cristina.
Para manejar estos grandes lagos de datos y saber extraer valor, también están desarrollándose en paralelo al Big Data experiencias de Inteligencia Artificial y Deep Learning, incluso de Blockchain, a la espera de que el salto cuántico cuaje dentro de cinco o siete años. Son otras tecnologías que permiten también llevar a cabo la toma de decisiones en las empresas, basadas en datos objetivos y efectivos.
[hde_summary]Todo proyecto de Big Data debe extraer valor a los datos. Otra cosa es dónde quiera focalizar su actuación: si en la esfera del cliente para satisfacer sus necesidades, si en la de la empresa para mejorar las operaciones o en la colaborativa externa, por ejemplo, cruzando datos con terceras compañías para crear nuevos modelos de negocio[/hde_summary]
Bien analizados, los datos permiten aprender del pasado para anticipar el futuro, analizando patrones de comportamiento. Cada vez más compañías descubren el enorme poder de las predicciones y la capacidad de poder centrar al cliente en el punto de mira. “La inteligencia artificial multiplica exponencialmente las capacidades de la analítica de datos. Esta tecnología permite razonar como un humano y aprender; es decir, podemos entrenar a un sistema para que vaya tomando decisiones por su cuenta”, explica Eva García San Luis, socia responsable de D&A (data analytics) en KPMG en España.
Conocer las correlaciones entre millones de datos es imposible, se escapan al ojo humano. Puede que hasta el momento se haya hecho mediante la intuición o la casualidad. Pero ahora se puede empezar a tomar decisiones basadas en métricas muy precisas; incluso que las máquinas tomen las decisiones por sí mismas en base a una serie de parámetros que deben cumplirse. Por ejemplo, el Massachusetts Institute of Technology (MIT) ha desarrollado una plataforma de analítica predictiva que da respuestas precisas a cuestiones empresariales en tan solo 15 minutos. Pero la idea es hacer que el NTR (near to real) llegue lo más próximo al tiempo real; en eso está el cambio de Hadoop a Spark, de Big Data 1.0 a Big Data 2.0. Los análisis ya no son en lotes sino en paralelo, y cada vez son más potentes y rápidos.
En esta línea incide un informe de Forrester, en el que la consultora califica el valor de los datos como la nueva fuente de capitalización. “Con clientes cada vez más exigentes y fuertes presiones competitivas, las empresas deben tratar los ‘insights’ de los datos como un activo de negocio y dotarse de sistemas, talentos, procesos y tecnologías para transformar estos ‘insights’ en acción”, dice el estudio.
Y es que la analítica de datos es aplicable a cualquier área de la empresa que sea susceptible de ser mejorada: producción, riesgos, fraude, recursos humanos, ciberseguridad… Y, por extensión, a cualquier sector: banca, energía, telefonía, infraestructuras, sanidad, aviación, deporte… hasta se utiliza en programas de ayuda humanitaria a gran escala.
Todo proyecto de Big Data debe extraer valor a los datos. Otra cosa es dónde quiera focalizar su actuación: si en la esfera del cliente para satisfacer sus necesidades, si en la de la empresa para mejorar las operaciones (optimizar procesos, atender reclamaciones, logística de terminales, gestión de call center), o por el contrario en la colaborativa externa, por ejemplo cruzando datos con terceras compañías para crear nuevos modelos de negocio hasta hace nada ajenos a su mercado basados en el conocimiento del cliente.
“Tenemos a nuestro alcance una capacidad mejorada para tomar decisiones, tenemos una visión mucho más profunda de cómo son y qué necesitan nuestros clientes, generar inteligencias que ayudan a resolver una gran diversidad de problemas, así como a abordar nuevas oportunidades. Pero estas nuevas capacidades, como cualquier otra herramienta, se pueden usar para finalidades positivas, y para otras que pueden no serlo tanto, ya sea de forma deliberada o no. Es lo que se conoce como Data Literacy”, aporta Roberto Maestre, Senior Data Scientist en BBVA Data & Analytics.
[hde_summary] “Para llegar a decisiones apropiadas, el buen gobierno de datos ha de velar por la calidad de los mismos, al mismo tiempo que se llevan a cabo procesos de auditoría algorítmica y de revisión por pares, que han de garantizar siempre el rigor metodológico y la validez de las soluciones”[/hde_summary]
Aunque Maestre no duda de la valía de los datos, sí cree que los responsables de tomar decisiones deberían tener un punto de prevención con el Big Data indiscriminado. “Un exceso de confianza en los datos y en los algoritmos, o presiones para lanzar aplicaciones insuficientemente validadas, pueden llevar a ofrecer respuestas equivocadas. Para evitarlo, el Senior Data Scientist del BBVA cree que la solución debe ser doble: «por un lado, el buen gobierno de datos ha de velar por la calidad de los mismos; y por otro, los procesos de auditoría algorítmica y de revisión por pares han de garantizar siempre el rigor metodológico y la validez de las soluciones antes de su lanzamiento”.
Si se siguen todos los procesos, los ‘grandes datos’ terminarán convirtiéndose en ‘buenos datos’. Y las empresas, independientemente del sector de negocio en el que estén posicionadas, se habrán vuelto «data driven companies».