Cada minuto se suben 48 horas de vídeo a YouTube y se comparten más de medio millón de publicaciones en Facebook. Y eso no es nada. Cuando lleguemos a 2020, produciremos 44 veces más datos que en 2010. Nadamos en un océano de información, pero ¿significa eso que somos más inteligentes? El Big Data ha sido tachado de moda, burbuja o hype. Aun así, es ya imprescindible para un número creciente de compañías. ¿Cómo pasan las empresas de este mar de números a la información útil? ¿Cómo se convierten los datos en inteligencia?
Qué mejor que preguntárselo a los que se despiertan cada mañana buscando una respuesta. Hablamos con cuatro empresas de cuatro sectores muy diferenciados – banca, telecomunicaciones, medios de comunicación y consultoría – sobre los mejores procesos, los desafíos y las oportunidades.
Big, sí, pero sobre todo Smart Data
El Big Data está en todas las esquinas. Desde la herramienta de recomendación de series de las plataformas de streaming hasta las predicciones de Google Maps sobre el número de clientes que habrá en nuestro restaurante favorito. Dejando el aspecto tecnológico de lado, si hay un sector en el que el Big Data ha irrumpido a todos los niveles, es el de los negocios. Para muchas industrias, el Big Data se está convirtiendo en una nueva fuente de información que, hasta ahora, había permanecido oculta.
Cada 24 horas, los miles de millones de dispositivos y seres humanos conectados a Internet generan 2,5 millones de Terabytes de información
Cada 24 horas, los miles de millones de dispositivos y seres humanos conectados a Internet generan 2,5 millones de Terabytes de información, según IBM. Este dato esconde dos de las principales características del Big Data: su gran volumen y la velocidad con que se produce. Además, procede de multitud de fuentes diversas. De hecho, el 90% de los datos que se genera es desestructurado, como los cientos de miles de tuits y posts de Twitter y Facebook. Por último, el Big Data tiene que ser veraz, es decir, tiene que ser información en la que se pueda confiar.
Esta ha sido y es la definición más tradicional de Big Data. En los últimos años, por la necesidad de transformar este conjunto de técnicas, herramientas y datos en algo enfocado a los negocios, se le ha sumado una quinta característica: la inteligencia. Los datos tienen que empezar a aportar valor para la toma de decisiones y su ejecución. Es lo que se conoce como el Smart Data.
“Antes de ingestar los datos, hacemos distintos procesos de calidad, para ver si estos datos aportan o no información. Es fundamental que los datos lleguen con una calidad buena, que tengan todos los campos rellenos y que sean coherentes para poder obtener información de ellos”, señala Carmen Reina, Manager Data Scientist en Orange España.
“El valor del dato depende del uso que le des, así que la mejor manera de convertirlo en algo valioso es pensar ¿qué quiero hacer y qué tipo de información puedo usar para conseguir ese objetivo?”, añade Arturo Larraínzar, Director de Estrategia del Grupo Atresmedia. “Luego, obviamente, tiene que haber una labor de depuración del dato para ver si efectivamente puede ser usado para aquello que nos habíamos propuesto”.
Y nunca Bad Data
La piscina de datos hace ya tiempo que está desbordada y encontrar en ella la información útil puede parecer tarea imposible. Pero no por ello es menos importante. En 2016, las compañías estadounidenses perdieron 3,1 billones (de los nuestros) de dólares por culpa del Bad Data, según IBM. Es más, de acuerdo con Harvard Business Review, los llamados trabajadores del conocimiento emplean alrededor del 50% de su tiempo buscando datos y corrigiendo errores porque no confían en la veracidad de la información que reciben.
¿Cuáles son, entonces, los riesgos reales de este Bad Data? Desde Forbes Corporation Communications, resumen así los daños que pueden generar los datos de mala calidad.
- Impacto en la reputación. En función del negocio, el Bad Data puede acabar en un desastre de imagen para la compañía y afectar a la confianza de los clientes y los consumidores.
- Oportunidades perdidas. Una incorrecta monitorización del mercado o un mal seguimiento del comportamiento del consumidor pueden dejar a una compañía en una clara situación de desventaja frente a la competencia.
- Reducción de ingresos. Si algo aporta el Big Data, es eficiencia. El Bad Data, en el otro extremo, lastra las operaciones comerciales de muchas maneras, desde un fallo en una venta directa porque hay errores en los datos del cliente, hasta pérdidas millonarias en los sectores de la banca o los seguros.
“Una parte de proyectos Big Data fracasan en España al arrancarse éstos sin un objetivo claro. Algunas organizaciones realizan este tipo de proyectos únicamente por subirse a la “ola” de lo que es tendencia, pero no saben qué quieren hacer exactamente ni cómo lo van a hacer ni qué necesitan para lograrlo”, dice Raúl Galán, CTO de Hocelot, una consultoría especializada en Big Data.
Es clave establecer diferentes procesos para limpiar las cantidades masivas de datos y asegurar la calidad del Big Data
Así, como indica Carmen Reina, es clave establecer diferentes procesos para limpiar las cantidades masivas de datos y asegurar la calidad del Big Data. Aunque existen multitud de técnicas y herramientas para obtener los datos valiosos, la mayor parte de los procesos para eliminar el Bad Data siguen las siguientes fases, como señalan desde Logicalis, empresa proveedora de soluciones IT y de Big Data.
- Análisis de datos inicial para determinar errores e inconsistencias.
- Definición del flujo de transformación y reglas de mapeo para asegurar una buena buena integración, sobre todo en el caso de que los datos provengan de fuentes diversas.
- Verificación de los datos tras los primeros pasos, ya que algunos errores e inconsistencias saltan a la vista tras las primeras transformaciones.
- Transformación de los datos mediante procesos ETL (del inglés extract, transform and load) para cargar e integrar todos los datos, sea cual sea su fuente, en una única base de datos con la que trabajar.
- Los datos limpios deben sustituir a los que no lo están en las fuentes originales.
Los números del negocio
A pesar de los riesgos, el Big Data genera, claro, un volumen ingente de negocio. El mercado, según las previsiones de Statista y las de IDC, crecerá por encima del 10% anual hasta 2022. Después se ralentizará, como todo mercado que está madurando, pero no se frenará. Entre 2014 y 2024, habrá multiplicado su tamaño por seis.
[infogram id=»volumen-de-negocio-de-big-data-1h9j6qjeqzo54gz»]
De la mano de un mercado en plena ebullición, algunas tecnologías irán ganando protagonismo, con especial atención a la inteligencia artificial, llamada a tomar las riendas del mundo Big Data en un futuro cercano. Además, algunos sectores capitalizarán con más fuerza los beneficios del análisis de datos en los próximos años, como la banca y la producción en fábricas. Pero no son los únicos.
[infogram id=»sectores-y-tecnologias-de-big-data-1hxj48vdjxr52vg»]
- Las telecomunicaciones. Para Carmen Reina, de Orange España, “el sector telecomunicaciones es uno de los más implicados, al ser de los que más volumen de datos tienen. Ahora mismo, las telecos están muy centradas en satisfacer al cliente, en retenerlo. Nuestro objetivo ya no es dar un producto, sino que el cliente esté satisfecho. El Big Data nos ha vuelto customer-centric”.
- La banca. “En el sector financiero, muchos bancos e incluso aseguradoras tienen iniciativas de Big Data en marcha. El Big Data aporta oportunidades al sector: permite incrementar el conocimiento de los clientes para mejorar la oferta comercial, personalizar el servicio teniendo en cuenta las preferencias de los clientes, incorporar nuevos datos en los modelos de riesgo y simplificar procesos”, aseguran fuentes internas de CaixaBank.
- Los medios. “Que una empresa explote bien o mal el Big Data depende mucho de sus capacidades y su cultura a la hora de analizar y tomar. Creo que lo que hay hoy en día son muchas empresas que estamos tratando de ver cuáles son las posibles explotaciones del Big Data y aprendiendo”, señala Arturo Larraínzar desde Atresmedia.
Los objetivos están claros
Puede que haya algo de moda detrás del Big Data, algo de “ola”, como señalaban desde Hocelot, a la que hay que sumarse. Pero en los datos existen una serie de ventajas competitivas que la mayoría de empresas españolas parecen tener claras.
[infogram id=»que-quieren-con-big-data-1h7v4pjy57r84k0″]
“Para lograr este tipo de ventajas, los procesos Big Data deben orientarse al negocio de cada compañía, de manera que éstas sean capaces de tomar mejores decisiones, o incluso automatizar algunas de ellas, de la forma más eficaz y en un corto periodo de tiempo”, añade Raúl Galán. ¿Y cómo se integra en la cultura empresarial? ¿Qué costes, desafíos y oportunidades entraña? Vamos con las voces de los expertos.
Conseguir valor
Empezamos con la visión del consultor. “Para conseguir que estos conjuntos de datos en crudo se conviertan en información de valor, se ha disponer de una triple visión: negocio, matemática y tecnológica. Con la primera seremos capaces de detectar qué información útil vamos a poder obtener, y con las demás la forma de implementarlo”, comentan desde Hocelot.
«Mantener el nivel de expertos necesario es complicado, hay pocos perfiles así en el mercado”, Carmen Reina, manager data scientist en Orange España
Por su parte, desde el sector financiero destacan las buenas iniciativas. “Lo importante es tener buenas iniciativas y utilizar para cada una de ellas los datos que aportan valor y descartar aquellos que no tienen impacto en el proyecto. En CaixaBank, tenemos un equipo de Data Scientist altamente cualificado y muchas áreas de negocio involucradas. Hoy en día tenemos más de 100 proyectos –finalizados y en curso–, todos con retorno económico y/o aportación de valor para la entidad y nuestros clientes”.
Los costes: ¿compensa?
En cuanto a un tema tan importante como el gasto, desde Orange nos recuerdan que el coste de una empresa no son solo las máquinas y los servidores, sino gestionar y coordinar los diferentes equipos humanos. «Ahora mismo, en el departamento de Big Data seremos unas 50 personas. El coste también varía mucho en función del volumen de datos, de si necesitas máquinas propias o las utilizas en cloud”.
Paralelamente, Arturo Larraínzar, Director de Estrategia del Grupo Atresmedia, lo articula en tres ejes. “En la mayoría de los casos de uso, el Big Data se utiliza para una mejor toma de decisiones, mejor conocimiento de los activos del negocio y una mejor explotación de los mismos. Por lo que si la pregunta es si compensa o no, diría que esos tres ejes suelen ayudar a cualquier empresa, por lo que habrá que centrarse en analizar cada posible caso de uso y cómo construirlos de manera que compensen la inversión”.
Los desafíos no son solo tecnológicos
“El coste para la empresa comprende varios ejes, infraestructura y equipo, compuesto por varios perfiles especializados: científicos de datos, arquitectos, desarrolladores, DevOps…” señala Raúl Galán, CTO de Hocelot. Es, precisamente, en estos perfiles especializados donde parece estar el mayor reto del presente del Big Data.
“El gran desafío es la creación de los equipos que puedan tratar con este tipo de datos. Las herramientas también han cambiado. Ahora se utilizan herramientas abiertas como R y Python para programar y necesitamos equipos especializados. Mantener el nivel de expertos necesario es complicado, hay pocos perfiles así en el mercado”, explica Carmen Reina, Manager Data Scientist en Orange España.
“Aparte de la inversión tecnológica, el reto más importante para una empresa es el cambio de paradigma en la gestión de los datos y, por lo tanto, la aparición de nuevos perfiles y de una nueva organización orientada al dato”, añaden desde CaixaBank.
Las oportunidades esperan en los procesos de negocio
Así, esta nueva cultura no persigue otra cosa que integrar el análisis de datos en el proceso de negocio. O, mejor, reformar los procesos para que se guíen por la información que se encuentra en el Big Data.
«La mayoría de las aplicaciones buscan ayudar en el análisis y la toma de decisiones, mejorar el conocimiento de los activos del negocio y mejorar la explotación de los mismos”, Arturo Larraínzar, director de estrategia de Atresmedia
“Las grandes ventajas están identificando las necesidades de los clientes. El Big Data aporta si es desde la perspectiva de negocio, si se conoce el problema a resolver. Desde Big Data traducimos en algoritmos las necesidades que nos plantean”, explica Carmen Reina. “Actualmente se usa, por ejemplo, para ver dónde colocamos las antenas, qué campañas hacer a los clientes y cubrir sus necesidades”.
“Cada empresa tratará de crear las ventajas de manera distintas, pero la mayoría de las aplicaciones buscan ayudar en el análisis y la toma de decisiones, mejorar el conocimiento de los activos del negocio y mejorar la explotación de los mismos”, dice Arturo Larraínzar, de Atresmedia.
Un futuro marcado por la inteligencia artificial
Son dos tecnologías que recorren caminos separados y, al mismo tiempo, se retroalimentan. La inteligencia artificial necesita del mayor número de datos posibles para pensar. El Big Data se frota las manos pensando en mentes artificiales que analicen la información a velocidades inimaginables. El futuro de ambos a 10 o 15 años vista parece ir de la mano.
“Una visión a tan largo plazo es complicada, pero en CaixaBank estamos convencidos de que el tratamiento inteligente de la información será clave. Cada vez se generan más datos, más información y los sistemas de inteligencia artificial facilitarán el aprendizaje de procesos complejos de decisión”, auguran desde CaixaBank.
Las mejoras en las técnicas y tecnologías de procesamiento, así como el creciente volumen de datos, han impulsado una forma de entender el mundo basada en números
Desde Orange España, Carmen Reina coincide con los planteamientos del banco. “Vamos a ir un paso más allá hacia la inteligencia artificial. Estamos ya empleándola con lenguajes de R y Python. En el futuro haremos lo mismo programando en lenguaje natural”.
En el fondo, estamos solo al principio. Hace menos de 15 años que se empezaron a mostrar las posibilidades del Big Data. Desde entonces, las mejoras de las técnicas y tecnologías de procesamiento, así como el creciente volumen de datos, han impulsado una forma de entender el mundo basada en números.
“El número de datos que cada individuo genera cada día es del orden de 5 GB y se calcula que para 2020 el número de datos almacenados ascienda a 44 zettabytes (44 billones de gigabytes)”, concluye Raúl Galán, CTO de Hocelot. “La evolución natural, por tanto, es que cada vez haya un mayor número de procesos analizando estos datos con la finalidad de ayudar en la toma de decisiones o incluso automatizándolas. El Big Data va a cambiar muchos aspectos de nuestra vida cotidiana, así como de empresas y organizaciones”.
Juan F. Samaniego
Imágenes: iStock