Si tenemos en cuenta que casi el 90% de los los datos mundiales (Estructurados y no estructurados) se han creado en los últimos 10 años, es consecuente pensar que esta tendencia va a seguir aumentando en los próximos años: Mas en un entono como el actual, en el que el desarrollo de 5G, y internet de las «cosas» (tambien extendible a personas) va a suponer la conexión de miles de millones de dispositivos generando datos 24 h x 7.
A esta ingente combinación de datos o conjuntos de datos, es a lo que se denomina “Big Data”. Mas allá del volumen de datos, que puede oscilar entre 50Tb a varios petabytes, también se caracteriza por la variabilidad de fuentes, su complejidad y velocidad de crecimiento.
La mayor parte de las tecnologías actuales (Internet y redes sociales, datos de audio y vídeo, geolocalización …) generan datos no estructurados internos y externos a las organizaciones como opiniones, citas, likes… difíciles de analizar y abarcar por los equipos de cualquier compañía por muy grande que esta sea:
Imagina un call center de un gran operador de seguros que graba miles de llamadas diarias donde los clientes opinan acerca de la calidad de un determinado servicio. El operador, quiere tener una imagen de cuantos clientes están satisfechos con el mismo para prevenir la rotación y pérdida de clientes y tomar así acciones preventivas. ¿Alguien puede escuchar todas las llamadas grabadas para luego sacar alguna conclusión útil?… No. Normalmente, se tenderá a «renunciar» a la riqueza que nos ofrece del Big data, tomando aproximaciones como encuestas con muestras en ocasiones demasiado reducidas, que generan la sensación de estar analizando al menos «algo»…
No cabe duda que Big data y su potencial granularidad, ofrece grandes oportunidades que las compañías nunca antes habían tenido a su alcance: Además de la reducción de costes, adaptación al mercado, cliente y fidelización, la mayor aportación de un uso efectivo de Big data, es detectar problemas de cuya existencia ni si quiera se sospechaba. Sin embargo esto no está exento de desafíos:
El mayor, estriba en como pasar del dato a información, y de la información a conocimiento es decir, ser capaz de recopilar esta ingente cantidad de números, ordenarlos y analizarlos para obtener patrones y tendencias que muevan a la acción.
Otro grave problema es la falta de calidad y homogeneidad de los datos recopilados que llevan al principio de «garbage in-garbage out»: Si analizas datos erróneos llegas a conclusiones equivocadas.
El gran avance de los últimos 5 años en Big data está en la IA (Inteligencia Artificial) y en el desarrollo de nuevos softwares y programas especialmente diseñados para procesar, almacenar y analizar todos los datos internos y externos que llegan a la empresa de forma continuada y por varios canales simultáneamente, facilitando enormemente el proceso de convertir esos datos en insigths y por tanto en objetivos y acciones concretas.
Portada de la revista Time, ‘your data for sale’
Esta nueva generación y desarrollos de software, es especialmente útil para grandes empresas en las que diariamente es necesario analizar un volumen masivo de datos a gran escala para actuar en consecuencia. Por ejemplo, una cadena de hipermercados será capaz de conocer de forma mucho más exacta el comportamiento de sus clientes para hacer una predicción de qué productos se van a vender mejor; una empresa de telecomunicaciones podrá mantener un feed mucho más directo y fiable con sus clientes y estar al tanto de dónde puede estar fallando en aspectos clave como la fidelización o el cumplimiento normativo de protección de datos. Esto es posible si la empresa integra la IA de forma eficaz en su estrategia de data governance como herramienta clave de análisis para escalar hacia el éxito.
¿Cuál es la mejor forma de emplear estos softwares basados en IA? ¿En qué ámbitos es mejor enfocarse?:
1.Efectividad de ventas
Más del 70% de las grandes empresas ya están haciendo uso del análisis de big data mediante IA para mejorar sus ventas o se están planteando incorporarlo si no lo hacen ya. Este dato en sí ya es muy revelador. En un entorno de mercado como el actual de mercados maduros, donde se crece en base a restar market share de la competencia, el producto /servicio debe adaptarse a las necesidades cambiantes del cliente «en tiempo real».
2.Satisfacción del cliente
Todos sabemos que el coste de ganar un cliente es muy superior al de mantenerlo. Conocer los patrones de demanda y consumo del cliente y consumidor ya no es suficiente: Se hace necesario anticipar el comportamiento del consumidor comprador a lo largo de todo el proceso de marketing, no solo en la venta, para tomar acciones correctoras y actuar en consecuencia: Por ejemplo, puede que el producto/servicio se adapte a las necesidades del cliente, pero a través de un uso efectivo de big data, nos demos cuenta de que hay quejas en la distribución del producto o en el servicio post-venta.
3.Coste de gestión
A consecuencia de lo dicho anteriormente, otro gran beneficio que se puede obtener es reducir enormemente los costes de gestión en todo el proceso de venta y marketing. El análisis del Big data permite entre otras, optimizar políticas de segmentación de clientes, de precio y promoción, campañas de marketing, cumplimiento normativo, y fidelización de clientes .
4.Retención del cliente
Para terminar, anticipar y reaccionar antes de que el cliente abandone es clave hoy en día. Esto solo se puede sustentar a través del análisis y escucha activa del cliente, dotando a las organizaciones de las herramientas y personas adecuadas para que Big data sea realmente una ventaja competitiva.
En Accelera, trabajamos con parnters a la vanguardia de las últimas soluciones de IA para un uso efectivo del Big data, proporcionando también perfiles profesionales a demanda en el ámbito de data science.
La información de la que dispones en tu compañía es uno de los activos que mas valor va a adquirir en los años venideros: ¿Vas a renunciar a explotar todo su potencial?
Autor: Alex Olloqui (Grupo Accelera)