El Big Data hoy en día es uno de los paradigmas en lo que se refiere a innovación, a modelos de negocio, a proyectos de I+D, para la creación de startups,… e incluso en el ámbito del marketing.
Sin embargo es en el Small Data donde considero que está el elemento diferencial y en el que la intervención de las personas se mantiene como una necesidad y donde, será difícil que una máquina pueda sustituir a las personas. El motivo es que
Hay ocasiones en que aparecen “nuevos negocios” basados en productos digitales o en aplicaciones relacionados con el Big Data. Pero estos negocios solo aportan valor, más bien aportan ingresos, a quienes lo venden pero en el fondo realmente no hay nada nuevo en lo que están comercializando.
El mantra del Big Data como fuente de «presunto conocimiento» es muy bonito pero como dicen los informáticos «shit in – shit out». Si no sabemos que queremos podemos tener un montón de datos que no sirven para nada. “El Big data es en realidad torpe. Es como estar en un cóctel donde puedes ver a cientos de personas, pero no puedes escuchar lo suficientemente bien como para hablar con cualquiera de ellos.”
La estrategia estadística en la que se basan sistemas de Big Data consisten en un cálculo del margen de error de las predicciones comparándolo con el margen de error acumulado en predicciones anteriores, así que esto genera cierta capacidad de aprendizaje en el sistema de predicción; pero ¿bajo qué coeficiente de incertidumbre se soporta?
Así si en un determinado ámbito se ha aceptado históricamente tener un 5% de error o incertidumbre, es decir, que se acepta una certidumbre del 95%. ¿Debemos continuar aceptando ese error con el Big Data? ¿Deberíamos reducir el error al 1%? ¿Con ese error que capacidad de tiene el sistema de predecir los gustos de los consumidores? Si además introducimos en los sistemas de predicción conceptos de “última generación” como podría ser el neuromarketing ¿Qué fiabilidad deben tener los estudios tendentes a identificar las respuestas cerebrales a los estímulos en forma de producto? ¿Bajo qué margen de error se deben desarrollar los sistemas de predicción?
Pero también podemos considerar que demasiada información puede ser peligrosa en el momento de tomar decisiones, por lo que quizás es más adecuado entender primero que es lo que se requiere saber para posteriormente tener mayor facilidad para encontrar las respuestas a eso que queremos saber.
Dado que una estrategia en el procesado de los grandes volúmenes de datos para obtener tendencias de consumo está basada en la predicción estadística en base al reconocimiento de patrones por comparación sistemática, lo que no es esperable es la anomalía y ¿cuántas veces las personas llevan a cabo acciones en consumo de productos que eran a priori impensables y por lo tanto impredecibles desde un patrón?
Si el Small Data va al detalle para encontrar la diferenciación entonces es muy útil el grupo de personas que está en contacto directo con el cliente porque puede “observar” sus necesidades o preguntar por ellas. La fuerza de ventas debería ser una fuente para el Big Data pero especialmente para el Small Data.
El Small Data es importante para encontrar las oportunidades que ofrecen los nichos pequeños (las tribus, como reivindica Seth Godin). Estos nichos pequeños son los que habitualmente lideran los procesos de cambio; y visualizar estos cambios cuando están arrancando es extremadamente útil para desarrollar modelos de negocio disruptivos. Habría que estar atentos a lo que hacen esas tribus.
En mi opinión lo más importante a recordar es que la interpretación de lo que hace un humano es más fácil para un humano que para una máquina. Y muchas veces el humano también es más rápido en esa interpretación.
Ahora bien no estoy diciendo que el Big Data no sea útil sino que hay que saber para qué sirve y para que no sirve. Así deberíamos considerar que el Big Data es una fuente de información, es decir, con el Big Data podemos saber que un producto o un servicio tienen mejor aceptación en una determinada región, o en un estrato social, o en un segmento de edades. Sin embargo a la hora de buscar el por qué ese producto o servicio tiene más éxito en ese segmento de mercado es una tarea de análisis y comprensión que la deben hacer personas, porque esa interpretación es la que aporta el conocimiento con el que la empresa puede encontrar la diferenciación. Se podría desarrollar una estrategia en la que el Big Data sirva para focalizar donde están los clientes sobre los que deberemos establecer un contacto directo para analizar mejor su comportamiento.
El Big Data nos da las grandes tendencias, pero se necesita el Small Data para obtener el contexto, la interpretación, esas pequeñas variantes que son las que pueden convertirse en importantes, es lo que nos define el enfoque. Y en esa interpretación elementos como el sentido común también son importantes. Pero tanto para el Big Data como para el Small Data, mientras los datos no sean veraces y válidos, tanto la información que nos aporte el Big Data como la interpretación y el conocimiento que aporten las personas podrán ser muy importantes pero también inútiles.
A recordar: “El Big Data es fuente de información, las personas son fuentes de conocimiento”.
Pero las personas ¿son siempre fuente de conocimiento? ¿Podemos interpretar la forma de actuar de cada individuo? Si a veces consideramos incomprensibles ciertas actitudes ¿es porque nos falta información o porque no podemos interpretarlas? Y si las personas a veces no pueden entender las actitudes de algunas personas ¿lo podría hacer un sistema de Big Data?