La importancia del Big Data en la economía digital
El pasado jueves tuvo lugar #innodata, evento organizado por Adigital para debatir sobre el uso de ‘smart data’ en la economía digital.
Fue en muchos aspectos una jornada muy constructiva, sobre todo en lo referente al tratamiento actual de la cuestión en el entorno europeo, que ya vimos con a la agenda para un mercado único digital, y aún más en la puesta en práctica y ejemplos de la aplicación del big data, del que tantas veces se habla pero que en menos ocasiones se tiene la oportunidad de ver de manera gráfica y real en su uso práctico.
Abrió la jornada Karolina Mojzesowicz, responsable de la reforma del servicio jurídico de la Comisión Europea sobre la protección de datos, que aportó algunas cifras generales así como un resumen del estado de la cuestión.
A destacar: el 42% de los europeos aún no confían mucho de las compras online, mientras dos tercios no confían en lo que se hace con sus datos digitales, temiendo el 43% de un uso abusivo de sus datos.
Según señaló Mojzesowicz, antes del fin de año Europa quiere tener la reforma de la protección de datos terminada; una reforma que busca dar confianza a los consumidores y oportunidades a las empresas.
Muy ilustrativa para el sector editorial fue la exposición de Eloy Sasot, Director de Analítica de Precios de HarperCollins, que bajo la consabida y reiterada necesidad de una mentalidad digital en los negocios de hoy en día, defendió la dinamicidad y flexibilidad de los precios (“El precio tiene vida”), algo que venimos defendiendo con frecuencia desde Dosdoce.
Como puntos clave, establecer una estrategia de precios basada en la gestión de datos y la gestión de personas, es decir, una estrategia conjunta de datos y negocio para poder crecer orgánicamente.
De las más ilustrativas fueron también las de Julio César Arpírez, cofundador de Zhilabs yAlex González, de Data Research, quienes expusieron muy bien cómo se manejan nuestros datos y cómo se utilizan para diferentes fines de previsión y mejora. Destacó Arpírez como el quién y el qué no pueden estar juntos en ningún momento a la hora de monitorizar y trabajar con los datos; es decir, disociar la identidad del usuario y lo que hace el usuario.
Por su parte, una muy visual muestra del tratamiento de datos de Alex González quien señalaba que analizando las viralizaciones frente a los contenidos se puede observar si han sido o no preparados. Por el contrario, los periodos de máxima viralidad coinciden con el alcance de los nodos de comunicación relevantes.
Marco Bressan, de BBVA fue muy categórico: “Si las empresas no idean cómo monetizar los datos, pueden reducir su capitalización drásticamente”. Y puso claro lo que ya muchos sabemos, a pesar de lo que se cuestiona de los buscadores, telecomunicaciones y redes sociales: los bancos saben mucho más de sus clientes que las empresas tecnológicas. Los datos que analizan pueden ayudar a saber qué negocio va ir bien y cuál mal.
También fue constructiva la exposición del profesor Esteban Moro, de la Universidad Carlos III, que puso de relieve nuestra repetición en los patrones de conducta, que se ven reflejados con el análisis de datos, a la vez que llamó la atención sobre la necesidad de devolver la sociedad el valor que ella misma genera con toda la circulación de datos posibles.
Algo similar a lo que se refería Bernardo Hernández en el debate que clausuró en encuentro al considerar la protección de datos como una deuda obligada con los usuarios.
Como conclusión quedó patente la necesidad no sólo de legislar a propósito del tratamiento de datos, sino también de invertir e investigar sobre Big Data y, sobre todo, saber interpretar tales datos.