Esta semana se ha celebrado el Bdigital Global Congress, que es el congreso de referencia sobre los avances de las Tecnologías de la Información y las Comunicaciones (TIC) y su aplicación en el ámbito empresarial, tecnológico y social. La edición de este año se ha centrado en los retos del big data y tuve el placer de participar con una intervención al respecto en la sesión inaugural el día 12.
La jornada comenzó con la intervención de Nuria Oliver de Telefónica I+D, que nos explicó cómo los móviles son sensores de actividad humana y todos vamos dejando una huella digital que marca los lugares por los que pasamos y deja muchos datos sobre nuestro comportamiento. Éstos, de forma agregada y anónima, permiten obtener información para mejorar el mundo. Por ejemplo, el consumo de móvil por regiones refleja el nivel socioeconómico de un país. Algo que hasta ahora sólo podía hacerse a través de costosas encuestas y difíciles de organizar, por lo que se realizaban cada cinco años. En cambio, gracias al big data, ese conocimiento puede obtenerse de forma inmediata o con periodicidad mensual. Otro ejemplo de utilización se hizo en México durante la pandemia de Gripe A para comprobar si se cumplía la alerta del gobierno que limitaba el movimiento de la población para tratar de frenar el contacto. De esta forma, el big data aporta conocimiento a instituciones para mejorar el servicio que ofrecen al ciudadano y permite resolver problemas.
Jordi Marín, de Indra, expuso cómo el comportamiento de los ciudadanos está cambiando. Cada vez están más conectados, son más activos, creativos y demandan nuevos servicios, y la Administración tiene que ser capaz de satisfacer esas necesidades y gestionar la información que recibe para tratarla y transformarla en conocimiento. Explicó las clásicas "tres uves" del big data: volumen, velocidad y variedad y presentó la ciudad de La Coruña como caso de éxito de smart city.
Alfred Escala, de IBM, mostró los resultados de un estudio mundial realizado por su compañía respecto a la implantación del big data. Descubrieron que la mayoría de las empresas están analizando datos internos más que información de redes sociales o de cualquier otra fuente externa. Además, el interés en esta tecnología se había incrementado un 70 por ciento desde 2010 a 2012. Entre los diversos estados, el inicial es en el que la empresa se está informando sobre qué es y cómo puede utilizarlo en su negocio; en el siguiente, la empresa ya está estableciendo una hoja de ruta; a continuación se realizan pilotos, y el último es en el que la empresa tiene un proyecto real implantado.
La mayoría de las empresas se encuentran aún en los tres primeros estados. Escala además indicó que las empresas que lanzan un proyecto de este tipo, necesitan personalizar y tener una plataforma escalable que será cara, y requerirá un estudio de retorno de la inversión y capacidades analíticas para discernir qué datos son valiosos e interpretar el conocimiento obtenido adecuadamente.
Albert Bifet, de Yahoo!, nos explicó que estaban trabajando en un software de gestión de big data distribuído en tiempo real. Se refirió a los diversos tipos de programas existentes: los que no soportan los datos alojados en fuentes distribuídas y los que sí y, dentro de este último grupo, los que proporcionan información en diferido, como Hadoop, y los que lo hacen en tiempo real. En este último campo están trabajando para crear un nuevo software denominado SAMOA que les permitirá adaptar su portal en tiempo real en función de los parámetros que necesiten en cada momento. En cualquier caso, el tiempo real no permite tratar toda la información disponible y es necesario perder algo de precisión.
También explicó cuándo es necesario tener más o menos datos: en aquellos entornos con datos que presentan mucha variación, cuantos más se tengan, más podremos acercarnos a la "solución correcta". En cambio, en entornos con datos poco variables, por muchos datos que se incorporen, no se obtendrá un mejor resultado. Esto es importante a la hora de definir si se pueden utilizar soluciones en tiempo real o no.
A continuación, Álvaro Etcheverry, de HP, se refirió a cómo en el entorno actual generamos cada vez más rápidamente información en redes sociales, webs, blogs… Información que, por naturaleza, es no estructurada. Y presentó el software de HP que permite analizar el contexto para realizar búsquedas, algo muy importante para analizar información humana no estructurada.
Andrea Toscanini, de Fujitsu, insistió en que en la actualidad estamos ya todos en big data pero los sistemas transaccionales actuales no permiten a la mayoría el tratamiento de grandes volúmenes de datos. Por eso insistió en que antes de implantar cualquier solución de esta naturaleza es necesario solucionar el problema tecnológico que muchas empresas tienen. Comentó que su empresa apuesta por HANA de SAP para hacerlo y puso el ejemplo de cómo les había servido en el caso de una empresa de venta de ropa para poner sobre la marcha una campaña que triunfó en unas Navidades en que las ventas no estaban funcionando.
Cloud computing como facilitador de big data
Y el honor de cerrar la sesión me correspondió a mí, en representación de Telefónica Digital. Me centré en contar que ya no es necesario realizar grandes inversiones para comprar infraestructura capaz de procesar grandes volúmenes sino que, gracias al cloud computing es posible alquilarla y pagar en cada momento sólo por lo que se necesite. La apuesta de Telefónica es Instant Servers, que proporciona servidores virtuales de alto rendimiento que se pueden escalar según las necesidades de cómputo e incorporan la plantilla de Hadoop instalada en el sistema operativo SmartOS, lo que permite una configuración óptima. Además, las soluciones de big data sobre Instant Servers van tres veces más rápido que en otras infraestructuras con la misma capacidad, lo que permite también la opción de contratar un tercio de la infraestructura, reduciendo aún más los costes.
Telefónica también ofrece una solución de big data extremo a extremo que incluye una fase de identificación de fuentes tanto internas como externas, una auditoría para eliminar datos erróneos, un proceso de modelado que identifica qué palancas afectan a su comportamiento, y con un modelo bayesiano identifica cómo se correlacionan estadísticamente y de esta forma es posible realizar predicciones. Después, se entrega a la empresa un portal en el que puede ver sus datos, acceder a informes y realizar simulaciones, infiriendo cómo se comportaría la variable objetivo en función de cómo fluctúen las palancas. Todo esto corre sobre Instant Servers de forma transparente para el usuario. Los resultados reales realimentan el modelo y permite que vaya aprendiendo en el tiempo.
Los casos de uso son múltiples: evaluaciones de riesgo para predecir impagos, estudios para identificar cuál es el mejor precio para un producto, identificación de los medios más efectivos para publicitar un producto o la localización del lugar idóneo para abrir un local.
Os dejo mi presentación completa y os recuerdo el hashtag de BDigital Global Congress: #2013BDGC

Soluciones y Sectores
Te puede interesar
-
Lecciones aprendidas en la implantación de la salud digital
Recientemente se celebró la III Semana de Salud Digital, que incluía, como parte fundamental, el X Congreso Internacional de ...
-
Cómo llegar con la comunicación a la Luna con ayuda de la tecnología: MoonBack
Una de las conclusiones del informe “El puesto de trabajo en España" es que uno de los principales beneficios ...
-
Smart Workplace y el curioso caso de Benjamin Button
A principios de año ya anunciaba en este blog el lanzamiento del servicio Smart Workplace, una nueva propuesta de ...