¿Qué son los big data y por qué son importantes?

La gran cantidad de información requiere de nuevas formas de procesamiento, explica Guido Ipszman, director de Ventas de Soluciones Analíticas de SAP

Por Guido Ipszman, director de Ventas de Soluciones Analíticas, SAP Sudamérica de Habla Hispana y el Caribe.

Guido Ipszman, director de Ventas de Soluciones Analíticas en SAP

Si bien desde hace unos meses se escucha hablar en distintos ámbitos con mucha fuerza sobre big data, la realidad nos muestra que son muchos los que todavía se preguntan qué significa exactamente ese concepto. Para definirlo, apelamos a la consultora especializada Gartner, que dice: "la información se convierte en big data cuando el volumen que genera no puede ser administrado con herramientas de bases de datos normales". La gran cantidad de información que están produciendo y difundiendo las empresas y los usuarios a través de las redes sociales, entre otros medios, requieren de nuevas formas de procesamiento que permitan una mejor toma de decisiones y optimicen el proceso de descubrimiento de conocimiento. El gran desafío que tienen los altos niveles gerenciales es, entonces, procesar todos estos datos en tiempos cortos.

De acuerdo con las predicciones de la empresa Cisco, el volumen de datos en Internet se cuadruplicará entre 2011 y 2016, a 1,3 zettabytes por año. En el mismo período, el número de dispositivos conectados a Internet se duplicará a 19.000 millones. Los dispositivos móviles, las redes inalámbricas, las redes sociales, los sensores y las máquinas son algunas de las fuentes que generan la masa crítica de datos. Dependiendo de dónde procedan, sus características pueden variar significativamente. Un punto clave a considerar si se los quiere convertir en conocimiento.

Es cierto que los big data representan un problema en términos de almacenamiento y análisis. Pero el problema real, según Gartner, es la detección de patrones significativos que ayuden a las empresas a tomar mejores decisiones. La búsqueda de datos significativos se ve obstaculizada por la forma en que se estructuran, que genera dificultades para los sistemas actuales. Las bases de datos relacionales (RDBMS, por sus siglas en inglés), que soportan prácticamente todos los procesos centrales, son muy buenas para el almacenamiento de datos transaccionales estructurados en filas y columnas, lo que los hace fácilmente accesibles. Pero los datos transaccionales se componen fundamentalmente de campos, cada uno de los cuales aloja el atributo de un único dato, como un valor numérico o alfanumérico.

¿Pero cómo almacenar allí un correo electrónico, un tweet o un mensaje de Facebook? Claramente, son necesarias nuevas herramientas para el análisis de datos con múltiples estructuras y, al mismo tiempo, los usuarios necesitan desarrollar otras bases de datos más adecuados para el trabajo a mano.

En la actualidad existen herramientas para datos que tienen un grado de estructura. Los registros de llamadas de un call center, por ejemplo, consisten en formularios estandarizados que los agentes completan, con una estructura prescrita que hace que las búsquedas sean relativamente sencillas de realizar. Por otro lado, las tiendas en Internet utilizan herramientas que registran los "clics de mouse" que realizan los usuarios mientras navegan por una página y crean lo que se conoce como clickstream, que las grandes empresas llevan años almacenando con la esperanza de analizarlos y reconocer patrones.

Es que esos análisis dan a las áreas de atención al cliente información útil acerca de cómo podrían mejorar la publicidad, el marketing, las campañas de ventas y hasta el desarrollo de productos. Esto se debe a que los registros de esos clics ofrecen, por lo general, una imagen muy clara de las preferencias de los usuarios y qué productos o características no les interesa en absoluto. Algo extremadamente valioso cuando revela nuevas tendencias, que aparecen inicialmente como valores estadísticos atípicos. Esto da a las empresas la posibilidad de desarrollar productos que pueden transformarlos en líderes de mercado y que marquen el camino.

La capacidad para manejar volúmenes de datos extremadamente grandes se convertirá en un pilar básico para las organizaciones. Cada vez más, se buscará utilizar nuevas formas de información, como texto, contexto y las redes sociales, para identificar patrones que soporte la toma de decisiones en lo que se denomina, precisamente, una estrategia basada en patrones y que representa la fuerza detrás de los big data. Se basa en el uso de toda la gama de dimensiones en la búsqueda de patrones significativos y sus resultados constituyen la base para el modelado de nuevas soluciones de negocio que permitan adaptarse a las condiciones cambiantes del mercado.

Según Steve Janata, consultor de Experton Group, "a escala mundial, las empresas invirtieron 3.380 millones de euros en proyectos de big data y servicios en el 2011". El mercado de nuevas soluciones crecerá un 36% anual entre 2011 y 2016 y, sólo en Alemania, unos 350 millones de euros se invertirán en el mercado de los grandes volúmenes de datos en 2012, lo que lo convierte en uno de los segmentos de más rápido crecimiento en la industria de TI y en una fuerza impulsora en la economía de las TI en su conjunto.


Más información: www.sap.com.