Como definición, Big Data comprende el enorme conjunto y volumen de datos que actualmente tratan, trabajan y modelan las compañías. Que resuelven problemas, proporcionan respuestas, facilitan la toma de decisiones, posibilitan investigaciones y permiten concluir tendencias de comportamiento. Además de los hábitos de usuarios, prevención de fraudes, análisis de salud, estudios de marketing y patrones estadísticos aplicables a innumerables sectores e industrias.
En el momento en que se produjo la “explosión de la información”, provocada por enormes volúmenes de datos y el flujo de tráfico que estos provocan, superaron la capacidad de procesamiento de los sistemas de bases de datos convencionales. Estos datos eran demasiado grandes y cambiantes a alta velocidad. Por lo que los motores de almacenamiento y las estructuras de bases de datos creadas hasta ese momento no eran válidos para su tratamiento. Por lo tanto, fue imprescindible explorar nuevas técnicas para realizar el almacenamiento, tratamiento y estudio de los datos.
Desde 2011 se empezó a vislumbrar la exigencia de técnicas precisas para administración de datos masivos. Para lo que se investigaron diferentes procedimientos que solucionasen esta imperiosa necesidad. Estos pasaban por mayores estructuras hardware que almacenaban y procesaban petabytes de datos. Pero no con la celeridad que precisaban los resultados.
Estudio de comportamiento
La urgencia de los resultados tiene claramente establecida su recompensa, ya que los datos, en sí mismos, no importan. Lo que realmente interesa es extraer apuntes, detalles, pautas y relaciones, es decir, patrones.
La información que se desgaja en un proceso integrado en técnicas Big Data permite su estudio analítico. Que descubre datos ocultos entre la montaña de datos que diariamente se mueven en la red. A diferencia de determinados informes de uso y acceso que se realizaban hasta hace pocos años, estos nuevos estudios no sólo revelan pautas claras de comportamiento y preferencias. Sino que predicen las tendencias que se producirán en diferentes espacios temporales.
Estos análisis investigan todo tipo de rangos de perfil de los usuarios. Desde transacciones y compras, navegación o preferencias, hasta comportamientos sociales, plazas geográficas y usos cotidianos. Gracias al web mining, los exámenes e investigaciones producen respuestas clarificadoras. Que se convierten rápidamente en productos y servicios ofrecidos a los usuarios a nivel mundial, con la inmediatez que ofrece la estructura de comunicaciones actual.
El Big Data está situado un peldaño por encima del marketing y mil de la publicidad como tal. Ya que dirige la implantación de los mismos de manera clara y precisa. Como técnica 3.0, debe proporcionar la agilidad de respuesta que requiere la enorme estructura de redes sociales, servicios cloud, intercambio de información y sitios altamente visitados. De hecho, los servicios son variables y su ciclo de vida suele ser efímero. Si sumamos la gran competitividad que existe en la red, esta velocidad de resultados se presume más necesaria.
Volúmenes de datos
El ingente volumen de ceros y unos que corren por la red es el gran desafío del Big Data. Estos datos no tienen ningún modelo de estructuración, ya que su origen es de diferentes (innumerables) plataformas y sitios. Y su destino puede ser uno entre cientos o incluso miles de servicios. El flujo de datos procede de redes sociales, empleo de servicios web y alojamiento en servidores. También de descargas de recursos, actualización y creación de sitios, producción de contenidos… y una larga lista de tráfico activo con datos incorporados.
Además, desde 2009 hay que añadir los dispositivos móviles conectados a la red. Que son lanzaderas de desmedidas cantidades de datos en forma de conversaciones y mensajes, fotografías, videos y archivos. Y desde 2018 la inmersión lenta pero segura de los asistentes de voz.
El concepto físico-virtual de nube, por lo tanto, no sólo implica transacciones cliente-servidor de forma remota. Sino que abarca todo tipo de tecnologías y su relación con el Big Data es estrecha. No sólo hay que contemplar en el tratamiento de los datos su posterior análisis. También hay que presentar recursos sólidos en almacenamiento, seguridad y servicio. El crecimiento de la nube ha sido exponencial en los últimos cinco años, ya que hay que sumar factores determinantes para el incremento del tráfico. Como el aumento de velocidad de las conexiones y la suma permanente de nuevas tecnologías, dispositivos y servicios.
Autor: José Manuel Ezquerra Lebrón