En los últimos tiempos, factores como alertas sanitarias, el teletrabajo y otros condicionantes, han empujado a las empresas, principalmente de servicios, a potenciar en gran parte su negocio en la Web.
Cada día las empresas crean y exponen más servicios Web para sus clientes con el objetivo de ofrecer una autonomía y disponibilidad del servicio sin tener en cuenta conceptos como horarios o ubicaciones físicas.
Esto conlleva, además de la provisión de la propia infraestructura y de la oferta de un servicio de calidad y funcional, un ejercicio de reflexión sobre el uso que se hace de dichos servicios y surgen preguntas como: ¿Cuántos usuarios hacen uso de mis servicios?, ¿desde qué lugares del mundo se realizan los accesos a mis servicios?, ¿Cuánto tiempo tardan mis servicios en dar respuesta?, ¿Qué IP origen es la que más datos está transfiriendo con mi servicio? Y muchas preguntas más que aseguren tanto la calidad del servicio como el uso fidedigno del mismo.
Para resolver estar cuestiones, las empresas han de analizar los eventos de log que los servicios van generando a lo largo del tiempo, lo cual supone un trabajo costoso y que en muchas ocasiones se dilatan tanto en el tiempo que para cuando se consiguen conclusiones del uso de nuestros servicios ya no tienen validez y este hecho se acrecienta en organizaciones que disponen de muchos servicios expuestos.
El stack Elastic, que nació originariamente como un buscador, ofrece con todas las piezas de que se compone una solución integral de centralización de logs que cubre cada una de las fases entre la generación del evento de actividad en el servidor Web y la presentación de dicho evento tratado, modelado y enriquecido convenientemente en base a las necesidades del cliente, pudiendo incluso generar alertas en tiempo real sobre el uso de los servicios.
La fase de acceso y recogida de los eventos de origen la realizan los Beats, pequeños agentes ligeros y eficientes desarrollados por Elastic, que estarán leyendo continuamente todas y cada una de las líneas de log que se escriban en los servidores Web, sin interferir en el funcionamiento o rendimiento del servidor. La tarea de los Beats es asegurar que cada evento generado se envía a la siguiente fase del proceso de tratamiento de los datos, Logstash.
Logstash es el ETL del stack que se encargará de la segmentación y extracción de los campos necesarios en base a cómo se vayan a explotar, además de aportar la capacidad de enriquecer los eventos con datos de categorización que nos ayudarán posteriormente a realizar filtrados y búsquedas.
Será en Elasticsearch, herramienta core de la solución, donde se almacene la información tras los procesos de recogida y transformación con las características necesarias para realizar posteriormente una explotación adecuada de la misma.
Finalmente desde Kibana, herramienta de interacción con Elasticsearch para la explotación de los datos y la administración del ecosistema, donde se generará en colaboración directa con el cliente uno o varios dashboards o cuadros de mando con las visualizaciones necesarias que den respuesta a las preguntas que planteábamos anteriormente en tiempo real y con una capacidad de personalización en las búsquedas casi infinitas.
Como conclusión podemos decir que Elastic Stack resuelve mediante un proceso sencillo el control absoluto del uso que hacen los clientes de los servicios Web que nuestra empresa ofrece y asegurar la información suficiente en tiempo real para detectar posibles anomalías o comportamientos fraudulentos sobre nuestros servicios y poder contrarrestar así con las acciones necesarias estos comportamientos aportando seguridad y confianza al cliente final.