El Big Data constituye el conjunto de tecnologías de computación desarrolladas para procesar y explotar grandes cantidades de datos que, por su volumen, variedad y velocidad, no pueden ser tratados usando procesos o herramientas tradicionales.
ITI trabaja con diferentes perfiles Big Data:
- Especializados en el diseño, desarrollo y mantenimiento de los procesos necesarios para la extracción, carga, almacenamiento y procesamiento de datos en las organizaciones para que la explotación de los mismos (analítica) puede llevarse a cabo de manera segura y eficaz.
- Realizando funciones relacionadas con el proceso ETL (Extract,Transform, Load) de diferentes orígenes o fuentes de datos para su integración, normalización (limpieza) y carga en bases de datos o estructuras en local o cloud.
- Con conocimientos vinculados a entornos y arquitecturas que permitan la gestión y procesamiento de grandes volúmenes de datos (Big Data) que no puedan ser tratados de manera convencional. Incluye bases de datos, entornos virtualizados, tratamiento de datos en entornos distribuidos, componentes Big Data (ingesta, almacenamiento, visualización, etc.), servicios Big Data de plataformas cloud, etc.
Las herramientas Big Data para el procesamiento de datos masivos más habituales son: Hadoop, Apache Spark,Storm, Kafka, RabbitMQ.