Cerrar

Principales herramientas de Big Data que debes conocer

Principales herramientas big data
Solver

Solver

Publicado el martes, 19 de abril de 2022 a las 17:00

Estamos ante un aumento constante de las herramientas de Big Data que hacen que nos perdamos en siglas y nombres con significados muchas veces desconocidos para la mayoría, y que hacen que a las empresas les cueste tomar decisiones sobre qué herramientas utilizar. 

A los Ingenieros en Informática y, en concreto, a los que nos especializamos en los datos, se nos generan dos problemas diferentes pero muy unidos:

  • Por un lado, nos encontramos con el problema del almacenamiento de los datos. Estos deben ser almacenados en sistemas y de maneras que podamos recuperarlos de una forma lo más sencilla y rápida posible. De nada nos sirven los datos si luego no somos capaces de encontrarlos o almacenarlos.
  • Por otro, tenemos un problema con el procesamiento de los mismos. No es lo mismo, ni se utilizan las mismas técnicas, para procesar un fichero con 1000 líneas de datos (algo que podríamos hacer hasta en nuestro teléfono móvil) que procesar un fichero con 1000 millones de líneas, y el tiempo de procesado no es el mayor de nuestros problemas.

Ante estos retos, se desarrollaron una multitud de herramientas para el almacenamiento y procesamiento de datos de forma distribuida. Desde Solver, te descubrimos las herramientas más conocidas y utilizadas:

1. Apache Hadoop

Se trata de un framework de software opensource que permite el tratamiento y gestión distribuido de grandes volúmenes de información. Además del Hadoop Common, consta de los siguientes componentes:

  • Hadoop Distributed File System (HDFS): Sistema de archivos distribuido que ofrece un alto rendimiento en los accesos a los datos. Diseñado para ser ejecutado en hardware de bajo coste y para que, su conjunto, sea tolerante a fallos y de alta disponibilidad.

 

  • Hadoop Yarn (Yet Another Resource Negotiator): Framework para gestión de recursos y planificación de tareasCombina un gestor de recursos central que gestiona la forma en que las aplicaciones utilizan los recursos del sistema, con agentes gestores en los nodos que gestionan las operaciones de proceso en los nodos individuales del clúster.

 

  • Hadoop MapReduce: Sistema para el procesamiento en paralelo de grandes volúmenes de información. El paradigma MapReduce se emplea para resolver algunos algoritmos que son susceptibles de ser paralelizados. Se basa en realizar el procesamiento de la información en el mismo lugar en que ésta reside. Al lanzar un proceso de MapReduce, las tareas son distribuidas entre los diferentes nodos del clúster. La parte de computación se realiza de forma local en el mismo nodo que contiene los datos, por lo que se minimiza el tráfico de datos por la red y paraleliza a nivel de nodos de un cluster.

2. Apache Spark 

Es un framework de código abierto para computación en clúster. Ha sido desarrollado para optimizar el rendimiento, y puede resultar hasta 100x veces más rápido que que Hadoop tanto para los procesos en batch como en streaming. Se puede utilizar en diferentes lenguajes de programación (Scala, Python, R). Además, dispone de librerías específicas para trabajar con SQL, para procesar datos en streaming, procesos de Machine Learning y la generación de gráficos

3. Apache Hive 

Es un software para gestión de un datawarehouse de forma distribuida y que permite gestionar grandes volúmenes de datos utilizando SQL y trabajando sobre el sistema de almacenamiento de Hadoop HDFS u otros sistemas de almacenamiento distribuido como S3 de Amazon.

4. Apache Cassandra

Software opensource para la gestión de bases de datos NoSQL, construidas para manejar grandes volúmenes de información. Es un sistema con alta disponibilidad, que no tiene un único punto de fallo y que está diseñado para el procesado rápido de grandes volúmenes de información. Dispone de un lenguaje de consulta propio, Cassandra Structure Language (CQL).

5. MongoDB  

Probablemente sea la base de datos de propósito general, distribuida y NoSQL más utilizada actualmente. También es open source y está orientada al almacenamiento de documentos, utilizando para ello un formato BSON (similar al JSON). Permite el sharding y las réplicas.

6. Apache Kafka 

Seguramente, es la plataforma para gestión de datos distribuidos en su versión streaming más utilizada. Permite capturar la información de diferentes fuentes (IoT, bases de datos, etc.) en tiempo real para su almacenamiento, procesado o análisis. Es muy utilizado en sistemas de gestión y análisis de cookies de navegación web

6.721 visitas

Utilizamos cookies propias y de terceros para ofrecerte toda la funcionalidad y una mejor experiencia, obtener estadísticas de tráfico, analizar el uso de la web y mejorar nuestros servicios.
Tienes disponible aquí nuestra política de cookies.
Puedes aceptar todas nuestras cookies pulsando el botón 'ACEPTAR' o configurar aquí tus preferencias.

Estrictamente necesarias +

Estas cookies son necesarias ya que permiten que el sitio web funcione correctamente, no se pueden desactivar.

Estadísticas +

Son las cookies que utilizamos exclusivamente con fines estadísticos para poder analizar cómo los usuasrios hacen uso de la web. Recopila información anónima tal como el número de visitantes del sitio, o las páginas más populares. Activar estas cookies nos permite seguir mejorando.

Funcionales +

Estas cookies son necesarias para el intercambio y presentación de contenidos de plataformas externas como youtube o de redes sociales como facebook, twitter o linkedin.

Marketing y publicidad +

Estas se utilizan para crear perfiles de usuario y analizar la efectividad de campañas publicitarias o para rastrear al usuario en un sitio web o en varios sitios web con fines de marketing similares..

GUARDAR AJUSTESACEPTO