Definición - ¿Qué significa Hadoop Common?
Hadoop Common se refiere a la colección de utilidades y bibliotecas comunes que admiten otros módulos de Hadoop. Es una parte o módulo esencial de Apache Hadoop Framework, junto con Hadoop Distributed File System (HDFS), Hadoop YARN y Hadoop MapReduce. Como todos los demás módulos, Hadoop Common asume que las fallas de hardware son comunes y que Hadoop Framework las debe manejar automáticamente en el software.
Hadoop Common también se conoce como Hadoop Core.
Techinfo explica Hadoop Common
El paquete Hadoop Common se considera la base / núcleo del marco, ya que proporciona servicios esenciales y procesos básicos como la abstracción del sistema operativo subyacente y su sistema de archivos. Hadoop Common también contiene los archivos Java Archive (JAR) necesarios y los scripts necesarios para iniciar Hadoop. El paquete Hadoop Common también proporciona código fuente y documentación, así como una sección de contribución que incluye diferentes proyectos de la comunidad Hadoop.