Decimal

Definición - ¿Qué significa Decimal?

En el contexto de la informática, decimal se refiere al sistema de numeración de base 10. Es la forma en que los humanos leen los números. En general, decimal puede ser cualquier cosa que se base en el número 10. Entender cómo el decimal se relaciona con binario, octal y hexadecimal es esencial para quienes trabajan en la industria de TI.

Otros términos para decimal son base-10 y denario.

Techinfo explica Decimal

En matemáticas, decimal puede referirse al sistema de numeración decimal, notación decimal o cualquier número escrito en notación decimal. Los números decimales se escriben de acuerdo con su valor posicional. El número entero se escribe a la izquierda del punto decimal y cualquier número fraccionario se escribe a la derecha (por ejemplo, 1.023).

El uso del decimal es tan antiguo como la historia de la humanidad. El uso común del decimal puede deberse a los diez dedos de los humanos (que también podrían llamarse bi-quinarios, ya que hay cinco dedos en cada mano). El decimal se usaba en calculadoras antiguas como el cálculo de varillas chinas y el ábaco. El matemático griego Arquímedes usó poderes de 108 (10,000 × 10,000, o "miríadas de miríadas") para estimar el tamaño del universo.

Base-10 usa los números 0-1-2-3-4-5-6-7-8-9, en oposición al 0-1 usado en binario. Las computadoras modernas cuentan en binario, pero también ha habido computadoras decimales. El motor analítico de Charles Babbage se diseñó utilizando decimal. Otras computadoras tempranas como ENIAC e IBM 650 usaban base 10 internamente.