Definición: ¿Qué significa detección de errores?
En las redes, la detección de errores se refiere a las técnicas utilizadas para detectar ruido u otras deficiencias introducidas en los datos mientras se transmiten desde el origen al destino. La detección de errores asegura la entrega confiable de datos a través de redes vulnerables.
La detección de errores minimiza la probabilidad de pasar tramas incorrectas al destino, lo que se conoce como probabilidad de error no detectado.
Techinfo explica la detección de errores
El método más antiguo de corrección de errores implica el uso de paridad. Funciona agregando un bit adicional a cada palabra de carácter transmitida. El estado del bit está determinado por una serie de factores, como el tipo de paridad y el número de bits uno lógico en el carácter de datos.
El código de repetición es otro mecanismo relacionado con la detección de errores. Es un esquema de codificación que repite bits en todos los canales para lograr una comunicación sin errores. Los bits de datos en un flujo de datos se dividen en bloques de bits. Cada bloque se transmite un número predeterminado de veces. No son tan efectivos como la paridad, porque la ocurrencia de errores en el mismo lugar genera más problemas. Sin embargo, son simples y se utilizan en la transmisión de estaciones numéricas.
Checksum es un método de detección de errores que es una suma aritmética modular de palabras de código de mensaje de longitud de palabra fija. Los esquemas de suma de comprobación implican comprobaciones de redundancia longitudinal, bits de paridad y dígitos de comprobación.