Ley de shannon

Definición: ¿Qué significa la ley de Shannon?

La ley de Shannon es una teoría matemática para codificar información aplicándole un valor (0 o 1). Esta formulación se considera la base de las comunicaciones digitales. La ley de Shannon fue concebida por el matemático Claude Shannon, quien demostró que las matemáticas podían usarse para calcular la mayor cantidad teórica de información transmitida por un sistema de comunicaciones basado en las leyes físicas de la termodinámica. La ley de Shannon establece que la máxima velocidad de datos sin errores alcanzable, en bits por segundo (bps), es una función de la relación señal-ruido y el ancho de banda.

Techinfo explica la ley de Shannon

La ley de Shannon se establece como se muestra a continuación: C = B log2 <(1 + S / N) donde: C es la velocidad de datos sin errores más alta alcanzable en bps que puede ser manejada por un canal de comunicación. B es el ancho de banda del canal en hercios. S es la potencia de señal promedio recibida sobre el ancho de banda calculado en vatios (o voltios al cuadrado). N es la potencia media de interferencia o ruido sobre el ancho de banda calculado en vatios (o voltios al cuadrado) S / N es la relación señal / ruido (SNR) de la señal de comunicación a la interferencia de ruido gaussiano representada como la relación de potencia lineal. La función log2 significa el logaritmo en base 2. Todos los logaritmos son exponentes. Suponiendo que xey son dos números, el logaritmo en base 2 de x es y, siempre que 2y = x. La explicación de Shannon de la información para las redes de comunicación ayuda a identificar las relaciones importantes entre varios elementos de la red. Las ecuaciones de Shannon ayudan a los ingenieros a determinar la cantidad de información que podría transportarse a través de los canales asociados con un sistema ideal. Shannon's sigue siendo la base para ingenieros y científicos de la comunicación en su búsqueda interminable de sistemas de comunicación más rápidos, más robustos y con mayor eficiencia energética. Mostró matemáticamente los principios de compresión de datos y también mostró cómo se pueden utilizar las tasas de error controladas para asegurar la integridad cuando la información se transmite por canales ruidosos. Aún no se han diseñado sistemas de comunicaciones prácticos que puedan funcionar cerca del límite de velocidad teórico descrito por la ley de Shannon. Algunos sistemas que emplean codificación y decodificación avanzada pueden alcanzar el 50 por ciento del límite especificado por Shannon para un canal con una relación señal / ruido y ancho de banda fijos.