Definición: ¿Qué significa Packet Buffer?
Un búfer de paquetes es un espacio de memoria reservado para almacenar paquetes que esperan ser transmitidos a través de redes o para almacenar paquetes recibidos a través de redes. Estos espacios de memoria están ubicados en una tarjeta de interfaz de red (NIC) o en la computadora que contiene la tarjeta.
Los paquetes se almacenan temporalmente durante la transmisión de información para crear una reserva para su uso durante los retrasos de transmisión de paquetes o durante una solicitud de retransmisión. El almacenamiento en búfer de paquetes en los sistemas de medios reduce los efectos de los retrasos y la pérdida de paquetes para la transmisión. El almacenamiento en búfer proporciona el tiempo necesario para sincronizar paquetes y solicitar y reemplazar los perdidos durante la transmisión.
Techinfo explica el búfer de paquetes
Los búferes de paquetes se encuentran normalmente en dispositivos de recepción, aunque en algunos casos se utilizan en dispositivos de envío para permitir la rápida selección y retransmisión de paquetes solicitados por los dispositivos en el extremo receptor.
Los paquetes para cada aplicación se multiplexan en flujos únicos. Un algoritmo de gestión de búfer de paquetes determina si un paquete debe aceptarse o rechazarse. Los paquetes aceptados se colocan en colas lógicas de primero en entrar, primero en salir (FIFO), donde cada aplicación tiene su propia cola en búfer de paquetes. Un paquete aceptado permanece en el búfer hasta que una aplicación lo recupera. Los paquetes recién llegados se rechazan cuando el búfer está lleno.
Un búfer de paquetes en paralelo incorpora un módulo de memoria de memoria dinámica de acceso aleatorio (DRAM) individual para emular un búfer de memoria común, donde cada módulo tiene el mismo tamaño, ancho de datos y tiempo de acceso. La cantidad total de datos almacenados en búfer es la capacidad de almacenamiento en búfer agregada de cada módulo de memoria. Las operaciones de lectura y escritura se realizan en forma de canalización en módulos de memoria individuales. Mientras que un paquete se escribe en algún otro módulo de memoria, los paquetes recién llegados se escriben en módulos a los que no se accede actualmente. El acceso canalizado y simultáneo a módulos de memoria individuales aumenta el ancho de banda agregado, reduciendo las cargas en la memoria individual.