Instituto Nacional de ciberseguridad. Sección Incibe
Instituto Nacional de Ciberseguridad. Sección INCIBE-CERT

Vulnerabilidad en vLLM (CVE-2025-29770)

Gravedad CVSS v3.1:
MEDIA
Tipo:
No Disponible / Otro tipo
Fecha de publicación:
19/03/2025
Última modificación:
19/03/2025

Descripción

vLLM es un motor de inferencia y servicio de alto rendimiento y eficiente en memoria para LLM. La librería de esquemas es uno de los backends que vLLM utiliza para la salida estructurada (también conocida como decodificación guiada). Outlines proporciona una caché opcional para sus gramáticas compiladas en el sistema de archivos local. Esta caché está activada por defecto en vLLM. Outlines también está disponible por defecto a través del servidor de API compatible con OpenAI. El código afectado en vLLM es vllm/model_executor/guided_decoding/outlines_logits_processors.py, que utiliza incondicionalmente la caché de outlines. Un usuario malintencionado puede enviar un flujo de solicitudes de decodificación muy cortas con esquemas únicos, lo que resulta en una adición a la caché para cada solicitud. Esto puede provocar una denegación de servicio si el sistema de archivos se queda sin espacio. Tenga en cuenta que, incluso si vLLM se configuró para usar un backend diferente por defecto, aún es posible seleccionar esquemas por solicitud mediante la clave `guided_decoding_backend` del campo `extra_body` de la solicitud. Este problema solo afecta al motor V0 y se solucionó en la versión 0.8.0.