xiand.ai
IA

Hugging Face lanza Open Responses para estandarizar la inferencia de agentes de IA

Hugging Face ha anunciado la creación de Open Responses, un estándar abierto para la inferencia de agentes de inteligencia artificial. Esta iniciativa busca suplantar el formato Chat Completion obsoleto y ofrecer interoperabilidad entre proveedores. La plataforma permitirá exponer razonamiento bruto y gestionar bucles de herramientas de manera estandarizada.

La Era

3 min de lectura

Hugging Face Launches Open Responses Standard to Standardize Agentic AI Workflows
Hugging Face Launches Open Responses Standard to Standardize Agentic AI Workflows

Hugging Face ha presentado oficialmente Open Responses según su blog técnico, un nuevo estándar abierto para la inferencia de sistemas autónomos. Esta iniciativa busca reemplazar el formato Chat Completion que domina actualmente el sector tecnológico. El objetivo es facilitar la interoperabilidad entre diferentes proveedores de inferencia y desarrolladores de software.

La propuesta se basa en la API Responses lanzada por OpenAI en marzo de 2025. Sin embargo, Hugging Face ha abierto el código y lo ha adaptado para ser accesible a toda la comunidad global. Esto permite que los constructores de aplicaciones utilicen una interfaz común sin depender de un solo proveedor privado.

La industria ha notado que el formato tradicional de chat no es adecuado para agentes que razonan a largo plazo. Los sistemas autónomos requieren planificación y acción sobre horizontes temporales extendidos para tareas complejas. Actualmente, el ecosistema sigue usando una interfaz diseñada originalmente para conversaciones turn-based.

Una diferencia clave es la exposición del contenido de razonamiento detrás de las respuestas generadas. Las implementaciones anteriores solían devolver solo resúmenes o contenido cifrado para proteger la propiedad intelectual. Con Open Responses, los proveedores pueden exponer el razonamiento crudo a través de la API si así lo deciden. Los clientes ahora tienen la oportunidad de manejar flujos de razonamiento cuando el proveedor lo soporte explícitamente.

El nuevo estándar formaliza el bucle de agentes mediante el uso de herramientas internas y externas. Las herramientas internas se ejecutan dentro de la infraestructura del proveedor de modelos sin intervención externa. Las externas pueden incluir servidores MCP o funciones ejecutadas en el lado del cliente para expansión.

Los proveedores de modelos encontrarán que implementar los cambios para Open Responses es sencillo si ya siguen la especificación. Los intermediarios o enrutadores pueden estandarizar sus puntos de conexión mediante esta especificación unificada. Esto reduce drásticamente la necesidad de extensiones no documentadas o soluciones improvisadas en el desarrollo.

Migrar a este nuevo formato mejorará la consistencia de la experiencia de inferencia en general. Las interpretaciones y errores de la API de completados heredada se normalizarán gradualmente con el tiempo. La calidad general debería mejorar a medida que se adopten las mejores prácticas establecidas en la especificación.

Hugging Face ha habilitado una versión de acceso anticipado en sus espacios de prueba públicos. Los desarrolladores interesados pueden probar la herramienta de cumplimiento de Open Responses hoy mismo sin costo. La colaboración con la comunidad continuará durante los próximos meses para adaptar el formato a nuevas necesidades.

El equipo de Hugging Face indica que se espera que los proveedores de endpoints de modelos locales, como vLLM, comiencen a soportar herramientas alojadas en el futuro cercano. Este patrón de agentes que delegan trabajo en bucles de herramientas secundarios se volverá común en la industria. La especificación abre posibilidades potentes para las aplicaciones de inteligencia artificial complejas y escalables.

La adopción de este estándar podría definir la próxima fase de la industria de modelos de lenguaje. Los actores clave observarán cómo interactúan los proveedores y los enrutadores bajo este esquema unificado. Se monitorizará la evolución de la interoperabilidad en el entorno de inferencia durante el próximo año.

Comentarios

Los comentarios se almacenan localmente en tu navegador.