Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Primer estudio a gran escala sobre agentes de IA que realmente funcionan en producción.
El bombo dice que los agentes están transformando todo. Los datos cuentan una historia diferente.
Los investigadores encuestaron a 306 profesionales y realizaron 20 estudios de caso en profundidad en 26 dominios. Lo que encontraron desafía las suposiciones comunes sobre cómo se construyen los agentes en producción.
La realidad: los agentes en producción son deliberadamente simples y están estrictamente limitados.
1) Patrones y Fiabilidad
- El 68% ejecuta como máximo 10 pasos antes de requerir intervención humana.
- El 47% completa menos de 5 pasos.
- El 70% se basa en modelos estándar sin ningún ajuste fino.
- El 74% depende principalmente de la evaluación humana.
Los equipos intercambian intencionadamente autonomía por fiabilidad.
¿Por qué las limitaciones? La fiabilidad sigue siendo el principal desafío no resuelto. Los profesionales no pueden verificar la corrección de los agentes a gran escala. Los puntos de referencia públicos rara vez se aplican a tareas de producción específicas de dominio. El 75% de los equipos entrevistados evalúan sin puntos de referencia formales, confiando en pruebas A/B y retroalimentación directa de los usuarios en su lugar.
2) Selección de Modelos
El patrón de selección de modelos sorprendió a los investigadores. 17 de los 20 estudios de caso utilizan modelos de frontera de código cerrado como Claude Sonnet 4, Claude Opus 4.1 y GPT o3. La adopción de código abierto es rara y está impulsada por limitaciones específicas: cargas de trabajo de alto volumen donde los costos de inferencia se vuelven prohibitivos, o requisitos regulatorios que impiden compartir datos con proveedores externos. Para la mayoría de los equipos, los costos de ejecución son insignificantes en comparación con los expertos humanos que el agente complementa.
3) Marcos de Agentes
La adopción de marcos muestra una divergencia notable. El 61% de los encuestados utiliza marcos de terceros como LangChain/LangGraph. Pero el 85% de los equipos entrevistados con implementaciones en producción construyen implementaciones personalizadas desde cero. La razón: los bucles centrales de los agentes son sencillos de implementar con llamadas API directas. Los equipos prefieren andamios mínimos y diseñados para un propósito en lugar de sobrecarga de dependencias y capas de abstracción.
4) Flujo de Control de Agentes
Las arquitecturas de producción favorecen flujos de trabajo estáticos predefinidos sobre la autonomía abierta. El 80% de los estudios de caso utilizan un flujo de control estructurado. Los agentes operan dentro de espacios de acción bien definidos en lugar de explorar libremente los entornos. Solo un caso permitió la exploración sin restricciones, y ese sistema funciona exclusivamente en entornos aislados con rigurosa verificación CI/CD....

Parte superior
Clasificación
Favoritos

