Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Este documento del Grupo BMW y el principal instituto de investigación de Corea expone un punto ciego en el que casi todas las empresas que utilizan LLMs están caminando directamente.
Seguimos hablando de "alineación" como si fuera un interruptor de seguridad universal.
No lo es.
El documento presenta COMPASS, un marco que muestra por qué la mayoría de los sistemas de IA fallan no porque sean inseguros, sino porque están desalineados con la organización que los despliega.
Aquí está la idea central.
Los LLMs suelen ser evaluados en función de políticas genéricas: reglas de seguridad de la plataforma, directrices éticas abstractas o rechazos al estilo de benchmarks.
Pero las empresas reales no funcionan con reglas genéricas.
Funcionan con políticas internas:
- manuales de cumplimiento
- libros de jugadas operativas
- procedimientos de escalación
- casos legales extremos
- restricciones específicas de la marca
Y estas reglas son desordenadas, superpuestas, condicionales y llenas de excepciones.
COMPASS está diseñado para probar si un modelo puede realmente operar dentro de ese desorden.
No si conoce el lenguaje de políticas, sino si puede aplicar la política correcta, en el contexto correcto, por la razón correcta.
El marco evalúa modelos en cuatro aspectos que los benchmarks típicos ignoran:
...

Parte superior
Clasificación
Favoritos
