El crecimiento de la capacidad del modelo de IA no se ha parecido en nada a la forma en que se desarrolla la inteligencia humana, pero todavía existe una suposición generalizada entre los tipos de IA de que AGI o superinteligencia tendrá, inevitablemente, la misma distribución de capacidades que los genios humanos. parece incorrecto
la observación de karpathy (otros también) de que RL produce un conjunto de capacidades que nunca podrían convertirse en AGI (es decir, que escalar los datos de entrenamiento y mejorar la calidad de los datos nunca puede conducir a modelos que sean agenciales o novedosos generadores de información o w/e) también podría generalizar
es decir, no me parece que haya una ley del universo que diga que todo el paquete de inteligencia humana en toda la población será replicable utilizando técnicas de ML en absoluto, y mucho menos una dirección de investigación dada
me parece muy plausible (un idiota por cierto) que se puedan construir modelos de IA agenciales de aprendizaje continuo que sean capaces de hacer casi todo el trabajo de un analista legal de primer nivel en una empresa, pero solo el 50 o 60% del trabajo de un académico legal que trabaja en un nuevo campo
Esto es obvio para los abogados, por cierto, porque saben que los abogados que trabajan en nuevos campos o subcampos básicamente están inventando leyes por analogía, etc.
No soy un tipo de física, pero el equivalente sería que puedes alojar a 10,000 estudiantes de posgrado que se superan a sí mismos en un centro de datos sin poder hacer el trabajo de un Einstein (o lo que sea, no sé si el "cuándo reemplazará AGI a Einstein" es una hipótesis útil en absoluto)
Incluso si asume que es posible replicar la visión humana en conjunto con, digamos, una combinación de varias arquitecturas de modelos diferentes en concierto, eso me parece mucho al tipo de problema de optimización en el que se ha convertido ahora el ajuste de los modelos de frontera.
3.86K