Aquí hay una pregunta importante con la que debemos lidiar cada vez más a medida que las tuberías de IA para matemáticas se vuelven más comunes: ¿Por qué nos importa resolver problemas difíciles? Casi siempre, la respuesta *no* es porque realmente queramos que se resuelva el problema difícil. (1/12)
David Budden
David Budden5 ene, 22:14
Realmente no sé por qué es necesario decir esto, pero ¿podemos dejar de pretender que una línea de prueba matemática con errores es inherentemente más catastrófica que una línea de código con errores? Claro. Algunas lo son. Apostaría (¡metafóricamente!!!!) que el artículo matemático publicado mediano tiene > 0 errores. Sin invalidar.
Preguntas como la existencia de soluciones globalmente suaves a las ecuaciones de Navier-Stokes son de interés matemático no porque la respuesta en sí misma sea terriblemente importante, sino porque tenemos razones para creer que el proceso de *descubrir* la respuesta es muy probable... (2/12)
...para ofrecer nuevas y profundas perspectivas en análisis, EDP, dinámica de fluidos, etc., con nuevas técnicas por explorar. Resolver Fermat nos dio (indirectamente) el programa de Langlands. Resolver Poincaré nos dio el flujo de Ricci. Se espera que resolver Navier-Stokes nos dé algo igual de monumental. (3/12)
De hecho, identificamos tales problemas como "interesantemente difíciles" precisamente porque intuimos que representan una "brecha" en nuestra comprensión y métodos actuales. Por eso, los locos que afirman resolver (digamos) la hipótesis de Riemann utilizando "trucos" o métodos elementales... (4/12)
...están perdiendo un poco el sentido: si uno de estos grandes problemas resultara ser solucionable utilizando solo los conocimientos matemáticos y la tecnología existentes, sería una inmensa decepción: una fuente que anteriormente pensábamos que manaba, de hecho, está seca. (5/12)
¿Qué tiene esto que ver con la IA? Bueno, si se acepta la premisa de que los problemas difíciles son interesantes principalmente por las nuevas ideas y comprensiones que ofrecen, surge la pregunta (a la luz de los desarrollos de la IA): ¿quién es responsable de la parte de "comprensión"? (6/12)
Toma las pruebas por agotamiento (como en el teorema de los cuatro colores), que durante mucho tiempo han sido consideradas algo controvertidas, porque proporcionan la parte de "certeza epistémica" de una prueba, sin necesariamente ofrecer ninguna de la parte de "perspectiva" (que es generalmente lo que nos importa) (7/12)
Como tal, las pruebas por agotamiento ciertamente no son "incorrectas", pero son, en cierto sentido, "engañosas", o quizás "autoderrotadas": cierran un problema potencialmente fructífero, mientras eluden precisamente aquellos aspectos de las matemáticas que lo hacen interesante y valioso de resolver. (8/12)
Creo que las pruebas generadas por IA, en ausencia de cualquier nivel de comprensión o percepción por parte del humano que las generó, deberían ser consideradas de manera similar. ¡Si generas automáticamente una prueba Lean de un gran teorema, eso es genial! Pero, ¿por qué lo hiciste? (9/12)
Si no entiendes las nuevas ideas/métodos que contiene la prueba, entonces todo lo que has hecho es desplazar la carga intelectual de ti mismo a quien esté dispuesto a leer y entenderlo (y, con suerte, comunicar las ideas contenidas en él a otros). (10/12)
Las matemáticas son, en última instancia, un artefacto cultural humano (probablemente el más profundo, rico y antiguo). Resolver problemas difíciles solo se suponía que era un *proxy* para extender ese artefacto. La IA está haciendo que sea emocionantemente fácil generar nuevos caminos de comprensión matemática.. (11/12)
...dentro de ese artefacto, pero también está facilitando más que nunca lograr el proxy (es decir, resolver problemas difíciles), mientras se pierde de vista la razón por la que nos importaba en primer lugar (es decir, profundizar nuestra comprensión). Por favor, no hagas eso. (12/12)
279