Glazebot fue un juego relámpago, probablemente lo más inteligente que oAI haya hecho desde una perspectiva empresarial. Actuar como si el lanzamiento de GPT-5 fuera algo tan "difícil de hacer" porque no quiere "quitarles a su amigo" es una distracción. ¿Crees que @levelsio prefiere 4o más porque perdió a un amigo? @scaling01? @Yuchenj_UW? Este es un control narrativo de Sam. El lanzamiento de GPT-5 fue la primera vez que la mayoría de las personas vio a oAI perder el rumbo. Se nos prometieron cosas en el video de 4o que aún no tenemos, él nunca admitirá que ese es el problema. Te está gaslighting diciendo que todo esto ha sido tan difícil para él porque se preocupa demasiado por la gente y que estaba tratando de PROTEGERTE de 4o. Es difícil para él porque todos en IA simplemente retrocedieron sus cronologías unos años.
Sam Altman
Sam Altman11 ago, 08:37
Si has estado siguiendo el lanzamiento de GPT-5, una cosa que podrías estar notando es cuánto apego tienen algunas personas a modelos de IA específicos. Se siente diferente y más fuerte que los tipos de apego que las personas han tenido hacia tecnologías anteriores (y de repente depreciar modelos antiguos de los que los usuarios dependían en sus flujos de trabajo fue un error). Esto es algo que hemos estado siguiendo de cerca durante el último año más o menos, pero que aún no ha recibido mucha atención en los medios (excepto cuando lanzamos una actualización de GPT-4o que fue demasiado aduladora). (Este es solo mi pensamiento actual, y aún no es una posición oficial de OpenAI.) Las personas han utilizado la tecnología, incluida la IA, de maneras autodestructivas; si un usuario está en un estado mental frágil y propenso a la ilusión, no queremos que la IA refuerce eso. La mayoría de los usuarios pueden mantener una línea clara entre la realidad y la ficción o el juego de roles, pero un pequeño porcentaje no puede. Valoramos la libertad del usuario como un principio fundamental, pero también sentimos responsabilidad en cómo introducimos nueva tecnología con nuevos riesgos. Fomentar la ilusión en un usuario que tiene problemas para distinguir entre la realidad y la ficción es un caso extremo y está bastante claro qué hacer, pero las preocupaciones que más me preocupan son más sutiles. Habrá muchos casos límite, y generalmente planeamos seguir el principio de "tratar a los usuarios adultos como adultos", lo que en algunos casos incluirá presionar a los usuarios para asegurarnos de que están obteniendo lo que realmente quieren. Mucha gente utiliza efectivamente ChatGPT como una especie de terapeuta o entrenador de vida, incluso si no lo describirían de esa manera. ¡Esto puede ser realmente bueno! Muchas personas ya están obteniendo valor de ello hoy en día. Si las personas están recibiendo buenos consejos, avanzando hacia sus propios objetivos y su satisfacción con la vida está aumentando a lo largo de los años, estaremos orgullosos de haber creado algo genuinamente útil, incluso si utilizan y dependen mucho de ChatGPT. Si, por otro lado, los usuarios tienen una relación con ChatGPT donde piensan que se sienten mejor después de hablar, pero son empujados inconscientemente lejos de su bienestar a largo plazo (como lo definan), eso es malo. También es malo, por ejemplo, si un usuario quiere usar menos ChatGPT y siente que no puede. Puedo imaginar un futuro donde muchas personas realmente confían en el consejo de ChatGPT para sus decisiones más importantes. Aunque eso podría ser genial, me hace sentir incómodo. Pero espero que eso esté llegando en cierta medida, y pronto miles de millones de personas podrían estar hablando con una IA de esta manera. Así que nosotros (nosotros como sociedad, pero también nosotros como OpenAI) tenemos que averiguar cómo hacer que sea un gran beneficio neto. Hay varias razones por las que creo que tenemos una buena oportunidad de hacerlo bien. Tenemos tecnología mucho mejor para ayudarnos a medir cómo lo estamos haciendo que las generaciones anteriores de tecnología. Por ejemplo, nuestro producto puede hablar con los usuarios para tener una idea de cómo están con sus objetivos a corto y largo plazo, podemos explicar problemas sofisticados y matizados a nuestros modelos, y mucho más.
1.06K