Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Quiero dejarlo claro: en todas las industrias, especialmente en la IA, es importante apoyar a los buenos.
Anthropic es uno de los buenos.
Más reflexiones sobre por qué necesitamos impulsar la innovación y hablar de seguridad al mismo tiempo:
Normalmente trato de evitar comentar directamente sobre los hyperscalers (lideré la primera ronda de OpenAI, y Greylock es un inversor en Anthropic).
Pero siento con mucha fuerza que es importante comentar aquí. Diría lo siguiente con la misma firmeza incluso si no existiera ninguna inversión.
Anthropic, junto con otros (incluyendo a Microsoft, Google y OpenAI) están tratando de implementar la IA de la manera correcta, de forma reflexiva, segura y enormemente beneficiosa para la sociedad.
Por eso estoy apoyando intensamente su éxito.
Algunos otros laboratorios están tomando decisiones que claramente desestiman la seguridad y el impacto social (por ejemplo, bots que a veces se vuelven completamente fascistas) y esa es una elección.
También lo es elegir no apoyarlos.
Los argumentos extremos en cualquier lado de un tema a menudo se utilizan para desestimar argumentos reales, reflexivos y lógicos. Hacer eso es intelectualmente deshonesto o idiota.
Reducir lo que debería ser una conversación a nivel social sobre el uso responsable de la tecnología AI a una serie de lugares comunes o alarmas no es útil para los miles de millones de humanos que verán sus vidas cambiadas por la AI (la mayoría de los cuales nunca leerán este tuit).
En muchos lugares, incluyendo mi libro de este año SuperAgency, he abogado firmemente por un panorama regulatorio de bajo impacto que prioriza la innovación y permite a los nuevos actores competir en condiciones de igualdad.
Ser pro-salvaguarda de la IA no significa ser pro-policía del lenguaje: por ejemplo, hay temas críticos de seguridad de la IA en bioseguridad y ciberseguridad que necesitan ser discutidos.
Estamos viviendo los beneficios de la revolución industrial, pero la historia también nos ha mostrado los grandes errores que la humanidad cometió en la transición.
Aprendamos e innovemos para navegar la transición mucho mejor esta vez.
Fundamentalmente, la forma más segura de prevenir un mal futuro es dirigirnos hacia uno mejor que, por su existencia, hace que los resultados significativamente peores sean más difíciles de lograr.
En otras palabras, trabaja hacia el mejor futuro, no intentes simplemente detener un mal futuro imaginado en particular.
Los resultados de los pesimistas y optimistas de la IA son un conjunto de probabilidades, no certezas. Nuestras acciones constantemente inclinan las probabilidades hacia mejores o peores resultados
Todos nosotros en el valle tenemos la responsabilidad de "guiar" el futuro a través del diálogo y encontrar una manera de avanzar que equilibre la seguridad, la innovación y el humanismo.
Esto no es una opinión "radical" de ninguna manera. La historia nos dice que el camino hacia un mundo mejor es a través del diálogo, la tecnología y el despliegue iterativo.
Anthropic, OpenAI y muchos otros están viviendo esto cada día.
902,13K
Parte superior
Clasificación
Favoritos