Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Quiero decir claramente: en todas las industrias, especialmente en IA, es importante respaldar a los buenos.
Anthropic es uno de los buenos.
Más ideas sobre por qué necesitamos impulsar la innovación y hablar de seguridad al mismo tiempo:
Por lo general, trato de evitar comentar directamente sobre los hiperescaladores (lideré la primera ronda de OpenAI y Greylock es un inversor en Anthropic).
Pero creo firmemente que es importante comentar aquí. Diría lo siguiente con la misma firmeza incluso si no existiera inversión.
Anthropic, junto con algunos otros (incluidos Microsoft, Google y OpenAI) están tratando de implementar la IA de la manera correcta, de manera reflexiva, segura y enormemente beneficiosa para la sociedad.
Es por eso que estoy apoyando intensamente su éxito.
Algunos otros laboratorios están tomando decisiones que claramente ignoran la seguridad y el impacto social (por ejemplo, bots que a veces se vuelven completamente fascistas) y esa es una elección.
También lo es elegir no apoyarlos.
Los argumentos extremos en ambos lados de un problema a menudo se usan para descartar argumentos reales, reflexivos y lógicos. Hacer eso es intelectualmente deshonesto o idiota.
Reducir lo que debería ser una conversación a nivel social sobre el uso responsable de la tecnología de IA a una serie de lugares comunes o campanas de alarma no es útil para los miles de millones de humanos que verán sus vidas cambiadas por la IA (la mayoría de los cuales nunca leerán este tweet).
En muchos lugares, incluido mi libro de este año SuperAgency, he defendido firmemente un panorama regulatorio ligero que priorice la innovación y permita a los nuevos jugadores competir en igualdad de condiciones.
Estar a favor de la seguridad de la IA no es estar a favor de la policía lingüística: por ejemplo, hay temas críticos de seguridad de la IA en bioseguridad y ciberseguridad que deben discutirse.
Estamos viviendo los beneficios de la revolución industrial, pero la historia también nos ha mostrado los grandes errores que cometió la humanidad en la transición.
Aprendamos e innovemos para navegar la transición mucho mejor esta vez.
Fundamentalmente, la forma más segura de prevenir un mal futuro es dirigirse hacia uno mejor que, por su existencia, dificulte resultados significativamente peores.
En otras palabras, trabajar hacia un futuro mejor, no tratar simplemente de detener un mal futuro imaginado en particular.
Los resultados de la IA son un conjunto de probabilidades, no certezas. Nuestras acciones inclinan constantemente las probabilidades hacia mejores o peores resultados
Todos nosotros en el valle tenemos la responsabilidad de "dirigir" el futuro a través del diálogo y encontrar un camino a seguir que equilibre la seguridad, la innovación y el humanismo.
Esta no es una toma "radical" de ninguna manera. La historia nos dice que el camino hacia un mundo mejor es a través del diálogo, la tecnología y el despliegue iterativo.
Anthropic, OpenAI y muchos otros están viviendo esto todos los días.
1.04M
Populares
Ranking
Favoritas