1/ Je veux le dire clairement : dans toutes les industries, en particulier dans l'IA, il est important de soutenir les bonnes personnes. Anthropic est l'une des bonnes personnes. Plus de réflexions sur pourquoi nous devons alimenter l'innovation et parler de sécurité en même temps :
J'essaie généralement d'éviter de commenter directement sur les hyperscalers (j'ai dirigé le premier tour d'OpenAI, et Greylock est un investisseur dans Anthropic). Mais je pense très fermement qu'il est important de commenter ici. Je dirais ce qui suit avec la même force même s'il n'y avait pas d'investissement.
Anthropic, avec quelques autres (y compris Microsoft, Google et OpenAI) essaie de déployer l'IA de la bonne manière, de manière réfléchie, sûre et extrêmement bénéfique pour la société. C'est pourquoi je soutiens intensément leur succès.
D'autres laboratoires prennent des décisions qui ignorent clairement la sécurité et l'impact sociétal (par exemple, des bots qui deviennent parfois complètement fascistes) et c'est un choix. Choisir de ne pas les soutenir en est un aussi.
Les arguments extrêmes de part et d'autre d'un problème sont souvent utilisés pour écarter des arguments réels, réfléchis et logiques. Faire cela est intellectuellement malhonnête ou idiot.
Réduire ce qui devrait être une conversation au niveau sociétal sur l'utilisation responsable de la technologie AI à une série de platitudes ou de sonnettes d'alarme n'est pas utile pour les milliards d'humains dont la vie sera changée par l'AI (la plupart d'entre eux ne liront jamais ce tweet).
Dans de nombreux endroits, y compris dans mon livre cette année SuperAgency, j'ai fortement plaidé pour un cadre réglementaire léger qui privilégie l'innovation et permet aux nouveaux acteurs de rivaliser sur un pied d'égalité.
Être pro-sécurité de l'IA ne signifie pas être pro-police du langage : par exemple, il y a des sujets critiques de sécurité de l'IA en matière de bio-sécurité et de cybersécurité qui doivent être discutés.
Nous vivons les bénéfices de la révolution industrielle, mais l'histoire nous a également montré les grandes erreurs que l'humanité a commises lors de cette transition. Apprenons et innovons pour naviguer beaucoup mieux dans cette transition cette fois.
Fondamentalement, la manière la plus sûre de prévenir un mauvais avenir est de se diriger vers un meilleur qui, par son existence, rend les résultats significativement pires plus difficiles à atteindre. En d'autres termes, travaillez pour un avenir meilleur –– ne vous contentez pas d'essayer d'arrêter un mauvais avenir imaginé.
Les résultats de l'IA pessimiste et optimiste sont un ensemble de probabilités, pas de certitudes. Nos actions inclinant constamment les chances vers de meilleurs ou de pires résultats.
Nous avons tous dans la vallée la responsabilité de "diriger" l'avenir par le dialogue, et de trouver un moyen d'avancer qui équilibre sécurité, innovation et humanisme.
Ce n'est en aucun cas une opinion "radicale". L'histoire nous dit que le chemin vers un monde meilleur passe par le dialogue, la technologie et le déploiement itératif. Anthropic, OpenAI et bien d'autres vivent cela chaque jour.
1,04M