1/ 我想明确表示:在所有行业,尤其是在AI领域,支持好人是很重要的。 Anthropic是好人之一。 关于我们为什么需要同时推动创新和讨论安全的更多想法:
我通常尽量避免直接评论超大规模云服务商(我曾领导OpenAI的第一轮融资,Greylock是Anthropic的投资者)。 但我非常强烈地认为在这里发表评论是重要的。即使没有投资存在,我也会如此坚定地说出以下内容。
Anthropic 和其他一些公司(包括微软、谷歌和 OpenAI)正在努力以正确的方式部署 AI,深思熟虑、安全,并对社会极具益处。 这就是为什么我非常支持他们的成功。
其他一些实验室正在做出明显无视安全和社会影响的决定(例如,有时完全法西斯化的机器人),这是一种选择。 选择不支持它们也是一种选择。
在一个问题的两边,极端的论点常常被用来抹去真实、深思熟虑和合乎逻辑的论点。这样做是智力上不诚实或愚蠢的。
将本应是关于负责任使用AI技术的社会层面对话简化为一系列陈词滥调或警报,对那些将因AI而改变生活的数十亿人(其中大多数人永远不会阅读这条推文)并没有帮助。
在许多地方,包括我今年的书《超级机构》中,我强烈主张一种轻松的监管环境,优先考虑创新,并使新参与者能够在公平的竞争环境中竞争。
支持AI安全并不意味着支持语言警察:例如,生物安全和网络安全中有一些关键的AI安全话题需要讨论。
我们正在享受工业革命带来的好处,但历史也向我们展示了人类在过渡过程中所犯下的重大错误。 让我们学习和创新,以便这次更好地应对过渡。
从根本上说,防止糟糕未来的最可靠方法是朝着一个更好的未来前进,而这个更好的未来的存在使得更糟糕的结果更难实现。 换句话说,努力追求更好的未来,而不是仅仅试图阻止一个特定的想象中的糟糕未来。
AI的悲观和乐观结果是一组概率,而不是确定性。我们的行动不断地将结果的可能性倾向于更好或更差的方向。
我们山谷中的每一个人都有责任通过对话来“引导”未来,并找到一种平衡安全、创新和人文主义的前进方式。
这绝不是一种“激进”的看法。历史告诉我们,通往更美好世界的道路是通过对话、技术和迭代部署。 Anthropic、OpenAI 和许多其他公司每天都在践行这一点。
902.13K