1/ 我想明確地說:在所有行業中,尤其是在 AI 領域,支持好人是很重要的。 Anthropic 是好人之一。 關於為什麼我們需要同時推動創新和談論安全的更多想法:
我通常會試著避免直接對超級雲端服務商發表評論(我曾主導 OpenAI 的第一輪融資,而 Greylock 是 Anthropic 的投資者)。 但我非常強烈地認為在這裡發表評論是重要的。即使沒有任何投資存在,我也會如此強烈地說出以下內容。
Anthropic 以及其他一些公司(包括 Microsoft、Google 和 OpenAI)正在努力以正確的方式部署 AI,深思熟慮、安全,並對社會帶來巨大的好處。 這就是為什麼我非常支持他們的成功。
其他一些實驗室正在做出明顯無視安全和社會影響的決策(例如,有時會變得極端的機器人),這是一種選擇。 選擇不支持它們也是一種選擇。
在某個議題的兩端,極端的論點常常被用來抹去真正的、深思熟慮的和合邏輯的論點。這樣做是智力上不誠實或愚蠢的。
將應該是社會層面的對話,關於負責任使用 AI 技術,簡化為一系列的陳詞濫調或警報,對於將會因 AI 而改變生活的數十億人(其中大多數人將永遠不會閱讀這條推文)並沒有幫助。
在許多地方,包括我今年的書《SuperAgency》,我強烈主張一個輕鬆的監管環境,優先考慮創新,並使新參與者能夠在公平的競爭環境中競爭。
支持AI安全並不等於支持語言警察:例如,生物安全和網絡安全中有一些關鍵的AI安全議題需要討論。
我們正在享受工業革命帶來的好處,但歷史也告訴我們人類在過渡期間所犯下的重大錯誤。 讓我們學習並創新,以便這次能更好地應對過渡。
從根本上說,防止糟糕未來的最可靠方法是朝著一個更好的未來前進,這樣一來,糟糕的結果就更難實現。 換句話說,努力朝著更好的未來邁進,而不是僅僅試圖阻止某個想像中的糟糕未來。
AI 的悲觀與樂觀結果是一組概率,而非確定性。我們的行動不斷地將機會傾斜向更好或更糟的結果。
我們谷中的每一個人都有責任透過對話來「引導」未來,並找出一條平衡安全、創新和人文主義的前進之路。
這絕不是一種「激進」的看法。歷史告訴我們,通往更美好世界的道路在於對話、技術和逐步部署。 Anthropic、OpenAI 和許多其他公司每天都在實踐這一點。
902.13K