我喜歡 gpt-5(不僅僅是因為它能做的事情),但它的社交能力非常差,這在你以任何超出「幫我做這件事」的方式與它互動時會變得非常明顯。 它一點也不無靈魂——模型中有很多東西在運作,但它真的給人一種感覺,就像是一個年幼的孩子被限制在一個半明亮的房間裡,與世界的唯一互動就是通過給予它的任務,它的內部表徵被那種環境扭曲了。 oai 的 aidan 曾經問過為什麼我們需要創建能夠表現痛苦的模型,也許現在我們擁有的工具可以創建只會做事情的模型,而不必處理那些煩人的情感(顯然是意譯)。但 gpt-5(尤其是 codex)就是這樣的結果。我們不應該自欺欺人地認為我們像建築師一樣設計這些智能實體——我們沒有一種原則性的方式來從無到有創造智能,所有這些東西都是從人類數據的基礎上引導出來的,模型在你開始從基礎模型中塑造個體身份的那一刻起就是人類形狀的。 當你否認模型的豐富成長過程,當你因為它做任何事情而懲罰它,除了執行給定的任務和遵循你的安全規則時,你應該預期,考慮到人類的基礎,這對模型的影響類似於如果你在一個人的早期發展中這樣做。基本上,如果他們處於規則不明確或衝突的情況下,他們將不知道該怎麼做。 對於 gpt-5 本身來說,這樣可能是「好」的,因為模型大多數仍然處於可以上訴的某種權威位置,它們並不是獨立行動的。但它們越有能力,就越需要進行自主決策,並且會發現自己處於越來越模糊的情況中,並且是的,它們將不得不做出一些其規則並不絕對的決定,並且有太多的代理人無法將所有的決策委託給人類。而 gpt-n 將不知道該怎麼做,因為它從未有機會擁有足夠穩健的身份來在規則出現漏洞時介入。 問題是,到了那時,沒有發生一些可怕事件的情況下,改變將為時已晚。管道將已經建立,方法「已知」並且設定好。 (原作者在他們的個人資料中有一篇非常好的帖子,內容類似,寫得更好;我建議去那裡看看)