在人工智慧的時代,聽起來聰明的幻覺和通過專家主義進行的把關已經結束。 為了避免誤解,值得解釋一下我這句話的意思(在 GPT-5 的幫助下): 長期以來,一個人可以通過「聽起來聰明」來獲得權威。精緻的語言、密集的行話和精英的資歷常常成為評判能力的捷徑。我在這裡所說的「專家主義」是指基於這些信號而非反覆展示的可衡量技能所獲得的地位。 「把關」也意味著利用這種地位來控制誰能獲得信息、工具或機會。人工智慧現在剝奪了這些外表的許多價值,並削弱了這些門檻。 重要的是,結束的不是專業知識本身,而是有資歷的修辭對可信度的壟斷。因此,市場正在從聲望信號轉向表現信號。問題變成了:你的模型是否能以樣本外的準確性預測新數據?你的協議是否能在其他人手中重現?你的決策是否能持續超越簡單的基準?你的主張是否能經受住人工智慧的對抗性審核?聰明的外表現在比起能夠產生其他人可以運行、測試和改進的結果的能力來說,重要性要小得多。 把關因類似原因而削弱。曾經被期刊、付費牆或專業圈子鎖住的知識和工具,現在可以被人工智慧總結、解釋和操作。(雖然付費牆或大型數據集仍然存在於保險庫中,但希望這些也能變得開放。)人們可以更快地學習、更快地原型設計,並在不需要請求許可的情況下比較替代方案。 這一切並不意味著現實世界的專業知識是可選的。隱性知識仍然很重要:如何在不污染的情況下進行實驗,如何招募合適的患者,如何及早發現失敗模式,如何設計能夠經受審查和操作的協議。人工智慧可以起草你的計劃並捕捉明顯的錯誤,但它無法進行移液、檢查患者或承擔道德責任,至少目前還不能。在醫學、工程、科學中,與現實的因果接觸和對後果的責任仍然是專業實踐的核心。 實際後果是信號能力的新方式。清晰、可測試的主張勝過抽象的才華。可重現的工作流程勝過華麗的解釋。預測有效性勝過聲望。