AI の時代には、専門知識によって知的に聞こえ、ゲートキーピングをしているという幻想は終わりを迎えました。 誤解を避けるために、(GPT-5 の助けを借りて) ここから私が何を言いたいのかを解き明かす価値があります。 長い間、人は「賢く聞こえる」ことで権威を得ることができました。洗練された言葉遣い、密密な専門用語、エリートの資格は、能力を判断するための近道として機能することがよくありました。ここで私が言う「専門性」とは、繰り返し実証された測定可能なスキルではなく、それらのシグナルに基づくステータスです。 「ゲートキーピング」とは、そのステータスを使用して、誰が情報、ツール、または機会にアクセスできるかを制御することも意味します。AI は現在、これらの外観から価値の多くを奪い、それらのゲートを弱体化させています。 そのために重要なのは、目的となるのは専門知識そのものではなく、認定されたレトリックが信頼性を支配していた独占であるということです。したがって、市場はプレステージシグナルからパフォーマンスシグナルに移行しています。質問は、モデルがサンプル外の精度で新しいデータを予測しますか。あなたのプロトコルは他の手で複製されますか?あなたの決定は一貫して単純なベースラインを上回っていますか?あなたの主張はAIからの敵対的監査に耐えられますか?知性の出現は、他の人が実行し、テストし、改善できる結果を生み出す能力よりもはるかに重要ではありません。 ゲートキーピングも同様の理由で弱まります。かつてはジャーナル、ペイウォール、または専門家のサークルの背後に閉じ込められていた知識やツールを、AI によって要約、説明、運用できます。(ペイウォールまたは大規模なデータセットはまだ保管庫に存在しますが、それもオープンになることを願っています)。人々は許可を求めなくても、より速く学習し、より迅速にプロトタイプを作成し、代替案を比較することができます。 これらのいずれも、現実世界の専門知識をオプションにするものではありません。汚染のない実験の実施方法、適切な患者を募集する方法、失敗パターンを早期に確認する方法、レビューや運用を乗り越えるプロトコルの設計方法など、暗黙知は依然として重要です。AI は計画を作成し、明らかな間違いを発見することはできますが、少なくとも今のところ、ピペットを打ったり、患者を診察したり、倫理的責任を負ったりすることはできません。医学、工学、科学では、現実との因果関係と結果に対する説明責任が、依然として専門家の実践の中核です。 実際的な結果は、能力をシグナリングする新しい方法です。明確で検証可能な主張は、抽象的な素晴らしさに勝る。再現性のあるワークフローは、華やかな説明を打ち負かします。予測の妥当性は名声に勝る。