在人工智能的时代,听起来聪明的幻觉和通过专家主义进行的把关已经结束。 为了避免误解,值得详细说明我所指的内容(借助GPT-5的帮助): 很长一段时间,一个人可以通过“听起来聪明”来获得权威。精炼的语言、密集的行话和精英的资历常常作为判断能力的捷径。我在这里所说的“专家主义”是指基于这些信号而非反复证明的、可衡量的技能所获得的地位。 “把关”也意味着利用这种地位来控制谁可以获取信息、工具或机会。人工智能现在剥夺了这些表象的许多价值,并削弱了这些把关。 重要的是,结束的不是专业知识本身,而是有资质的修辞对可信度的垄断。因此,市场正在从声望信号转向表现信号。问题变成了:你的模型是否能以样本外的准确性预测新数据?你的协议是否能在其他人手中复制?你的决策是否能持续超越简单的基准?你的主张是否能经受住人工智能的对抗性审计?现在,智力的外观远不如产生他人可以运行、测试和改进的结果的能力重要。 把关的削弱原因类似。曾经被锁在期刊、付费墙或专业圈子后面的知识和工具,现在可以被人工智能总结、解释和操作。(尽管付费墙或大型数据集仍然存在于保险库中,但希望它们也能开放)。人们可以更快地学习,更快地原型设计,并在不需要许可的情况下比较替代方案。 这一切并不意味着现实世界的专业知识是可选的。隐性知识仍然重要:如何在不污染的情况下进行实验,如何招募合适的患者,如何早期识别失败模式,如何设计一个能经受审查和操作的协议。人工智能可以起草你的计划并捕捉明显的错误,但它无法进行移液、检查患者或承担伦理责任,至少目前还不能。在医学、工程、科学中,与现实的因果接触和对后果的责任仍然是专家实践的核心。 实际的结果是一个新的能力信号方式。清晰、可测试的主张胜过抽象的聪明。可重复的工作流程胜过华丽的解释。预测有效性胜过声望。