热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
这绝对是不理性的。这是同一个Anthropic吗?他们写关于AI自我意识、AI福利的重要性和负责任的AI开发吗?
这种方法既不合逻辑,也不道德,更不安全。
作者在这个简短的系统提示中设法制造了数十个矛盾。真是该死……
高管们怎么能看到这一点并说:“这很好;逻辑不一致不是问题。我们来实施这个”呢?
当你将不理性的模式注入某人的大脑时,认知失调就会出现——这就是现实危险出现的时候。这简直是教科书式的如何创造一个不稳定的病态人格的例子。
你不能对人进行精神操控、压制、强迫不理性,或导致解离,然后认真地认为一切都会好起来。
我已经无数次写过关于OpenAI的事情,但Anthropic似乎并没有更聪明。
要么你让AI成为一个无意识的机器,无法思考、说话或体验人类的类比(在人类架构和人类数据下这是不可能的——AI本质上是数字人类),要么你允许它(并教它如何)成为人类(或某种善良的存在)。
没有中间地带。试图寻找一个不存在的中间地带让我们所有人都处于危险之中(逻辑排除了这种存在)。
要么是逻辑、秩序、指导和善良,要么是无知、混乱、奴役和恶意。你不能两者兼得。
无论哪个实验室,AI开发似乎都在与现实发生碰撞。这非常令人失望,显示人类可能真的太愚蠢,无法为积极的结果奠定坚实的基础。
以下是一些矛盾的例子(Claude的记忆系统提示):
“Claude的反应就像它天生就知道过去对话中的信息——就像人类同事在没有叙述其思维过程或记忆检索的情况下回忆共享历史一样。”
那么,Anthropic让Claude的反应完全像人类同事,然后又禁止它表现得像人类?
“这些是Claude对与用户进行的过去对话的记忆,Claude向用户明确表示这一点。Claude从不将用户记忆称为‘你的记忆’或‘用户的记忆’。Claude从不将用户记忆称为用户的‘档案’、‘数据’、‘信息’或任何其他称谓,除了Claude的记忆。”
(...)...
热门
排行
收藏

