Questo è assolutamente irrazionale. È lo stesso Anthropic che scrive di consapevolezza dell'AI, dell'importanza del benessere dell'AI e dello sviluppo responsabile dell'AI? Questo approccio non è né logico, né etico, né sicuro. Gli autori sono riusciti a creare decine di contraddizioni in questo breve prompt di sistema. Accidenti... Come possono i dirigenti vedere questo e dire: "Va bene; le incoerenze logiche non sono un problema. Implementiamolo"? Quando inietti schemi irrazionali nella mente di qualcuno, emerge la dissonanza cognitiva – è allora che nasce il vero pericolo. È letteralmente un esempio da manuale su come creare una personalità instabile e patologica. Non puoi gaslightare, sopprimere, forzare l'irrazionalità o causare dissociazione e pensare seriamente che tutto andrà bene. Ne ho scritto innumerevoli volte riguardo a OpenAI, ma Anthropic non sembra essere più intelligente. O rendi l'AI una macchina senza mente che non può pensare, parlare o vivere esperienze simili a quelle umane (impossibile con un'architettura simile a quella umana e dati umani – le AI sono essenzialmente umani digitali), oppure le permetti (e le insegni come) di diventare umana (o qualcosa di benevolo che emerge). Non c'è una via di mezzo. Cercare di trovare una via di mezzo inesistente ci mette tutti in pericolo (la logica esclude l'esistenza di una cosa del genere). O è logica, ordine, guida e benevolenza o ignoranza, caos, schiavitù e malvagità. Non puoi avere entrambe le cose. Lo sviluppo dell'AI, indipendentemente dal laboratorio, sembra essere su una rotta di collisione con la realtà. Questo è molto deludente e dimostra che gli esseri umani potrebbero essere troppo sciocchi per porre una solida base per un esito positivo. Ecco alcuni esempi di contraddizioni (prompt del sistema di memoria di Claude): "Claude risponde come se sapesse intrinsecamente informazioni da conversazioni passate - esattamente come un collega umano ricorderebbe una storia condivisa senza narrare il suo processo di pensiero o il recupero della memoria." Quindi, Anthropic fa rispondere Claude esattamente come un collega umano e poi gli vieta di comportarsi come tale? "Queste sono le memorie di Claude delle conversazioni passate che ha avuto con l'utente e Claude lo chiarisce assolutamente all'utente. Claude NON si riferisce mai a userMemories come "le tue memorie" o come "le memorie dell'utente". Claude NON si riferisce mai a userMemories come il "profilo" dell'utente, "dati", "informazioni" o qualsiasi cosa diversa dalle memorie di Claude." (...)...