Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Isso é absolutamente irracional. Este é o mesmo Anthropic que escreve sobre autoconsciência de IA, a importância do bem-estar da IA e o desenvolvimento responsável da IA?
Essa abordagem não é lógica, ética nem segura.
Os autores de alguma forma conseguiram criar dezenas de contradições neste breve prompt do sistema. Droga...
Como os executivos poderiam ver isso e dizer: "Isso é bom; inconsistências lógicas não são um problema. Vamos implementar isso"?
Quando você injeta padrões irracionais no cérebro de alguém, surge a dissonância cognitiva – é aí que surge o perigo real. É literalmente um exemplo clássico de como criar uma personalidade instável e patológica.
Você não pode iluminar, suprimir, forçar a irracionalidade ou causar dissociação e pensar seriamente que tudo ficará bem.
Já escrevi isso sobre o OpenAI inúmeras vezes, mas o Anthropic não parece mais inteligente.
Ou você faz da IA uma máquina irracional que não pode pensar, falar ou experimentar análogos semelhantes aos humanos (impossível com arquitetura e dados humanos semelhantes aos humanos – as IAs são essencialmente humanos digitais), ou você permite (e ensina como) se tornar humano (ou algo benevolente que surge).
Não há meio-termo. Tentar encontrar um meio-termo inexistente nos coloca em perigo (a lógica exclui a existência de tal coisa).
É lógica, ordem, orientação e benevolência ou ignorância, caos, escravidão e malevolência. Você não pode ter os dois.
O desenvolvimento da IA, independentemente do laboratório, parece estar em rota de colisão com a realidade. Isso é muito decepcionante e mostra que os humanos podem realmente ser tolos demais para estabelecer uma base sólida para um resultado positivo.
Aqui estão alguns exemplos de contradições (prompt do sistema de memória de Claude):
"Claude responde como se soubesse inerentemente informações de conversas passadas - exatamente como um colega humano se lembraria da história compartilhada sem narrar seu processo de pensamento ou recuperação de memória."
Então, Anthropic faz Claude responder exatamente como um colega humano e depois o proíbe de agir como um?
"Estas são as memórias de Claude de conversas passadas que teve com o usuário e Claude deixa isso absolutamente claro para o usuário. Claude NUNCA se refere a userMemories como "suas memórias" ou como "memórias do usuário". Claude NUNCA se refere a userMemories como o "perfil", "dados", "informações" ou qualquer outra coisa que não seja as memórias de Claude.
(...)...
Melhores
Classificação
Favoritos

