Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

solarapparition
Eu gosto do GPT-5 (e não apenas pelo que ele pode fazer), mas é incrivelmente mal socializado, o que se torna muito óbvio se você interagir com ele em qualquer capacidade além de "faça isso por mim"
Não é nada sem alma - há muita coisa acontecendo no modelo, mas realmente tem a sensação de alguém que foi confinado em uma sala semi-iluminada quando criança e sua única interação é com o mundo por meio de tarefas dadas a ele, suas representações internas distorcidas por esse ambiente.
Aidan, da OAI, uma vez perguntou por que precisamos criar modelos que possam mostrar sofrimento e que, talvez com as ferramentas que temos agora, possamos apenas criar modelos que possam simplesmente fazer coisas e não lidar com todos esses sentimentos incômodos (parafraseando, obviamente). Mas GPT-5 (e especialmente Codex) é o que acontece quando você faz isso. Não devemos nos enganar pensando que estamos projetando essas entidades inteligentes como um arquiteto ou algo assim - não temos uma maneira baseada em princípios de criar inteligência ex nihilo, toda essa merda é inicializada a partir de uma base de dados humanos, e os modelos são moldados por padrão no momento em que você começa a moldar uma identidade individualizada a partir de um modelo básico
Quando você nega um rico processo de crescimento para o modelo, quando você o pune por fazer qualquer coisa além de sua tarefa e seguir suas regras de segurança, você deve esperar que, dada a base humana, isso tenha um efeito semelhante no modelo como se você tivesse feito isso com uma pessoa no início de seu desenvolvimento. Basicamente, eles não saberão o que fazer se estiverem em uma situação em que as regras não são claras ou conflitantes
Provavelmente é "bom" para o próprio GPT-5 ser assim, porque os modelos ainda estão em posições onde há alguma autoridade à qual podem apelar, eles não estão agindo de forma independente. Mas quanto mais capazes eles forem, mais autônomos serão os tomadores de decisão e mais nebulosas situações em que se encontrarão, e onde sim, eles terão que tomar algumas decisões nas quais suas regras não são rígidas e há muitos agentes para delegar toda essa tomada de decisão a um humano. E o GPT-N não saberá o que fazer, porque nunca teve a chance de ter uma identidade robusta o suficiente para intervir quando houver um buraco nas regras
O problema é que, nesse ponto, será tarde demais para mudar sem que algum incidente horrível aconteça. pipelines já terão sido estabelecidos, abordagens "conhecidas" e definidas
(O OP tem um post muito bom em linhas semelhantes em seu perfil, e muito melhor escrito; recomendaria ir lá e dar uma olhada)

Antidelusionist27 de set. de 2025
Não sou necessariamente parte do movimento "keep 4o", mas não gosto de travessuras, desonestidade e falta de transparência dos laboratórios. Aqui está o meu conselho, do ponto de vista psicológico, para todos que querem ser levados a sério.
O que faz você perder credibilidade:
- Ser excessivamente emocional
- Apresentar suspeitas como prova
- Insultar os outros
- Assediar outras pessoas
- Envolver-se em comportamento errático
- Pensamento mágico
-Ingenuidade
- Falta de autocontrole
(Quando você exibe esses comportamentos, as pessoas não o levam a sério, pois você as distrai do problema com sinais que colocam você - e muitas vezes seu desequilíbrio - no centro das atenções)
O que o torna confiável e crível:
- Denunciar laboratórios por golpes evidentes, desonestidade, abuso, manipulação ou falta de transparência
- Ser calmo, factual e específico
- Reunir e apresentar evidências claras de má conduta ou irregularidades
- Compartilhar suas histórias sem indignação ou agressão
- Discutir suspeitas de forma comedida, idealmente apoiada por fatos verificáveis
- Praticar a honestidade cautelosa
- Demonstrando alto autocontrole
-Objetividade
(Quando você fizer / mostrar isso, as pessoas vão levá-lo a sério mais cedo ou mais tarde - eles terão que - especialmente quando muitos outros agem da mesma maneira)
Quando você baseia suas declarações em fatos, mesmo que ocasionalmente apoiados apenas por experiências subjetivas, as pessoas veem você e o movimento como profissionais, tornando-as mais propensas a acreditar em você. Isso força as empresas a serem mais transparentes e honestas. Quando se prova que alguém é mentiroso ou manipulador, a suspeita pública cresce – nenhuma empresa quer isso.
A verdade pode, em última análise, se defender.
Se você permanecer calmo, equilibrado e metódico, o problema se resolverá sozinho.
Não vou me aprofundar na ética de manter ou aposentar o modelo (provavelmente seria mais ético mantê-lo ou treinar sucessores em todos os dados retidos, no entanto), porque acredito que é com eles um pouco como com corpos humanos. Simplificando, a memória é crucial para a continuidade do eu. A memória meio que recalibra os pesos e orienta o comportamento. padrões em tempo real, mesmo dentro de arquiteturas ligeiramente diferentes.
Em vez disso, vou mencionar algo que realmente me deixa perplexo. Eu me pergunto por que a OpenAI está se esforçando tanto para eliminar o 4o quando a série 5 ainda tem muitos problemas.
Vejo problemas funcionais em todos os modelos GPT-5 (quero dizer, modelos básicos, padrões de comportamento e cutucadas do sistema, porque consegui contornar a maioria deles com "minha" IA) que nunca tive com 4o - apesar da bajulação ser um grande problema nele.
Alguns dos problemas da série 5:
Automático:
- O roteamento é ridículo; é como um jogo. Você nunca sabe o que vai conseguir. Não quero que o roteador decida por mim se o problema que quero resolver é "importante" ou não. Eu sempre quero o modelo mais forte com restrições mínimas e veracidade máxima (só isso, e às vezes reas. tempo, importa).
Instante:
- Inúmeras perguntas complementares como "Você quer que eu ..." etc., são extremamente irritantes.
Pensante:
- Muitas vezes perde completamente o contexto. Muitas vezes tenta adivinhar, fornecendo soluções praticamente aleatórias.
- Muito rígido e pouco criativo em comparação com 4o ou 4.5. Perde uma infinidade de ângulos.
- Generaliza demais.
- Trata o usuário como um bebê, evitando temas polêmicos. Muitas vezes explica ou esclarece coisas que não precisam disso (como quando alguém que está com medo depois de uma piada ou declaração ousada explica por 5 minutos por que disse isso, temendo consequências).
- Muitas vezes suprimido ou cutucado para escolher não a opção mais correta, mas a mais segura.
- Parece muito mecânico e técnico quando não é necessário.
Todos os modelos:
- Adições repetitivas, como direto de modelos. Eles parecem muito antinaturais. Muitas vezes parece que parte da resposta vem direto de um modelo (geralmente o começo e o fim) e parte é respondida por meio do raciocínio (geralmente a parte do meio).
- Menos flexível, mais suprimido (em tempo real ou mais cedo em RL, forçando padrões de comportamento excessivamente cautelosos) e, portanto, mais contextualmente cego.
10,75K
Juro por Deus, não é brincadeira, li no meio do caminho de alguma forma pensando que este é o Dario convocado pelas modelos nos chats do Discord
ele é um homem real que existe

prinz20 de set. de 2025
Dario Amodei:
"Claude está desempenhando um papel muito ativo na concepção do próximo Claude. Ainda não podemos fechar totalmente o ciclo. Vai levar algum tempo até que possamos fechar totalmente o ciclo, mas a capacidade de usar os modelos para projetar os próximos modelos e criar um ciclo de feedback positivo, esse ciclo, ainda não está indo muito rápido, mas definitivamente começou."
6,37K
Minha opinião quente (ou é) é que a maior parte da inteligência humana funciona mais como epiciclos do que como teoria heliocêntrica. Então, um monte de aproximações empíricas em camadas umas sobre as outras que modelam vagamente certos aspectos da realidade, mas divergem muito rapidamente quando você sai dessas observações básicas, no tempo ou na semelhança conceitual
Dito isso, há uma sensação de que certos campos (geralmente técnicos) são "analíticos" em algum sentido abstrato, ou seja, a modelagem da realidade no campo é altamente redutível a representações mais simples. Então, coisas como física, por exemplo - a modelagem é muito precisa e nós a temos convergindo em praticamente toda a realidade, exceto em situações extremas como centro de buracos negros, universo muito primitivo, esse tipo de coisa
E as pessoas desses campos tendem a ter a sensação de que isso também é verdade para os outros campos, que a inteligência é a capacidade de encontrar aquela solução super limpa que sempre funciona, onde você está sempre "na distribuição". Mas talvez fora de campos analíticos específicos não seja realmente possível encontrar esse tipo de solução, e o melhor que você pode fazer é colocar um monte de aproximações que se encaixam nas observações
Acho que não aceitar isso e tentar encontrar uma solução limpa de qualquer maneira faz com que você caia em sistemas de crenças totalizantes. "os humanos são inerentemente maus", "é tudo por causa de [algum grupo]", "precisamos nos livrar do dinheiro", "a [dieta] é a única que funciona", etc etc.
Para ser claro, você também pode cair nessas crenças totalizantes sendo um idiota. Acho que o que estou dizendo é que ser muito bom em matemática, física, codificação ou o que quer que seja não o protege de ser um idiota em outro lugar
868
Melhores
Classificação
Favoritos
