Det er fortsatt rart at AI enten kan utføre en gigantisk flersidig ledetekst eller forklare en gigantisk flersidig ledetekst eller analysere en gigantisk flersidig ledetekst avhengig av om du starter ledeteksten med "Hvorfor fungerer dette?" eller "Gjør bedre" eller hva som helst. Hovedtyngden av tokenene er raske.
Et merkelig gap i Google AI-utvalget er mellom Gemini-forskningsverktøyene og NotebookLM. Gemini lar deg gjøre dype undersøkelser, men bare et delsett av andre NotebookLM-funksjoner, mens NotebookLM ikke lar deg utløse en dyp forskningsrapport eller gjøre andre typer AI-interaksjoner.
Disse to avsnittene fra denne studien fra Anthropic om AI-introspeksjon er verdt et sekund å lese.
Jeg tror det er rimelig å si at begge konklusjonene er ganske ... kontroversielt, men artikkelen gjør et veldig interessant forsøk på å støtte disse påstandene med reelle eksperimenter.
Ny antropisk forskning: Tegn på introspeksjon hos LLM-er.
Kan språkmodeller gjenkjenne sine egne indre tanker? Eller finner de bare på plausible svar når de blir spurt om dem? Vi fant bevis for ekte – men begrensede – introspektive evner hos Claude.