Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

宝玉
Prompt Engineer, dedikerad till att lära sig och sprida kunskap om AI, mjukvaruteknik och ingenjörsledning.
Faktum är att Manus är smart och de har delat upp verktyget i 3 lager:
Lager 1: Funktionsanrop
Detta är det mest grundläggande lagret, som bara behåller ett litet antal fasta, atomiserade funktioner, som att läsa och skriva filer, utföra skalkommandon, söka efter filer, etc. I LLM-systemprompten finns det bara detta lager av verktygsdefinitioner, som är relativt få, inom 15, och in- och utdataformaten är mycket tydliga och inte lätta att göra misstag, men det finns två specialverktyg i det, det ena är Shell och det andra är File.
Nivå 2: Sandbox-verktyg
Varje Manus-session körs i en fullständig sandbox-miljö för virtuella datorer. Som nämnts i den ursprungliga tweeten kommer den virtuella maskinen förinstallerad med många kommandoradsverktyg, såsom formatkonverterare, taligenkänningsverktyg och till och med en MCP-kommandoradsklient.
Dessa verktyg anropas sedan genom skalet som definieras i lager 1, som är kommandoradsverktyget, kommandoradsanropet.
Men hur vet så många verktygsmodeller?
Manus berättar för LLM direkt i systemprompten att det finns många förinstallerade kommandoradsverktyg i en specifik mapp. För de vanligaste verktygen listar du dem direkt efter namn. För dem som inte är vanligt förekommande kan LLM:er direkt lista alla kommandoradsverktyg genom de kommandon som nämns i den ursprungliga pushen, och använda parametern --help för att se användningen av någon av dem, eftersom alla är utvecklade av sig själva och har ett enhetligt format.
Lager 3: Paket och API:er
Detta lager är faktiskt LLM som skriver Python-kod i realtid, och mer komplexa funktioner implementeras genom koden. Om en användare till exempel vill fråga efter data i ett API kan de direkt skriva en funktion i Python för att hämta API:ets data och tolka dem till det format som krävs.
Faktum är att i Codex har det använts mycket att använda Python-kod som ett verktyg.
Eftersom komplexa operationer utförs med hjälp av kod upptar inte resultaten av de kunskapsberäkningar som returneras till huvudhandläggaren huvudhandläggarens kontext.
Fördelen med denna treskiktsdesign är att ur ett modellperspektiv är de verktyg som den behöver anropa fixerade till ett dussintal av det första lagret, och med hjälp av kommandoraden och koden kan den härleda otaliga verktygskombinationer.
En annan punkt är den sub-agent som jag nämnde i min tidigare tweet, Manus använder också en hel del "agent som verktyg"-modell. Använd en subagent som ett verktyg, till exempel är den underagent som ansvarar för hämtning en subagent, men denna subagent är ett verktyg i huvudagentens ögon. Samtidigt kan det också spela en bra roll för att minska sammanhanget.


汉松2 timmar sedan
Claude's Agent Skills är i grund och botten en "kontextavlastning" som flyttar lång färdighetsinformation ur sitt sammanhang och laddar den på begäran. Av en slump delade Manus Peak nyligen också med sig av några tips om "kontextuell avlastning". Manus har många verktyg, men ger inte modellen en fullständig definition av dessa verktyg. Så hur vet den vilka verktyg som finns och vad du kallar dem? Föreställ dig att du får en ny dator, hur vet du vilka verktyg som finns tillgängliga? Den genomsnittlige användaren kommer att öppna listan över applikationer, och programmeraren kommer att 'ls /usr/bin' för att se vilka kommandon som finns tillgängliga.
På samma sätt är Manus lösning att tala om för modellen i en systemprompt att det finns många förinstallerade kommandoradsverktyg i en viss mapp. De vanligaste verktygen (ls, grep, cat, less, more, etc.) är inbyggda i systemuppmaningarna som standard. I stället för att tala om för modellen hur verktygen ska användas listar du bara verktygsnamnet och berättar sedan för den hur parametern --help ska användas för att förstå hur verktyget ska användas. Det bästa är att dessa skaloperationsmodeller har lärt sig, så den har en stark generaliseringsförmåga, och för att lägga till nya verktyg behöver du bara lägga ett kommando i mappen.
Jag upptäckte att Manus verkligen följde Unix-filosofin till slutet: KISS (Keep It Simple, Stupid).

4,82K
Om du verkligen vill vara en automatiserad skrivagent kan arbetsflödet vara mer lämpligt, stegen är trots allt relativt fasta, kostnaden blir lägre, Claude Code kan användas som ett verktyg i mitten, och Claude Codes skrivförmåga är inte nödvändigtvis särskilt bra, och den måste användas med olika modeller för att kombinera för bättre resultat.
Kvaliteten på det innehåll som skrivs av AI beror på 2 huvudpunkter:
1. Kvaliteten på det sammanhang du tillhandahåller
2. Modellens funktioner
Slutligen finns det promptnivån
Den här artikeln är bra eftersom intervjun är av god kvalitet och ger kontextuellt innehåll av hög kvalitet, annars skulle det vara svårt att skriva bra resultat.
Det är som om du låter modellen översätta nu, för det mesta om originaltexten är bra kommer översättningsresultatet att bli bra, och om originaltexten inte är bra kommer översättningen inte att producera bra innehåll.
Den här typen av omskrivning av befintliga data är också en översättning av ett språk, vilket är vad stora modeller är bra på.

AI进化论-花生16 okt. 13:02
Claude Code är den bästa automatiserade skrivagenten.
Den här artikeln på mer än 3 000 ord gjordes till 100 % av Claude Code för mig, och uppgifterna om Xiaohongshu är bra, och de har också orsakat mycket diskussion, men ingen verkar misstänka att detta är en artikel skriven av AI.
Sen dela med mig av min skrivagent byggmetod i kommentarsfältet

22,28K
Topp
Rankning
Favoriter