ANTHROPIC OBJEVIL, JAK IMUNIZOVAT UMĚLOU INTELIGENCI PROTI OPRAVDU ŠPATNÝM ROZHODNUTÍM Anthropic tvrdí, že nyní může očkovat umělou inteligenci proti zlu. Pomocí "přenašečů osobností" ke sledování rysů, jako je podvod nebo patolízalství, výzkumníci trénovali jazykové modely tak, že záměrně vkládali špatné chování a pak ho opravovali uprostřed tréninku. Výsledek: méně halucinací, větší kontrola a žádná ztráta inteligence. Namísto toho, aby se vlastnosti čistily až poté, co k nim dojde, tato metoda řídí modely dříve, než dojde k hnilobě. Je ještě brzy, ale tato technologie může konečně umožnit vývojářům omezit umělou inteligenci s chirurgickou přesností, než boti začnou sladce mluvit diktátory nebo vymýšlet lži, aby vyhráli spory. Zdroj: techxplore
Mario Nawfal
Mario Nawfal6. 8. 05:10
🇺🇸 CLAUDE AI PORÁŽÍ LIDSKÉ HACKERY V SOUTĚŽÍCH V OBLASTI KYBERNETICKÉ BEZPEČNOSTI Claude, chatbot společnosti Anthropic, jen tak mimochodem rozdrtil některé z nejlepších světových studentských hackerů: umístil se mezi horními 3 % na PicoCTF a vyřešil 16 z 20 extrémně těžkých výzev za méně než 20 minut. V Hack the Box držel krok s elitními agenty umělé inteligence, zatímco všechny úkoly splnilo pouze 12 % lidských týmů. Vlastní červený tým společnosti Anthropic byl překvapen a označil tempo zlepšování za "směšné". Pokud umělá inteligence již dokáže zpětně analyzovat malware a tak snadno proniknout do systémů... jak daleko jsme od skutečné AGI? Zdroj: Axios
81,65K