Tekoälymallien kyvykkyyden kasvu ei ole näyttänyt lainkaan siltä, miten ihmisen älykkyys kehittyy, mutta tekoälytyyppien keskuudessa on edelleen laajalle levinnyt oletus, että AGI:llä tai superälyllä on väistämättä sama kykyjakauma kuin ihmisneroilla. Vaikuttaa väärältä
karpatiahavainto (myös muut) siitä, että RL tuottaa joukon ominaisuuksia, jotka eivät ehkä koskaan kehity AGI:ksi (eli että koulutusdatan skaalaaminen ja datan laadun parantaminen ei välttämättä koskaan johda malleihin, jotka ovat oletusarvoisia agenttisia tai uusia oivalluksia tuottavia tai w/e) saattaa myös yleistää
toisin sanoen minusta ei näytä olevan olemassa maailmankaikkeuden lakia, joka sanoisi, että koko ihmisälyn paketti koko väestössä olisi toistettavissa ML-tekniikoilla ollenkaan, puhumattakaan mistään tietystä tutkimussuunnasta
minusta vaikuttaa hyvin uskottavalta, että voisit rakentaa jatkuvasti oppivia agenttisia tekoälymalleja, jotka pystyvät tekemään lähes kaiken huipputason oikeudellisen analyytikon työn yrityksessä, mutta vain 50 tai 60 % uudella alalla työskentelevän oikeustieteilijän työstä
Tämä on muuten selvää lakimiehille, koska he tietävät, että uusilla aloilla tai osa-aloilla työskentelevät lakimiehet pohjimmiltaan vain keksivät lakia analogian perusteella jne.
Ei fysiikan kaveri, mutta vastaava olisi se, että voit isännöidä 10 000 itseään kehittävää jatko-opiskelijaa datakeskuksessa ilman, että pystyt tekemään yhden einsteinin työtä (tai mitä tahansa – idk, jos "kun AGI korvaa einsteinin" on hyödyllinen hypoteettinen ollenkaan)
Vaikka olettaisit, että on mahdollista kopioida inhimillinen näkemys kokonaisuutena vaikkapa useiden eri malliarkkitehtuurien yhdistelmällä yhdessä – se näyttää minusta paljon sellaiselta grindaavalta optimointiongelmalta, josta rajamallien virittäminen on nyt tullut.
3,9K