AI DeepMind wynajduje lepszy sposób na naukę: przełom w uczeniu przez wzmocnienie Badacze z DeepMind wykazali, że sztuczna inteligencja może autonomicznie odkrywać algorytmy uczenia przez wzmocnienie (RL), które przewyższają te starannie opracowane przez ludzi. Ten postęp kwestionuje tradycyjny paradygmat, w którym zasady RL są ręcznie projektowane, torując drogę dla maszyn do rozwijania własnych strategii uczenia się wyłącznie na podstawie doświadczenia. Główna innowacja leży w meta-uczeniu przez wzmocnienie, technice, w której system AI uczy się *jak* się uczyć, czerpiąc z zbiorowych doświadczeń wielu agentów poruszających się w złożonych środowiskach. Zamiast polegać na z góry określonych zasadach, AI iteracyjnie udoskonala nową metodę aktualizacji polityk i prognoz. Gdy testowano ją na klasycznym benchmarku Atari — zestawie gier wideo używanych do oceny wydajności RL — odkryty algorytm nie tylko przewyższył istniejące zasady zaprojektowane przez ludzi, ale także doskonale radził sobie z całkowicie nowymi, trudnymi zadaniami, z którymi nigdy wcześniej się nie spotkał podczas treningu. Nie jest to poprawa inkrementalna, to zmiana koncepcyjna. AI może przyspieszyć postęp w dziedzinach wymagających adaptacyjnej inteligencji, od robotyki po odkrycia naukowe. Automatyzując proces odkrywania, wkrótce możemy zobaczyć systemy AI, które samodzielnie rozwijają swoje osiągnięcia, zmniejszając potrzebę interwencji ludzkiej i potencjalnie prowadząc do bardziej solidnej i uogólnionej sztucznej inteligencji. Artykuł: