Regisztráció és bejelentkezés

Felderítési módszerek vizsgálata mély megerősítéses tanulás gyorsítására

A mély megerősítéses tanulás lehetővé teszi, hogy rendkívül komplex környezetekben is optimális stratégiákat találjunk. A kutatás jó terepe a bonyolult játékok, mint a Go vagy az Atari játékok, vizsgálata.

Az optimális stratégiák tanulásának egyik fontos kérdése a kihasználás és felderítés közti helyes kompromisszum megtalálása. Ahhoz, hogy az ágens jutalma maximális legyen, a meglévő stratégiáját kell követnie, ami minden lépésben megmondja, mi a legnagyobb ígérő akció, amit választhat. Ugyanakkor fontos a felderítés is, azaz olykor el kell térni az optimálisnak vélt akciótól, hogy új információt nyerjen az ágens. A felderítés megfelelő megvalósítása nagyságrendekkel gyorsíthatja az optimális stratégiához való konvergálást, így komplexebb feladatok megoldását lehetővé téve.

A híres DeepMind mély megerősítéses tanulásos model a legegyszerűbb epszilon-mohó felderítési módszert alkalmazta, ahol az ágens minden lépésben epszilon valószínűséggel véletlenszerűen választ akciót. Ez a módszer egyszerűségét tekintve előnyös, azonban sok más kifinomultabb lehetőség is felvethető. Dolgozatomban ezeket a módszereket és hatásukat vizsgálom a DeepMind Atari játékok felhasználásával.

szerző

  • Pilinszki-Nagy Csongor
    Mérnök informatikus szak, alapképzés
    alapképzés (BA/BSc)

konzulens

  • Dr. Pataki Béla
    egyetemi docens, Méréstechnika és Információs Rendszerek Tanszék