Statisztikát és információelméletet integráló mértéket alkalmazó dinamikus algoritmus mesterséges neurális hálózat tanítására
A Mesterséges Intelligencia és az Adattudomány széles körben elterjed módszerei között tartják számon a mesterséges neurális hálózatok használatát.
Ezen modell felépítésének fontos kulcseleme a hálózat súlyainak tanítása, beállítása algoritmikus módszerekkel. Jelen TDK dolgozat egy új tanítómérték és egy új algoritmus részletes elemzését tűzi ki célul. Ez a módszer a tanítás, mint optimalizálási problémának a megoldására a Levenberg-Marquardt algoritmust használja egy fontos újítással módosítva. Az Adattudományban is a hiba, eltérés mérésére elterjedten használt (átlagos) négyzetes hiba (MSE) helyett a Silva és társai által (2008) [1] bemutatott integrált exponenciális hiba továbbfejlesztését, az újonnan bevezetett abszolútértékes exponenciális hibát alkalmazza.
Ez a többszörösen továbbfejlesztett algoritmus nagyszámú benchmark adathalmazon került tesztelésre. A dolgozat ennek a tesztelésnek több fő szempont, mint pontosság, sebesség stabilitás szerinti kiértékelését mutatja be, ezeken kívül beszámol a témához kapcsolódó releváns tudományos irodalomban fellelhető eredményhez képest elért jobb eredményekről is.
[1] Silva és társai, "Data classification with multilayer perceptrons using a generalized error function", Neural Networks, 2008
szerző
-
Szűcs Ágnes
Matematikus mesterképzési szak (MSc)
mesterképzés (MA/MSc)
konzulens
-
Dr. Viharos Zsolt János
tudományos főmunkatárs, Számítástechnikai és Automatizálási Kutatóintézet (SZTAKI) (külső)