Regisztráció és bejelentkezés

Statisztikát és információelméletet integráló mértéket alkalmazó dinamikus algoritmus mesterséges neurális hálózat tanítására

A Mesterséges Intelligencia és az Adattudomány széles körben elterjed módszerei között tartják számon a mesterséges neurális hálózatok használatát.

Ezen modell felépítésének fontos kulcseleme a hálózat súlyainak tanítása, beállítása algoritmikus módszerekkel. Jelen TDK dolgozat egy új tanítómérték és egy új algoritmus részletes elemzését tűzi ki célul. Ez a módszer a tanítás, mint optimalizálási problémának a megoldására a Levenberg-Marquardt algoritmust használja egy fontos újítással módosítva. Az Adattudományban is a hiba, eltérés mérésére elterjedten használt (átlagos) négyzetes hiba (MSE) helyett a Silva és társai által (2008) [1] bemutatott integrált exponenciális hiba továbbfejlesztését, az újonnan bevezetett abszolútértékes exponenciális hibát alkalmazza.

Ez a többszörösen továbbfejlesztett algoritmus nagyszámú benchmark adathalmazon került tesztelésre. A dolgozat ennek a tesztelésnek több fő szempont, mint pontosság, sebesség stabilitás szerinti kiértékelését mutatja be, ezeken kívül beszámol a témához kapcsolódó releváns tudományos irodalomban fellelhető eredményhez képest elért jobb eredményekről is.

[1] Silva és társai, "Data classification with multilayer perceptrons using a generalized error function", Neural Networks, 2008

szerző

  • Szűcs Ágnes
    Matematikus mesterképzési szak (MSc)
    mesterképzés (MA/MSc)

konzulens

  • Dr. Viharos Zsolt János
    tudományos főmunkatárs, Számítástechnikai és Automatizálási Kutatóintézet (SZTAKI) (külső)

helyezés

III. helyezett