Regisztráció és bejelentkezés

Magyarázhatósági algoritmus adaptálása gráf neurális hálózatokra

Napjainkban a mesterséges intelligencia (MI) robbanásszerű ütemben terjed és fejlődik számos kutatási területen. Az MI-n alapuló módszerek számos iparágban forradalmasították az információfeldolgozást és a döntéshozatali folyamatokat. A mélytanulás gráfokban való alkalmazása viszonylag új és egyre nagyobb fókuszt kapó irányzat. Ebben az esetben a bemenetek gráf struktúrájú adatok, mint például szociális hálózatok, molekulák szerkezetei vagy hálózati rendszerek. Ezáltal az adatok topológiai szerkezetére és elhelyezkedésére vonatkozó információk már az adathalmazba bele vannak kódolva. A gráf neurális hálózatok (GNN-ek) nagyon hatékonyan alkalmazhatók ilyen jellegű adatokra, azonban kihívást jelent működésük megértése és hatékony használatuk.

A neurális hálózatokon alapuló modelleket gyakran „fekete doboz” jellegűnek is nevezik, ez azt jelenti, hogy nem ad semmilyen visszajelzést arról, hogy a használt modell miért dönt úgy, ahogyan. Ez megnehezítheti a modellek alkalmazását az iparban, különösen azokon a területeken, ahol a döntések kritikus jelentőséggel bírnak. Ide tartoznak az egészségügyi, pénzügyi vagy jogi területek, ahol azt várjuk, hogy a modell átláthatóan, megbízhatóan és torzítás nélkül működjön. Mindezek miatt jelenleg sokan a magyarázhatóságot tartják a mélytanulás egyik legfontosabb kutatási területének. A magyarázhatósági módszerek már megjelentek Gráf neurális hálózatokra is, de a létező megoldásoknak megvannak a korlátjaik, különösen összetett gráfokon alkalmazva. Kutatásom célja egy új magyarázhatósági algoritmus létrehozása Gráf neurális hálózatokhoz, amely rávilágít a hálózat döntési folyamataira és belső működésére. Kiindulásként egy összetett magyarázhatósági modellt használok, az INVASE-t, amely táblázatos (tabuláris) adatokat vár bemenetként. Ennek lényeges tulajdonsága, hogy nem általánosságban tud magyarázatot adni az összes bemenetre, hanem minden egyes bemeneti példányra külön-külön. Meghatározza, hogy mely jellemzők játszottak kulcsszerepet a döntésben. Jól működik egyszerű tabuláris adatokhoz, de a gráfokhoz való adaptálása teljesen új kihívást jelent.

Az elkészített algoritmussal olyan magyarázatokat kívánok generálni, amelyek pontosabbak és egyszerűbben érthetők, mint a korábbi GNN magyarázhatósági módszerekkel készült magyarázatok. Teljesítményüket mesterséges és valós adathalmazokon hasonlítom össze. A gráfoknak a tulajdonságai nagyon eltérnek a tabuláris adatoktól, és a rajtuk elvégezhető feladatok is változatosabbak: vannak csomópont-, link- és gráfszintű prediktációs feladatok. A magyarázatokat a gráfok vizualizációjaként mutatom be, amelyek kiemelik az algoritmus által fontosnak tartott éleket és csomópontokat. Ha ezeket a módszereket használjuk egy gráf struktúrájú adathalmazon, az elvégzett műveletek megbízhatóbbá és ellenőrizhetőbbé válhatnak. A magyarázatok révén új információkat is felfedezhetünk az adott vizsgálati területről azáltal, hogy a bemeneti adatok és a kimenet között eddig ismeretlen kapcsolatokat tárunk fel.

szerző

  • Tugyi Beatrix
    Mérnök informatikus szak, mesterképzés
    mesterképzés (MA/MSc)

konzulensek

  • Dr. Gyires-Tóth Bálint
    adjunktus, Távközlési és Médiainformatikai Tanszék
  • Unyi Dániel
    Doktorandusz, Távközlési és Médiainformatikai Tanszék

helyezés

I. helyezett