Az emberi és társadalmi lét szinte minden területén észrevétlenül vagy jól szembetűnően jelen van a Mesterséges Intelligencia (MI).
Az MI egyik széles körben használt módszere a Mesterséges Neurális Hálók alkalmazása. Ezek változatos problémák megoldására alkalmazható modellek, de nagy hátrányuk, hogy hosszú futási időt és viszonylag nagy számítási kapacitást igényelnek, valamint szemléletesen nem feltétlenül magyarázható a "jó eredmény" sem. A neurális háló fejlesztések egyik célja gyorsabb és stabilabb tanító algoritmusok megalkotása.
A dolgozat egy olyan új kutatási eredményről számol be, amiben a cél egy új, alkalmazható neurális háló tanító algoritmus létrehozása. Foglalkozik az tanító algoritmusokban használt modellhibát mérő információelméleti mértékekkel a korábban megjelent irodalmakban, kísérletet téve az általánosan használt Átlagos Négyzetes Hibával (MSE) való összehasonlításra.
Egy 2008-as tudományos cikk [1] bemutat egy olyan hibamértéket, ami a matematika két területéről - statisztika és információelmélet - származó mértékeket foglal magába egy paraméter értékétől függően. A TDK kutatás alapötlete ennek a mértéknek a Levenberg-Marquard algoritmusban (LM) történő alkalmazása, amiben a paraméter adaptív változtatása révén a két terület variálása is megvalósul.
A bemutatott kutatómunka eredménye egy olyan dinamikus tanítóalgoritmus létrejötte, melyben a tanítás során adaptívan változik a hibamérték, ami megvalósítja a két terület (statisztika és információelmélet) együttes alkalmazását. A használt módszernek köszönhetően pedig gyorsabb lefutású, mint az erre a problémkörre korábban használt technika. Az új algoritmus pozitív tulajdonságait benchmark adathalmazokon végzett széles körű tesztelés bizonyítja.
[1] Silva és társai, "Data classification with multilayer perceptrons using a generalized error function", Neural Networks, 2008