Hoffmann, MiklósLekka, Lénárd2026-02-122026-02-122025-11-04https://hdl.handle.net/2437/404498A dolgozat a megmagyarázható mesterséges intelligencia (XAI) területével foglalkozik, különös tekintettel a vizuális magyarázati eszközök szerepére a modellek döntéseinek értelmezésében. A kutatás célja annak bemutatása volt, hogyan tehetők a gépi tanulási rendszerek átláthatóbbá és érthetőbbé a felhasználók számára. A gyakorlati részben a Random Forest algoritmus került alkalmazásra az UCI Adult Income adathalmazon, amely a jövedelmi kategóriák előrejelzését végzi demográfiai jellemzők alapján. A modell döntéseit a SHAP (SHapley Additive exPlanations) módszer segítségével elemeztem, amely játékelméleti alapokon kvantifikálja az egyes bemeneti változók hatását a kimenetre. A SHAP-értékek vizualizációja – például a summary, dependence és force plot ábrák – lehetővé tette a döntések ok-okozati mintázatainak feltárását. Az eredmények alapján az oktatási szint, az életkor és a tőkenyereség bizonyultak a legmeghatározóbb tényezőknek. A dolgozat rávilágít arra, hogy a magyarázhatóság nem csupán technikai kérdés, hanem az etikus és felelős MI-alkalmazások alapfeltétele is.39huMISHAPRandom ForestInformatikaAdatbázisVizuális eszközökkel segített Megmagyarázható Mesterséges IntelligenciaInformatika::SzámítógéptudományHozzáférhető a 2022 decemberi felsőoktatási törvénymódosítás értelmében.