Harangi, BalázsGacsályi, Miklós2026-02-122026-02-122025-11-18https://hdl.handle.net/2437/404447A dolgozat a mesterséges intelligenciával foglalkozik, ezen a témán belül pedig a megerősítéses tanulással. A tanítás elkezdéséhez kiválasztottam két algoritmust, amelye a feladatok elvégzésére alkalmasak, illetve két feladatot, amelyekkel le tudjuk tesztelni az algoritmusok alkalmasságát. A két felhasznált algoritmus a Proximal Policy Optimization (PPO), illetve a Soft Actor-Critic (SAC) algoritmus. A PPO egy olyan szabályon alapuló (on-policy) algoritmus. A két különböző algoritmussal működő mesterséges intelligenciának két feladatot kellett vég-hezvinni. A feladatok pontosan az autóvezetés egy versenypályán és egy repülő irányítása. A megfigyeléseim kiemelik a két algoritmus közti különbséget, az egyes algoritmusok erős-ségeit és a gyengeségeit, és azt, hogy mely feladathoz alkalmazhatók leginkább.43huMesterséges IntelligenciaMegerősítéses TanulásMesterséges intelligencia tanuló algoritmusok összehasonlítása és alkalmazásaInformatika::Informatikai rendszerekHozzáférhető a 2022 decemberi felsőoktatási törvénymódosítás értelmében.