Evaluasi Model Deep Reinforcement Learning Untuk Adaptasi Konten Pembelajaran Berdasarkan Performa Siswa

Penulis

  • Fahad Abdul Aziz Program Studi Sarjana Terapan Informatika, Universitas Logistik dan Bisnis Internasional
  • M. Yusril Helmi Setyawan Program Studi Sarjana Terapan Informatika, Universitas Logistik dan Bisnis Internasional
  • Cahyo Prianto Program Studi Sarjana Terapan Informatika, Universitas Logistik dan Bisnis Internasional

DOI:

https://doi.org/10.25077/TEKNOSI.v12i1.2026.105-112

Kata Kunci:

Deep Reinforcement Learning, Pembelajaran Adaptif, DQN, DDQN

Abstrak

Transformasi digital dalam pendidikan telah mempercepat integrasi (Artificial Intelligence/AI), khususnya pada sistem pembelajaran adaptif. Sistem konvensional sering kali gagal menyesuaikan materi dengan performa dan kecepatan belajar individu. Untuk mengatasi hal ini, penelitian ini mengimplementasikan Deep Reinforcement Learning (DRL) guna membangun model rekomendasi konten adaptif berdasarkan riwayat interaksi dan hasil belajar siswa. Dua model agen Deep Q-Network (DQN) dan Double DQN (DDQN) dikembangkan dan dievaluasi dalam lingkungan belajar simulatif menggunakan dataset EdNet-KT1, yang berisi data interaksi siswa dalam skala besar. Pelatihan dilakukan melalui formulasi Markov Decision Process (MDP), dengan vektor keadaan yang mencakup metadata soal, akurasi jawaban, dan waktu pengerjaan. Evaluasi model menggunakan tiga metrik utama: reward per episode, generalisasi terhadap pengguna baru (unseen users), dan akurasi prediksi. Hasil menunjukkan bahwa DDQN memiliki performa lebih unggul dibandingkan DQN dalam hal stabilitas, kemampuan generalisasi, dan akurasi. Rata-rata reward yang diperoleh DDQN melebihi 14 dalam sebagian besar skenario, dengan akurasi prediksi mencapai 78%, sedangkan DQN hanya mencapai 74%. Analisis kurva pembelajaran juga menunjukkan bahwa DDQN mengalami konvergensi lebih cepat dengan fluktuasi yang lebih rendah. Evaluasi model menggunakan tiga metrik utama: reward per episode, generalisasi terhadap pengguna baru (unseen users), dan akurasi prediksi. Hasil menunjukkan bahwa DDQN memiliki performa lebih unggul dibandingkan DQN dalam hal stabilitas, kemampuan generalisasi, dan akurasi. Rata-rata reward yang diperoleh DDQN melebihi 14 dalam sebagian besar skenario, dengan akurasi prediksi mencapai 78%, sedangkan DQN hanya mencapai 74%. Analisis kurva pembelajaran juga menunjukkan bahwa DDQN mengalami konvergensi lebih cepat dengan fluktuasi yang lebih rendah

Referensi

V. Mirata, F. Hirt, P. Bergamin, and C. van der Westhuizen, “Challenges and contexts in establishing adaptive learning in higher education: findings from a Delphi study,” International Journal of Educational Technology in Higher Education, vol. 17, no. 1, Dec. 2020, doi: 10.1186/s41239-020-00209-y.

I. Katsaris and N. Vidakis, “Adaptive e-learning systems through learning styles: A review of the literature,” Adv Mobile Learn Educ Res, vol. 2021, no. 2, pp. 124–145, 2021, doi: 10.25082/AMLER.2021.02.007.

Xiao Li, Hanchen Xu, Jinming Zhang, and Hua-hua Chang, “Psychometrika Submission,” 2020.

R. Mustapha, G. Soukaina, Q. Mohammed, and A. Es-Sâadia, “Towards an Adaptive e-Learning System Based on Deep Learner Profile, Machine Learning Approach, and Reinforcement Learning.” [Online]. Available: www.ijacsa.thesai.org

Z. Li, F. Hu, S. Qi, R. Hu, Y. Zhou, and Y. Bai, “Deformation characteristics of the shear zone and movement of block stones in soil-rock mixtures based on large-sized shear test,” Applied Sciences (Switzerland), vol. 10, no. 18, Sep. 2020, doi: 10.3390/APP10186475.

M. Abdelshiheed, J. W. Hostetter, T. Barnes, and M. Chi, “Leveraging Deep Reinforcement Learning for Metacognitive Interventions across Intelligent Tutoring Systems,” Apr. 2023, [Online]. Available: http://arxiv.org/abs/2304.09821

Y. Choi et al., “EdNet: A Large-Scale Hierarchical Dataset in Education,” Jul. 2020, [Online]. Available: http://arxiv.org/abs/1912.03072

P. Tam, S. Math, A. Lee, and S. Kim, “Multi-agent deep q-networks for efficient edge federated learning communications in software-defined iot,” Computers, Materials and Continua, vol. 71, no. 2, pp. 3319–3335, 2022, doi: 10.32604/cmc.2022.023215.

Y. Li, T. Guo, Q. Li, and X. Liu, “Optimized Feature Extraction for Sample Efficient Deep Reinforcement Learning,” Electronics (Switzerland), vol. 12, no. 16, Aug. 2023, doi: 10.3390/electronics12163508.

B. S. Ciftler, M. Abdallah, A. Alwarafy, and M. Hamdi, “DQN-Based Multi-User Power Allocation for Hybrid RF/VLC Networks,” in IEEE International Conference on Communications, Institute of Electrical and Electronics Engineers Inc., Jun. 2021. doi: 10.1109/ICC42927.2021.9500564.

F. Rasheed, K. L. A. Yau, R. M. Noor, C. Wu, and Y. C. Low, “Deep Reinforcement Learning for Traffic Signal Control: A Review,” IEEE Access, vol. 8, pp. 208016–208044, 2020, doi: 10.1109/ACCESS.2020.3034141.

R. S. Sutton and A. G. Barto, “Reinforcement Learning: An Introduction Second edition, in progress.”

A. Schuderer, S. Bromuri, and M. van Eekelen, “Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models,” Feb. 2021, doi: 10.1007/978-3-030-85739-4_39.

S. Kumar, “Balancing a CartPole System with Reinforcement Learning -- A Tutorial,” Jun. 2020, [Online]. Available: http://arxiv.org/abs/2006.04938

A. Ly, R. Dazeley, P. Vamplew, F. Cruz, and S. Aryal, “Elastic Step DQN: A novel multi-step algorithm to alleviate overestimation in Deep QNetworks,” Oct. 2022, [Online]. Available: http://arxiv.org/abs/2210.03325

Z. Ren, G. Zhu, H. Hu, B. Han, J. Chen, and C. Zhang, “On the Estimation Bias in Double Q-Learning,” Jan. 2022, [Online]. Available: http://arxiv.org/abs/2109.14419

P. Liu, C. Yao, C. Li, S. Zhang, and X. Li, “A Caching-Enabled Permissioned Blockchain Scheme for Industrial Internet of Things Based on Deep Reinforcement Learning,” Wirel Commun Mob Comput, vol. 2023, 2023, doi: 10.1155/2023/2852085.

Z. Zhou, C. Allen, K. Asadi, and G. Konidaris, “Characterizing the Action-Generalization Gap in Deep Q-Learning,” May 2022, [Online]. Available: http://arxiv.org/abs/2205.05588

X. Zhang, “Application and Optimization of Reinforcement Learning Based on Deep Q-Network (DQN) in Complex Environments,” 2025.

Unduhan

Telah diserahkan

14-07-2025

Diterima

27-04-2026

Diterbitkan

05-05-2026

Cara Mengutip

[1]
F. Abdul Aziz, M. Y. Helmi Setyawan, dan C. Prianto, “Evaluasi Model Deep Reinforcement Learning Untuk Adaptasi Konten Pembelajaran Berdasarkan Performa Siswa”, TEKNOSI, vol. 12, no. 1, hlm. 105–112, Mei 2026.

Terbitan

Bagian

Articles

Artikel Serupa

<< < 1 2 3 4 5 6 

Anda juga bisa Mulai pencarian similarity tingkat lanjut untuk artikel ini.