Evaluasi Model Deep Reinforcement Learning Untuk Adaptasi Konten Pembelajaran Berdasarkan Performa Siswa
DOI:
https://doi.org/10.25077/TEKNOSI.v12i1.2026.105-112Keywords:
Deep Reinforcement Learning, Pembelajaran Adaptif, DQN, DDQNAbstract
Transformasi digital dalam pendidikan telah mempercepat integrasi (Artificial Intelligence/AI), khususnya pada sistem pembelajaran adaptif. Sistem konvensional sering kali gagal menyesuaikan materi dengan performa dan kecepatan belajar individu. Untuk mengatasi hal ini, penelitian ini mengimplementasikan Deep Reinforcement Learning (DRL) guna membangun model rekomendasi konten adaptif berdasarkan riwayat interaksi dan hasil belajar siswa. Dua model agen Deep Q-Network (DQN) dan Double DQN (DDQN) dikembangkan dan dievaluasi dalam lingkungan belajar simulatif menggunakan dataset EdNet-KT1, yang berisi data interaksi siswa dalam skala besar. Pelatihan dilakukan melalui formulasi Markov Decision Process (MDP), dengan vektor keadaan yang mencakup metadata soal, akurasi jawaban, dan waktu pengerjaan. Evaluasi model menggunakan tiga metrik utama: reward per episode, generalisasi terhadap pengguna baru (unseen users), dan akurasi prediksi. Hasil menunjukkan bahwa DDQN memiliki performa lebih unggul dibandingkan DQN dalam hal stabilitas, kemampuan generalisasi, dan akurasi. Rata-rata reward yang diperoleh DDQN melebihi 14 dalam sebagian besar skenario, dengan akurasi prediksi mencapai 78%, sedangkan DQN hanya mencapai 74%. Analisis kurva pembelajaran juga menunjukkan bahwa DDQN mengalami konvergensi lebih cepat dengan fluktuasi yang lebih rendah. Evaluasi model menggunakan tiga metrik utama: reward per episode, generalisasi terhadap pengguna baru (unseen users), dan akurasi prediksi. Hasil menunjukkan bahwa DDQN memiliki performa lebih unggul dibandingkan DQN dalam hal stabilitas, kemampuan generalisasi, dan akurasi. Rata-rata reward yang diperoleh DDQN melebihi 14 dalam sebagian besar skenario, dengan akurasi prediksi mencapai 78%, sedangkan DQN hanya mencapai 74%. Analisis kurva pembelajaran juga menunjukkan bahwa DDQN mengalami konvergensi lebih cepat dengan fluktuasi yang lebih rendahReferences
V. Mirata, F. Hirt, P. Bergamin, and C. van der Westhuizen, “Challenges and contexts in establishing adaptive learning in higher education: findings from a Delphi study,” International Journal of Educational Technology in Higher Education, vol. 17, no. 1, Dec. 2020, doi: 10.1186/s41239-020-00209-y.
I. Katsaris and N. Vidakis, “Adaptive e-learning systems through learning styles: A review of the literature,” Adv Mobile Learn Educ Res, vol. 2021, no. 2, pp. 124–145, 2021, doi: 10.25082/AMLER.2021.02.007.
Xiao Li, Hanchen Xu, Jinming Zhang, and Hua-hua Chang, “Psychometrika Submission,” 2020.
R. Mustapha, G. Soukaina, Q. Mohammed, and A. Es-Sâadia, “Towards an Adaptive e-Learning System Based on Deep Learner Profile, Machine Learning Approach, and Reinforcement Learning.” [Online]. Available: www.ijacsa.thesai.org
Z. Li, F. Hu, S. Qi, R. Hu, Y. Zhou, and Y. Bai, “Deformation characteristics of the shear zone and movement of block stones in soil-rock mixtures based on large-sized shear test,” Applied Sciences (Switzerland), vol. 10, no. 18, Sep. 2020, doi: 10.3390/APP10186475.
M. Abdelshiheed, J. W. Hostetter, T. Barnes, and M. Chi, “Leveraging Deep Reinforcement Learning for Metacognitive Interventions across Intelligent Tutoring Systems,” Apr. 2023, [Online]. Available: http://arxiv.org/abs/2304.09821
Y. Choi et al., “EdNet: A Large-Scale Hierarchical Dataset in Education,” Jul. 2020, [Online]. Available: http://arxiv.org/abs/1912.03072
P. Tam, S. Math, A. Lee, and S. Kim, “Multi-agent deep q-networks for efficient edge federated learning communications in software-defined iot,” Computers, Materials and Continua, vol. 71, no. 2, pp. 3319–3335, 2022, doi: 10.32604/cmc.2022.023215.
Y. Li, T. Guo, Q. Li, and X. Liu, “Optimized Feature Extraction for Sample Efficient Deep Reinforcement Learning,” Electronics (Switzerland), vol. 12, no. 16, Aug. 2023, doi: 10.3390/electronics12163508.
B. S. Ciftler, M. Abdallah, A. Alwarafy, and M. Hamdi, “DQN-Based Multi-User Power Allocation for Hybrid RF/VLC Networks,” in IEEE International Conference on Communications, Institute of Electrical and Electronics Engineers Inc., Jun. 2021. doi: 10.1109/ICC42927.2021.9500564.
F. Rasheed, K. L. A. Yau, R. M. Noor, C. Wu, and Y. C. Low, “Deep Reinforcement Learning for Traffic Signal Control: A Review,” IEEE Access, vol. 8, pp. 208016–208044, 2020, doi: 10.1109/ACCESS.2020.3034141.
R. S. Sutton and A. G. Barto, “Reinforcement Learning: An Introduction Second edition, in progress.”
A. Schuderer, S. Bromuri, and M. van Eekelen, “Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models,” Feb. 2021, doi: 10.1007/978-3-030-85739-4_39.
S. Kumar, “Balancing a CartPole System with Reinforcement Learning -- A Tutorial,” Jun. 2020, [Online]. Available: http://arxiv.org/abs/2006.04938
A. Ly, R. Dazeley, P. Vamplew, F. Cruz, and S. Aryal, “Elastic Step DQN: A novel multi-step algorithm to alleviate overestimation in Deep QNetworks,” Oct. 2022, [Online]. Available: http://arxiv.org/abs/2210.03325
Z. Ren, G. Zhu, H. Hu, B. Han, J. Chen, and C. Zhang, “On the Estimation Bias in Double Q-Learning,” Jan. 2022, [Online]. Available: http://arxiv.org/abs/2109.14419
P. Liu, C. Yao, C. Li, S. Zhang, and X. Li, “A Caching-Enabled Permissioned Blockchain Scheme for Industrial Internet of Things Based on Deep Reinforcement Learning,” Wirel Commun Mob Comput, vol. 2023, 2023, doi: 10.1155/2023/2852085.
Z. Zhou, C. Allen, K. Asadi, and G. Konidaris, “Characterizing the Action-Generalization Gap in Deep Q-Learning,” May 2022, [Online]. Available: http://arxiv.org/abs/2205.05588
X. Zhang, “Application and Optimization of Reinforcement Learning Based on Deep Q-Network (DQN) in Complex Environments,” 2025.
Downloads
Submitted
Accepted
Published
How to Cite
Issue
Section
License
Copyright (c) 2026 Jurnal Nasional dan Sistem Informasi

This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.
Hak cipta untuk artikel ini ditransfer ke Jurnal Nasional Teknologi dan Sistem Informasi (TEKNOSI) jika dan ketika artikel diterima untuk publikasi. Yang bertanda tangan di bawah ini dengan ini mentransfer setiap dan semua hak di dalam dan ke kertas termasuk tanpa batasan semua hak cipta untuk TEKNOSI. Yang bertanda tangan di bawah ini dengan ini menyatakan dan menjamin bahwa makalah tersebut asli dan bahwa ia adalah pembuat makalah, kecuali untuk bahan yang secara jelas diidentifikasi sebagai sumber aslinya, dengan pemberitahuan izin dari pemilik hak cipta jika diperlukan. Yang bertanda tangan di bawah ini menyatakan bahwa ia memiliki kekuatan dan wewenang untuk membuat dan melaksanakan penugasan ini.
Kami menyatakan bahwa:
- Makalah ini belum diterbitkan dalam bentuk yang sama di tempat lain.
- Makalah ini tidak akan dikirimkan di tempat lain untuk publikasi sebelum penerimaan/penolakan oleh Jurnal ini
- Izin hak cipta diperoleh untuk materi yang diterbitkan di tempat lain dan yang memerlukan izin ini untuk reproduksi.
Selanjutnya, Saya/kami dengan ini mentransfer hak publikasi yang tidak terbatas dari makalah yang disebutkan di atas secara keseluruhan kepada TEKNOSI. Transfer hak cipta mencakup hak untuk mereproduksi dan mendistribusikan artikel, termasuk cetak ulang, terjemahan, reproduksi foto, mikroform, bentuk elektronik (offline, online) atau reproduksi lain yang serupa.
Penulis yang sesuai menandatangani dan menerima tanggung jawab untuk merilis materi ini atas nama setiap dan semua penulis bersama. Perjanjian ini harus ditandatangani oleh setidaknya salah satu penulis yang telah memperoleh persetujuan dari rekan penulis jika berlaku. Setelah pengajuan perjanjian ini ditandatangani oleh penulis yang sesuai, perubahan kepengarangan atau dalam urutan penulis yang tercantum tidak akan diterima.
Hak / Syarat dan Ketentuan yang dipertahankan :
- Penulis memiliki semua hak kepemilikan dalam setiap proses, prosedur, atau artikel manufaktur yang dijelaskan dalam Karya ini.
- Penulis dapat mereproduksi atau mengotorisasi orang lain untuk mereproduksi karya ini atau karya turunannya untuk penggunaan pribadi penulis atau untuk penggunaan perusahaan, dengan ketentuan bahwa sumber dan menyatakan hak cipta dimiliki TEKNOSI, salinan tidak digunakan dengan cara apa pun yang menyiratkan pengesahan TEKNOSI atas suatu produk atau layanan dari pihak mana pun, dan salinannya sendiri tidak ditawarkan untuk dijual.
- Meskipun penulis diizinkan untuk menggunakan kembali semua atau sebagian dari karya ini dalam karya lain, ini tidak termasuk mengabulkan permintaan pihak ketiga untuk mencetak ulang, menerbitkan ulang, atau jenis penggunaan ulang lainnya.













