最近在做知识追踪方向,看了两篇中文综述,总结一下知识追踪领域的脉络,之后主要会去读基于深度学习的认知跟踪的论文,欢迎大家讨论,后期继续更新深度知识追踪篇的论文和思考…
1. 2020 教育大数据中认知跟踪模型研究进展_胡学钢
问:海量的教育数据,如何挖掘与分析?
答:认知跟踪进展。首先介绍了认知跟踪进展的两种方法,并结合应用情景分析,最后分析两种模型的优缺点并探讨未来可研究的方向。
基于学生在学习过程中作答习题的数据,跟踪学生对知识点的掌握随时间的变化情况,预测学生在未来时刻作答习题表现。
- 基于贝叶斯方法的认知跟踪模型-BKT
观测变量与知识点之间的关系已知,按照习题关联知识点分组形成序列
假设:每次练习仅与一个知识相关、忽略遗忘因素、转移概率不变。
算法:从t时答题情况 ——>t-1时的掌握情况(条件)——>t的掌握情况。
扩展:教育数据特征(试题相似、)
特点:具有强大的可解释性,但丢失学生数据特征规律,预测能力一般
一阶HMM
- 基于深度学习方法的认知跟踪模型-DKT
所有知识点构建一个模型,对观测与知识点关系未知,将一个学生回答所有知识点为一个序列
RNN 输入、隐藏层、输出
one-hot表示法,为何Q+q,
扩展:教育数据特征(遗忘曲线、学生聚类)
特点:较强表示能力和预测性能,无法显式得到学生对每个具体知识点的认知状态,可解释性一般
-
分析与展望
贝叶斯参数寻优、精度与解释性的权衡、与实际问题的不符合
2. 2021 基于深度学习的知识追踪研究进展_刘铁园
知识追踪:通过建立学生知识状态随着时间变化的模型,来判断学生对知识的掌握程度并从学习轨迹中挖掘出潜在学习规律,从而提供个性化指导,实现人工智能辅助教育。
DLKT:DKT模型以RNN为基础
三大主要技术改进问题:
- 可解释性问题的改进
- Ante-hoc:解决程度不足,注意力机制和自解释模型都知道提高某一部分的可解释性
- Post-hoc:对部分条件要求高(LRP需要预测函数具有较高的梯度)
- 长期依赖问题
- 基于LSTM的扩展模型:扩展RNN序列学习长度,并未根本解决
- 基于自注意力机制的模型:Transformer模型不依赖RNN,解决了长期依赖问题,但丧失了RNN对序列建模的能力
- 缺少学习特征问题
- 嵌入方式:将学习特征添加到模型的输入嵌入向量中,或作为额外的计算因子嵌入到计算过程中的方式
- 损失函数限制:将额外的学习特征作为限制条件,编码到损失函数中的方式
- 新结构:使用新的模型结构,将额外学习特征纳入模型计算过程中的方式
DLKT模型的应用:
- 发现题目的拓扑排序
- 应用于主观题
- 验证教育理论
- 学习路径推荐
- 职业预测
- 生成试卷