两篇知识追踪领域的中文综述解读

最近在做知识追踪方向,看了两篇中文综述,总结一下知识追踪领域的脉络,之后主要会去读基于深度学习的认知跟踪的论文,欢迎大家讨论,后期继续更新深度知识追踪篇的论文和思考…

1. 2020 教育大数据中认知跟踪模型研究进展_胡学钢

问:海量的教育数据,如何挖掘与分析?

答:认知跟踪进展。首先介绍了认知跟踪进展的两种方法,并结合应用情景分析,最后分析两种模型的优缺点并探讨未来可研究的方向。

基于学生在学习过程中作答习题的数据,跟踪学生对知识点的掌握随时间的变化情况,预测学生在未来时刻作答习题表现。

  • 基于贝叶斯方法的认知跟踪模型-BKT

观测变量与知识点之间的关系已知,按照习题关联知识点分组形成序列

​ 假设:每次练习仅与一个知识相关、忽略遗忘因素、转移概率不变。

​ 算法:从t时答题情况 ——>t-1时的掌握情况(条件)——>t的掌握情况。

​ 扩展:教育数据特征(试题相似、)

​ 特点:具有强大的可解释性,但丢失学生数据特征规律,预测能力一般

一阶HMM

  • 基于深度学习方法的认知跟踪模型-DKT

所有知识点构建一个模型,对观测与知识点关系未知,将一个学生回答所有知识点为一个序列

RNN 输入、隐藏层、输出

one-hot表示法,为何Q+q,

​ 扩展:教育数据特征(遗忘曲线、学生聚类)

​ 特点:较强表示能力和预测性能,无法显式得到学生对每个具体知识点的认知状态,可解释性一般

  • 分析与展望

    贝叶斯参数寻优、精度与解释性的权衡、与实际问题的不符合

2. 2021 基于深度学习的知识追踪研究进展_刘铁园

知识追踪:通过建立学生知识状态随着时间变化的模型,来判断学生对知识的掌握程度并从学习轨迹中挖掘出潜在学习规律,从而提供个性化指导,实现人工智能辅助教育。

DLKT:DKT模型以RNN为基础

三大主要技术改进问题:

  1. 可解释性问题的改进
    • Ante-hoc:解决程度不足,注意力机制和自解释模型都知道提高某一部分的可解释性
    • Post-hoc:对部分条件要求高(LRP需要预测函数具有较高的梯度)
  2. 长期依赖问题
    • 基于LSTM的扩展模型:扩展RNN序列学习长度,并未根本解决
    • 基于自注意力机制的模型:Transformer模型不依赖RNN,解决了长期依赖问题,但丧失了RNN对序列建模的能力
  3. 缺少学习特征问题
    • 嵌入方式:将学习特征添加到模型的输入嵌入向量中,或作为额外的计算因子嵌入到计算过程中的方式
    • 损失函数限制:将额外的学习特征作为限制条件,编码到损失函数中的方式
    • 新结构:使用新的模型结构,将额外学习特征纳入模型计算过程中的方式

DLKT模型的应用:

  • 发现题目的拓扑排序
  • 应用于主观题
  • 验证教育理论
  • 学习路径推荐
  • 职业预测
  • 生成试卷

猜你喜欢

转载自blog.csdn.net/weixin_44546100/article/details/126097524