【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【5】

上接:

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【1】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【2】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【3】

【AI浅谈】AI算法,用尽可能简单的话讲懂AI的原理【4】

事前说明

学无止尽,个人能力不足,如有错误之处烦请见谅,感谢您的阅读与指出!

PS:小伞是一直在学习的唐伞妖怪欧,由于只是一只菜菜的妖怪,所以学习的地方可能会有些不对(||๐_๐),感谢各位大佬的指正!

接下来就是提优化了

优化说白了就是复习的力度调控,什么时候要复习的深入一点?什么时候要进行简要的复习?(具体的公式和代码去看相关的介绍,本系列主要起到的是AI算法的入门科普作用)在原本的公式体现中就是学习率——用来调整数据的影响力,也就是复习力度。

在模型不同的学习阶段,复习的力度也要不一样,学习率也要动态的进行调整,以及模型的一些人为设定的参数

(形象生动一点,就是例如每天学习的小时数,还有一日三餐该怎么吃那一类的(话说为什么这个也算?))

围绕这一堆参数如何调整的问题,衍生出了一堆叫做优化器的东西,优化器可以根据当前模型学习的状况,动态的调整模型的人为设定的参数,从而让训练进行加速,常用的像是有SGD,Adam,Momentum等。

一个离谱的奇思妙想

这个时候说不定各位就会想:“那我如果整一个老师来指导学生的复习进度会怎么样呢?”最近还真有人把这一个活给干出来了——就是通过训练好的AI来指导模型的参数变化——adan,最近北大南开和Sea lab的一些学术研究者通过元学习(学习如何让AI学习的更快)的方法,训练了一个这样的模型,据说可以让模型下降的更快,较以前的SOTA(最好结果)都好了不少。

To Be Continue...

猜你喜欢

转载自blog.csdn.net/unrealnum_border/article/details/128321581
AI