第17课:强化学习的模型训练
在之前的课程中,我们为大家介绍的机器学习实例大部分都属于监督学习或者无监督学习。例如图像的分类和目标检测属于监督学习,而词嵌入课程中的 word2vec 和 GloVe 都属于无监督学习。在本次课程中,我们将为大家介绍另一种机器学习的方式——强化学习(Reinforcement Learning)。本节课核心内容包括:
-
强化学习简介 强化学习的实现方式与基本原理 基于 RL4J 的 CartPole 问题建模
强化学习也可以称为反馈激励学习或者评价学习,是相对于监督学习和非监督学习更契合人类行为的一种训练学习方式,下面我们将从强化学习的基本原理、实现方式及结合 RL4J 框架给出 CartPole 问题解决方案,从三个方面介绍强化学习的相关知识,并以此作为入门强化学习的案例供大家参考。其中 RL4J 是在 ND4J 基础上构建的深度强化学习开源框架,并隶属于 Deeplearning4j 生态圈,支持 Deep Q-Learning 等多种深度强化学习的方式。下面我们首先介绍强化学习的相关内容。
17.1 强化学习简介
强化学习是区别于监督和非监督学习的另一种机器学习方式。强化学习的主要特点在于其具备根据环境的变化而做出连续决策的能力。从这个意义上讲,强化学习是更加符合人类等智能体学习规律的一种方式,原因在于,智能体的学习方式大多需要经过多次的逻辑推演和决策才能够达到某一具体目标,典型的例子有智能自动控制系统、博弈游戏等。无人车的自动控制系统会根据道路环境的实际状态来做出加速、制动等动作,围棋游戏则需要根据双方的棋局态势做出有利于我方的落子方案。虽然从宏观上讲,强化学习和监督学习一样是要完成对某一目标的学习,但强化学习需要智能体在完成阶段性目标的基础上不断累积才能达成最终目标,就像下棋的每一步都有着暂时的目的及长远的布局两个目标,而不可能仅仅凭借一两步棋
上一篇:
通过多线程提高代码的执行效率例子