计算机工程
計算機工程
계산궤공정
COMPUTER ENGINEERING
2014年
6期
211-214
,共4页
路径规划%移动机器人%强化学习%Q学习算法%回报函数%学习效率
路徑規劃%移動機器人%彊化學習%Q學習算法%迴報函數%學習效率
로경규화%이동궤기인%강화학습%Q학습산법%회보함수%학습효솔
path planning%mobile robot%reinforcement learning%Q-learning algorithm%reward function%learning efficiency
传统Q算法对于机器人回报函数的定义较为宽泛,导致机器人的学习效率不高.为解决该问题,给出一种回报详细分类Q(RDC-Q)学习算法.综合机器人各个传感器的返回值,依据机器人距离障碍物的远近把机器人的状态划分为20个奖励状态和15个惩罚状态,对机器人每个时刻所获得的回报值按其状态的安全等级分类,使机器人趋向于安全等级更高的状态,从而帮助机器人更快更好地学习.通过在一个障碍物密集的环境中进行仿真实验,证明该算法收敛速度相对传统回报Q算法有明显提高.
傳統Q算法對于機器人迴報函數的定義較為寬汎,導緻機器人的學習效率不高.為解決該問題,給齣一種迴報詳細分類Q(RDC-Q)學習算法.綜閤機器人各箇傳感器的返迴值,依據機器人距離障礙物的遠近把機器人的狀態劃分為20箇獎勵狀態和15箇懲罰狀態,對機器人每箇時刻所穫得的迴報值按其狀態的安全等級分類,使機器人趨嚮于安全等級更高的狀態,從而幫助機器人更快更好地學習.通過在一箇障礙物密集的環境中進行倣真實驗,證明該算法收斂速度相對傳統迴報Q算法有明顯提高.
전통Q산법대우궤기인회보함수적정의교위관범,도치궤기인적학습효솔불고.위해결해문제,급출일충회보상세분류Q(RDC-Q)학습산법.종합궤기인각개전감기적반회치,의거궤기인거리장애물적원근파궤기인적상태화분위20개장려상태화15개징벌상태,대궤기인매개시각소획득적회보치안기상태적안전등급분류,사궤기인추향우안전등급경고적상태,종이방조궤기인경쾌경호지학습.통과재일개장애물밀집적배경중진행방진실험,증명해산법수렴속도상대전통회보Q산법유명현제고.