ε-greedy行動選択

ε-greedy行動選択の概要

ε-greedy行動選択とは、εの確率でランダムに行動、それ以外の確率(1-ε) で最も期待値の高い行動を選択する手法です。

強化学習などではsoftmax行動選択手法と同様によく使われます。

下の図のような問題を用いて説明しようと思います。
プレーヤーには、3つの選択肢があります。 ここでは選択肢をA,B,Cとします。
下の四角に書いてある 数字は各選択肢を選択した時に得られる利益の期待値です。

f:id:ttt242242:20170115162246p:plain

ε-greedy行動選択を用いて行動を選択すると次のように行動を選択します。

εの確率で

εの確率でランダムで行動を選択します。
これは、探索(Exploration)という動作になります。
探索なので、現在の知識を増やす、
もしくは各選択肢の期待値を更新するために行う操作です。

f:id:ttt242242:20171130133720p:plain

(1 - ε)の確率で

(1 - ε)の確率で、期待値の最も高い行動選択をします。
これは、知識利用(exploitation)という動作になります。
現在の知識で最も合理的な行動を選択するということです。

f:id:ttt242242:20170115162255p:plain

εについて

この値を正しく設定、もしくは調整する必要があります。

このεは低すぎるとなかなか最適な行動を見つけることができず、

高すぎると行動がランダムに近い行動になり、獲得できる利益が不安定になるためです。

実装

ε-greedy行動選択のサンプルコードです。

上述した例。ε-greedy行動選択で1000回行動選択をしました。

ε=0.1の時の結果を以下に示します。

f:id:ttt242242:20190716052111j:plain

εが小さいので最大行動価値の選択肢をひたすら選択していることがわかります。

ε=0.4の時の結果を以下に示します。

f:id:ttt242242:20190716052347j:plain

先程の実験よりεを大きくしたので、B, Cを選択する回数が上昇していることがわかります。

参考

強化学習 (機械学習プロフェッショナルシリーズ)


コメント

タイトルとURLをコピーしました