Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
学ぶ Challenge: Modify Exploration Rate | Classic RL Algorithms: Q-learning & SARSA
Hands-On Classic RL Algorithms with Python
セクション 1.  4
single

single

Challenge: Modify Exploration Rate

メニューを表示するにはスワイプしてください

タスク

スワイプしてコーディングを開始

Modify the Q-learning implementation to use the exploration_rate parameter for controlling action selection during training. This challenge builds on your previous work with Q-learning by introducing the concept of exploration versus exploitation.

  • Use the exploration_rate argument to determine whether to select a random action or the best-known action at each step.
  • When a random value is less than exploration_rate, select a random action.
  • Otherwise, select the action with the highest value from the Q-table for the current state.
  • Ensure the rest of the Q-learning algorithm remains unchanged.

解答

Switch to desktop実践的な練習のためにデスクトップに切り替える下記のオプションのいずれかを利用して、現在の場所から続行する
すべて明確でしたか?

どのように改善できますか?

フィードバックありがとうございます!

セクション 1.  4
single

single

AIに質問する

expand

AIに質問する

ChatGPT

何でも質問するか、提案された質問の1つを試してチャットを始めてください

some-alt