Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Challenge: Modify Exploration Rate | Classic RL Algorithms: Q-learning & SARSA
Hands-On Classic RL Algorithms with Python
Osio 1. Luku 4
single

single

Challenge: Modify Exploration Rate

Pyyhkäise näyttääksesi valikon

Tehtävä

Pyyhkäise aloittaaksesi koodauksen

Modify the Q-learning implementation to use the exploration_rate parameter for controlling action selection during training. This challenge builds on your previous work with Q-learning by introducing the concept of exploration versus exploitation.

  • Use the exploration_rate argument to determine whether to select a random action or the best-known action at each step.
  • When a random value is less than exploration_rate, select a random action.
  • Otherwise, select the action with the highest value from the Q-table for the current state.
  • Ensure the rest of the Q-learning algorithm remains unchanged.

Ratkaisu

Switch to desktopVaihda työpöytään todellista harjoitusta vartenJatka siitä, missä olet käyttämällä jotakin alla olevista vaihtoehdoista
Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 4
single

single

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

some-alt